AI动画:让孩子的涂鸦秒变生动短片,解放想象力的神奇工具

涂鸦秒变迪士尼动画?多款AI工具让静态画作活起来,轻松生成有声有色动态视频!

原文标题:又多了一个哄孩子AI神器,一张破涂鸦竟能秒变迪士尼动画

原文作者:机器之心

冷月清谈:

文章介绍了一系列前沿AI工具,它们能够将静态图片,特别是儿童涂鸦,迅速转化为生动流畅的动态动画。主要提及的工具有即梦、谷歌Veo3、可灵以及Meta的Animated Drawings。
这些工具的操作普遍简化,用户只需上传图片或提供简单提示词(Prompt),即可将天马行空的想象力转化为富有情节和动态的视频。值得一提的是,即梦、Veo3、可灵等工具已能实现音视频同步生成,显著简化了传统视频制作流程,为用户带来更便捷的创作体验。其中,谷歌Veo3在音效的清晰度和同步性上表现尤为出色。
而Meta Animated Drawings专注于将画作中的卡通角色制作成多种姿态的动画,通过识别肢体关节实现更精细的动作捕捉。
这些AI神器不仅为家长提供了将孩子涂鸦变为动画的便捷方式,也为广大创意内容生成者开辟了高效的动画制作新途径,让高质量动画创作不再局限于专业人士

怜星夜思:

1、文章中提到了Midjourney的提示词框架,像“we crash zoom into an immersive scene, [subject + action], intense cinematic action”。大家在用这些AI工具把图片变动画时,有没有遇到过Prompt怎么写也达不到预期效果的情况?或者有什么自己摸索出来,能让动画效果更“出乎意料”的好用的Prompt技巧吗?
2、这类把涂鸦变动画的AI工具,对儿童的想象力培养和教育发展有什么好处?另一方面,过度依赖AI或者AI生成的内容质量参差不齐,会不会带来一些新的挑战,比如版权问题、内容审查或者对孩子艺术创作本能的影响?
3、文中对比了几款工具的优缺点,比如Veo3在音效方面更成熟。大家觉得未来这些AI视频生成工具还会往哪些方面发展?比如,会不会出现更强的交互性,让用户能实时调整动画角色动作,或者能直接生成带情感表达的微电影?

原文内容

机器之心报道

编辑:杨文

家长直呼太香了!


年轻父母又多了一个哄小孩法子。


前段时间,博主 Rory Flynn 在 X 上发了个帖子,说他妈妈发来一张 30 年前的涂鸦画,他反手就用 Midjourney 做成了「妈妈拿彩虹木勺大战巨龙」动画。



虽然有点粗糙,但整体效果还不错,完美还原了童年那种天马行空、乱七八糟的想象力。



他还附上了提示词:


We crash zoom into an immersive scene, where a mother holding a magical wooden spoon is fighting off a ferocious dragon with intense cinematic action.(我们快速推镜进入一个沉浸式场景,一位母亲手握魔法木勺,正与一条凶猛的巨龙激烈战斗,充满强烈的电影感。)


并总结了提示词框架「we crash zoom into an immersive scene, [subject + action], intense cinematic action」,照葫芦画瓢即可。


我们也试了下,上传一张网友小时候的墙上涂鸦照,输入提示词:we crash zoom into an immersive scene,Three little people are happily dancing,intense cinematic action.(我们快速推镜进入一个沉浸式场景,三个小人开心地跳着舞,充满强烈的电影感。)



即梦立马将涂鸦中的三个小人活灵活现地呈现出来,动作自然流畅,没有出现画面崩坏或者卡顿的现象。



我们还可以在生成视频后点击 AI 配乐按钮,选择根据画面自动配乐或自定义 AI 配乐,即梦就能一口气生成三首符合画面风格的曲子。



以下就是即梦根据画面自动配乐的效果:



我们又派出了谷歌 Veo3,直接在谷歌 Gemimi 网页选择 Tools-Greate video with Veo 使用即可。


链接:https://gemini.google.com/



Veo3 的优势在于,它能够让音视频一锅出,尽管这三个小人最后变了模样,但整体效果毫无违和感,竟有种卡通电影片头的 feel。



再来一个,提示词:we crash zoom into an immersive scene,the child is walking briskly with a lotus leaf in hand, while the snail crawls slowly behind,intense cinematic action.(我们快速推镜进入一个沉浸式场景,小孩拿着荷叶大步向前走,身后的蜗牛慢慢蠕动。)


即梦生成的动画效果相当治愈,它能够精确地捕捉角色的动作轨迹,小女孩手臂摆动和步伐配合得恰到好处,没有出现同手同脚的不协调现象,也没有出现多胳膊少腿儿的错误。


即梦生成无音效效果👆


如果想给视频加上音效,与前文操作一样,只需点击「AI 音效」按钮即可自动生成。


即梦生成有音效效果👆


与 Veo3 一样,现在可灵也能自动让视频和音频同步生成了,这一进步简化了视频创作的流程,减少传统视频制作中分别处理音频和视觉效果的繁琐操作。


可灵生成效果👆


谷歌 Veo3 生成效果👆


总体来看,即梦、可灵和 Veo3 都能够在较短时间内完成视频和音频内容的生成。


在音频生成效果方面,Veo3 在清晰度和同步性上表现得更为成熟,能够较好地处理多层次的音效和画面同步;即梦和可灵在复杂或动态场景中同样能够实现音效与动作的同步,尽管音效的清晰度和丰富度上还有一定的提升空间,但整体表现也还不错。


之前我们还介绍过 Meta 出品的一款神器 ——Animated Drawings,可以让涂鸦立马变成动画。


链接:https://sketch.metademolab.com/


图片


其玩法也很简单,访问上述链接,上传图片。


为了保证最佳生成效果,上传的图片最好满足以下要求:


  • 图片中的主角,胳膊和腿儿不能与身体重叠;

  • 确保角色绘制在干净、没有线条、皱纹或撕裂的白纸上。

  • 图片画质要清晰,主角不能过小,不要有阴影,给涂鸦拍照时可以保持相机距离较远,并放大画作。

  • 不要使用任何可识别信息、冒犯性内容或侵犯他人版权的图画。



AI 会自动识别角色,并用方框将其围起来,调整方框的大小以确保它紧贴角色。



然后,AI 自动分离角色与背景,如果 AI 无法正确识别,我们还可以用「钢笔」和「橡皮擦」按钮手动微调;若是胳膊、腿粘在一起,也使用橡皮擦工具将它们分开。



标记角色关节,方便下一步通过运动捕捉数据制作动画。如果角色没有胳膊,则将肘部和腕部的关节点拖远,它仍然可以制作动画。



最后,我们使用官方提供的 32 种动画模版,让角色动起来,包括走、跑、跳以及其他各种奇葩的姿势。



来看看效果:



小朋友们快去体验一波吧。


工具链接:

可灵:

https://app.klingai.com/cn/

即梦:

https://jimeng.jianying.com/ai-tool/home/

Veo3:

https://gemini.google.com/

Animated Drawings:

https://sketch.metademolab.com/



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

我觉得任何技术都是双刃剑。AI动画工具无疑是解放孩子想象力的“催化剂”,能让他们快速看到自己的创意成真,提高成就感。但同时,家长和教育者需要扮演好引导者的角色,让孩子明白AI只是工具,创作的核心还在于他们自己。要鼓励多元艺术形式,不能让AI束缚了孩子对传统绘画或手工的兴趣。至于版权和内容监管,这需要整个行业和社区共同制定规范,确保AI健康发展。

“这类把涂鸦变动画的AI工具,对儿童的想象力培养和教育发展有什么好处?” 我觉得最大的好处就是把抽象的想象力具象化了!孩子们看到自己的画动起来,会极大地激发他们的创造欲和表达欲。这比单纯的绘画更有趣,能让他们直观地理解动态,甚至启发他们去思考“故事”和“情节”的构成。至于潜在挑战,主要在引导上,要告诉孩子这是工具,而不是取代他们的创作灵感。

“大家觉得未来这些AI视频生成工具还会往哪些方面发展?比如,会不会出现更强的交互性,让用户能实时调整动画角色动作,或者能直接生成带情感表达的微电影?” 我认为交互性肯定是重点。现在的AI更多是“一键生成”,未来可能会发展出更精细的骨骼绑定、表情控制、场景元素添加等功能,让用户可以用更直观的方式(比如拖拽、语音指令)来“导演”自己的动画。另外,生成时长和分辨率的提升也是必然趋势,以及模型对复杂物理世界的模拟能力会更强,让动画呈现出更逼真的动态效果。

“大家在用这些AI工具把图片变动画时,有没有遇到过Prompt怎么写也达不到预期效果的情况?或者有什么自己摸索出来,能让动画效果更‘出乎意料’的好用的Prompt技巧吗?” 确实会有Promot失灵的时候。我的经验是,除了描述主体和动作,还需要加上环境、光影、风格描述,比如“在夕阳下、充满赛博朋克风格的城市街道上,一个小孩追逐光球”,有时候加一些电影术语(如“电影级景深”、“广角镜头”)也能提升画面感。最关键的是,多尝试同义词和不同描述句式,AI的理解力有时候很玄学。

这个问题很有深度。其实Prompt的优化,在某种程度上是对“人与AI沟通范式”的探索。我认为除了具体的词语选择,更重要的是理解AI模型对“动作”和“场景”的解读逻辑。比如即梦对“姿态”和“路径”捕捉得就很准,那么在Prompt里就应该着重强调这些;而有的模型对颜色、情绪更敏感,那就多用感官词汇。此外,反向 Prompt(即描述你不想要什么)也挺有效,能避免一些生成的“雷区”。

我猜未来可能会出现“AI编剧”+“AI导演”的综合体!你只要提供一些关键词或者故事大纲,它就能自动帮你生成剧本、分镜,然后生成一段完整的、有情感起伏的微电影,甚至可以定制配音和主题曲。这样,人人都能成为电影制作人,把脑海里的故事直接转化成视觉作品,那感觉太酷了!

1 个赞

哈哈,我的Prompt嘛……就是“随便动动就行,但要酷炫狂霸拽!”结果出来的效果经常让我“惊喜”。不过说真的,我发现如果想让动画里的人物情绪更到位,可以多用一些形容词,比如“惊喜地跳舞”、“略带悲伤地行走”。AI就像个小孩子,你越具体它越能get到你的点,你模糊它也模糊。

我觉得未来一个重要的方向是“无缝整合”。这些工具可能不再是独立的APP或网站,而是直接整合到我们的日常创作平台里,比如绘图软件、社交媒体甚至智能设备中。你画完一幅画,就能直接在画板上点一下“生成动画”;语音讲个故事,AI就能直接配上动画。另外,对非专业用户的门槛会越来越低,操作会像拍照、发朋友圈一样简单,让创意真正触手可及。

“另一方面,过度依赖AI或者AI生成的内容质量参差不齐,会不会带来一些新的挑战,比如版权问题、内容审查或者对孩子艺术创作本能的影响?” 这些担忧确实是存在的。如果孩子从小就习惯AI“秒变”,可能会弱化他们对手绘技巧和长时间构思的耐心。版权方面,如果AI训练数据中有未授权内容,那生成物就可能存在隐患。尤其需要警惕的是,AI生成的内容如果缺乏引导,可能出现不适宜儿童观看的画面,这也需要平台和家长共同把控。

但是我想不到,有这款产品后,用户的买单意愿有多强烈。 以及具体的必须的使用场景。
比如给小朋友讲故事变成动画? 比如家里有个电子相册装饰