我爱免费 发表于 2025-10-7 22:29

AI视频生成还不听话?看我亲测可灵、万象、即梦、Doubao的区别

作者:微信文章
在我的智能体中,我尝试用 doubao-seedance-1.0-pro 模型,把图片转化为视频。
希望实现镜头移动、人物动作等动画效果,但实际操作时问题不少——路径控制经常出错,人物动作也不够自然,更谈不上逼真。

举个例子:
我用这张图:



并输入提示词:

从左往右缓慢运镜,女主人走到沙发并坐下,拿起沙发上的书翻阅,猫咪玩地上的足球。

在智能体中,我加入一个大模型,会根据图片信息理解,然后对提示词做自动优化提示词,优化后的版本是:

从左往右缓慢运镜,女主人走向沙发并坐下,伸手拿起沙发上的书翻阅书页,猫咪在地上用爪子拨弄足球玩耍,足球轻微滚动。

效果确实比原版略好,但仍然问题不少。

于是我拿同样的提示词,去不同平台测试了一遍:

直接用即梦生成,用同样的提示词,效果是这样的:

然后试了试试可灵:

再用万象:

总结一下:
• 即梦:移动轨迹直接错误,不符合真实世界规律。• 可灵:人物形象逼真度不错,但动作不连贯,轨迹控制依然不准。• 万象:整体观感最好,但仍然存在“动作与环境不匹配”的问题。
🧩结论

目前,无论使用哪个模型,想生成一段完全符合你预期的视频,都需要大量调试与反复试错。

尤其在涉及人物、运动轨迹、物理互动这些细节时——AI 还远未达到“一次出片”的阶段。

推荐阅读:

AI短视频疯狂涨粉:繁荣还是泡沫?

AI到底能不能写出好东西?先看你有没有做到这三点

从新手到高手:AI 图像生成提示词指南
页: [1]
查看完整版本: AI视频生成还不听话?看我亲测可灵、万象、即梦、Doubao的区别