AI视频生成还不听话?看我亲测可灵、万象、即梦、Doubao的区别
作者:微信文章在我的智能体中,我尝试用 doubao-seedance-1.0-pro 模型,把图片转化为视频。
希望实现镜头移动、人物动作等动画效果,但实际操作时问题不少——路径控制经常出错,人物动作也不够自然,更谈不上逼真。
举个例子:
我用这张图:
并输入提示词:
从左往右缓慢运镜,女主人走到沙发并坐下,拿起沙发上的书翻阅,猫咪玩地上的足球。
在智能体中,我加入一个大模型,会根据图片信息理解,然后对提示词做自动优化提示词,优化后的版本是:
从左往右缓慢运镜,女主人走向沙发并坐下,伸手拿起沙发上的书翻阅书页,猫咪在地上用爪子拨弄足球玩耍,足球轻微滚动。
效果确实比原版略好,但仍然问题不少。
于是我拿同样的提示词,去不同平台测试了一遍:
直接用即梦生成,用同样的提示词,效果是这样的:
然后试了试试可灵:
再用万象:
总结一下:
• 即梦:移动轨迹直接错误,不符合真实世界规律。• 可灵:人物形象逼真度不错,但动作不连贯,轨迹控制依然不准。• 万象:整体观感最好,但仍然存在“动作与环境不匹配”的问题。
🧩结论
目前,无论使用哪个模型,想生成一段完全符合你预期的视频,都需要大量调试与反复试错。
尤其在涉及人物、运动轨迹、物理互动这些细节时——AI 还远未达到“一次出片”的阶段。
推荐阅读:
AI短视频疯狂涨粉:繁荣还是泡沫?
AI到底能不能写出好东西?先看你有没有做到这三点
从新手到高手:AI 图像生成提示词指南
页:
[1]