最近看了影視颶風介紹了近期的 Seedence 2.0,這東西可不是跟其他 AI 模型一樣,搞個開源假裝很厲害炒個股票這麼簡單而已,而是在 AI 影片生成上有實質上的突破。

解決過去的非連貫性分鏡

過去的 AI 影像你可以發現其實沒辦法有什麼連貫性的分鏡,若切換鏡頭,整個場景就會大變動,房子裡面的物品都不一樣了。2025 年中後的影片都能以這個方式分辨是否為 AI,只要去檢查房間的擺設是否每次都不一樣其實就能用肉眼去分辨。

但今年真的不一樣了,Seedence 2.0 可以做出連貫性且合理的分鏡不再是非連貫性的分鏡,字節跳動可以說是在這方面彎道超車整個矽谷產業的 AI 生成。

第一顆鏡頭

第一顆鏡頭

第二顆鏡頭完全與第一顆鏡頭場景合理

第二顆鏡頭完全與第一顆鏡頭場景合理

開始大量訓練更多網路上的媒體

過去一年中,若你閒閒沒事在 YT 隨便滑滑都能看到 “牢大” (NBA 的 Kobe),過去其實只能生成出這些有名的人物。但今年呢?也許會再次顛覆你的想像,有文字描述就能生成出影視颶風的辦公室。

雖然字節跳動這兩天馬上將這些有可能侵權的生成方式管制,但在不久的將來,是不是能將你我的生活完全融入進去呢?用 AI 是不是就能文字描述就將你我的臉都放入到 AI 影像生成當中呢? 我們拭目以待xdddd