文本到視頻模型 Gen-2 可以使用文本提示生成短視頻
簡單來說
RunWayML 的新 Text2Video 模型 Gen-2 不僅可以編輯現有的 視頻 還可以僅使用文本提示從頭開始生成新的。
這項功能可望改善人們在社群媒體平台上創建和分享內容的方式,讓用戶能夠轉型 靜態影像變成動態影像 無需任何影片編輯知識即可參與影片剪輯。
來自 Runway 的新文本到視頻模型 Gen-2 不僅可以編輯現有視頻,還可以僅使用文本提示從頭開始生成新視頻。 與之前只能編輯現有視頻的 Gen 版本相比,這是一個重大改進。 文本轉視頻模型 Gen-2 利用 Runway 的尖端 AI 技術來創建與人類製作的視頻沒有區別的視頻。 有了這個新功能,用戶可以通過自動生成視頻來節省時間和精力,而無需大量的視頻編輯技能。
新的 Gen-2 模型還能夠將上傳的圖像轉換為 短片 夾子。 這是通過提供描述用戶想要的視頻內容的文本提示來完成的。 到目前為止,視頻的時長不超過幾秒鐘,但質量已經比競爭對手高得多(特別是因為競爭對手的 神經網絡 不公開)。 此功能有望改善人們在社交媒體平台上創建和共享內容的方式。 使用 Gen-2 模型,用戶可以輕鬆地將他們的靜態圖像轉換為動態視頻剪輯。 Facebook 或 Tiktok 很有可能會使用這項技術來擴展可供內容創作者使用的人工智能工具集。
人工智能視頻競賽非常激烈。 Gen-1 推出僅一周時間,Gen-2 已經推出。 科技公司之間為開發最先進的人工智能視頻技術而展開的競爭正在迅速加劇,每家公司都在努力超越對方。
要試用新版 Gen,您必須在 跑道網站.
- Runway,一家人工智能初創公司, 宣布 Gen-1,一種神經網絡,可以通過組合提示和圖像將舊視頻變成新視頻。 Gen-1 使電影製作者能夠通過應用電影的構圖和風格,以經濟高效的方式快速製作內容 圖片或文字提示 源視頻的結構。 Runway Research 致力於構建能夠實現新形式創造力的多模式人工智能係統,Gen-1 可用於試驗講故事的未來。
- 上個月,Sam Altman,聯合創始人兼首席執行官 OpenAI,最近接受 TechCrunch 採訪時表示 OpenAI 正在開發一個 視頻的人工智能模型 和 GPT-4,在公司確認其可信度和安全性後,將向公眾開放。
- XNUMX 月,Google 開發了 Imagen Video,這是一種基於一系列影片創建文字條件影片的方法 擴散模型。 該系統接受文字描述並以每秒 16 幀的速度生成 24 幀的電影,解析度為 48 x 128 像素。 系統會縮放並「預測」額外的幀,以每秒 24 幀的速度創建 720 幀、解析度為 1280p (768×14) 的最終影片。 使用 XNUMX 萬個圖像-文字對和 XNUMX 萬個視訊-文字對來訓練 Imagen Video。
閱讀更多相關文章:
免責聲明
在與線 信託專案指南,請注意,本頁提供的資訊無意且不應被解釋為法律、稅務、投資、財務或任何其他形式的建議。 重要的是,僅投資您可以承受損失的金額,並在有任何疑問時尋求獨立的財務建議。 如需了解更多信息,我們建議您參閱條款和條件以及發行人或廣告商提供的幫助和支援頁面。 MetaversePost 致力於提供準確、公正的報告,但市場狀況如有變更,恕不另行通知。
關於作者
Damir 是團隊領導、產品經理和編輯 Metaverse Post,涵蓋 AI/ML、AGI、LLM、Metaverse 等主題 Web3- 相關領域。 他的文章每月吸引超過一百萬用戶的大量讀者。 他似乎是一位在 SEO 和數字營銷方面擁有 10 年經驗的專家。 達米爾曾在 Mashable、Wired、 Cointelegraph、《紐約客》、Inside.com、Entrepreneur、BeInCrypto 和其他出版物。 他作為數字游牧者往返於阿聯酋、土耳其、俄羅斯和獨聯體國家之間。 達米爾獲得了物理學學士學位,他認為這賦予了他在不斷變化的互聯網格局中取得成功所需的批判性思維技能。
更多文章Damir 是團隊領導、產品經理和編輯 Metaverse Post,涵蓋 AI/ML、AGI、LLM、Metaverse 等主題 Web3- 相關領域。 他的文章每月吸引超過一百萬用戶的大量讀者。 他似乎是一位在 SEO 和數字營銷方面擁有 10 年經驗的專家。 達米爾曾在 Mashable、Wired、 Cointelegraph、《紐約客》、Inside.com、Entrepreneur、BeInCrypto 和其他出版物。 他作為數字游牧者往返於阿聯酋、土耳其、俄羅斯和獨聯體國家之間。 達米爾獲得了物理學學士學位,他認為這賦予了他在不斷變化的互聯網格局中取得成功所需的批判性思維技能。