0提示詞1張照片生成視頻,Gen-2新玩法刷屏,網頁版免費可玩
上個月剛免費開放Gen-2,視頻領域的Midjourney又雙叒叕更新了!
現在,Runway的Gen-2支持無提示詞圖生視頻模式!
就是不用多說,Gen-2秒懂你的那種。
上傳一張靜態圖,不用喂提示詞,AI自動生成視頻。
即使是人臉轉動這種技術活,也完成的很自然。
這次更新意味著,一部大片只需要圖片就夠了。
手癢的網友們早就按捺不住,紛紛用Gen-2、Midjourney、Elevenlabs、MusicGen等工具,做出一波效果炸裂的大片。
這不,已經有人用Stable Duffision和Gen-2混搭,搞了部科幻短片。
還有網友用Gen-2,結合Midjourney、Elevenlabs、CapCut等工具,做出一部“Evil and good”的影片。
“賽博朋克風”高低也得來一個。
在看完Gen-2生成的這波“大秀”之后,網友們不淡定了,直接表示:
Midjourney 5.2+Gen-2太炸裂,這就是一個很深很深的兔子洞,我指定會迷失一段時間。
更有網友表示,根本停不下來。
幾張場景人物圖片,一段電影內容就出來了,真是有手就行啊!
目前官方表示,網頁端已免費可用,并專門放出了體驗鏈接。
另外,iOS也即將上線。
多說不如一試,我們來體驗一把。
以網頁端為例,首先通過網頁注冊登錄runway的賬號,進入runway的編輯界面。
點擊左側的Generate Video。
然后點擊屏幕中間的Gen-2:Text to Video進入Gen-2。
在左邊的區域上傳一張照片,這里用的是一張由Midjourney生成的照片。
然后不用喂任何Prompt,上傳完照片之后就直接點擊Generate。
大概1分鐘后,一段4秒鐘的視頻就生成了,圖中的摩托車和汽車瞬間就動起來了!
上手后發現,如果圖片本身就有動態效果的元素,那么生成的視頻的動態效果會更明顯。
這主要是因為,現在動態效果只是根據照片里包含的內容來生成。
為了符合物理原理,如果是明顯的靜物圖片或場景,就幾乎不會有明顯的動態效果。
比如測試的這個視頻,就只能隱約看到帆船和海鷗在動。
盡管效果很騷,但有個問題就是視頻還是4秒的。
想直接就做一個Video還是短了點,不過目前已經有網友找到方法。
這位網友親測表示,用Midjourney生成的圖像作為初始圖像,然后使用Gen-2輸出的最后一幀作為下張圖的提示,就可以讓Gen-2輸出更長時間視頻。
下面是這位網友實操后的小視頻。
可以看到,除了一些細節部分,整體上拿捏的都還不錯。
當然,免費玩的額度也是有限的。
根據官方規定,免費試用額度為105秒,每個視頻為4秒,也就是大約可免費生成26個Gen2視頻。
額度用完或者想體驗去水印、提升分辨率等額外功能,就需要買會員,標準版為15美元一個月,Pro版35美元,無限視頻制作版95美元,年付更便宜一些。
下面這個是月付模式的價格。
這個是年付模式的價格。
參考鏈接
[1]https://app.runwayml.com/
[2]https://twitter.com/dr_cintas/status/1683473643462860808/
[3]https://twitter.com/ciguleva/status/1683297721623658496/
[4]https://twitter.com/_akhaliq/status/1683252132215140352/
本文來自微信公眾號“量子位”(ID:QbitAI),作者:尚恩,36氪經授權發布。
