11月8日,字節(jié)跳動旗下的AI內(nèi)容平臺即夢AI宣布,即日起,由字節(jié)跳動自研的視頻生成模型Seaweed面向平臺用戶正式開放。用戶登陸后,在“視頻生成”功能下,視頻模型選擇“視頻S2.0”即可體驗。
圖說:即夢AI PC端和App端模型使用入口
9月底,字節(jié)跳動正式宣布向AI視頻領(lǐng)域進軍,發(fā)布豆包模型家族的兩款視頻生成模型Seaweed和Pixeldance,并通過即夢AI、火山引擎分別面向創(chuàng)作者和企業(yè)客戶小范圍邀測。據(jù)介紹,經(jīng)過剪映、即夢AI等業(yè)務(wù)場景打磨和持續(xù)迭代,豆包視頻生成模型具備專業(yè)級光影布局及色彩調(diào)和,畫面視覺極具美感和真實感。基于DiT架構(gòu),豆包視頻生成模型還能實現(xiàn)大幅度運動畫面流暢自然。
值得一提的是,本次開放使用的豆包視頻生成模型Seaweed是該款模型的標準版,除具備上述能力,在生成效率方面有較為明顯的優(yōu)勢。測試顯示,該模型僅需60s就能生成時長5s的高質(zhì)量AI視頻,大幅領(lǐng)先于國內(nèi)業(yè)界3-5分鐘的前沿水平。
即夢AI官方透露,近期,Seaweed和Pixeldance兩款視頻生成模型的Pro版也將開放使用。Pro版模型能實現(xiàn)自然連貫的多拍動作與多主體復雜交互,攻克了多鏡頭切換的一致性難題,在鏡頭切換時可同時保持主體、風格、氛圍的一致性,適配電影、電視、電腦、手機等各種設(shè)備的比例,可以更好地服務(wù)于專業(yè)創(chuàng)作者和藝術(shù)家們,應(yīng)用于設(shè)計、影視、動畫等內(nèi)容場景,助力想象力的實現(xiàn)和故事創(chuàng)作。
即夢AI支持通過自然語言及圖片輸入,生成高質(zhì)量的圖像及視頻。平臺提供智能畫布、故事創(chuàng)作模式、以及首尾幀、對口型、運鏡控制、速度控制等AI編輯能力,并有海量影像靈感及興趣社區(qū),一站式提供用戶創(chuàng)意靈感、流暢工作流、社區(qū)交互等資源,為用戶的創(chuàng)作提效。
平臺相關(guān)負責人表示,AI能夠和創(chuàng)作者深度互動,共同創(chuàng)作,帶來很多驚喜和啟發(fā),通過開放豆包視頻生成模型的使用和持續(xù)升級平臺各項AI能力,即夢AI希望成為用戶最親密和有智慧的創(chuàng)作伙伴。
(責任編輯:馬先震)