OpenAI官網(wǎng)截圖
新華社舊金山2月21日電 輸入寥寥數(shù)語便能生成效果炸裂的60秒視頻,!美國開放人工智能研究中心(OpenAI)推出的視頻生成模型Sora近日震驚全球,。
OpenAI推出ChatGPT才過去一年多,,就再度扔出一枚重磅炸彈,?!拔纳曨l”AI模型Sora的驚艷之處在哪兒?對行業(yè)有何影響,?存在哪些隱患,?新華社記者為你解局——
Sora有何本領(lǐng)
Sora生成的多條短視頻“大片”在全網(wǎng)刷屏,場景逼真絲滑、細(xì)節(jié)豐富,。
這是OpenAI首次進(jìn)軍AI視頻生成領(lǐng)域,。據(jù)公司介紹,Sora使用Transformer架構(gòu),,可根據(jù)文本指令創(chuàng)建現(xiàn)實(shí)且富有想象力的場景,,生成多種風(fēng)格、不同畫幅,、最長為一分鐘的高清視頻,。
換句話說,給Sora一些提示語,,它就能生產(chǎn)出一條高質(zhì)量短視頻,。一起感受一下Sora的創(chuàng)作實(shí)力。
OpenAI官網(wǎng)發(fā)布的Sora生成視頻圖像顯示,,一輛SUV行駛在盤山公路上,。
Sora還能夠根據(jù)靜態(tài)圖像生成視頻,擴(kuò)展現(xiàn)有視頻或填充缺失的幀,。
OpenAI說,,Sora能深刻地理解語言,不僅理解用戶文本提示,,還理解所述事物在物理世界中的存在方式,。“我們正在教授人工智能理解和模擬運(yùn)動(dòng)中的物理世界,,目標(biāo)是訓(xùn)練模型幫助人們解決需要與現(xiàn)實(shí)世界交互的問題,。”
不過,,OpenAI官網(wǎng)曬出的視頻作品是Sora創(chuàng)造的平均水準(zhǔn)還是最高水準(zhǔn)呢,?
OpenAI承認(rèn),目前Sora生成視頻中可能包含不合邏輯的圖像,,混淆左右等空間細(xì)節(jié),,難以準(zhǔn)確模擬復(fù)雜場景的物理原理和因果關(guān)系實(shí)例等。例如,,一個(gè)人可能咬了一口餅干,,但餅干上沒有咬痕。不過,,隨著算力增強(qiáng),、模型改進(jìn),人們可能會(huì)在短期內(nèi)獲得更加完善,、先進(jìn)的視頻生成功能,。
可能砸掉誰的飯碗
OpenAI此次推出Sora更像是預(yù)覽版,,公眾尚難以深入全面了解該模型的優(yōu)缺點(diǎn)。OpenAI表示,,目前僅主要向一些設(shè)計(jì)師和電影制作人等特定人群提供Sora訪問權(quán)限,,以獲取有關(guān)改進(jìn)該模型的反饋。公司不僅未公布訓(xùn)練Sora模型的數(shù)據(jù)等基礎(chǔ)細(xì)節(jié),,也沒確定何時(shí)面向公眾發(fā)布,。
Sora生成視頻截圖
一些分析人士認(rèn)為,Sora再次凸顯人工智能技術(shù)進(jìn)步對現(xiàn)實(shí)生活和傳統(tǒng)行業(yè)的深遠(yuǎn)影響,。人工智能在視頻生成領(lǐng)域的巨大發(fā)展前景為塑造影視產(chǎn)業(yè)新業(yè)態(tài)打開大門的同時(shí),,恐將顛覆現(xiàn)存影視產(chǎn)業(yè)。
Sora推出第二天,,主營圖像處理、視頻制作軟件的奧多比公司股價(jià)應(yīng)聲下跌超過7%,。
好萊塢去年遭遇63年來首次編劇和演員全行業(yè)罷工,,因?yàn)樵撔袠I(yè)的部分工作機(jī)會(huì)可能被人工智能取代。Sora橫空出世讓這一威脅變得更迫近和真切,。
讓偽造更逼真難辨
OpenAI在Sora技術(shù)報(bào)告的標(biāo)題中寫道,,視頻生成模型是“世界模擬器”。
如果世界可以被模擬,,那么真與假的邊界何在,?不少業(yè)內(nèi)人士擔(dān)心,Sora將為“深度偽造”(Deepfake)技術(shù)推波助瀾,。加利福尼亞大學(xué)伯克利分校信息學(xué)院副院長法里德表示:“當(dāng)新聞,、圖像、音頻,、視頻——任何事情都可以偽造時(shí),,那么在那個(gè)世界里,就沒有什么是真實(shí)的,?!?
圖為2023年11月2日,在英國布萊奇利園,,一名參會(huì)者經(jīng)過首屆人工智能安全峰會(huì)的宣傳展板,。新華社記者李穎攝
針對造假顧慮,OpenAI稱在真正面向公眾推出產(chǎn)品時(shí),,將確保生成視頻包含來源元數(shù)據(jù),,并推出檢測視頻真?zhèn)蔚墓ぞ摺penAI還承諾,,在產(chǎn)品中使用Sora前將采取安全措施,,包括由“錯(cuò)誤信息、仇恨內(nèi)容和偏見等領(lǐng)域的專家”對模型進(jìn)行對抗性測試以評估危害或風(fēng)險(xiǎn);核查并拒絕包含極端暴力,、性內(nèi)容,、仇恨圖像、他人IP等文本輸入提示等,。
不過,,OpenAI承認(rèn),即便進(jìn)行了廣泛的研究和測試,,“我們無法預(yù)測人們使用我們技術(shù)的所有有益方式和濫用我們技術(shù)的所有方式”,。
AI狂飆 能管得住嗎
科技領(lǐng)域顛覆式創(chuàng)新不斷涌現(xiàn),如何實(shí)現(xiàn)擁抱技術(shù)進(jìn)步和確保社會(huì)安全的平衡,,越來越受到各界關(guān)注,。
OpenAI表示,將與世界各地的政策制定者,、教育工作者和藝術(shù)家合作,,了解他們的擔(dān)憂,確定Sora的積極使用案例,,并認(rèn)為從現(xiàn)實(shí)世界的使用中學(xué)習(xí)是創(chuàng)建和發(fā)布越來越安全的人工智能系統(tǒng)的關(guān)鍵組成部分,。
2023年7月7日,在瑞士日內(nèi)瓦“人工智能造福人類全球峰會(huì)”上,,一名參會(huì)者與仿真機(jī)器人索菲亞互動(dòng),。新華社記者連漪攝
業(yè)內(nèi)人士指出,在當(dāng)下治理框架,、管控措施都未跟上的情況下,,僅靠企業(yè)恐無法提供社會(huì)所需的人工智能安全性和信任度。(編輯:月兒)
