繼一(yī)年前的ChatGPT之後,OpenAI最近又(yòu)發布了新一(yī)款生(shēng)成式人工(gōng)智能模型Sora,将AI創作領域從文本及圖片擴展到了視頻(pín)。
那Sora的效果究竟如何?相信不少網友已經看過下(xià)面這些視頻(pín)截圖:
這些由Sora生(shēng)成的逼真視頻(pín)畫面,對絕大(dà)多數人而言幾乎到了以假亂真的地步,很難一(yī)眼看出破綻。
這也引出了一(yī)個問題:如果有人拿Sora生(shēng)成的視頻(pín)騙你說“這是真實發生(shēng)的事情”,你會相信嗎(ma)?而如果是一(yī)段真實影像,故意說“這是Sora虛構的”,你又(yòu)該如何辨别?
這不,海外(wài)社交平台上,一(yī)段有關威爾?史密斯吃意大(dà)利面的視頻(pín)正在瘋傳,視頻(pín)畫面分(fēn)爲上下(xià)兩段:上半段顯示是一(yī)年以前的 AI 視頻(pín),下(xià)半段則顯示現在的 AI 視頻(pín)。如畫面所反映的,一(yī)年前的AI将史密斯刻畫得“人不像人鬼不像鬼”,那麽現在的AI已經看不出和真人的區别。
不少網友紛紛感歎“Sora越來越厲害了”、”我(wǒ)們生(shēng)活在一(yī)個模拟世界中(zhōng)“。
但事實卻是,視頻(pín)下(xià)半部分(fēn)所謂的“現在的AI視頻(pín)“其實是由史密斯本人親自出演。他用自己的行動告訴大(dà)家,僅僅隻需要讓大(dà)家意識到現在AI的超強實力,就已經能夠讓一(yī)個真實且普通的視頻(pín)遊走于人們所認爲的虛幻與現實之間。
也正因爲這種迷惑性,再加上Sora目前仍未向公衆開(kāi)放(fàng),海外(wài)社交平台開(kāi)始出現把真實視頻(pín)指爲由Sora生(shēng)成的亂象,比如在一(yī)位男士吃流心芝士漢堡的視頻(pín)中(zhōng),不少網友表示這是由Sora 生(shēng)成。
最終,紐約大(dà)學心理學和神經科學榮譽教授 Gary Marcus親自下(xià)場指出:”這并非Sora生(shēng)成。“
也有網友最終找到了視頻(pín)來源,竟是5年前Youtube上的視頻(pín)。
不難看出,雖然目前99.9%的人還用不上Sora,但它的影響已經開(kāi)始挑戰人們對現實的認知(zhī),如果一(yī)旦放(fàng)開(kāi),可能會出現無法預料的後果。
毫無疑問,Sora是繼ChatGPT之後又(yòu)一(yī)大(dà)震驚世界的AI技術革新,且不論它将對傳統影視傳媒行業帶來多大(dà)的沖擊,其背後可能引發的安全風險及倫理問題就已經開(kāi)始引起各方關注。
央視财經報道指出,像Sora生(shēng)成的深度僞造視頻(pín)可能會加劇錯誤和虛假信息的傳播,并援引意大(dà)利《共和國報》報道,稱視頻(pín)生(shēng)成模型可以讓“名人或政客說從未說過的話(huà)、做從未做過的事”,比如利用模型克隆拜登、特朗普或其他競選美國總統,或2024年歐洲議會席位的人。
《經濟日報》文章指出,從ChatGPT到如今的Sora,人們驚歎人工(gōng)智能突破性進展,同時也伴随着質疑和擔憂,特别是背後的倫理挑戰。Sora生(shēng)成的視頻(pín)可以以假亂真。這是一(yī)把雙刃劍,一(yī)方面可以用于藝術創作,另一(yī)方面也可能被濫用于造假、欺騙,甚至颠覆人們對現實的認知(zhī)。完善細化相關倫理規範,加強審查和監管,以及相關倫理教育和宣傳更顯迫切。隻有正視Sora帶來的倫理挑戰,并加強倫理治理,才能确保人工(gōng)智能技術造福人類,而不是成爲威脅。
轉載自FreeBuf.com
上一(yī)篇:網絡戰新高度!俄羅斯280台服務器被摧毀,200萬GB數據丢失
下(xià)一(yī)篇:返回列表