国产精一区二区_午夜视频99_免费白白视频_中文字幕一区免费

惡搞大軍出動,佩洛西這次被「假視頻」整慘了!

新智元
+ 關注
2022-08-03 17:31
859次閱讀
惡搞大軍出動,佩洛西這次被「假視頻」整慘了!

  新智元報道  

編輯:Aeneas 如願
【新智元導讀】惡搞視頻越來越「邪門」了!面對層出不窮的假視頻,媒體是否有義務做出提醒?
2019年5月,佩洛西的一段「醉酒演講視頻」火爆全網。
最開始,這段視頻出現在Politics Watch Dog的Facebook頁面上。在被傳到Twitter、YouTube之后,這段陰陽怪氣的惡搞視頻引發了病毒式傳播。僅Facebook上的某個版本,就有超過140萬次的播放,以及3萬+的轉發。
惡搞大軍出動,佩洛西這次被「假視頻」整慘了!
視頻顯示,佩洛西當時在出席一個活動, 她酷似一個「酒蒙子」,講話也不清晰。
據《華盛頓郵報》記者和研究人員對該失真視頻的分析表明,視頻的速度已降至原始速度的75%左右,同時上調了聲調。而且內容也被重新編輯過,所以才會呈現出「酒蒙子」的效果。
而這段被惡搞過的視頻甚至還引來了特朗普的嘲諷。

惡搞大軍出動,佩洛西這次被「假視頻」整慘了!

據悉,原始視頻是佩洛西5月22日在American Progress Ideas Conference發表的一段批評特朗普有所掩飾的講話。
難怪特朗普會幸災樂禍。

更神奇的DeepFake

佩洛西的惡搞視頻,靠的主要是降速和變調。
不過在如今,如果想要制造更以假亂真的佩洛西講話視頻,可謂是輕而易舉了。
對于DeepFake,相信大家都不陌生。
遭過DeepFake「毒手」的有愛因斯坦、黑寡婦、扎克伯格……
此前,網上流傳著一段愛因斯坦鼓勵大家團結一致共同抗疫的視頻。
女士們,先生們:我的名字叫Albert Einstein。我們全體人類正陷入一場戰爭, 而我們的敵人卻看不見摸不著。請大家待在家里,保持距離,勤洗手。團結起來,我們一定能夠戰勝新冠病毒。謝謝。
惡搞大軍出動,佩洛西這次被「假視頻」整慘了!
看完之后,簡直驚掉下巴!
難道愛因斯坦早就預知了2019年的新冠肺炎,甚至還為此錄下一段視頻,鼓勵大家共同抗疫?
惡搞大軍出動,佩洛西這次被「假視頻」整慘了!
愛因斯坦那看透人類本質的狡黠的微笑、標志性的發型和帥氣的胡渣子,甚至連額頭的皺紋、眼鏡片的反光都非常細膩,說話的語氣和口音也非常逼真。
這看起來毫無違和感的視頻,是真的嗎?
當然不是真的!這個視頻主要使用了DeepFake技術,配合高超的視頻特效手法,制作出一個以假亂真的愛因斯坦視頻。
當初,三星DeepFake AI也給蒙娜麗莎整了一個「表情包」!
惡搞大軍出動,佩洛西這次被「假視頻」整慘了!
DeepFake在2017年底橫空出世,它雖然不是第一個實現換臉的技術,但卻是將AI假視頻帶入大眾視野的先驅。
DeepFake技術基于深度學習,適用于修改圖片和影像,可以實現人臉的移花接木。哪怕是動圖或視頻中的人物,也可以被替換成毫不相干的另一個人。
DeepFake剛誕生時,人們還不明白這項新技術意味著什么。
直到人們發現,它不僅能在小電影上移花接木,還能偽造出各領域名人以假亂真的視頻。立法者終于意識到了它的可怕之處。
2019年的佩洛西的偽造視頻,技術還顯得十分笨拙。網民們輕易就能揭穿這是個假視頻。
而如今的假視頻技術,已經足夠造出以假亂真的視頻。
實際上,能夠制造假圖片和假視頻的AI技術不僅僅只有DeepFake,相關技術在過去幾年就已經掀起了一股浪潮。
這都要歸功于另一項大名鼎鼎的深度學習技術:生成式對抗網絡(GAN)。
自2014年Ian Goodfellow發明GAN以來,世界范圍內的很多深度學習團隊和企業都開始在上面添磚加瓦,各種GAN框架漫天飛舞。
在DeepFake出現之前,就已經有了基于GAN的Face2Face技術和CycleGAN模型。
這些模型可以實時給人換臉,還能把馬變成斑馬。

惡搞大軍出動,佩洛西這次被「假視頻」整慘了!

媒體有提醒義務嗎?

對于互聯網上大肆傳播的真假難辨的視頻,媒體和發布平臺有告知用戶該內容是否為「真」的義務嗎?
「可以說,現在互聯網上最重要的事就是內容認證。」Adobe的CEO Shantanu Narayen接受福布斯采訪時說。「當我們創造世界上的內容時,我們必須幫忙確定內容的真實性,以及內容的出處。」
三年前,Adobe發起了?項名為「內容真實性倡議」(Content Authenticity Initiative)的活動,這項活動發動了很多媒體和技術合作伙伴,涵蓋了700多家公司,希望通過全球性的聯合來強調和確認內容的「出處」。
根據這個倡議,內容的設計者和消費者可以選擇創建并跟蹤一個數字線索,以此來顯示誰將對給定的視頻或圖像負責,包括他們對內容做出的任何更改。
惡搞大軍出動,佩洛西這次被「假視頻」整慘了!
不過,蒙特利爾人工智能倫理研究所(Montreal AI Ethics Institute)的創始人Abhishek Gupta卻認為,給內容貼上「真實」的標簽這一行為并沒有那么重要。
因為在他看來,總有那么一些人,就是愿意相信自己選擇相信的東西,盡管所有跡象都表明這是假的。「虛假內容是為那些滿足于短平快式互動的人量身定做的,這種人本來就很少去花時間判斷網上的東西是否是真的。」
換句話說,互聯網上傻子多。

惡搞大軍出動,佩洛西這次被「假視頻」整慘了!

Shantanu Narayen也認為,消費者自己也有義務尋找真相,通過現有的工具來驗證他們瀏覽、分享、發布和轉發的圖片和視頻的真實性。「他們有責任來保護自己(不被虛假的東西所蒙蔽),這也是消費者責任的一部分。」
參考資料:
https://www.washingtonpost.com/technology/2019/05/23/faked-pelosi-videos-slowed-make-her-appear-drunk-spread-across-social-media/
https://www.forbes.com/sites/aayushipratap/2022/06/29/deepfake-epidemic-is-looming-and-adobe-is-preparing-for-the-worst/?sh=4820a7cc5b81

本文來自微信公眾號“新智元”(ID:AI_era),作者:新智元,36氪經授權發布。

資深作者新智元
0
相關文章
最新文章
查看更多
關注 36氪企服點評 公眾號
打開微信掃一掃
為您推送企服點評最新內容
消息通知
咨詢入駐
商務合作