国产精一区二区_午夜视频99_免费白白视频_中文字幕一区免费

惡搞大軍出動,佩洛西這次被「假視頻」整慘了!

新智元
+ 關(guān)注
2022-08-03 17:31
878次閱讀
惡搞大軍出動,佩洛西這次被「假視頻」整慘了!

  新智元報(bào)道  

編輯:Aeneas 如願
【新智元導(dǎo)讀】惡搞視頻越來越「邪門」了!面對層出不窮的假視頻,媒體是否有義務(wù)做出提醒?
2019年5月,佩洛西的一段「醉酒演講視頻」火爆全網(wǎng)。
最開始,這段視頻出現(xiàn)在Politics Watch Dog的Facebook頁面上。在被傳到Twitter、YouTube之后,這段陰陽怪氣的惡搞視頻引發(fā)了病毒式傳播。僅Facebook上的某個(gè)版本,就有超過140萬次的播放,以及3萬+的轉(zhuǎn)發(fā)。
惡搞大軍出動,佩洛西這次被「假視頻」整慘了!
視頻顯示,佩洛西當(dāng)時(shí)在出席一個(gè)活動, 她酷似一個(gè)「酒蒙子」,講話也不清晰。
據(jù)《華盛頓郵報(bào)》記者和研究人員對該失真視頻的分析表明,視頻的速度已降至原始速度的75%左右,同時(shí)上調(diào)了聲調(diào)。而且內(nèi)容也被重新編輯過,所以才會呈現(xiàn)出「酒蒙子」的效果。
而這段被惡搞過的視頻甚至還引來了特朗普的嘲諷。

惡搞大軍出動,佩洛西這次被「假視頻」整慘了!

據(jù)悉,原始視頻是佩洛西5月22日在American Progress Ideas Conference發(fā)表的一段批評特朗普有所掩飾的講話。
難怪特朗普會幸災(zāi)樂禍。

更神奇的DeepFake

佩洛西的惡搞視頻,靠的主要是降速和變調(diào)。
不過在如今,如果想要制造更以假亂真的佩洛西講話視頻,可謂是輕而易舉了。
對于DeepFake,相信大家都不陌生。
遭過DeepFake「毒手」的有愛因斯坦、黑寡婦、扎克伯格……
此前,網(wǎng)上流傳著一段愛因斯坦鼓勵大家團(tuán)結(jié)一致共同抗疫的視頻。
女士們,先生們:我的名字叫Albert Einstein。我們?nèi)w人類正陷入一場戰(zhàn)爭, 而我們的敵人卻看不見摸不著。請大家待在家里,保持距離,勤洗手。團(tuán)結(jié)起來,我們一定能夠戰(zhàn)勝新冠病毒。謝謝。
惡搞大軍出動,佩洛西這次被「假視頻」整慘了!
看完之后,簡直驚掉下巴!
難道愛因斯坦早就預(yù)知了2019年的新冠肺炎,甚至還為此錄下一段視頻,鼓勵大家共同抗疫?
惡搞大軍出動,佩洛西這次被「假視頻」整慘了!
愛因斯坦那看透人類本質(zhì)的狡黠的微笑、標(biāo)志性的發(fā)型和帥氣的胡渣子,甚至連額頭的皺紋、眼鏡片的反光都非常細(xì)膩,說話的語氣和口音也非常逼真。
這看起來毫無違和感的視頻,是真的嗎?
當(dāng)然不是真的!這個(gè)視頻主要使用了DeepFake技術(shù),配合高超的視頻特效手法,制作出一個(gè)以假亂真的愛因斯坦視頻。
當(dāng)初,三星DeepFake AI也給蒙娜麗莎整了一個(gè)「表情包」!
惡搞大軍出動,佩洛西這次被「假視頻」整慘了!
DeepFake在2017年底橫空出世,它雖然不是第一個(gè)實(shí)現(xiàn)換臉的技術(shù),但卻是將AI假視頻帶入大眾視野的先驅(qū)。
DeepFake技術(shù)基于深度學(xué)習(xí),適用于修改圖片和影像,可以實(shí)現(xiàn)人臉的移花接木。哪怕是動圖或視頻中的人物,也可以被替換成毫不相干的另一個(gè)人。
DeepFake剛誕生時(shí),人們還不明白這項(xiàng)新技術(shù)意味著什么。
直到人們發(fā)現(xiàn),它不僅能在小電影上移花接木,還能偽造出各領(lǐng)域名人以假亂真的視頻。立法者終于意識到了它的可怕之處。
2019年的佩洛西的偽造視頻,技術(shù)還顯得十分笨拙。網(wǎng)民們輕易就能揭穿這是個(gè)假視頻。
而如今的假視頻技術(shù),已經(jīng)足夠造出以假亂真的視頻。
實(shí)際上,能夠制造假圖片和假視頻的AI技術(shù)不僅僅只有DeepFake,相關(guān)技術(shù)在過去幾年就已經(jīng)掀起了一股浪潮。
這都要?dú)w功于另一項(xiàng)大名鼎鼎的深度學(xué)習(xí)技術(shù):生成式對抗網(wǎng)絡(luò)(GAN)。
自2014年Ian Goodfellow發(fā)明GAN以來,世界范圍內(nèi)的很多深度學(xué)習(xí)團(tuán)隊(duì)和企業(yè)都開始在上面添磚加瓦,各種GAN框架漫天飛舞。
在DeepFake出現(xiàn)之前,就已經(jīng)有了基于GAN的Face2Face技術(shù)和CycleGAN模型。
這些模型可以實(shí)時(shí)給人換臉,還能把馬變成斑馬。

惡搞大軍出動,佩洛西這次被「假視頻」整慘了!

媒體有提醒義務(wù)嗎?

對于互聯(lián)網(wǎng)上大肆傳播的真假難辨的視頻,媒體和發(fā)布平臺有告知用戶該內(nèi)容是否為「真」的義務(wù)嗎?
「可以說,現(xiàn)在互聯(lián)網(wǎng)上最重要的事就是內(nèi)容認(rèn)證。」Adobe的CEO Shantanu Narayen接受福布斯采訪時(shí)說。「當(dāng)我們創(chuàng)造世界上的內(nèi)容時(shí),我們必須幫忙確定內(nèi)容的真實(shí)性,以及內(nèi)容的出處。」
三年前,Adobe發(fā)起了?項(xiàng)名為「內(nèi)容真實(shí)性倡議」(Content Authenticity Initiative)的活動,這項(xiàng)活動發(fā)動了很多媒體和技術(shù)合作伙伴,涵蓋了700多家公司,希望通過全球性的聯(lián)合來強(qiáng)調(diào)和確認(rèn)內(nèi)容的「出處」。
根據(jù)這個(gè)倡議,內(nèi)容的設(shè)計(jì)者和消費(fèi)者可以選擇創(chuàng)建并跟蹤一個(gè)數(shù)字線索,以此來顯示誰將對給定的視頻或圖像負(fù)責(zé),包括他們對內(nèi)容做出的任何更改。
惡搞大軍出動,佩洛西這次被「假視頻」整慘了!
不過,蒙特利爾人工智能倫理研究所(Montreal AI Ethics Institute)的創(chuàng)始人Abhishek Gupta卻認(rèn)為,給內(nèi)容貼上「真實(shí)」的標(biāo)簽這一行為并沒有那么重要。
因?yàn)樵谒磥恚傆心敲匆恍┤耍褪窃敢庀嘈抛约哼x擇相信的東西,盡管所有跡象都表明這是假的。「虛假內(nèi)容是為那些滿足于短平快式互動的人量身定做的,這種人本來就很少去花時(shí)間判斷網(wǎng)上的東西是否是真的。」
換句話說,互聯(lián)網(wǎng)上傻子多。

惡搞大軍出動,佩洛西這次被「假視頻」整慘了!

Shantanu Narayen也認(rèn)為,消費(fèi)者自己也有義務(wù)尋找真相,通過現(xiàn)有的工具來驗(yàn)證他們?yōu)g覽、分享、發(fā)布和轉(zhuǎn)發(fā)的圖片和視頻的真實(shí)性。「他們有責(zé)任來保護(hù)自己(不被虛假的東西所蒙蔽),這也是消費(fèi)者責(zé)任的一部分。」
參考資料:
https://www.washingtonpost.com/technology/2019/05/23/faked-pelosi-videos-slowed-make-her-appear-drunk-spread-across-social-media/
https://www.forbes.com/sites/aayushipratap/2022/06/29/deepfake-epidemic-is-looming-and-adobe-is-preparing-for-the-worst/?sh=4820a7cc5b81

本文來自微信公眾號“新智元”(ID:AI_era),作者:新智元,36氪經(jīng)授權(quán)發(fā)布。

資深作者新智元
0
相關(guān)文章
最新文章
查看更多
關(guān)注 36氪企服點(diǎn)評 公眾號
打開微信掃一掃
為您推送企服點(diǎn)評最新內(nèi)容
消息通知
咨詢?nèi)腭v
商務(wù)合作