生成式AI來了,我們還能相信自己的眼睛嗎?

先來考考大家的眼力。
你覺得下圖中這位金發碧眼、面帶笑容的女士是真實存在的嗎?
答案是No,這是由人工智能合成的。
再看一張圖。你覺得下圖中這位女士像是人工智能合成的嗎?
答案是Yes。
上述這兩張圖均來自“ThisPersonDoesNotExist.com”網站。
不止這兩張圖片,“ThisPersonDoesNotExist.com”網站中,每次刷新出來的人物,都是現實中根本不存在的。
如果不知道真相,你是否根本無法判斷出真假?
這便是生成式AI的一種應用。
日前,Gartner發布了2022年重要戰略技術趨勢。其中,生成式人工智能(Generative Artificial Intelligence)位列12項重要戰略之首。
同時Gartner預計,到2025年,生成式人工智能將占所有生成數據的10%,而目前這一比例還不到1%。
對于生成式AI,Gartner這樣定義:通過各種機器學習(ML)方法從數據中學習工件的組件(要素),進而生成全新的、完全原創的、真實的工件(一個產品或物品或任務),這些工件與訓練數據保持相似,而不是復制。
簡單來說,生成式AI從數據中學習內容或對象,并運用數據生成全新、完全原創的新內容,可以服務于下一代的自動編程、藥物開發、視覺藝術、社交、商業服務、工程設計與流程。
同時,它可以被用來檢測欺詐、虛假信息和身份盜竊。
對此,市場調研機構Gartner高級研究總監高挺解釋,生成式AI不僅僅可以判斷、還可以創造,實際上AI當前最大的用途就是判斷,意味著AI的用途將有結構性變化。
“以前我們是讓AI不停的去做判斷、去做分類。 但是在未來,很多時候是需要AI不再去進行判斷,而是說‘來幫我生成一段代碼’,這個代碼所做的事情是從1到100,AI也能自動生成這個代碼了。 ”
回到文章開頭,AI到底是如何生成肉眼識別不出的人臉圖片呢?
這就不得不談到生成式AI的關鍵技術——生成式對抗網絡(GANs, Generative Adversarial Networks ),這是近年來復雜分布上無監督學習最具前景的方法之一,其本質是一種深度學習模型。
2014年,研究人員首次使用計算機,利用生成對抗網絡GANs,創造出了逼真的人臉。
在原理上,生成式對抗網絡使用兩個神經網絡相互對立,一個生成器和一個判別器。
生成器或生成網絡是一個神經網絡,負責生成類似于源數據的新數據或內容。判別器或判別網絡是負責區分源數據和生成數據之間的神經網絡。
這兩個神經網絡都經過交替周期訓練,生成器不斷學習生成更逼真的數據,判別器則更善于區分假數據和真實數據。
可以把GANs想象成一個造假者,一個在貓捉老鼠游戲中的警察,造假者正在學習傳遞假幣,而警察正在學習檢測假幣。漸漸地,雙方在對抗中都不斷完善。
生成式AI的到來,推動了多個領域的數字化進程,支撐著下一代的自動編程、內容開發、視覺藝術、社交、商業服務、工程設計與流程等。
2019年,Facebook AI創建了一個能夠從存量視頻中提取可控角色的系統。
利用該系統,可以從日常視頻中任意創建虛擬人物及各種姿勢動作,可以將一個視頻中的真人轉換成一個 3D角色,并且可以將此角色及其相關動作轉換到新背景上,生成的角色可以和不同的背景互動。
2020年5月,OpenAI發布GPT-3,引起業界轟動,這個模型包含1750億個參數,能夠自主生產文本、圖像、視頻,可以自己寫對話和電影情節,幾乎分辨不出哪個是真人書寫,哪個是機器書寫,甚至生成式音樂也取得了很快的進展。
追溯到更早時間,中國AI公司影譜科技在2018年底發布MAGC智能影像生成引擎,這也是中國區最早提出的生成式AI的技術框架,并重新定義智能影像生產技術。
影譜科技MAGC智能影像生成引擎可以在極短時間內生成一段個性化視頻內容,亦可以對拍攝視頻進行重構,如自動錨定關鍵幀,根據幀內容生成原圖像中沒有的、無違和感的內容,再智能化生成一段AI視覺內容。
目前,影譜科技MAGC智能影像生成引擎已率先應用在傳媒娛樂領域,被知名電視臺、電信運營商、短視頻平臺廣泛采納。
除此之外,MAGC還廣泛應用于數字人的3D成像、影視特效制作及數字孿生、虛擬主播、虛擬課堂等數字產權場景。
《Forrester 2019-2020年Video AI技術預測》報告顯示,智能影像生產技術解決了大規模視頻內容制作和特效制作成本高的問題。
使用智能視頻技術平臺,可提高視頻內容的生產效率,降低人工成本60%以上。
此外,包括迪士尼、NETFLIX、HBO、TRONC等娛樂傳媒巨頭均在嘗試用人工智能代替標準內容制作的可能。
例如,迪士尼實現AI自動生成動畫,只要通過文本描述某些活動,不需要注釋數據和進行大量訓練就能創建動畫,或一個粗略的故事版和電影劇本視頻。
而Netflix所采用的算法,則可以在這部內容中抽取任意符合觀影習慣和需求的畫面,然后把這些圖片制作成內容的封面。
事實上,降低了內容搜尋難度,提升視頻制作效率,生成式AI已經初步證明了自身技術與產品的商業價值。
2020年9月上市的Unity是3D生成型AI的推動者。
全球有超過一半的移動、PC和主機游戲采用了其生成引擎來制作,其3D-AI技術也廣泛應用于工業設計的3D模型搭建,VR/AR設備內容創作以及影視特效制作。
一家名為Insilico Medicine(英科智能)的AI藥物研發公司也是生成式AI的應用者。
該公司是一家抗衰老及癌癥治療藥物研發商。2015年,Insilico Medicine在全球范圍內率先利用生成對抗網絡(GANs)和強化學習(RL)技術,生成具有特定性質的藥物分子結構。
從應用場景可以看到,生成式AI技術正在快速迭代進化,從“生產”出發,擴展至全產業鏈。
既然生成式AI可以生成逼真的視頻、文本、字幕等,這也意味著,該技術也會被濫用于詐騙、欺詐、造謠、偽造身份等違法場景。
Gartner預測:“可以創建和生成超逼真的內容的AI能力,將對人們相信自己的眼睛所看到的產生變革性的影響。”
同時,Gartner從AI市場的5個角度進行了預測,并就企業如何應對和適應這些未來的挑戰提出了建議:
到2025年,預先訓練的AI模型將主要集中在1%的供應商中,這將使AI的負責任地使用成為社會關注的問題
在2023年,成功的賬戶接管攻擊將有20%使用Deepfake,它將會成為社會工程學攻擊的一部分
到2024年,將有60%的AI提供商會將緩解危害/濫用行為作為其軟件的一部分
到2025年,將有10%的政府通過使用合成AI來避免隱私和安全問題
到2025年,工作場所75%的對話將被記錄和分析,以用于增加組織價值和評估風險
這些分析中的每一個都足以使AI觀察者引起足夠的關注,如果將這些預測結合起來時,就可以勾勒出未來的嚴峻形勢,其中涉及道德問題,潛在的AI濫用以及工作場所隱私的喪失。
如果Gartner的分析師的預測準確無誤,那么關于AI帶來的隱私和真相的影響的擔憂必將成為未來幾年的主要話題,成功的企業將需要準備迅速適應這些擔憂。
Gartner建議企業建立負責任的AI使用標準,并優先考慮“可以證明AI能夠清晰發展和解決相關社會問題”的供應商。
圍繞Deepfake和生成式AI的安全問題,Gartner建議組織安排有關Deepfake的培訓,并指出:“我們現在正在進入零信任的世界。
除非使用加密的數字簽名證明它是經過認證的,否則任何事物都不能被信任。”
過去言“有真相”,但是現在視頻都不一定代表著真相。生成式AI技術一方面在多種場景得到了應用,但另一方面也有著被濫用的風險。
未來,在深度偽造與鑒別偽造之間,一場技術博弈即將展開。
本文來自微信公眾號“科技云報道”(ID:ITCloud-BD),作者:科技云報道,36氪經授權發布。