国产精一区二区_午夜视频99_免费白白视频_中文字幕一区免费

小扎下血本!Meta專為元宇宙搞了個AI模型

新智元
+ 關(guān)注
2022-07-28 17:33
895次閱讀
 

  新智元報道  
編輯:David Joey
【新智元導(dǎo)讀】專門為元宇宙打造的AI框架,是什么樣子的?
人工智能將成為虛擬世界的支柱。
人工智能在元宇宙中可與多種相關(guān)技術(shù)結(jié)合,如計算機視覺、自然語言處理、區(qū)塊鏈和數(shù)字雙胞胎。
 
小扎下血本!Meta專為元宇宙搞了個AI模型
2月,扎克伯格在該公司的第一個虛擬活動——Inside The Lab中展示了元宇宙的樣子。他說,該公司正在開發(fā)一系列新的生成式AI模型,用戶只需通過描述就可以生成自己的虛擬現(xiàn)實化身。
 
扎克伯格宣布了一系列即將推出的項目,例如CAIRaoke項目,一項用于構(gòu)建設(shè)備語音助手的完全端到端的神經(jīng)模型,可幫助用戶更自然地與語音助手進行交流。
 
同時,Meta正努力構(gòu)建一個通用語音翻譯器,可為所有語言提供直接的語音到語音翻譯。
 
幾個月后,Meta兌現(xiàn)了他們的承諾。
 
然而,Meta并不是唯一一家在游戲中擁有皮膚的科技公司。
英偉達等公司也發(fā)布了其自主研發(fā)的AI模型以提供更豐富的元宇宙體驗。
 
小扎下血本!Meta專為元宇宙搞了個AI模型
開源預(yù)訓(xùn)練Transformer(OPT-1750億參數(shù))
 
GAN verse 3D
  
GANverse 3D由英偉達AI Research開發(fā),是一種使用深度學(xué)習(xí)將2D圖像處理成3D動畫版本的模型,去年的ICLR和CVPR上發(fā)表的一篇研究論文中介紹了該工具,它可以用更低的成本更快地生成模擬。
 
該模型使用StyleGAN可自動從單個圖像生成多個視圖。該應(yīng)用程序可以作為NVIDIA Omniverse的擴展導(dǎo)入,以在虛擬世界中準確地渲染3D對象。
 
英偉達推出的Omniverse可幫助用戶在虛擬環(huán)境中創(chuàng)建他們最終想法的模擬。
 
3D模型的制作已成為構(gòu)建元宇宙的關(guān)鍵因素。耐克和Forever21等零售商已經(jīng)在元宇宙建立了他們的虛擬商店,以推動電子商務(wù)銷售。
視覺聲學(xué)匹配模型(AViTAR)
 
小扎下血本!Meta專為元宇宙搞了個AI模型
Meta的現(xiàn)實實驗室團隊與德克薩斯大學(xué)合作,建立了一個人工智能模型,以改善元空間的聲音質(zhì)量。該模型幫助匹配場景中的音頻和視頻。
它對音頻片段進行轉(zhuǎn)換,使其聽起來像是在特定環(huán)境中錄制的。該模型在從隨機的在線視頻中提取數(shù)據(jù)后使用了自我監(jiān)督學(xué)習(xí)。
 
理想情況下,用戶應(yīng)該能夠在他們的AR眼鏡上觀看他們最喜歡的記憶,并聆聽實際體驗中產(chǎn)生的確切聲音。
Meta AI發(fā)布了AViTAR的開源,同時還發(fā)布了其他兩個聲學(xué)模型,考慮到聲音是metaverse體驗中經(jīng)常被忽視的部分,這是非常罕見的。
視覺影響的減震(VIDA)
Meta AI發(fā)布的第二個聲學(xué)模型被用來去除聲學(xué)中的混響。
小扎下血本!Meta專為元宇宙搞了個AI模型
該模型是在一個大規(guī)模的數(shù)據(jù)集上訓(xùn)練出來的,該數(shù)據(jù)集有各種來自家庭三維模型的真實音頻渲染。 混響不僅降低了音頻的質(zhì)量,使其難以理解,而且還提高了自動語音識別的準確性。
 
小扎下血本!Meta專為元宇宙搞了個AI模型
VIDA的獨特之處在于,它在使用視覺線索的同時也使用音頻方式進行觀察。在典型的僅有音頻的方法的基礎(chǔ)上進行改進,VIDA可以增強語音,并識別語音和說話者。
視覺語音(VisualVoice)
Meta AI發(fā)布的第三個聲學(xué)模型VisualVoice可以從視頻中提取語音。 與VIDA一樣,VisualVoice也是根據(jù)未標記的視頻中的視聽線索進行訓(xùn)練。 該模型已經(jīng)自動分離了語音。
 
這個模型有重要的應(yīng)用場景,如為聽障人士制作技術(shù),增強可穿戴AR設(shè)備的聲音,從環(huán)境嘈雜的在線視頻中轉(zhuǎn)錄語音等。
Audio2Face
去年,英偉達發(fā)布了Omniverse Audio2Face的開放測試版,以生成人工智能驅(qū)動的面部動畫,以匹配任何配音。 該工具簡化了為游戲和視覺效果制作動畫的漫長而繁瑣的過程。 該應(yīng)用還允許用戶以多種語言發(fā)出指令。
 
小扎下血本!Meta專為元宇宙搞了個AI模型
今年年初,英偉達發(fā)布了該工具的更新,增加了BlendShape Generation等功能,幫助用戶從一個中性頭像中創(chuàng)建一組blendhapes。此外,還增加了流媒體音頻播放器的功能,允許使用文本到語音應(yīng)用程序的音頻數(shù)據(jù)流。
 
Audio2Face設(shè)置了一個3D人物模型,可以用音軌做動畫。然后,音頻被送入一個深度神經(jīng)網(wǎng)絡(luò)。用戶還可以在后期處理中編輯角色,改變角色的表現(xiàn)。
參考資料:
https://analyticsindiamag.com/ai-models-built-for-the-metaverse/
 

本文來自微信公眾號“新智元”(ID:AI_era),作者:新智元,36氪經(jīng)授權(quán)發(fā)布。

資深作者新智元
0
相關(guān)文章
最新文章
查看更多
關(guān)注 36氪企服點評 公眾號
打開微信掃一掃
為您推送企服點評最新內(nèi)容
消息通知
咨詢?nèi)腭v
商務(wù)合作