国产精一区二区_午夜视频99_免费白白视频_中文字幕一区免费

AI學會了用“人眼”看世界,甚至連人類瞳孔的細微縮放都能模擬 | 杜克大學

量子位
+ 關注
2022-03-24 10:57
1156次閱讀
博雯 發自 凹非寺
量子位 | 公眾號 QbitAI

為了搞清楚人類是怎么看世界的,計算機開始學著“轉動眼球”了:

AI學會了用“人眼”看世界,甚至連人類瞳孔的細微縮放都能模擬 | 杜克大學

然后憑借轉動的眼球“搜集要觀測的信息”,再聚焦在文字或者圖像上,開始“收集數據”:

AI學會了用“人眼”看世界,甚至連人類瞳孔的細微縮放都能模擬 | 杜克大學

不僅能正常讀書看畫,甚至能模擬人類在無聊、興奮、緊張等各種不同情緒下的瞳孔放縮、眨眼頻率的細微變化。

AI學會了用“人眼”看世界,甚至連人類瞳孔的細微縮放都能模擬 | 杜克大學

事實上,這是杜克大學的研究人員最新開發的一種“虛擬眼睛”,可以精確模擬人類觀測世界的方式。

這項研究目前已經開源,并即將發表于通信類頂會IPSN 2022上。

AI學會了用“人眼”看世界,甚至連人類瞳孔的細微縮放都能模擬 | 杜克大學

通過這項研究得到的幾近真實的數據,將全部反哺給計算機。

這種基于眼球追蹤(Eye Tracking)技術得到的數據常常被稱為眼動數據,包括注視時長、眼跳、追隨運動等多個屬性。

就如我們常常將眼睛成為心靈之窗一樣,這些眼動數據能反映不少人類的真實信息。

比如,瞳孔的擴張、眼跳、游移次數可以表現當前主人的情緒(無聊或興奮)、注意力是否集中、對某項任務是新手或嫻熟、甚至是對某種特定語言的精通與否。

AI學會了用“人眼”看世界,甚至連人類瞳孔的細微縮放都能模擬 | 杜克大學

這項研究的作者之一Maria Gorlatova甚至表示:

(眼動數據)可能無意中暴露出性別和種族偏見、我們不想讓別人知道的興趣,甚至我們自己都不了解的信息。

因此,對這些眼動數據的學習和研究,自然也就能產生一系列傳感應用:包括認知負荷估計、久坐活動識別、閱讀理解分析和情感識別。

很多企業和開發者,比如微軟的VIVE Pro Eye,已經開始采用眼球追蹤來實現基于目光的新的交互和環境感知。

AI學會了用“人眼”看世界,甚至連人類瞳孔的細微縮放都能模擬 | 杜克大學

然而,在收集大規模的、有標簽的眼動數據時,難免會碰到幾個問題:

  • 人類視覺行為的隨機性增加了數據收集的成本

  • 與人類受試者合作過程中可能涉及隱私侵犯問題

  • 生產模型訓練所需的數據的時間成本過高(可能需要數以百計的人帶著設備不間斷地用眼數小時才能產生)

如何解決上面的問題呢?杜克大學的研究團隊提出了一套受心理學啟發的模型EyeSyn

這一模型只利用公開的圖像和視頻,就能合成任意規模大小的眼動數據集。

它的整體架構如下:

AI學會了用“人眼”看世界,甚至連人類瞳孔的細微縮放都能模擬 | 杜克大學

整體思路是以圖像和視頻作為輸入,并將其作為視覺刺激,以生成相應的眼動數據。

大的架構又由三個小模型組成:

ReadGaze模型

模擬文本閱讀中的視覺行為。

擁有一個基于文本識別的檢測模塊、一個模擬跳讀視覺行為的模擬器。

VerbalGaze模型

模擬在口頭交流中固定在面部某個區域、以及在面部不同區域之間切換注意力的視覺行為。

擁有一個面部區域跟蹤模塊、一個基于馬爾可夫鏈的注意力模型(Markov Chain-based Attention Model)。

StaticScene和DynamicScene模型

模擬感知靜態和動態場景過程中的眼球運動。

擁有一個基于圖像特征的顯著性檢測(Saliency Detection)模型,用以識別視覺場景中潛在的定點位置。

AI學會了用“人眼”看世界,甚至連人類瞳孔的細微縮放都能模擬 | 杜克大學

動態場景中的眼動數據

基于這些構成,EyeSyn不需要基于已有的眼動數據進行訓練,上崗就能直接開始工作。

并且,與傳統眼動數據的收集過程相比,EyeSyn在模擬不同的眼動跟蹤設置、視覺距離、視覺刺激的渲染尺寸、采樣頻率和受試者多樣性上,也更加方便快速。

現在,只基于一小部分圖像和視頻,EyeSyn就可以合成超過180小時的眼動數據,比現有的基于目光的活動數據集大18到45倍:

AI學會了用“人眼”看世界,甚至連人類瞳孔的細微縮放都能模擬 | 杜克大學

研究人員Maria Gorlatova表示, “合成數據本身并不完美,但這是一個很好的起點。”

小公司不用再花費過多的時間和金錢與人類受試者合作,建立真實活動數據集,而是可以直接使用這種方法。

這種更加快速的眼動數據的生產方式,將使得普通的VR、AR、還有元宇宙平臺中的相關應用程序的制作都更加便捷。

AI學會了用“人眼”看世界,甚至連人類瞳孔的細微縮放都能模擬 | 杜克大學

Maria Gorlatova

論文:
https://www.researchgate.net/publication/359050928_EyeSyn_Psychology-inspired_Eye_Movement_Synthesis_for_Gaze-based_Activity_Recognition

開源鏈接:
https://github.com/EyeSyn/EyeSynResource

參考鏈接:
https://techxplore.com/news/2022-03-simulated-human-eye-movement-aims.html

本文來自微信公眾號“量子位”(ID:QbitAI),36氪經授權發布。

資深作者量子位
0
相關文章
最新文章
查看更多
關注 36氪企服點評 公眾號
打開微信掃一掃
為您推送企服點評最新內容
消息通知
咨詢入駐
商務合作