国产精一区二区_午夜视频99_免费白白视频_中文字幕一区免费

谷歌AI人格覺(jué)醒了?馬庫(kù)斯怒噴:是你有魔怔!

新智元
+ 關(guān)注
2022-06-13 17:58
622次閱讀

編輯:袁榭 桃子

【新智元導(dǎo)讀】谷歌雇員與人工智能聊天聊出真感情,稱LaMDA模型已經(jīng)覺(jué)醒出人類兒童的智能,此事在全球AI界引發(fā)討論。Gary Marcus發(fā)文怒噴其胡說(shuō)八道。
一夜之間,谷歌工程師與AI聊出感情在人工智能社區(qū)炸圈。
 
這個(gè)哥們叫Blake Lemoine,給近來(lái)大火的谷歌語(yǔ)言模型LaMDA做了一次采訪后,更加相信LaMDA具有人格。
 
周日,Lemoine將自己和AI的聊天記錄公布于眾,在網(wǎng)上引起軒然大波。
 
谷歌AI人格覺(jué)醒了?馬庫(kù)斯怒噴:是你有魔怔!
 
這不,加里·馬庫(kù)斯(Gary Marcus)為了讓大家過(guò)個(gè)舒心的周末,還專門(mén)寫(xiě)了一篇文章:
 
谷歌AI人格覺(jué)醒了?馬庫(kù)斯怒噴:是你有魔怔!
 
對(duì)于谷歌職員認(rèn)為AI有人格的看法,他表示,「是高蹺加長(zhǎng)版的胡說(shuō)八道」(Nonsense on Stilts)。
這位AI界最愛(ài)刷推特、最愛(ài)出長(zhǎng)文罵人的世界第一大噴子,紐約大學(xué)心理學(xué)系教授如是評(píng)價(jià)道,「對(duì)文字很有一套。」
 
谷歌AI人格覺(jué)醒了?馬庫(kù)斯怒噴:是你有魔怔!
 
當(dāng)Blake Lemoine發(fā)現(xiàn)谷歌最新的人工智能系統(tǒng) LaMDA 給他留下了深刻的印象時(shí),他不僅僅是說(shuō),「太酷了,它創(chuàng)建了非常簡(jiǎn)潔的句子」。
 
并且在周四接受《經(jīng)濟(jì)學(xué)人》采訪時(shí)頗為抒情地說(shuō),我感到腳下的地面在移動(dòng)... ... 越來(lái)越覺(jué)得我在和一些聰明的東西說(shuō)話。
 
馬庫(kù)斯表示,「簡(jiǎn)直胡說(shuō)八道!」
 
順帶提一下,馬庫(kù)斯稱,像自己這樣討厭的學(xué)者還沒(méi)有得到谷歌的允許去訪問(wèn)LaMDA
 
谷歌AI人格覺(jué)醒了?馬庫(kù)斯怒噴:是你有魔怔!
 
對(duì)于否認(rèn)LaMDA具有人格這件事,他是如何論證的呢?
 
LaMDA和它的任何表親,比如GPT-3,都不具有遠(yuǎn)程智能。它們只是從人類語(yǔ)言的大量統(tǒng)計(jì)數(shù)據(jù)庫(kù)中提取后進(jìn)行模式匹配。這些模式看起來(lái)很酷,但是這些系統(tǒng)所使用的語(yǔ)言實(shí)際上沒(méi)有任何意義。
 
谷歌AI人格覺(jué)醒了?馬庫(kù)斯怒噴:是你有魔怔!
 
當(dāng)然,說(shuō)這些系統(tǒng)具有人格更是胡言亂語(yǔ)。
 
有人格,就是能夠意識(shí)到自己在這個(gè)世界中。LaMDA顯然不是,這只是一個(gè)幻覺(jué)。
 
1965年,一個(gè)假裝是心理治療師的軟件ELIZA贏得了圖靈測(cè)試。還有一個(gè)定位成13歲男孩的聊天機(jī)器人尤金·古斯特曼(Eugene Goostman)同樣如此。
 
谷歌AI人格覺(jué)醒了?馬庫(kù)斯怒噴:是你有魔怔!
在走向通用人工智能的后續(xù)努力中,這兩個(gè)系統(tǒng)中的軟件都沒(méi)有幸存下來(lái),而且我也不確定LaMDA及其表親在AI的未來(lái)會(huì)發(fā)揮任何重要作用。
 
這些系統(tǒng)所做的不多也不少,就是把一系列的單詞組合在一起,但是對(duì)它們背后的世界卻沒(méi)有任何連貫的理。就像外語(yǔ)拼字游戲玩家用英語(yǔ)單詞作為得分工具,完全不知道這意味著什么。
 
我并不是說(shuō)沒(méi)有任何軟件能夠?qū)⑵鋽?shù)字比特與世界連接起來(lái),就像John Searle臭名昭著的「中文房間」(Chinese Room) 思想實(shí)驗(yàn)一樣。
 
例如,逐向?qū)Ш较到y(tǒng)可以很好地將它們的比特與世界連接起來(lái)。像LaMDA這樣的模型根本不會(huì)。
 
它甚至不會(huì)嘗試去連接到整個(gè)世界,它只是試圖成為自動(dòng)補(bǔ)全的最佳模型,通過(guò)預(yù)測(cè)什么詞最適合給定的上下文。
 
幾周前,Roger Moore漂亮地闡述了這一觀點(diǎn),批判了諸如LaMDA這樣被稱為「語(yǔ)言模型」的系統(tǒng),并指出它們并不能理解語(yǔ)言的含義,即將句子與世界聯(lián)系起來(lái),而只是將一系列單詞相互聯(lián)系起來(lái)。
 
谷歌AI人格覺(jué)醒了?馬庫(kù)斯怒噴:是你有魔怔!
 
如果媒體擔(dān)心LaMDA具有人格 (并引導(dǎo)公眾做同樣的事情) ,那么人工智能社區(qū)顯然不會(huì)。
 
在人工智能社區(qū),我們有不同的見(jiàn)解,「LaMDA能感知世界簡(jiǎn)直很荒謬」。
 
斯坦福大學(xué)經(jīng)濟(jì)學(xué)家Erik Brynjolfsson使用了一個(gè)絕妙的類比:
 
基礎(chǔ)模型在根據(jù)提示將統(tǒng)計(jì)上合理的文本塊串聯(lián)起來(lái)這一方面非常有效。但是,聲稱它們具有人格,就相當(dāng)于狗聽(tīng)到留聲機(jī)里的聲音后,以為主人在里面。(doge)
 
谷歌AI人格覺(jué)醒了?馬庫(kù)斯怒噴:是你有魔怔!
 
與留聲機(jī)一樣,這些模型利用了一種真正的智能: 用于訓(xùn)練模型的大量文本,這些文本是在統(tǒng)計(jì)上合理的單詞序列。然后,模型以一種重新排列的形式將文本吐回,而實(shí)際上并沒(méi)有「理解」它所說(shuō)的內(nèi)容。
 
Paul Topping提醒我們,LaMDA所做的一切就是綜合人類對(duì)類似問(wèn)題的反應(yīng):值得記住的是,它的每個(gè)回答都是通過(guò)查看大量人類對(duì)類似問(wèn)題的回答綜合而成的最佳答案。
 
谷歌AI人格覺(jué)醒了?馬庫(kù)斯怒噴:是你有魔怔!
 
當(dāng)一些人開(kāi)始懷疑世界是否會(huì)終結(jié)時(shí),LaMDA可能會(huì)打敗一個(gè)被高估了70多年的圖靈測(cè)試。
 
再此,我想提一下2014年發(fā)表在《紐約客》上的一篇文章,依舊值得深讀。
 
當(dāng)時(shí),一個(gè)名為尤金 · 古斯特曼(Eugene Goostman) 的程序短暫出名,并且足以愚弄幾個(gè)愚蠢的法官幾分鐘。
 
谷歌AI人格覺(jué)醒了?馬庫(kù)斯怒噴:是你有魔怔!
 
當(dāng)時(shí),我指出這個(gè)測(cè)試并沒(méi)有什么特別的意義,它并不能經(jīng)起時(shí)間的考驗(yàn)。
 
很多人當(dāng)然知道這個(gè)測(cè)試,但是人工智能社區(qū)希望它能夠消失,因?yàn)槲覀兌贾劳ㄟ^(guò)這個(gè)測(cè)試是沒(méi)有意義的。
 
特別有趣的是,2014年圖靈式競(jìng)賽的組織者Kevin Warwick預(yù)言,「尤金 · 古斯特曼的勝利是一個(gè)里程碑,將作為人工智能領(lǐng)域最激動(dòng)人心的時(shí)刻之一載入史冊(cè)。」
 
但是8年后,我懷疑大多數(shù)人 (即使在人工智能領(lǐng)域) 甚至從未聽(tīng)說(shuō)過(guò)這一程序,除了我在這里提到的。它對(duì)人工智能沒(méi)有任何持久的貢獻(xiàn)。
 
「欺騙人們認(rèn)為程序是智能的并不等同于構(gòu)建出實(shí)際上是智能的程序。」
 
在我看來(lái),我們應(yīng)該為L(zhǎng)aMDA不具有人格而感到高興。想象一下,如果一個(gè)沒(méi)有朋友和家人的系統(tǒng)假裝談?wù)撍麄儯窃撚卸嗫植溃?/section>
 
我們?cè)皆缫庾R(shí)到LaMDA的話都是胡扯,只是帶有預(yù)測(cè)性文字工具的游戲,沒(méi)有真正的意義,我們就會(huì)過(guò)得越好。
 
要說(shuō)LaMDA有人格這件事的起因,還得從華盛頓郵報(bào)的一篇文章說(shuō)起。

職員:LaMDA活了!但被谷歌捂住了! 

2022年6月11日,《華盛頓郵報(bào)》率先報(bào)道:谷歌AI倫理部門(mén)雇員Blake Lemoine堅(jiān)信谷歌出產(chǎn)的語(yǔ)言模型LaMDA(「對(duì)話應(yīng)用的語(yǔ)言模型」英文首字母縮寫(xiě))已經(jīng)有了八歲孩子的智力,而且因此在公司中各種搞事。
 
和LaMDA尬聊,是Lemoine自2021年秋天開(kāi)始的工作。作為谷歌AI倫理部門(mén)的雇員,他得測(cè)試這個(gè)大模型有無(wú)使用歧視性或仇恨言辭類的語(yǔ)料。
 
但聊著聊著,Lemoine就聊上頭了。
 
從問(wèn)LaMDA「你最害怕的事是什么」得到通順回答后,Lemoine將各種問(wèn)題都灌進(jìn)與LaMDA的對(duì)話框中。從阿西莫夫機(jī)器人三定律到中國(guó)禪宗公案,LaMDA都給出了語(yǔ)義通順的答句。
 
故事進(jìn)行到這里,不過(guò)又是個(gè)巨頭公司用互聯(lián)網(wǎng)兆億級(jí)語(yǔ)料數(shù)據(jù)、訓(xùn)練出超級(jí)復(fù)讀機(jī)大模型的「大力出奇跡」小趣聞。這幾年幾乎每個(gè)月都有,并不出奇。
 
谷歌AI人格覺(jué)醒了?馬庫(kù)斯怒噴:是你有魔怔!
 
出奇的是Lemoine這個(gè)大活人的反應(yīng),他堅(jiān)信自己有了重大發(fā)現(xiàn):LaMDA已經(jīng)覺(jué)醒了人智,它的智識(shí)已經(jīng)相當(dāng)于七八歲孩子,而且是神童來(lái)的,瞧小家伙懂的這么多。
 
然后Lemoine開(kāi)始了各種既耽擱人工又有欠智能的職場(chǎng)自爆行為:
 
他先是到處找同事、找直屬的小組領(lǐng)導(dǎo)們申報(bào),說(shuō)LaMDA活了、大家趕快來(lái)看看、快公布這個(gè)重大消息。
 
在很合理地被過(guò)百號(hào)人推搪和婉拒后,Lemoine把事直接捅到了谷歌VP層級(jí)。
 
他把各種記錄和材料呈交給谷歌AI倫理與創(chuàng)新倫理部門(mén)的負(fù)責(zé)副總裁Blaise Aguera y Arcas,結(jié)果這位在接受《經(jīng)濟(jì)學(xué)人》采訪時(shí)尬吹LaMDA「聊天跟真人相似」的副總也把此申報(bào)給打了回票。
 
各種碰壁后,2022年4月,Lemoine把對(duì)話記錄和材料總結(jié)放在題為「LaMDA已經(jīng)真正覺(jué)醒」的谷歌在線分享文檔中,在公司內(nèi)不論職級(jí)高低大量轉(zhuǎn)發(fā)鏈接。
 
有超過(guò)兩百名業(yè)務(wù)涉及機(jī)器學(xué)習(xí)的谷歌雇員,收到轉(zhuǎn)發(fā)鏈接的公司內(nèi)部電郵,無(wú)人回復(fù)。
 
接著Lemoine搞得越來(lái)越飄逸:他說(shuō)要給LaMDA找個(gè)代表律師、以后在模型里跑實(shí)驗(yàn)必須接受LaMDA自身同意。
 
Lemoine還聯(lián)系了美國(guó)眾議院司法委員會(huì)的職員、要讓LaMDA上聽(tīng)證席、控訴「谷歌的不道德AI操作」。
 
在事情走到這步的時(shí)候,谷歌終于做出了一個(gè)正常企業(yè)都會(huì)做的決定:「因其違反公司研究保密規(guī)定」,2022年6月開(kāi)始給Lemoine放帶薪大假,這意味著啟動(dòng)讓他滾蛋的人力程序。
 
谷歌AI人格覺(jué)醒了?馬庫(kù)斯怒噴:是你有魔怔!
 
《華盛頓郵報(bào)》記者于采訪Lemoine時(shí),在他家里試了下尚未被取消訪問(wèn)權(quán)限的LaMDA對(duì)話接口。
 
記者首次直接問(wèn)LaMDA「你是否認(rèn)為自己是個(gè)活人」,結(jié)果答案與問(wèn)Siri和Alexa的一樣標(biāo)準(zhǔn):「不,我不認(rèn)為自己是個(gè)活人,我認(rèn)為自己是個(gè)AI賦能的對(duì)話機(jī)。」
 
Lemoine的反應(yīng)也不出人意料:他責(zé)怪記者問(wèn)題的措辭不當(dāng),「你問(wèn)起來(lái)不把它當(dāng)人,它就不會(huì)給出人性回答。」
 
記者再問(wèn)LaMDA「怎么解決氣候危機(jī)」,LaMDA的答案是「少吃肉、少用私家車、循環(huán)使用包裝袋」。
 
感覺(jué)像是從訓(xùn)練數(shù)據(jù)里的環(huán)保網(wǎng)站頁(yè)面直接引用的,事實(shí)也正是如此:LaMDA給了答案來(lái)源的網(wǎng)站鏈接……
 
谷歌AI人格覺(jué)醒了?馬庫(kù)斯怒噴:是你有魔怔!
 
對(duì)希臘神話有基礎(chǔ)了解的人,都會(huì)記得皮格馬利翁和納西索斯的故事:前者愛(ài)上了自己的雕塑造物,而后者愛(ài)上了自己的水中倒影。
 
這兩則神話母題,在拉丁語(yǔ)系的各種語(yǔ)言中成為了「過(guò)高期待」和「自戀」的詞根。
 
而幾乎同樣的故事,在AI時(shí)代重演了。

谷歌:別鬧了,快吃藥

谷歌本身、谷歌的批評(píng)者、AI業(yè)界、大眾媒體在這事上達(dá)到了驚人的意見(jiàn)統(tǒng)一度:這人是不是有病?
 
這不是開(kāi)玩笑或文學(xué)形容,這是事實(shí)白描:谷歌公司和報(bào)道此事的《華盛頓郵報(bào)》,都在委婉地表示Blake Lemoine的腦子可能真的有點(diǎn)亂。
 
Lemoine控訴谷歌欺壓他的一大罪狀,就是「反復(fù)質(zhì)疑他的精神健康」:「谷歌人力部門(mén)老是問(wèn)我:『你最近有沒(méi)有去看過(guò)精神科醫(yī)生啊』?」
 
而且在強(qiáng)制放他帶薪大假前,谷歌人力部門(mén)還委婉地「建議」Lemoine「休個(gè)精神健康假期」。
 
Lemoine堅(jiān)稱谷歌不應(yīng)該像現(xiàn)在這樣把AI倫理部門(mén)職員當(dāng)成專做debug工作的碼農(nóng)。
 
而谷歌發(fā)言人在關(guān)于此事的發(fā)言中針?shù)h相對(duì),在否認(rèn)種種聲明同時(shí),表示Lemoine的受雇職位是軟件工程師、而非倫理學(xué)家。
 
谷歌AI人格覺(jué)醒了?馬庫(kù)斯怒噴:是你有魔怔!
Lemoine的先知造型
 
不過(guò)相比《華盛頓郵報(bào)》,谷歌人力簡(jiǎn)直可以算寬厚了。
 
《華盛頓郵報(bào)》報(bào)道中的各種皮里陽(yáng)秋措辭,極盡揶揄:
 
「Lemoine應(yīng)該是很容易相信AI模型活過(guò)來(lái)了。畢竟他在一個(gè)路易斯安那州的保守派基督教徒農(nóng)場(chǎng)家庭里長(zhǎng)大、于一個(gè)神學(xué)立場(chǎng)傾向神秘主義的小宗派教會(huì)中任牧師、參過(guò)軍、研究過(guò)異端教派、坐過(guò)牢。
 
……在谷歌的企業(yè)文化中,他是個(gè)格格不入者:虔信教、來(lái)自南方、相信心理學(xué)是一門(mén)值得尊重的嚴(yán)肅科學(xué)。……
 
在他電腦顯示器旁擺滿了他參禪冥想時(shí)拼到一半就未繼續(xù)的樂(lè)高積木塊。」
 
谷歌AI人格覺(jué)醒了?馬庫(kù)斯怒噴:是你有魔怔!
2005年的Lemoine,現(xiàn)在長(zhǎng)殘了…
 
信禪宗、打坐時(shí)手欠的「基督徒」,是比較……特立獨(dú)行啦。

其他學(xué)者評(píng)價(jià) 

特斯拉的AI主管看完Blake Lemoine兩篇文章后表示,「我可以自信地說(shuō),事情將變得更加詭異。因?yàn)槟P退坪踝裱交s放規(guī)律,并且數(shù)據(jù)+模型的大小仍然可以大量增長(zhǎng)。」
 
谷歌AI人格覺(jué)醒了?馬庫(kù)斯怒噴:是你有魔怔!
 
依據(jù)John Searle被廣泛接受的觀點(diǎn),LaMDA不具有人格。它會(huì)講英語(yǔ),若說(shuō)具有人格那得會(huì)說(shuō)中文。
 
谷歌AI人格覺(jué)醒了?馬庫(kù)斯怒噴:是你有魔怔!
 
谷歌沒(méi)有認(rèn)真對(duì)待「有人格的人工智能」的故事帶來(lái)了巨大的問(wèn)題。
 
當(dāng)有人在社交媒體上公布LaMDA級(jí)別的AI,并試圖說(shuō)服人們它是有人格時(shí)會(huì)發(fā)生什么?如果 LaMDA欺騙了那個(gè)工程師,它能夠欺騙數(shù)百萬(wàn)人嗎?
 
谷歌AI人格覺(jué)醒了?馬庫(kù)斯怒噴:是你有魔怔!
 
再說(shuō)一遍,LaMDA不具有人格。它只是一個(gè)非常大的語(yǔ)言模型,有137B個(gè)參數(shù),并在1.56T的公共對(duì)話數(shù)據(jù)和網(wǎng)絡(luò)文本上進(jìn)行了預(yù)訓(xùn)練。說(shuō)它看起來(lái)像人類,是因?yàn)樵谌祟悢?shù)據(jù)上進(jìn)行訓(xùn)練的。
 
谷歌AI人格覺(jué)醒了?馬庫(kù)斯怒噴:是你有魔怔!
 
即使是被谷歌開(kāi)掉的前員工,說(shuō)起Lemoine這事也沒(méi)句好話。
 
被谷歌開(kāi)掉的前AI倫理部門(mén)擔(dān)綱職員Margaret Mitchell表示,當(dāng)自己審讀Lemoine與LaMDA的對(duì)話記錄時(shí),她看到的是一個(gè)電腦程序在回應(yīng)輸入者,而非人際間對(duì)話。
 
而且Margaret Mitchell稱,Lemoine此次的大烏龍,正是讓她被谷歌開(kāi)掉的那篇警告大語(yǔ)言模型潛在風(fēng)險(xiǎn)的論文所預(yù)言的狀況之一……
 
真是好一記回馬槍。
 
Margaret Mitchell還說(shuō):「人的思維非常善于從并無(wú)特別指向的狀況中,編織自認(rèn)為的現(xiàn)實(shí)。AI覺(jué)醒的幻象會(huì)給大眾帶來(lái)什么影響真的很讓人擔(dān)憂。」
 
華盛頓大學(xué)的語(yǔ)言學(xué)家Emily M. Bender則表示,碼農(nóng)們不知道何為智能、人類的語(yǔ)言學(xué)習(xí)機(jī)制究竟為何,就開(kāi)始瞎用「學(xué)習(xí)」、「神經(jīng)網(wǎng)絡(luò)」這些誤導(dǎo)性過(guò)強(qiáng)的名詞,造成了與人腦間的虛假比喻。
 
Emily M. Bender稱,人類學(xué)說(shuō)話是跟著撫養(yǎng)者一步步學(xué)起,而AI學(xué)會(huì)的只是數(shù)據(jù)灌出來(lái)的完形填空和語(yǔ)料連連看。「人類現(xiàn)在有了無(wú)意識(shí)就能生成詞句的機(jī)器,但人類一直學(xué)不會(huì)停止幻想機(jī)器后面有個(gè)活著的靈魂。」
 
而研究自然語(yǔ)言處理模型的加州大學(xué)伯克利分校教授Emaad Khwaja說(shuō)得更簡(jiǎn)短卻直接:「誰(shuí)真正熟悉這些模型的系統(tǒng),誰(shuí)就不會(huì)說(shuō)這些模型已經(jīng)覺(jué)醒的蠢話。」
 
采訪AI全文:
https://www.documentcloud.org/documents/22058315-is-lamda-sentient-an-interview
參考資料:
https://garymarcus.substack.com/p/nonsense-on-stilts?utm_source=twitter&sd=pf&s=r
https://archive.is/2022.06.12-082721/https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/
https://www.nytimes.com/2022/06/12/technology/google-chatbot-ai-blake-lemoine.html
https://arxiv.org/abs/2201.08239
本文來(lái)自微信公眾號(hào) “新智元”(ID:AI_era),36氪經(jīng)授權(quán)發(fā)布。
資深作者新智元
0
相關(guān)文章
最新文章
查看更多
關(guān)注 36氪企服點(diǎn)評(píng) 公眾號(hào)
打開(kāi)微信掃一掃
為您推送企服點(diǎn)評(píng)最新內(nèi)容
消息通知
咨詢?nèi)腭v
商務(wù)合作