萬(wàn)字長(zhǎng)文詳解:人工智能系統(tǒng)可解釋性要求的法律規(guī)制
摘要:當(dāng)前,因“算法黑箱”而導(dǎo)致的人工智能系統(tǒng)的不透明與不可解釋問(wèn)題是人工智能信任與問(wèn)責(zé)的一大困擾。在這樣的背景下,國(guó)內(nèi)外立法開(kāi)始從權(quán)利、義務(wù)等不同角度對(duì)人工智能的可解釋性進(jìn)行規(guī)制,提出了算法解釋權(quán)、算法說(shuō)明義務(wù)等規(guī)則。但可解釋性要求的有效落實(shí)仍面臨著技術(shù)可行性、經(jīng)濟(jì)成本、法律規(guī)則和價(jià)值沖突、社會(huì)需求差異等多方面挑戰(zhàn)。面向未來(lái),人工智能可解釋性要求的實(shí)現(xiàn),需要法律、技術(shù)、市場(chǎng)、規(guī)范等多種力量共同發(fā)揮作用,側(cè)重通過(guò)“算法說(shuō)明書(shū)”、算法相關(guān)信息披露等方式增進(jìn)算法透明、促進(jìn)用戶理解。
問(wèn)題的引入
當(dāng)前,人工智能應(yīng)用的持續(xù)創(chuàng)新和廣泛普及,主要得益于以深度學(xué)習(xí)為代表的機(jī)器學(xué)習(xí)技術(shù)的發(fā)展進(jìn)步。機(jī)器學(xué)習(xí)技術(shù)使得人工智能系統(tǒng)可以自主進(jìn)行感知、學(xué)習(xí)、決策和行動(dòng),但這些所謂的“學(xué)習(xí)算法”(Learning Algorithm)卻為“黑箱問(wèn)題”(Black Box Problem)所困擾。
雖然人們可以知曉一個(gè)算法模型的輸入和輸出,但在很多情況下卻難以理解其運(yùn)作過(guò)程。人工智能開(kāi)發(fā)者設(shè)計(jì)了算法模型,但通常卻不決定某個(gè)參數(shù)的權(quán)重以及某個(gè)結(jié)果是如何得出的。這意味著,即便開(kāi)發(fā)者可能也難以理解他們所開(kāi)發(fā)的人工智能系統(tǒng)。
對(duì)人工智能系統(tǒng)如何運(yùn)作缺乏理解,是人工智能帶來(lái)諸如安全、歧視、責(zé)任等新的法律、倫理問(wèn)題的一個(gè)主要原因。作為“黑箱”的深度學(xué)習(xí)模型易于遭受對(duì)抗攻擊,容易產(chǎn)生種族、性別、年齡等方面歧視,可能導(dǎo)致追責(zé)困難。在醫(yī)療、借貸、刑事司法等攸關(guān)個(gè)人重大權(quán)益的應(yīng)用場(chǎng)景中,人工智能的不透明性尤其是有問(wèn)題的。
因此,考慮到人工智能的不透明性和不可解釋性,對(duì)人工智能進(jìn)行適當(dāng)?shù)谋O(jiān)管和治理顯得尤為重要。
在實(shí)踐中,人工智能的規(guī)模化應(yīng)用推廣,在很大程度上依賴于用戶能否充分理解、合理信任并且有效管理人工智能這一新型伙伴。為此,確保人工智能產(chǎn)品、服務(wù)和系統(tǒng)具有透明性(Transparency)與可解釋性(Explainability)是至關(guān)重要的。
實(shí)際上,各界已經(jīng)將透明性和可解釋性確立為人工智能研發(fā)應(yīng)用的一個(gè)基本的指導(dǎo)性原則。
在倫理層面,歐盟發(fā)布的《可信人工智能的倫理指南》(Ethics Guidelines for Trustworthy AI)將可解釋性作為可信人工智能的四個(gè)倫理原則這一,將透明性作為可信人工智能的七個(gè)關(guān)鍵要求之一。聯(lián)合國(guó)發(fā)布的首個(gè)全球性人工智能倫理協(xié)議《人工智能倫理問(wèn)題建議書(shū)》(Recommendation on the Ethics of Artificial Intelligence),提出了人工智能系統(tǒng)生命周期的所有行為者都應(yīng)當(dāng)遵循的十個(gè)原則,其中就包括“透明度和可解釋性”。中國(guó)國(guó)家新一代人工智能治理專(zhuān)業(yè)委員會(huì)發(fā)布的《新一代人工智能倫理規(guī)范》針對(duì)人工智能提出了包括透明性和可解釋性在內(nèi)的多項(xiàng)倫理要求;中國(guó)國(guó)家互聯(lián)網(wǎng)信息辦公室等9個(gè)部門(mén)聯(lián)合發(fā)布的《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見(jiàn)》將“透明可釋”作為算法應(yīng)用的基本原則,呼吁企業(yè)促進(jìn)算法公開(kāi)透明,做好算法結(jié)果解釋。
在技術(shù)層面,自從2015年美國(guó)國(guó)防高級(jí)研究計(jì)劃局(DARPA)提出可解釋人工智能(Explainable AI,簡(jiǎn)稱(chēng)為XAI)研究項(xiàng)目以來(lái),XAI已日漸成為人工智能領(lǐng)域的重要研究方向,研究人員和主流科技公司紛紛探索技術(shù)上的和管理上的解決方案,IEEE、ISO等國(guó)際標(biāo)準(zhǔn)制定組織則積極推動(dòng)制定與XAI相關(guān)的技術(shù)標(biāo)準(zhǔn)。
在立法方面,無(wú)論是在中國(guó),還是在美國(guó)、歐盟等其他國(guó)家和地區(qū),人工智能都已進(jìn)入了立法者和監(jiān)管者的視野。個(gè)人信息、人工智能等方面的國(guó)內(nèi)外立法嘗試從權(quán)利、義務(wù)、責(zé)任等不同角度對(duì)人工智能的透明性和可解釋性進(jìn)行規(guī)制。
雖然可解釋性要求已經(jīng)成為人工智能監(jiān)管的一個(gè)重要維度,但可解釋性要求的有效落實(shí)依然面臨著諸多困難和挑戰(zhàn)。例如,可解釋性要求的落實(shí)至少需要回答五個(gè)關(guān)鍵問(wèn)題:向誰(shuí)解釋?zhuān)繛槭裁唇忉專(zhuān)亢螘r(shí)解釋?zhuān)咳绾谓忉專(zhuān)拷忉尩姆椒ㄊ鞘裁矗砍诉@些問(wèn)題,人工智能系統(tǒng)的可解釋性要求也面臨著與個(gè)人隱私、模型安全、預(yù)測(cè)準(zhǔn)確性、知識(shí)產(chǎn)權(quán)等諸多其他價(jià)值追求相平衡的問(wèn)題。
本文旨在厘清這些問(wèn)題,并從技術(shù)和產(chǎn)業(yè)發(fā)展的狀況出發(fā),為人工智能可解釋性要求的法律規(guī)制之完善優(yōu)化提出具體可行的思路。
人工智能
可解釋性要求及其立法現(xiàn)狀
(一)人工智能系統(tǒng)的可解釋性及其價(jià)值
一般而言,解釋(Explanation)是指“說(shuō)明某事的含義、原因、理由等”。根據(jù)這一定義,人工智能系統(tǒng)的可解釋性意味著通過(guò)提供關(guān)于決策和事件如何產(chǎn)生的信息,來(lái)促進(jìn)利益相關(guān)者和AI系統(tǒng)之間的交互,但開(kāi)發(fā)者、領(lǐng)域?qū)<摇⒔K端用戶、監(jiān)管者等不同的利益相關(guān)者對(duì)于AI模型具有不同的解釋需求。
聯(lián)合國(guó)的《人工智能倫理問(wèn)題建議書(shū)》將人工智能的可解釋性界定為:“讓人工智能系統(tǒng)的結(jié)果可以理解,并提供闡釋說(shuō)明”,也包括“各個(gè)算法模塊的輸入、輸出和性能的可解釋性及其如何促成系統(tǒng)結(jié)果”。美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)在其研究報(bào)告《可解釋人工智能的四個(gè)原則》(Four Principles of Explainable Artificial Intelligence)中提出了可解釋的AI系統(tǒng)的四個(gè)基本特征:
(1)解釋(Explanation),即AI系統(tǒng)對(duì)其決策過(guò)程和結(jié)果提供依據(jù)或理由;
(2)有效性(Meaningful),即AI系統(tǒng)提供的解釋對(duì)于目標(biāo)受眾而言是清晰易懂的;
(3)解釋準(zhǔn)確性(Explanation Accuracy),即解釋可以準(zhǔn)確反映AI系統(tǒng)產(chǎn)生特定輸出的原因,或者準(zhǔn)確反映AI系統(tǒng)的運(yùn)作過(guò)程;
(4)知識(shí)局限性(Knowledge Limits),即AI系統(tǒng)只有在其設(shè)計(jì)條件下對(duì)其輸出具有充分的信心時(shí)才可運(yùn)行。
因此,AI系統(tǒng)的可解釋性不僅關(guān)注AI系統(tǒng)的特定輸出結(jié)果,而且關(guān)注AI系統(tǒng)的內(nèi)在原理和運(yùn)作過(guò)程;例如,負(fù)責(zé)信貸審批的AI系統(tǒng)需要向用戶解釋為什么拒絕發(fā)放貸款,推薦系統(tǒng)需要讓用戶理解基于用戶的搜索歷史、瀏覽記錄、交易習(xí)慣等個(gè)人數(shù)據(jù)進(jìn)行個(gè)性化推薦的基本原理。
在解釋的分類(lèi)上,業(yè)界一般區(qū)分事前解釋(Ante-Hoc Explanation)和事后解釋(Post-Hoc Explanation)。
事前解釋一般指自解釋模型(Self-Interpretable Model),是可以被人類(lèi)直接查看和理解的算法模型,即模型自身就是解釋。比較常見(jiàn)的自解釋模型包括決策樹(shù)、回歸模型(包括邏輯回歸)等。
事后解釋通常是由其他軟件工具或者人工方式生成的解釋?zhuān)荚诿枋觥⒄f(shuō)明特定算法模型如何運(yùn)作或特定輸出結(jié)果如何得出。對(duì)于具有“黑箱”屬性的深度學(xué)習(xí)算法,通常只能訴諸事后解釋。事后解釋分為局部解釋(Local Explanation)和全局解釋(Global Explanation):局部解釋聚焦于理解算法模型的特定輸出結(jié)果,全局解釋側(cè)重于對(duì)算法模型整體的理解。
此外,英國(guó)信息專(zhuān)員辦公室(ICO)在其發(fā)布的指南《解釋人工智能的決策》(Explaining Decisions Made with AI)中區(qū)分基于過(guò)程的解釋(Process-Based Explanation)和基于結(jié)果的解釋(Outcome-Based Explanation),并從解釋所涉內(nèi)容的角度提出了解釋的六個(gè)主要類(lèi)型:
(1)原理解釋,即說(shuō)明AI系統(tǒng)作出決策的理由;
(2)責(zé)任解釋,即AI系統(tǒng)開(kāi)發(fā)、管理和運(yùn)行過(guò)程中的參與人員,以及對(duì)決策進(jìn)行人工審查的聯(lián)系人員;
(3)數(shù)據(jù)解釋,即AI系統(tǒng)的決策使用了哪些數(shù)據(jù)以及是如何使用的;
(4)公平性解釋,即為確保決策的公平性和非歧視性而采取的步驟和措施;
(5)安全和性能解釋,即為確保AI系統(tǒng)的決策和行為的準(zhǔn)確性、可靠性、安全性和穩(wěn)健性而采取的步驟和措施;
(6)影響解釋,即為監(jiān)測(cè)、評(píng)估AI系統(tǒng)的使用及其決策對(duì)個(gè)人和社會(huì)的影響而采取的步驟和措施。英國(guó)ICO的分類(lèi)對(duì)于理解可解釋性要求的具體解釋內(nèi)容具有較大參考意義。
人工智能的可解釋性與透明度、責(zé)任、問(wèn)責(zé)等概念密切相關(guān)。透明度意味著保障用戶等相關(guān)對(duì)象對(duì)AI系統(tǒng)的知情,包括將在產(chǎn)品或服務(wù)中使用AI系統(tǒng)的事實(shí)告知用戶,也包括給用戶提供關(guān)于AI系統(tǒng)的適當(dāng)?shù)男畔ⅲ诒匾獣r(shí)甚至包括源代碼、數(shù)據(jù)集等。因此,人工智能的可解釋性與透明度息息相關(guān);具體而言,增進(jìn)透明度是人工智能的可解釋性的一個(gè)主要目標(biāo),而可解釋性則是實(shí)現(xiàn)人工智能的透明度的一個(gè)有效方式。此外,在很多時(shí)候,AI系統(tǒng)的可解釋性要求主要是為了確保能夠?qū)I系統(tǒng)進(jìn)行問(wèn)責(zé)并讓相關(guān)行動(dòng)者承擔(dān)責(zé)任。因此可以說(shuō),AI系統(tǒng)的可解釋性要求本身不是最終目的,而是實(shí)現(xiàn)諸如責(zé)任、問(wèn)責(zé)等其他目的的手段和前提條件。
增進(jìn)AI系統(tǒng)的可解釋性具有多方面的價(jià)值:
第一,增強(qiáng)用戶對(duì)AI系統(tǒng)的信任。用戶信任是AI系統(tǒng)的可用性的一個(gè)重要條件。在現(xiàn)實(shí)中,用戶對(duì)AI系統(tǒng)的不信任,往往源于用戶不理解AI系統(tǒng)的內(nèi)在決策過(guò)程,不知道AI系統(tǒng)如何作出決定。尤其是在諸如金融、醫(yī)療、司法等高風(fēng)險(xiǎn)的應(yīng)用場(chǎng)景中,如果AI模型缺乏可解釋性,就可能不被用戶信任。DARPA的研究發(fā)現(xiàn),相比于只提供決策結(jié)果的AI系統(tǒng),用戶更傾向于既提供決策結(jié)果又提供附帶解釋的AI系統(tǒng)。
第二,防范算法歧視,確保AI系統(tǒng)的公平性。增進(jìn)AI系統(tǒng)的可解釋性,有助于人們對(duì)AI系統(tǒng)進(jìn)行審計(jì)或者審查,進(jìn)而可以識(shí)別、減少、消除算法歧視。
第三,支持內(nèi)部治理,幫助打造可信的、負(fù)責(zé)任的AI系統(tǒng)。開(kāi)發(fā)者只有充分理解AI系統(tǒng),才能及時(shí)發(fā)現(xiàn)、分析、修正缺陷,進(jìn)而才有可能打造出更加可靠的AI系統(tǒng)。
第四,從人機(jī)協(xié)作的角度看,用戶只有理解AI系統(tǒng),才能更好地與之進(jìn)行交互,在實(shí)現(xiàn)AI系統(tǒng)的預(yù)期目的的同時(shí),幫助AI系統(tǒng)更好地進(jìn)行改進(jìn)和完善。
第五,解決人工智能造成損害的法律責(zé)任難題,對(duì)人工智能進(jìn)行解釋可以幫助探查因果,進(jìn)而有助于實(shí)現(xiàn)法律責(zé)任的目的,包括實(shí)現(xiàn)法律責(zé)任的預(yù)防目的。正因如此,可解釋性要求已經(jīng)成為人工智能的法律規(guī)制的一個(gè)核心考量。
(二)人工智能可解釋性要求的立法進(jìn)展
全球來(lái)看,歐盟《一般數(shù)據(jù)保護(hù)條例》(GDPR)較早對(duì)人工智能算法的可解釋性進(jìn)行法律規(guī)制,主要體現(xiàn)在GDPR第22條。GDPR第22條重點(diǎn)規(guī)制產(chǎn)生法律效果或類(lèi)似的重大效果(如影響信貸、就業(yè)機(jī)會(huì)、健康服務(wù)、教育機(jī)會(huì)等)的完全自動(dòng)化決策(Solely Automated Decision-Making,即完全通過(guò)技術(shù)方式作出的決策,不存在人類(lèi)參與)。
具體而言,對(duì)于完全自動(dòng)化決策,一方面,數(shù)據(jù)主體的知情權(quán)和訪問(wèn)權(quán)至少涉及以下三個(gè)方面:(1)告知存在該項(xiàng)處理的事實(shí);(2)提供關(guān)于內(nèi)在邏輯的有意義的信息;(3)解釋該項(xiàng)處理的重要性和預(yù)想的后果。
另一方面,數(shù)據(jù)主體有權(quán)請(qǐng)求人為干預(yù),表達(dá)其觀點(diǎn)并提出質(zhì)疑;根據(jù)GDPR前言部分(Recitals)的內(nèi)容,數(shù)據(jù)主體的權(quán)利甚至包括獲得解釋的權(quán)利和挑戰(zhàn)該項(xiàng)決策的權(quán)利,即所謂的“算法解釋權(quán)”。
中國(guó)對(duì)人工智能透明度和可解釋性的法律規(guī)制,在很大程度上借鑒了歐盟GDPR的立法思路。
首先,根據(jù)中國(guó)《個(gè)人信息保護(hù)法》第7條規(guī)定的公平、透明原則,以及第44條賦予個(gè)人的知情權(quán)、決定權(quán),AI系統(tǒng)在處理個(gè)人信息時(shí)需要對(duì)用戶保持必要的透明度。
其次,該法第24條對(duì)基于個(gè)人信息的算法自動(dòng)化決策作出了專(zhuān)門(mén)規(guī)定:一是,要求個(gè)人信息處理者保證算法自動(dòng)化決策的透明度和結(jié)果公平、公正,此為透明度要求;二是,對(duì)于旨在進(jìn)行個(gè)性化信息推薦的算法自動(dòng)化決策應(yīng)用,個(gè)人可以選擇退出(Opt-Out),此為退出權(quán);三是,對(duì)于對(duì)個(gè)人權(quán)益有重大影響的算法自動(dòng)化決策,個(gè)人享有要求說(shuō)明的權(quán)利和拒絕個(gè)人信息處理者僅通過(guò)自動(dòng)化決策方式作出決定的權(quán)利,此為算法說(shuō)明權(quán)。這些規(guī)定尤其是第24條的規(guī)定被認(rèn)為是構(gòu)成了中國(guó)版的算法解釋權(quán)。
中國(guó)國(guó)家互聯(lián)網(wǎng)信息辦公室出臺(tái)的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》則提出了算法解釋義務(wù),核心是對(duì)算法相關(guān)信息的公示義務(wù)和對(duì)算法決策結(jié)果的說(shuō)明義務(wù)。具體而言:
一是,提供算法推薦服務(wù)需要遵循公平公正、公開(kāi)透明等原則。
二是,算法推薦服務(wù)提供者需要制定并公開(kāi)算法推薦服務(wù)相關(guān)規(guī)則。
三是,該法規(guī)鼓勵(lì)算法推薦服務(wù)提供者優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性。
四是,算法推薦服務(wù)提供者需要告知用戶其提供算法推薦服務(wù)的情況,并公示算法推薦服務(wù)的基本原理、目的意圖和主要運(yùn)行機(jī)制等。
五是,算法推薦服務(wù)提供者需要向用戶提供便捷的關(guān)閉算法推薦服務(wù)的選項(xiàng)。
六是,對(duì)于對(duì)用戶權(quán)益造成重大影響的算法應(yīng)用,算法推薦服務(wù)提供者需要提供說(shuō)明并承擔(dān)相應(yīng)責(zé)任。
總結(jié)來(lái)看,中國(guó)對(duì)人工智能可解釋性的法律規(guī)制主要有兩個(gè)路徑:
其一,一般性地給AI系統(tǒng)的開(kāi)發(fā)者施加公開(kāi)算法相關(guān)信息、優(yōu)化算法可解釋性等義務(wù),從而促進(jìn)用戶對(duì)AI系統(tǒng)整體的理解;
其二,在個(gè)案意義上,對(duì)于給個(gè)人權(quán)益造成重大影響的算法決策結(jié)果,通過(guò)配置算法解釋或說(shuō)明的權(quán)利與義務(wù)來(lái)保障用戶權(quán)益,并解決用戶與開(kāi)發(fā)者之間信息和權(quán)力不對(duì)稱(chēng)的問(wèn)題。
但在實(shí)踐中,這兩種路徑依然面臨著一些問(wèn)題,例如算法解釋相關(guān)的權(quán)利與義務(wù)應(yīng)適用于哪些AI系統(tǒng)?為了全局可解釋的目的,AI系統(tǒng)的哪些信息需要對(duì)外提供以及應(yīng)當(dāng)以什么方式提供?如何確保解釋的準(zhǔn)確性和有效性?等等。
人工智能
可解釋性規(guī)制面臨的問(wèn)題分析
首先,雖然立法可以對(duì)算法解釋提出一般性要求,但可解釋性要求的實(shí)現(xiàn)卻并非易事,不僅面臨因“算法黑箱”而帶來(lái)的技術(shù)挑戰(zhàn),而且需要考慮諸多因素,下文將一一進(jìn)行分析。
其一,對(duì)象。技術(shù)開(kāi)發(fā)人員、終端用戶、監(jiān)管者等不同的利益相關(guān)者對(duì)算法解釋的需求是有差異的。而且普通用戶感興趣或能理解的因素及其復(fù)雜程度,可能與專(zhuān)業(yè)的審查人員或法律調(diào)查人員需要的恰當(dāng)信息存在很大不同。例如,普通用戶可能想知道為什么AI系統(tǒng)作出了特定的決策,以便于能夠有理由質(zhì)疑AI系統(tǒng)的決策,如果用戶認(rèn)為決策是不公平的或錯(cuò)誤的。專(zhuān)業(yè)人員則需要更全面的、更多技術(shù)細(xì)節(jié)的解釋?zhuān)员阌谠u(píng)估AI系統(tǒng)是否滿足可靠、準(zhǔn)確等方面的一般性要求或者監(jiān)管要求。這意味著普通用戶需要的往往是明白易懂的、非技術(shù)語(yǔ)言的解釋?zhuān)浅涑庵夹g(shù)細(xì)節(jié)的詳盡解釋。不向普通用戶提供詳盡的解釋可能有悖常理,但在實(shí)踐中卻是有益的。為了解釋AI系統(tǒng)及其輸出結(jié)果而給普通用戶提供底層的數(shù)學(xué)公式,即便這可能是技術(shù)上最準(zhǔn)確的解釋?zhuān)胀ㄓ脩魠s不大可能理解。普通用戶也許只是希望確保AI系統(tǒng)的輸入與輸出是公平合理的,而非希望對(duì)背后的計(jì)算具有深層次的理解。因此,明白不同利益相關(guān)者的真正需求才是至關(guān)重要的,而不是采取一刀切的路徑。
其二,應(yīng)用場(chǎng)景。應(yīng)用場(chǎng)景的不同也可能影響提供解釋的時(shí)間與方式。并非所有的應(yīng)用場(chǎng)景都需要對(duì)AI算法模型及其決策結(jié)果做出事無(wú)巨細(xì)的解釋?zhuān)@取決于AI算法決策是否對(duì)受眾的合法權(quán)益產(chǎn)生實(shí)質(zhì)性的影響。例如,對(duì)于在餐廳分配位置或自動(dòng)整理手機(jī)相冊(cè)的算法,與審批貸款或輔助判刑的算法,就需要區(qū)別對(duì)待。如果一刀切地要求提供詳盡的解釋?zhuān)狈侠硇院捅匾浴K詺W盟的人工智能法草案按照應(yīng)用場(chǎng)景的不同將AI系統(tǒng)分為高風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)和最小風(fēng)險(xiǎn),并只針對(duì)高風(fēng)險(xiǎn)AI系統(tǒng)提出了算法解釋義務(wù)。
其三,時(shí)間與地點(diǎn)。從目前的技術(shù)來(lái)看,要求AI面向全部應(yīng)用場(chǎng)景,實(shí)時(shí)地、大規(guī)模地提供解釋頗具挑戰(zhàn)性且難以實(shí)現(xiàn)。行業(yè)中的可解釋AI實(shí)踐更多聚焦于不同應(yīng)用場(chǎng)景下的事后解釋。
其四,解釋的關(guān)聯(lián)性或者說(shuō)解釋的目的。為什么需要進(jìn)行解釋?zhuān)緼I系統(tǒng)的目的與應(yīng)用場(chǎng)景至關(guān)重要。相比于執(zhí)行影響較小的任務(wù)的AI系統(tǒng)(如推薦電影的AI系統(tǒng)),AI系統(tǒng)被用來(lái)進(jìn)行影響人身安全或財(cái)產(chǎn)安全的決策時(shí)(如醫(yī)療診斷、司法審判、金融借貸等),需要更多的投入與深度的解釋。
其五,技術(shù)與經(jīng)濟(jì)可行性。一些先進(jìn)的、復(fù)雜的AI系統(tǒng)在向人類(lèi)解釋其運(yùn)作時(shí)可能存在技術(shù)限制。在經(jīng)濟(jì)可行性上,也需要考慮成本維度,大規(guī)模地提供解釋所需成本與投入也需要考慮在內(nèi),以避免不合理的細(xì)節(jié)或嚴(yán)格的要求阻礙有價(jià)值A(chǔ)I系統(tǒng)的部署。盡管投入足夠的時(shí)間、精力、專(zhuān)業(yè)知識(shí)與正確的工具,通常可以知曉復(fù)雜AI系統(tǒng)是如何運(yùn)作的,理解AI系統(tǒng)的行為背后的原因,但如果在實(shí)踐中不加區(qū)分地要求解釋?zhuān)粌H在規(guī)模應(yīng)用上欠缺經(jīng)濟(jì)可行性,而且可能適得其反地阻礙具有巨大價(jià)值的(例如拯救生命)AI系統(tǒng)的應(yīng)用部署。因?yàn)榻忉尩某杀臼指甙海度氲募夹g(shù)資源也更加巨大。如果采取一個(gè)極高的標(biāo)準(zhǔn),要求AI系統(tǒng)的每一個(gè)結(jié)果都做到完全可追溯并提供詳盡的解釋?zhuān)敲催@在實(shí)踐中可能極大地將AI系統(tǒng)限制在最基本的技術(shù)(如靜態(tài)的決策樹(shù))。這最終會(huì)極大地限制人工智能的社會(huì)與經(jīng)濟(jì)效益。比如,一個(gè)醫(yī)療算法,如果每次診斷結(jié)果都要求提供詳盡的解釋?zhuān)赡苓@個(gè)算法永遠(yuǎn)無(wú)法投入使用,產(chǎn)生價(jià)值。因?yàn)槊看屋敵鲆粋€(gè)決策,可能得花費(fèi)數(shù)天時(shí)間來(lái)提供解釋。
其次,需要考慮可解釋性要求與效率、準(zhǔn)確性、安全、隱私、網(wǎng)絡(luò)安全、商業(yè)秘密、知識(shí)產(chǎn)權(quán)等其他重要目的之間的平衡問(wèn)題。一些形式的透明性和可解釋性看似有吸引力,但卻可能帶來(lái)相當(dāng)嚴(yán)重的風(fēng)險(xiǎn),而且對(duì)于增進(jìn)責(zé)任與打造信任幾乎無(wú)甚助益。例如,披露源代碼或單個(gè)用戶的數(shù)據(jù),無(wú)助于理解AI系統(tǒng)如何運(yùn)行以及它為何做出特定決策,但卻可能讓AI系統(tǒng)被濫用或操縱,給用戶隱私與商業(yè)秘密帶來(lái)顯著風(fēng)險(xiǎn)。
實(shí)際上,分享、開(kāi)放源代碼是最低端、最無(wú)效的算法透明與解釋方式;因?yàn)锳I系統(tǒng)太過(guò)復(fù)雜,即使技術(shù)專(zhuān)家也無(wú)法測(cè)量。所以開(kāi)放源代碼無(wú)助于普通用戶理解AI系統(tǒng)。此外,算法不是越透明越好,例如,把算法變得簡(jiǎn)單,可以增加可解釋性,同時(shí)卻可能讓算法更不準(zhǔn)確。這是因?yàn)锳I模型的預(yù)測(cè)準(zhǔn)確性和可解釋性之間存在著天然的緊張關(guān)系。實(shí)際上,在可解釋與準(zhǔn)確性之間,如果AI應(yīng)用對(duì)性能要求不那么高,則可解釋性可以超過(guò)準(zhǔn)確性;如果安全是優(yōu)先的,則可解釋性可以讓位于準(zhǔn)確性,只要存在能夠確保問(wèn)責(zé)的保障措施即可。
正如聯(lián)合國(guó)《人工智能倫理問(wèn)題建議書(shū)》所指出的那樣,公平、安全、可解釋性這些原則本身是可取的,但在任何情況下這些原則之間都可能會(huì)產(chǎn)生矛盾,需要根據(jù)具體情況進(jìn)行評(píng)估,以管控潛在的矛盾,同時(shí)考慮到相稱(chēng)性原則并尊重個(gè)人權(quán)利等。
人工智能
可解釋性規(guī)制的未來(lái)進(jìn)路
從以上分析可知,對(duì)人工智能系統(tǒng)進(jìn)行解釋是一件非常復(fù)雜的事情,而且中國(guó)現(xiàn)行立法還遠(yuǎn)未形成一個(gè)統(tǒng)一的規(guī)制路徑。無(wú)論解釋的出發(fā)點(diǎn)是權(quán)利,還是義務(wù),抑或是責(zé)任,都尚未確立清晰明確的規(guī)則。面向未來(lái),對(duì)人工智能的透明度和可解釋性進(jìn)行規(guī)制,需要法律、技術(shù)、市場(chǎng)、規(guī)范等多種力量共同發(fā)揮作用。
(一)立法宜遵循基于風(fēng)險(xiǎn)的分級(jí)分類(lèi)分場(chǎng)景監(jiān)管思路
常識(shí)告訴我們,技術(shù)應(yīng)用不可能完美無(wú)缺、永不錯(cuò)誤,那種認(rèn)為技術(shù)應(yīng)用應(yīng)當(dāng)符合絕對(duì)性要求的觀點(diǎn)是偏頗的、誤導(dǎo)性的。在這個(gè)意義上,新技術(shù)治理應(yīng)當(dāng)是風(fēng)險(xiǎn)導(dǎo)向的,不是為了徹底消除風(fēng)險(xiǎn),而是對(duì)風(fēng)險(xiǎn)進(jìn)行有效管理。因此,立法不宜采取過(guò)度嚴(yán)苛的監(jiān)管要求,避免在透明度與可解釋性方面對(duì)AI算法應(yīng)用提出“一刀切”(One-Size-Fits-All)的要求,也不宜簡(jiǎn)單粗暴要求公開(kāi)算法的源代碼等技術(shù)細(xì)節(jié);而是需要采取包容審慎的立場(chǎng),建立分級(jí)分類(lèi)分場(chǎng)景的監(jiān)管方式,支持AI算法應(yīng)用不斷創(chuàng)新和發(fā)展,兼顧政府、科技企業(yè)以及社會(huì)公眾的整體利益,在鼓勵(lì)科技創(chuàng)新、追求科技向善、維護(hù)社會(huì)公共利益之間找到平衡點(diǎn)。
具體而言,在人工智能可解釋性要求的實(shí)現(xiàn)方式上,首先,披露AI算法模型的源代碼是無(wú)效的方式,不僅無(wú)助于對(duì)AI算法模型的理解,反倒可能威脅數(shù)據(jù)隱私、商業(yè)秘密以及技術(shù)安全;其次,不宜不加區(qū)分應(yīng)用場(chǎng)景與時(shí)空?qǐng)龊系匾髮?duì)所有的算法決策結(jié)果進(jìn)行解釋或說(shuō)明;再次,側(cè)重應(yīng)用過(guò)程中的披露義務(wù),部署AI系統(tǒng)的主體對(duì)于任何披露與記錄要求負(fù)有責(zé)任,需要披露AI系統(tǒng)實(shí)質(zhì)性參與決策或與人類(lèi)互動(dòng)的事實(shí),披露應(yīng)當(dāng)以清晰易懂、有意義的方式提供關(guān)于AI參與的關(guān)鍵任務(wù)的模式;最后,避免強(qiáng)制要求披露用來(lái)訓(xùn)練AI模型的數(shù)據(jù)集,這不僅不具有可操作性,而且容易與版權(quán)保護(hù)沖突,侵犯用戶的數(shù)據(jù)隱私或違反合同義務(wù)。
此外,法律對(duì)AI系統(tǒng)的可解釋性要求應(yīng)側(cè)重滿足終端用戶的需求。到目前為止,AI系統(tǒng)的可解釋性主要服務(wù)于AI開(kāi)發(fā)人員和監(jiān)管者的需求,例如幫助開(kāi)發(fā)人員排查漏洞并改進(jìn)AI系統(tǒng),幫助監(jiān)管者對(duì)AI應(yīng)用進(jìn)行監(jiān)管。而非讓終端用戶可以理解AI系統(tǒng)。2020年的一項(xiàng)研究發(fā)現(xiàn),企業(yè)部署可解釋人工智能更多是為了支持工程開(kāi)發(fā)等內(nèi)部目的,而非增強(qiáng)用戶或其他的外部利益相關(guān)者的透明度和信任。因此,為了促進(jìn)用戶對(duì)AI系統(tǒng)的理解,一種可行的思路是,借鑒食品營(yíng)養(yǎng)成分表、產(chǎn)品說(shuō)明書(shū)、藥品或醫(yī)療器械的使用說(shuō)明、風(fēng)險(xiǎn)告知等既有的信息披露機(jī)制,針對(duì)符合條件的AI系統(tǒng)建立“算法說(shuō)明書(shū)”機(jī)制。歐盟的人工智能立法采取了類(lèi)似的思路,歐盟人工智能法草案遵循分類(lèi)監(jiān)管的思路,針對(duì)高風(fēng)險(xiǎn)的AI系統(tǒng)提出了較高的透明度和信息提供要求,即開(kāi)發(fā)者應(yīng)確保高風(fēng)險(xiǎn)AI系統(tǒng)的運(yùn)作足夠透明,向用戶提供使用說(shuō)明(Instructions of Use)等信息,并披露系統(tǒng)開(kāi)發(fā)者的基本信息、高風(fēng)險(xiǎn)系統(tǒng)的性能特征、監(jiān)督措施以及維護(hù)措施等信息。
(二)探索建立合理適度的、適應(yīng)不同行業(yè)與應(yīng)用場(chǎng)景的人工智能可解釋性標(biāo)準(zhǔn)
法律治理固然重要,但可解釋人工智能的實(shí)現(xiàn)也離不開(kāi)技術(shù)人員和技術(shù)社群的直接參與。到目前為止,XAI已經(jīng)成為人工智能領(lǐng)域最重要的發(fā)展方向之一,但正如美國(guó)DARPA關(guān)于XAI的回顧報(bào)告所發(fā)現(xiàn)的那樣,XAI的進(jìn)展仍十分有限,面臨著諸多難題和挑戰(zhàn)。當(dāng)前最重要的是建立人工智能可解釋性的技術(shù)標(biāo)準(zhǔn)。在這方面,首先需要明確的一個(gè)關(guān)鍵問(wèn)題是,人工智能的評(píng)價(jià)標(biāo)準(zhǔn)不應(yīng)是“完美級(jí)”(Perfection),而應(yīng)在與既有流程或人類(lèi)決策對(duì)比的基礎(chǔ)上,界定評(píng)價(jià)AI系統(tǒng)的最低可接受標(biāo)準(zhǔn)。所以即使AI系統(tǒng)需要解釋?zhuān)脖仨毧紤]可解釋的程度。因?yàn)橐驛I系統(tǒng)滿足可解釋性的“黃金標(biāo)準(zhǔn)”(遠(yuǎn)遠(yuǎn)超過(guò)既有的非AI模式即人類(lèi)決策所要求的),可能不當(dāng)?shù)刈璧KAI技術(shù)的創(chuàng)新性使用。因此需要采取折中路徑,考慮技術(shù)限制與不同可解釋標(biāo)準(zhǔn)需要的利益權(quán)衡,以便平衡使用復(fù)雜AI系統(tǒng)帶來(lái)的好處與不同的可解釋性標(biāo)準(zhǔn)帶來(lái)的實(shí)踐限制。筆者認(rèn)為,用戶友好型的解釋?xiě)?yīng)當(dāng)是準(zhǔn)確的、清晰的、明確的、有效的,且考慮不同應(yīng)用場(chǎng)景的需求,以提高對(duì)AI系統(tǒng)的整體理解:解釋是否準(zhǔn)確傳遞了支撐AI系統(tǒng)的推薦的關(guān)鍵信息(Key Information)?解釋是否有助于對(duì)AI系統(tǒng)整體功能的理解?解釋是否清晰(Clear)、明確(Specific)、相關(guān)(Relatable)、可執(zhí)行(Actionable)?解釋是否適當(dāng)考慮了敏感性(Sensitivity)?例如用戶的敏感信息。
具體可以從以下方面來(lái)推進(jìn)AI可解釋性標(biāo)準(zhǔn):
第一,針對(duì)AI系統(tǒng)的每一個(gè)應(yīng)用場(chǎng)景都提供可解釋性標(biāo)準(zhǔn)的指南,是不現(xiàn)實(shí)的,但可以針對(duì)一些示范性的應(yīng)用場(chǎng)景提供可解釋標(biāo)準(zhǔn)的指南。這能夠給行業(yè)和企業(yè)提供有益參考,來(lái)平衡不同AI模型的性能與不同標(biāo)準(zhǔn)的可解釋性要求。
第二,對(duì)于政策相關(guān)方而言,發(fā)布AI可解釋的最佳實(shí)踐做法案例集,以及具有負(fù)面影響的負(fù)面做法,都是值得嘗試的。包括用以提供解釋的有效的用戶界面,以及面向?qū)<液蛯徲?jì)人員的記錄機(jī)制(例如詳細(xì)的性能特征、潛在用途、系統(tǒng)局限性等)。
第三,可以創(chuàng)建一個(gè)說(shuō)明不同級(jí)別的可解釋性的圖譜。這個(gè)圖譜可被用來(lái)給不同行業(yè)與應(yīng)用場(chǎng)景提供最小可接受的衡量標(biāo)準(zhǔn)。例如,如果某個(gè)失誤的潛在不利影響是非常微小的,那么可解釋性則不怎么重要。相反,如果某個(gè)失誤是危及生命財(cái)產(chǎn)安全的,則可解釋性變得至關(guān)重要。類(lèi)似地,如果用戶可以容易地?cái)[脫算法自動(dòng)化決策的約束,則對(duì)深入理解AI系統(tǒng)的需求就不那么旺盛。
(三)支持行業(yè)自律,發(fā)揮市場(chǎng)的力量來(lái)促進(jìn)可解釋性人工智能的發(fā)展
根據(jù)美國(guó)科技行業(yè)的經(jīng)驗(yàn),可解釋人工智能的工作應(yīng)主要由企業(yè)與行業(yè)主導(dǎo)而非由政府強(qiáng)制監(jiān)管,采取自愿性機(jī)制而非強(qiáng)制性認(rèn)證。因?yàn)槭袌?chǎng)力量會(huì)激勵(lì)可解釋性與可復(fù)制性,會(huì)驅(qū)動(dòng)可解釋人工智能的發(fā)展進(jìn)步。
一方面,從市場(chǎng)競(jìng)爭(zhēng)的角度看,為了獲得競(jìng)爭(zhēng)優(yōu)勢(shì),企業(yè)會(huì)主動(dòng)提高其AI系統(tǒng)、產(chǎn)品與服務(wù)的可解釋程度,從而讓更多人愿意采納或使用其人工智能應(yīng)用,進(jìn)而維持自身的市場(chǎng)競(jìng)爭(zhēng)力;
另一方面,從用戶的角度看,用戶會(huì)用腳投票,即如果用戶不理解AI系統(tǒng)的運(yùn)作,在使用AI系統(tǒng)、產(chǎn)品與服務(wù)時(shí)可能存在顧慮,這意味著可解釋性不足、難以被用戶理解的AI系統(tǒng)、產(chǎn)品與服務(wù)將無(wú)法獲得用戶的持久信任,因而用戶對(duì)此類(lèi)AI應(yīng)用的需求也會(huì)降低。
就目前而言,主流科技公司紛紛重視AI的可解釋性研究與應(yīng)用,已在積極探索人工智能可解釋性的實(shí)現(xiàn)方式。
例如,谷歌的模型卡片機(jī)制(Model Cards),旨在以通俗、簡(jiǎn)明、易懂的方式讓人們看懂并理解算法的運(yùn)作過(guò)程,對(duì)模型的輸入、輸出、模型架構(gòu)、性能、局限性等進(jìn)行描述。
IBM的AI事實(shí)清單機(jī)制(AI Fact Sheets),旨在提供與AI模型或服務(wù)的創(chuàng)建和部署有關(guān)的信息,包括目的、預(yù)期用途、訓(xùn)練數(shù)據(jù)、模型信息、輸入和輸出、性能指標(biāo)、偏見(jiàn)、魯棒性、領(lǐng)域轉(zhuǎn)移、最佳條件、不良條件、解釋、聯(lián)系信息等。面向未來(lái),應(yīng)著重通過(guò)最佳實(shí)踐做法、技術(shù)指南、自律公約等行業(yè)自律措施來(lái)支持可解釋人工智能的發(fā)展。
(四)替代性機(jī)制和倫理規(guī)范作為對(duì)可解釋性要求的有益補(bǔ)充
雖然可解釋性是完善AI技術(shù)的最優(yōu)解之一,但并非所有的AI系統(tǒng)及其決策都可以解釋?zhuān)蛘叨夹枰忉尅.?dāng)AI系統(tǒng)過(guò)于復(fù)雜,導(dǎo)致難以滿足可解釋性要求,或是導(dǎo)致解釋機(jī)制失靈、效果不樂(lè)觀時(shí),就要積極轉(zhuǎn)變規(guī)制的思路,探索更多元化、實(shí)用化的技術(shù)路徑。
目前在技術(shù)上主張的是采取適當(dāng)?shù)奶娲詸C(jī)制,如第三方反饋、申訴機(jī)制與人類(lèi)審查介入、常規(guī)監(jiān)測(cè)、審計(jì)(Auditing)等,這些替代性機(jī)制可以對(duì)AI算法的決策起到監(jiān)督和保障作用。
例如,第三方標(biāo)記反饋機(jī)制允許人們針對(duì)AI系統(tǒng)提供使用上的反饋,常見(jiàn)的標(biāo)記反饋技術(shù)包括用戶反饋渠道(“點(diǎn)擊反饋”按鈕)、漏洞獎(jiǎng)勵(lì)機(jī)制等。
用戶申訴機(jī)制能夠?qū)I系統(tǒng)及其開(kāi)發(fā)者形成有效監(jiān)督,也是實(shí)現(xiàn)AI可責(zé)性的重要保障。中國(guó)的《信息安全技術(shù)個(gè)人信息安全規(guī)范》《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南》等標(biāo)準(zhǔn)都對(duì)用戶的投訴、質(zhì)疑、反饋以及人工復(fù)核等機(jī)制作出了具體規(guī)定。
常規(guī)監(jiān)測(cè)包括嚴(yán)格且持續(xù)的測(cè)試、對(duì)抗測(cè)試等,旨在發(fā)現(xiàn)系統(tǒng)中的問(wèn)題并及時(shí)改進(jìn)。
審計(jì)機(jī)制作為確保AI可責(zé)性的重要方式,是對(duì)AI算法應(yīng)用情況的記錄、回溯和追查,通過(guò)算法審計(jì)可以達(dá)到反向解釋的作用,降低算法黑箱的不良影響。
此外,考慮到監(jiān)管的滯后性和技術(shù)的持續(xù)迭代性,倫理原則、倫理指南、倫理審查委員會(huì)等倫理規(guī)范和落地制度將能發(fā)揮更大價(jià)值,即使對(duì)于不具有可解釋性的人工智能應(yīng)用,也能確保企業(yè)以可信的、負(fù)責(zé)任的方式予以部署、使用。
結(jié)語(yǔ)
人工智能的透明性和可解釋性,連同公平性評(píng)價(jià)、安全考慮、人類(lèi)AI協(xié)作、責(zé)任框架等,都是人工智能領(lǐng)域的基本問(wèn)題。隨著人工智能監(jiān)管的持續(xù)加強(qiáng),立法對(duì)人工智能系統(tǒng)的透明性和可解釋性規(guī)制也將走向深入。
一個(gè)首要的問(wèn)題是,監(jiān)管者在針對(duì)人工智能系統(tǒng)設(shè)計(jì)透明性和可解釋性要求時(shí),需要考慮他們想要實(shí)現(xiàn)什么目標(biāo),以及在特定情境下如何更好地匹配這些目標(biāo)。因?yàn)橥该餍院涂山忉屝员旧聿皇悄康模窃鲞M(jìn)責(zé)任與問(wèn)責(zé),賦能用戶,打造信任與信心的方式和手段。
將來(lái)立法在設(shè)定可解釋性要求與標(biāo)準(zhǔn)時(shí),不僅需要考慮受眾需求、應(yīng)用場(chǎng)景、技術(shù)與經(jīng)濟(jì)可行性、時(shí)空等因素,而且需要考慮可操作性、務(wù)實(shí)性,同時(shí)還需要注重做好與效率、準(zhǔn)確性、安全、隱私、網(wǎng)絡(luò)安全、知識(shí)產(chǎn)權(quán)保護(hù)等目的之間的平衡。很難遵從或者遵從成本很高的可解釋標(biāo)準(zhǔn)會(huì)阻礙AI系統(tǒng)的應(yīng)用。如果在所有的情形下都要求最詳盡的解釋?zhuān)豢紤]實(shí)際的需求,則可能會(huì)阻礙創(chuàng)新,也會(huì)給企業(yè)及社會(huì)帶來(lái)高昂的經(jīng)濟(jì)成本。
所以,適當(dāng)?shù)目山忉屝詷?biāo)準(zhǔn)不應(yīng)超過(guò)合理且必要的限度。舉例而言,社會(huì)不會(huì)要求航空公司向乘客解釋為什么飛機(jī)采取了算法決定的航線。類(lèi)似地,一個(gè)相似的務(wù)實(shí)性、情境特定的路徑應(yīng)適用于AI系統(tǒng)的可解釋性標(biāo)準(zhǔn)要求。就像取得駕照,相信汽車(chē)可以安全駕駛,并不需要人人都成為專(zhuān)業(yè)的汽車(chē)工程師一樣,當(dāng)使用AI系統(tǒng)時(shí),解釋并不總是必須的。
最后,“算法說(shuō)明書(shū)”在增進(jìn)算法透明、促進(jìn)用戶對(duì)算法的理解上的價(jià)值,值得進(jìn)一步探討論證。
本文原稿載于《月旦民商法雜志》第76期(2022年6月號(hào))
本文來(lái)自微信公眾號(hào)“騰訊研究院”(ID:cyberlawrc),作者:曹建峰,36氪經(jīng)授權(quán)發(fā)布。
