国产精一区二区_午夜视频99_免费白白视频_中文字幕一区免费

熱門文章> 人工智能算法是什么? >

人工智能算法是什么?

36氪企服點評小編
2021-05-06 10:40
2146次閱讀

   你知道人工智能算法是什么嗎?在信息領域應用以深度學習為代表的人工智能技術,大大提高了信息的利用效率和挖掘價值,深刻影響了各個領域的商業形態,同時也引起了監管機構和用戶對使用這一新技術所產生的“算法黑箱”問題的關注和懷疑。怎樣合理地解釋相關的算法、模型和它們給出的結果,是數據科學家迫切需要解決的問題。接下來小編就給大家介紹一下人工智能算法是什么,一起來學習吧。

人工智能算法是什么?人工智能算法是什么?

一、人工智能算法是什么?

人工智能AI算法主要是機器學習。主動學習是一種通過數據優化模型的方法,模型的精確度達到了可以使用的程度,那么他就可以完成一些預判任務,許多現實問題都可以轉化為預判型。人工智能算法,特別是深度學習,需要大量的數據,算法就是模型。

二、人工智能算法可解釋嗎?

   近年來,人工智能相關的倫理問題、算法歧視、算法正確性、算法安全等一直備受關注,其中之一就是深度學習算法的可解釋性問題,這是人工智能領域備受關注的問題。人的理性的發展過程使我們相信,如果一項判斷或決策可以被解釋,我們就會更容易理解它的優點和缺點,更容易評估它的風險,知道它在何種情況下能被信賴,以及我們能從哪些方面對它加以改進,從而盡可能地增進共識,減少風險,并促進相應領域的持續發展。

   這種思維模式也許是一種稍微過時的思維模式,誕生于人工智能時代之前。也許,隨著科技和社會的發展,未來會進化出新的思維范式,但它在目前仍是我們最成熟、最一致、最可信的思維模式。

   在ICML會議上,谷歌科學家對可解釋性給出了一個定義。很多模型和應用無法解釋的原因主要來自于對問題和任務理解不夠。因此,只要在使用模型的過程中能夠向我們提供有關數據或模型的可理解的信息,并幫助我們更全面地發現知識,理解并解決問題,這些信息就可以被歸為解釋性方法。與此同時,本文將可解釋性方法按其進行的過程分為三類:可解釋性方法先于建模,可解釋性模型先于建立,可解釋性模型先于建模,可解釋性模型先于建模,可解釋性模型先于建模后。

   建立模型前:建立模型前的可解釋性方法。

   建立模型前的解釋性方法主要包括一些數據預處理或者數據顯示的方法機器學習,它解決的是從數據中發現知識和規律的問題,如果我們對想要處理的數據特征知之甚少,那么期望對要解決的問題本身有很好的理解是不現實的,而建立模型前的可解解釋性方法的關鍵就在于幫助我們快速、全面地了解數據分布的特征,從而幫助我們考慮建模過程中可能遇到的問題,并選擇一個最合理的模型來逼近問題能夠達到的最優解。

 “數據可視化”是建模前可解釋性研究的一種重要方法。許多對數據挖掘有些許了解的人可能會認為數據可視化是數據挖掘工作的最后一步,或許是通過設計一些漂亮的、令人作嘔的圖表,或者展示您的分析挖掘結果。但是,在真正開始研究數據問題之前,我們必須建立對數據的直觀的理解,建立一系列的多方面的可視化方法,尤其是在數據量很大或數據維度很高的情況下,例如一些時空的高維數據,如果能夠建立一些交互的可視化方法,將會大大有助于我們從各個層面理解數據的分布。

   建立一個模型,模型本身具有可解釋性。

   構建具有自身可解釋性的模型是最關鍵的可解釋性方法的一類,同時也是具有非常嚴格的要求和限定的一類,具有可解釋性的模型大致可分為以下幾種模型[6]。
以規則為基礎的模型,如我們提到的經典決策樹模型。在這種模型中,任何一項決定都可以用邏輯規則來表示。但是,如果規則表示過多或原始特性本身并不能很好地解釋,那么基于規則的方法有時就不那么適用了。

   以個體特征為基礎的回歸方法主要是一些非常經典的回歸模型,如線性回歸,邏輯回歸,廣義線性回歸,廣義加性回歸等。除了結構上的簡化外,更重要的是,回歸模型和它的某些變種有著非常堅實的統計基礎,數百年來,無數統計學家探索了各種不同情況下的模型參數估計和修正、假設檢驗和邊界條件等問題,使之具有很好的可解釋性。

   以實例為基礎的方法主要是通過一些有代表性的樣本來解釋聚類結果。例如,代表樣本和重要的子空間可以在每個聚類簇中選擇。

   該方法主要是利用信息的稀疏特性,盡可能簡化模型的表示,使模型簡單化。例如LDA方法,它基于單詞的分層信息,來形成分層的主題表達,這樣一些小的主題可以被更廣泛的主題所概括,從而使我們更容易理解具體主題所代表的意思。

   在許多機器學習問題中,基于單調性的方法都存在著輸入與輸出之間的正相關/負相關關系,如果在模型訓練中能找到這種單調性關系,那么模型就能具有較高的可解釋性。例如,醫生對特定疾病發生可能性的評估主要取決于與該病相關的高風險因素,而確定單調的性行為有助于我們識別這些高風險因素。

   建立模型之后:使用可解釋性方法對模型進行解釋。

   可解釋性建模后的主要對象是深度學習模型,深度學習具有黑箱特性,深度學習的黑箱特性主要來自于其高度非線性的特性,每一個神經元都是由上層建筑的線性組合和一個非線性函數組成的,人們不可能通過統計學基礎假設來理解神經網絡中參數的意義,以及它們的重要性,也不可能通過線性回歸的參數范圍來理解。但是事實上,我們已經知道了這些參數的具體值,也了解了整個訓練過程。

   所以,神經網絡模型本身并不是一個黑箱,它的黑箱性質在于我們無法以人能理解的方式理解模型的具體意義和行為,而神經網絡的一個很好的特性就是神經元的層次組合形式,這使得我們能夠從物質構成的角度來理解神經網絡如何工作。本文將其劃分為以下幾類工作:隱層分析方法,模擬/代理模型,敏感性分析方法。

   隱層次分析法:通過對隱層次的可視化處理,將其轉化為人可以理解的、具有實際意義的圖像,從而展示了神經網絡中每一層所學習的概念。眾所周知,一個典型CNN模型的完整卷積過程是一個卷積-激活-池化(pooling)過程,也可以通過反池化-反激活-反卷積這一逆過程來實現,而特征可視化則有助于我們理解CNN每一層到底學到了什么。另外,文獻提出了一種網絡切割法來提取CNN的語義概念。

   仿真/代理模型:此類方法針對黑箱模型,使用精餾技術生成新的可解釋模型,通過對兩種模型進行訓練,可以近似地得到結果。但是,這種算法也有很大的局限性,比如模型本身無法“蒸餾”,或者是原始模型和經過蒸餾的模型之間差異很大,導致可解釋模型的意義消失。

   靈敏度分析法:是一種用來定量描述模型輸入變量對輸出變量重要性的方法。它允許每一個屬性在可能的范圍內變化,并研究和預測其變化對模型輸出值的影響程度。這一影響程度的大小稱為屬性的靈敏度系數,靈敏度系數越大,說明屬性對模型輸出的影響越大。

   神經網絡敏感性分析一般可分為變量敏感性分析法和樣本敏感性分析法,變量敏感性分析法用于檢測輸入屬性變量對模型的影響程度,樣本敏感性分析法用于研究特定樣本對模型的重要程度,也是敏感性分析的一個新的發展方向。將敏感性分析與局部特征研究方法(主要是樹模型)結合起來,可以有效地解決金融領域中普遍存在的先驗知識不足問題。

   有一部分人認為“人工智能就是研究理性的主體,這里的理性主體指任何能做出決策的主體,它可以是一個人,一個公司,也可以是一臺機器或者一臺軟件”。經過對過去和現在的感覺經驗和背景信息(即主體在特定環境中的感覺輸入)進行分析后,理性的主體可以選擇實施能產生最佳效果的行為。另外,還有一些關于人工智能的定義,但是他們主要是從哲學的角度探討了人的智能和機器智能的分界問題。以上就是小編為大家帶來的人工智能算法是什么的介紹,希望對您有幫助。

[免責聲明]

文章標題: 人工智能算法是什么?

文章內容為網站編輯整理發布,僅供學習與參考,不代表本網站贊同其觀點和對其真實性負責。如涉及作品內容、版權和其它問題,請及時溝通。發送郵件至36dianping@36kr.com,我們會在3個工作日內處理。

消息通知
咨詢入駐
商務合作