什么是「公平」?就算是人類自己也沒有統(tǒng)一的標準,它有時取決于語境。不論是在家里,還是在學校,教導小孩要公平至關重要,但說起來容易做起來難。正因為如此,要如何才能將社會上所說的「公平」的細微差別傳遞給人工智能(AI)系統(tǒng)呢?pR4esmc
IBM研究院的一組研究人員是著手解決該難題的先驅(qū)。IBM為開發(fā)人員推出了一款名為「AI Fairness 360」的工具包。作為這項工作的一部分,IBM為企業(yè)提供一種新的「基于云端的、偏差(bias)檢測和消除服務」,企業(yè)可以使用它來測試和驗證AI驅(qū)動的系統(tǒng)的行為。pR4esmc
在接受《EE Times》的電話采訪時,IBM研究院院士Saska Mojsilovic告訴我們,科學家和AI從業(yè)者太過于關注AI的準確性。通常,人們關于AI的第一個問題是,「機器可以擊敗人類嗎?」pR4esmc
但公平性呢?例如,AI中的公平無效可能會導致在醫(yī)療保健或自動駕駛車輛中造成災難性后果,她說。pR4esmc
如果用于訓練機器的數(shù)據(jù)集有偏差怎么辦?如果AI無法解釋它是如何做出決定的,那么如何才能驗證其「正確性」?AI可以揭示在AI處理過程中數(shù)據(jù)是否被以某種方式操縱過嗎?AI是否可以向我們保證其數(shù)據(jù)從未(包括處理前和處理后)受到攻擊或篡改嗎?簡言之,是否存在AI自我反?。亢唵位卮穑簺]有。pR4esmc
Mojsilovic表示,如果不對AI用戶、開發(fā)人員和從業(yè)者開放,AI系統(tǒng)就無法獲得社會的信任。pR4esmc
分解公平
一個更大的問題是如何教導機器什么是公平。Mojsilovic指出:「因為我們是科學家,我們做的第一件事就是分解“公平性”,我們需要從這著手?!顾麄儗⒐椒纸鉃锳I實現(xiàn)中的指針、算法和偏差。pR4esmc
pR4esmc
減少整個AI生命周期的偏差。(來源:IBM)pR4esmc
IBM研究科學家Kush Varshney解釋,其團隊研究了AI算法和AI決策的偏差和公平性?!赣袀€人的公平,也有團體的公平。我們研究了群體的不同屬性——從性別到種族,還考慮了法律和監(jiān)管問題?!棺詈?,團隊最終測量了30個不同的指標,以尋找數(shù)據(jù)集、AI模型和算法中的偏差。pR4esmc
這些發(fā)現(xiàn)已納入IBM不久前推出的AI Fairness 360工具包中。IBM將其描述為「一個全面的指標開放原始碼工具包,用于檢查數(shù)據(jù)集和機器學習模型中不期望的偏差?!?o:p>pR4esmc
雖然許多科學家已經(jīng)在努力發(fā)現(xiàn)AI算法中的歧視(discrimination),但Mojsilovic說IBM的方法不同,它不僅包括發(fā)現(xiàn)偏差的算法,且還包括用于消除偏差的工具。pR4esmc
在基礎層面,你必定會問:由計算機科學家來定義公平?這通常不是社會科學家的任務嗎?意識到這種不協(xié)調(diào),IBM明確表示Mojsilovic和Varshney都沒有閉門造車,他們導入了許多學者和研究機構的資料。Varshney參加了由卡內(nèi)基國際事務倫理委員會(Carnegie Council for Ethics in International Affair)主辦的Uehiro-Carnegie-Oxford倫理會議;Mojsilovic則參加了由加州大學柏克萊分校法學院(UC Berkeley Law School)贊助的加州柏克萊AI工作組。pR4esmc
算法中立嗎?
這一段時間以來,社會科學家一直在指出AI偏差問題。pR4esmc
威斯康辛大學麥迪遜分校(University of Wisconsin, Madison)新聞與大眾傳播學院教授Young Mie Kim解釋:「AI歧視(或AI偏差)可能發(fā)生在它隱含或明確地強化現(xiàn)有不平等的社會秩序和偏見(例如,性別、種族、年齡、社會/經(jīng)濟狀況等)時?!估訌某闃诱`差(例如,由于抽樣方法的不適當或困難導致某些人口統(tǒng)計資料不充分)到機器訓練(建模)中的人為偏差。Kim認為,即使在設計或建模中采用的「戰(zhàn)略決策」也存在AI偏差,例如政治廣告算法。pR4esmc
在她最近題為《算法機會:數(shù)位廣告和政治參與的不平等(Algorithmic Opportunity: Digital Advertising and Inequality of Political Involvement)》的研究中,Kim展示了在基于算法的決策中,不平等是如何被強化。pR4esmc
技術小區(qū)(technical community)可能會爭辯說「算法是中立的」或者可以「受過教育」(訓練有素)。Kim指出:「也就是說,他們并不承認在算法開發(fā)的任何階段都會出現(xiàn)偏差?!?o:p>pR4esmc
可解釋的AI
不只是消費者害怕AI,許多計算機科學家也表達了擔憂。威斯康辛大學計算機科學助理教授Aws Albarghouthi告訴《EE Times》:「從短期看,我擔心越來越多地使用數(shù)據(jù)驅(qū)動的決策,這有可能傳播偏見和不公正。從長遠看,我擔心AI在戰(zhàn)爭自動化方面的使用。」pR4esmc
AI無法解釋其決策將帶來持續(xù)焦慮。威斯康辛大學計算機科學助理教授Loris D'Antoni告訴我們:「現(xiàn)在,程序設計師開始將強大的機器學習算法作為程序設計工具箱中的工具。然而,這些算法復雜、難以預測、難以解釋。例如,沒人知道由此產(chǎn)生的機器學習模型究竟做了什么。」在他看來,自動化決策需要被理解和規(guī)范,并且可能以正規(guī)的方式進行。pR4esmc
對于流程的每個步驟,從訓練數(shù)據(jù)和處理到測試與部署,IBM指出其工具包提供的解釋可顯示:在兩種決策中、哪些因素傾向于支持哪一方;對推薦的信心,以及支持這種信心的因素。pR4esmc
IBM希望AI Fairness 360工具包將被廣泛使用,以便開發(fā)人員可以為其做出貢獻,幫助建立對AI的信任。與此同時,IBM將為企業(yè)提供其新的軟件服務,旨在自動檢測偏差并解釋AI在需要做決策時,是如何做出決策的。它在IBM Cloud上運作,可協(xié)助企業(yè)管理AI系統(tǒng)。pR4esmc
IBM稱,其在IBM Cloud上的公平性監(jiān)控服務將與來自各種機器學習框架模型和AI構建環(huán)境(如Watson、 TensorFlow、SparkML、AWS SageMaker和AzureML)配合使用?!高@意味著組織可以借力這些新控制以服務于企業(yè)使用的大多數(shù)流行的AI框架?!笽BM也承諾提供定制服務,「還可對軟件服務進行程序設計,以監(jiān)控任何業(yè)務工作流程的獨特決策因素,使其能夠根據(jù)特定的組織用途進行定制?!?o:p>pR4esmc
好的開始
越來越意識到AI中算法公平性問題的AI研究界,對IBM的新產(chǎn)品表示歡迎。D'Antoni告訴我們:「看到公平檢查技術進入業(yè)界并付諸實踐,真的令人興奮?!顾⒀a充,「我認為該工具將使AI研究界更加意識到該問題的重要性?!?o:p>pR4esmc
Albarghouthi稱IBM的努力「開創(chuàng)了好的開始」。但是為了讓AI Fairness 360工具包真正變得有效,應該使許多需要理解它的開發(fā)人員能用到它。Albarghouthi解釋,該工具需要「與研究界探索的最新公平技術并共同發(fā)展?!?o:p>pR4esmc
他并告誡:「如果研究和理解超越了目前的定義和技術,那么該工具很可能會停滯不前。」pR4esmc
公平性問題
最后,任何成全或破壞AI公平性工具包的因素都會回溯到如何定義公平這一棘手問題。Mojsilovic承認,在不同應用中,公平有不同表現(xiàn)。正如人類對公平有不同看法,使用者、客戶和公眾可能會根據(jù)情況對公平有不同評判。pR4esmc
當被問及AI公平性工具包的缺陷時,Albarghouthi表示,問題之一是「存在于公平性定義的選擇,以及其是否足夠?!巩吘梗健冈诤艽蟪潭壬先Q于領域、其敏感性和涉及的監(jiān)管?!顾a充:「我確信,這些工具只有在其使用成為機器學習管道的標準部分時才有效?!?o:p>pR4esmc
D'Antoni表達了他自己的擔憂?!赣泻芏嚓P于公平和偏差的定義,很難將它們?nèi)靠紤]在內(nèi),且其實現(xiàn)也并非能畢其功于一役?!箵Q句話說,「公平定義往往是“沖突的”,存在的不可能出現(xiàn)的結果表明,某些公平概念不能同時訴諸實施?!?o:p>pR4esmc
此外,還有一個事實是「機器學習小區(qū)目前尚未接受過如何了解現(xiàn)有的公平和偏差定義的含義以及如何使用它們,」他補充。pR4esmc
Kim同意?!笇@種“AI偏見”問題的認識是抵抗AI歧視的第一步,也是最重要的一步。」她指出:「在人類社會中,我們提出了一些減輕不平等和歧視的政策和法規(guī)。但問題是AI仍是個秘密,與大多數(shù)情況一樣,數(shù)據(jù)和建模是專有的,這使得任何公共政策或監(jiān)管討論/辯論更加困難?!?o:p>pR4esmc
透明度
理解了定義公平性時的復雜性和權衡取舍之后,IBM研究人員認為,優(yōu)先事項應該是AI實踐和實施的透明度。pR4esmc
Mojsilovic建議由AI服務開發(fā)商和供貨商完成并自愿發(fā)布供貨商的符合性聲明(她稱之為情況說明書)?!敢蕴岣咂浞盏耐该鞫炔a(chǎn)生對它們的信任?!顾龑⑵浔茸鳌甘称窢I養(yǎng)卷標」,或「器具信息表」。pR4esmc
業(yè)界需要有關部署在不同服務中的AI系統(tǒng)信息的標準。IBM敏銳地意識到這不會在一夜之間發(fā)生,正如營養(yǎng)標簽花了很長時間才逐步發(fā)展起來一樣,情況說明書的開發(fā)可能是個漫長過程。Mojsilovic提醒,業(yè)界才剛剛開始其AI之旅。pR4esmc
與IBM類似,研究界也在與AI公平性問題斗爭,在這個懸而未決的領域,IBM的AI Fairness工具包似乎具有開創(chuàng)性。D'Antoni告訴我們:「我并未注意到現(xiàn)有用于AI模型的通用公平性檢查工具。」pR4esmc
另一方面,他補充:「研究界提出了許多令人興奮的原型工具。例如,Kramer等人提出的FairTest和來自我們自己團隊的FairSquare?!?o:p>pR4esmc
(參考原文:Teaching Machines ‘Fairness’ ,by Junko Yoshida)pR4esmc