午夜性刺激在线观看免费,全免费A级毛片免费看无码,国产精品亚洲一区二区三区久久,亚洲精品无码久久久久,国产三区在线成人AV,亚洲乱码一区二区三区在线欧美,国产一区二区视频在线播放,久久亚洲精品无码观看不卡,精品九九人人做人人爱,少妇人妻无码精品视频app

廣告

AI做出的“公平性”如何服眾?

「什么是公平?」,就算是人類自己也沒有統(tǒng)一的標準,它有時取決于語境。不論是在家里,還是在學校,教導小孩要公平是至關重要的,但說起來容易做起來難。正因為如此,我們要如何才能將社會上所說的「公平」的細微差別傳遞給AI系統(tǒng)呢?

什么是「公平」?就算是人類自己也沒有統(tǒng)一的標準,它有時取決于語境。不論是在家里,還是在學校,教導小孩要公平至關重要,但說起來容易做起來難。正因為如此,要如何才能將社會上所說的「公平」的細微差別傳遞給人工智能(AI)系統(tǒng)呢?pR4esmc

IBM研究院的一組研究人員是著手解決該難題的先驅(qū)。IBM為開發(fā)人員推出了一款名為「AI Fairness 360」的工具包。作為這項工作的一部分,IBM為企業(yè)提供一種新的「基于云端的、偏差(bias)檢測和消除服務」,企業(yè)可以使用它來測試和驗證AI驅(qū)動的系統(tǒng)的行為。pR4esmc

在接受《EE Times》的電話采訪時,IBM研究院院士Saska Mojsilovic告訴我們,科學家和AI從業(yè)者太過于關注AI的準確性。通常,人們關于AI的第一個問題是,「機器可以擊敗人類嗎?」pR4esmc

但公平性呢?例如,AI中的公平無效可能會導致在醫(yī)療保健或自動駕駛車輛中造成災難性后果,她說。pR4esmc

如果用于訓練機器的數(shù)據(jù)集有偏差怎么辦?如果AI無法解釋它是如何做出決定的,那么如何才能驗證其「正確性」?AI可以揭示在AI處理過程中數(shù)據(jù)是否被以某種方式操縱過嗎?AI是否可以向我們保證其數(shù)據(jù)從未(包括處理前和處理后)受到攻擊或篡改嗎?簡言之,是否存在AI自我反?。亢唵位卮穑簺]有。pR4esmc

Mojsilovic表示,如果不對AI用戶、開發(fā)人員和從業(yè)者開放,AI系統(tǒng)就無法獲得社會的信任。pR4esmc

分解公平

一個更大的問題是如何教導機器什么是公平。Mojsilovic指出:「因為我們是科學家,我們做的第一件事就是分解“公平性”,我們需要從這著手?!顾麄儗⒐椒纸鉃锳I實現(xiàn)中的指針、算法和偏差。pR4esmc

201811141149.jpgpR4esmc

減少整個AI生命周期的偏差。(來源:IBM)pR4esmc

IBM研究科學家Kush Varshney解釋,其團隊研究了AI算法和AI決策的偏差和公平性?!赣袀€人的公平,也有團體的公平。我們研究了群體的不同屬性——從性別到種族,還考慮了法律和監(jiān)管問題?!棺詈?,團隊最終測量了30個不同的指標,以尋找數(shù)據(jù)集、AI模型和算法中的偏差。pR4esmc

這些發(fā)現(xiàn)已納入IBM不久前推出的AI Fairness 360工具包中。IBM將其描述為「一個全面的指標開放原始碼工具包,用于檢查數(shù)據(jù)集和機器學習模型中不期望的偏差?!?o:p>pR4esmc

雖然許多科學家已經(jīng)在努力發(fā)現(xiàn)AI算法中的歧視(discrimination),但Mojsilovic說IBM的方法不同,它不僅包括發(fā)現(xiàn)偏差的算法,且還包括用于消除偏差的工具。pR4esmc

在基礎層面,你必定會問:由計算機科學家來定義公平?這通常不是社會科學家的任務嗎?意識到這種不協(xié)調(diào),IBM明確表示Mojsilovic和Varshney都沒有閉門造車,他們導入了許多學者和研究機構的資料。Varshney參加了由卡內(nèi)基國際事務倫理委員會(Carnegie Council for Ethics in International Affair)主辦的Uehiro-Carnegie-Oxford倫理會議;Mojsilovic則參加了由加州大學柏克萊分校法學院(UC Berkeley Law School)贊助的加州柏克萊AI工作組。pR4esmc

算法中立嗎?

這一段時間以來,社會科學家一直在指出AI偏差問題。pR4esmc

威斯康辛大學麥迪遜分校(University of Wisconsin, Madison)新聞與大眾傳播學院教授Young Mie Kim解釋:「AI歧視(或AI偏差)可能發(fā)生在它隱含或明確地強化現(xiàn)有不平等的社會秩序和偏見(例如,性別、種族、年齡、社會/經(jīng)濟狀況等)時?!估訌某闃诱`差(例如,由于抽樣方法的不適當或困難導致某些人口統(tǒng)計資料不充分)到機器訓練(建模)中的人為偏差。Kim認為,即使在設計或建模中采用的「戰(zhàn)略決策」也存在AI偏差,例如政治廣告算法。pR4esmc

在她最近題為《算法機會:數(shù)位廣告和政治參與的不平等(Algorithmic Opportunity: Digital Advertising and Inequality of Political Involvement)》的研究中,Kim展示了在基于算法的決策中,不平等是如何被強化。pR4esmc

技術小區(qū)(technical community)可能會爭辯說「算法是中立的」或者可以「受過教育」(訓練有素)。Kim指出:「也就是說,他們并不承認在算法開發(fā)的任何階段都會出現(xiàn)偏差?!?o:p>pR4esmc

可解釋的AI

不只是消費者害怕AI,許多計算機科學家也表達了擔憂。威斯康辛大學計算機科學助理教授Aws Albarghouthi告訴《EE Times》:「從短期看,我擔心越來越多地使用數(shù)據(jù)驅(qū)動的決策,這有可能傳播偏見和不公正。從長遠看,我擔心AI在戰(zhàn)爭自動化方面的使用。」pR4esmc

AI無法解釋其決策將帶來持續(xù)焦慮。威斯康辛大學計算機科學助理教授Loris D'Antoni告訴我們:「現(xiàn)在,程序設計師開始將強大的機器學習算法作為程序設計工具箱中的工具。然而,這些算法復雜、難以預測、難以解釋。例如,沒人知道由此產(chǎn)生的機器學習模型究竟做了什么。」在他看來,自動化決策需要被理解和規(guī)范,并且可能以正規(guī)的方式進行。pR4esmc

對于流程的每個步驟,從訓練數(shù)據(jù)和處理到測試與部署,IBM指出其工具包提供的解釋可顯示:在兩種決策中、哪些因素傾向于支持哪一方;對推薦的信心,以及支持這種信心的因素。pR4esmc

IBM希望AI Fairness 360工具包將被廣泛使用,以便開發(fā)人員可以為其做出貢獻,幫助建立對AI的信任。與此同時,IBM將為企業(yè)提供其新的軟件服務,旨在自動檢測偏差并解釋AI在需要做決策時,是如何做出決策的。它在IBM Cloud上運作,可協(xié)助企業(yè)管理AI系統(tǒng)。pR4esmc

IBM稱,其在IBM Cloud上的公平性監(jiān)控服務將與來自各種機器學習框架模型和AI構建環(huán)境(如Watson、 TensorFlow、SparkML、AWS SageMaker和AzureML)配合使用?!高@意味著組織可以借力這些新控制以服務于企業(yè)使用的大多數(shù)流行的AI框架?!笽BM也承諾提供定制服務,「還可對軟件服務進行程序設計,以監(jiān)控任何業(yè)務工作流程的獨特決策因素,使其能夠根據(jù)特定的組織用途進行定制?!?o:p>pR4esmc

好的開始

越來越意識到AI中算法公平性問題的AI研究界,對IBM的新產(chǎn)品表示歡迎。D'Antoni告訴我們:「看到公平檢查技術進入業(yè)界并付諸實踐,真的令人興奮?!顾⒀a充,「我認為該工具將使AI研究界更加意識到該問題的重要性?!?o:p>pR4esmc

Albarghouthi稱IBM的努力「開創(chuàng)了好的開始」。但是為了讓AI Fairness 360工具包真正變得有效,應該使許多需要理解它的開發(fā)人員能用到它。Albarghouthi解釋,該工具需要「與研究界探索的最新公平技術并共同發(fā)展?!?o:p>pR4esmc

他并告誡:「如果研究和理解超越了目前的定義和技術,那么該工具很可能會停滯不前。」pR4esmc

公平性問題

最后,任何成全或破壞AI公平性工具包的因素都會回溯到如何定義公平這一棘手問題。Mojsilovic承認,在不同應用中,公平有不同表現(xiàn)。正如人類對公平有不同看法,使用者、客戶和公眾可能會根據(jù)情況對公平有不同評判。pR4esmc

當被問及AI公平性工具包的缺陷時,Albarghouthi表示,問題之一是「存在于公平性定義的選擇,以及其是否足夠?!巩吘梗健冈诤艽蟪潭壬先Q于領域、其敏感性和涉及的監(jiān)管?!顾a充:「我確信,這些工具只有在其使用成為機器學習管道的標準部分時才有效?!?o:p>pR4esmc

D'Antoni表達了他自己的擔憂?!赣泻芏嚓P于公平和偏差的定義,很難將它們?nèi)靠紤]在內(nèi),且其實現(xiàn)也并非能畢其功于一役?!箵Q句話說,「公平定義往往是“沖突的”,存在的不可能出現(xiàn)的結果表明,某些公平概念不能同時訴諸實施?!?o:p>pR4esmc

此外,還有一個事實是「機器學習小區(qū)目前尚未接受過如何了解現(xiàn)有的公平和偏差定義的含義以及如何使用它們,」他補充。pR4esmc

Kim同意?!笇@種“AI偏見”問題的認識是抵抗AI歧視的第一步,也是最重要的一步。」她指出:「在人類社會中,我們提出了一些減輕不平等和歧視的政策和法規(guī)。但問題是AI仍是個秘密,與大多數(shù)情況一樣,數(shù)據(jù)和建模是專有的,這使得任何公共政策或監(jiān)管討論/辯論更加困難?!?o:p>pR4esmc

透明度

理解了定義公平性時的復雜性和權衡取舍之后,IBM研究人員認為,優(yōu)先事項應該是AI實踐和實施的透明度。pR4esmc

Mojsilovic建議由AI服務開發(fā)商和供貨商完成并自愿發(fā)布供貨商的符合性聲明(她稱之為情況說明書)?!敢蕴岣咂浞盏耐该鞫炔a(chǎn)生對它們的信任?!顾龑⑵浔茸鳌甘称窢I養(yǎng)卷標」,或「器具信息表」。pR4esmc

業(yè)界需要有關部署在不同服務中的AI系統(tǒng)信息的標準。IBM敏銳地意識到這不會在一夜之間發(fā)生,正如營養(yǎng)標簽花了很長時間才逐步發(fā)展起來一樣,情況說明書的開發(fā)可能是個漫長過程。Mojsilovic提醒,業(yè)界才剛剛開始其AI之旅。pR4esmc

與IBM類似,研究界也在與AI公平性問題斗爭,在這個懸而未決的領域,IBM的AI Fairness工具包似乎具有開創(chuàng)性。D'Antoni告訴我們:「我并未注意到現(xiàn)有用于AI模型的通用公平性檢查工具。」pR4esmc

另一方面,他補充:「研究界提出了許多令人興奮的原型工具。例如,Kramer等人提出的FairTest和來自我們自己團隊的FairSquare?!?o:p>pR4esmc

(參考原文:Teaching Machines ‘Fairness’ ,by Junko Yoshida)pR4esmc

  • 好文,引人深思!
    AI,只要是人為編碼,就會有,有意的,無意的公平性偏差,甚至選擇性作弊。
    這是我個人的看法。
  • 好文,引發(fā)深思,AI只要是人為編碼的,就會偏差,就可以作弊,這是我編碼多年的看法。
Junko Yoshida
ASPENCORE全球聯(lián)席總編輯,首席國際特派記者。曾任把口記者(beat reporter)和EE Times主編的Junko Yoshida現(xiàn)在把更多時間用來報道全球電子行業(yè),尤其關注中國。 她的關注重點一直是新興技術和商業(yè)模式,新一代消費電子產(chǎn)品往往誕生于此。 她現(xiàn)在正在增加對中國半導體制造商的報道,撰寫關于晶圓廠和無晶圓廠制造商的規(guī)劃。 此外,她還為EE Times的Designlines欄目提供汽車、物聯(lián)網(wǎng)和無線/網(wǎng)絡服務相關內(nèi)容。 自1990年以來,她一直在為EE Times提供內(nèi)容。
  • 微信掃一掃,一鍵轉(zhuǎn)發(fā)

  • 關注“國際電子商情” 微信公眾號

近期熱點

廣告
廣告

EE直播間

更多>>

在線研討會

更多>>
日韩黄片影院在线观看| 日韩无码性爱视频| 国产亚洲色视频在线| 先锋影音人妻啪啪va资源网站| 久久久久精品国产AV免费| 国产欧美一区二区精品每日更新| 大屁股喷水视频在线观看| 丁香婷婷六月综合交清| 国产A√无码专区亚洲Av| 二级国产片二级国产毛片| 一区二区免费国产区二区| 原神优菈开襟乳液狂飙触站 | 国模无码人体一区二区| 伊人久久中文字幕亚洲综合| 免费国产v片在线| 被多人内谢视频高清| 内射后入在线观看一区| 99久久久国产精品免费| 精品人人妻人人澡人人爽牛牛| 久久精品一区二区三区日韩| 又大又长粗又爽又黄少妇视频| 国产成人Av区一区二区三| 无毒不卡在线观看无需下载| 亚洲日本va中文字幕久久| 日韩欧美精品一级二级三免费播放| 体育生GAY爽擼又大又粗的雞巴| 亚洲国产精品三级片∧v卡在线| √天堂资源中文官网| 精品丰满人妻无套内射| 国产性生大片免费观看性| 欧美午夜理伦三级在线观看| 男人j进入女人j内部免费网站| 一本无码人妻在中文| 人人色在线视频播放| 久久婷婷五月综合97色| 一级毛片免费高清在线视频| 免费网站看V片在线18禁无码| 亚洲中文字幕精品久久久久久直播| 国产乱人伦偷精品视频AAA| 欧美在线成人午夜影视| 老师在办公室被躁在线观看|