大西洋兩岸的風險都很高,在實踐中產生的影響與決定入獄判決和挑選誰被雇用一樣截然不同。hHtesmc
歐盟的人工智能法案(AIA)已于去年12月6日獲得歐盟理事會批準,最早將于今年3月由歐洲議會審議,該法案將根據風險等級制度對人工智能應用、產品與服務進行監(jiān)控。風險越高,則規(guī)定越嚴格。如果通過,歐盟的AIA將是世界上第一個橫向、跨越所有部門與應用的人工智能監(jiān)管法案。hHtesmc
相比之下,美國沒有專門監(jiān)管人工智能使用的聯邦法律,而是依靠現有的法律、藍圖、架構、標準與法規(guī),可以銜接來引導人工智能在使用的道德層面問題。然而,雖然企業(yè)與政府能有架構可遵循,而這些架構是自愿的,當人工智能被用來與消費者對抗時,并沒有為受到傷害的消費者提供保護。hHtesmc
再新增聯邦行動的補救措施后,地方與州政府頒布法律,以解決人工智能在就業(yè)方面的偏誤,如紐約市與整個加州,以及保險業(yè)在科羅拉多州的法律。沒有任何提議或頒布的地方法律在新聞媒體上出現,以解決在監(jiān)獄或監(jiān)獄判刑中所使用人工智能的問題。然而,根據《紐約時報》的報導,2016年,威斯康星州的一名男子Eric Loomis因與人工智能軟件相關的六年監(jiān)禁判決而起訴該州,但未獲勝訴。Loomis認為,他程序的正當權利受到侵犯,因為他無法檢查或質疑軟件的算法。hHtesmc
“我想表達的是,我們仍然需要依靠聯邦政府,”DataRobot全球人工智能倫理學家Haniyeh Mahmoudian告訴《EE Times》。“涉及隱私的事情,幾乎每個美國人都有權利,這是聯邦政府應該處理的事情。”hHtesmc
hHtesmc
NIST信息技術實驗室參謀長Elham Tabassi (來源:NIST信息技術實驗室)hHtesmc
最新的國家標準已由美國國家標準與技術研究所(NIST)在今年1月27日發(fā)布。hHtesmc
NIST的自主性架構主要在幫助總部設在美國的組織管理可能影響美國個人、組織與社會的人工智能風險。該架構透過將可解釋性與減輕有害偏見等可信度考慮納入人工智能產品、服務與系統(tǒng)。hHtesmc
“在短期內,我們想做的是培養(yǎng)信任,”NIST信息技術實驗室參謀長Elham Tabassi提到。“而我們透過了解與管理人工智能系統(tǒng)的風險來做到這一點,以便能夠幫助維護公民自由與權利,加強安全‘同時’提供創(chuàng)新與創(chuàng)造機會。”hHtesmc
以長遠的眼光來看,“我們所談論的架構是讓人工智能團隊,無論他們主要是設計、開發(fā)還是安排人工智能的人,都能從考慮到風險與影響的角度來思考人工智能,”NIST信息技術實驗室研究科學家Reva Schwartz提到。hHtesmc
hHtesmc
NIST信息技術實驗室研究科學家Reva Schwartz (來源:NIST信息技術實驗室)hHtesmc
在NIST的架構發(fā)布之前,美國總統(tǒng)Joe Biden領導的白宮在去年10月發(fā)布了“人工智能權利法案藍圖”。提出了五項原則,以規(guī)范人工智能的使用道德:hHtesmc
- 系統(tǒng)應是安全與有效的;
- 算法與系統(tǒng)不應該有區(qū)別性;
- 人們應該受到保護,不受濫用數據行為的影響,并能控制其數據如何被使用;
- 自動化系統(tǒng)應該是透明的;
- 選擇不使用人工智能系統(tǒng)而采用人類干預應該是一種選項。
Biden的輕監(jiān)管方法似乎是直接沿用前任所青睞的輕監(jiān)管方式。hHtesmc
不要等待立法
律師事務所DLA Piper合伙人Danny Tobey告訴《EE Times》,美國沒有人工智能法,因為該技術變化太快,立法者無法將其固定夠長的時間,以起草立法。hHtesmc
hHtesmc
律師事務所DLA Piper合伙人Danny Tobey (來源:DLA Piper)hHtesmc
“每個人都在提出架構,但很少有人提出實際的規(guī)則,你可以圍繞這些規(guī)則進行規(guī)劃,”Tobey提到。“我們承諾會有人工智能的權利法案,但我們得到的是一個沒有法律效力的‘人工智能權利法案的藍圖’。”hHtesmc
Tobey認為,全球的監(jiān)管建議圍繞著第三方審議與影響評估,用以測試人工智能的應用程序的安全性、非區(qū)別性與其他道德人工智能的關鍵層面。他提到,這些是公司已經可以使用的工具。hHtesmc
他指出:“解決方案是,公司甚至在立法最終確定之前就開始針對這些預期標準來測試人工智能技術,以建立具未來性、合乎人工智能系統(tǒng),并預測未來的法規(guī)。”hHtesmc
在歐盟,至少有一家公司與Tobey的想法一致。位于荷蘭的NXP半導體已經制定了自己的人工智能道德新措施。hHtesmc
美國是否需要特定的人工智能法律?
難道美國已經有了保護公眾免受人工智能不道德使用的法律?hHtesmc
2022年9月,美國證券交易委員會主席Gary Gensler在麻省理工學院人工智能政策論壇峰會上談到了這個問題,以探討部署人工智能政策的挑戰(zhàn)。hHtesmc
“透過我們的立法機構,我們經由法律來保護公眾,”他提到。“這些法律是安全、健康、投資者保護與促使金融穩(wěn)定。而這些仍是久經考驗的公共政策。”hHtesmc
Gensler并指出,與其認為我們需要一部新的法律,因為我們有一個新的工具——人工智能——立法者與其他人應該關注現有法律的適用方式。hHtesmc
美國證券交易委員會參考了現有的投資者保護法,而銀行產業(yè)的必然結果是平等信貸機會法案(Equal Credit Opportunity Act);公平住房法(Fair Housing Act)保護人們在申請抵押貸款時不受歧視。hHtesmc
自我監(jiān)管是答案嗎?
Diveplane的領導者想為Biden的藍圖、歐盟的AIA與更多在商業(yè)和國防領域提供人工智能驅動的軟件開發(fā)商。hHtesmc
hHtesmc
Diveplane首席執(zhí)行官Mike Capps (來源:Diveplane)hHtesmc
“這將有助于保護消費者,”Diveplane法律顧問與法務總監(jiān)Michael Meehan告訴《EE Times》。“人們認為這與公司可能想要的東西相悖。但事實是,大多數公司,包括Diveplane,都希望得到受到指導。”hHtesmc
Meehan指出,政府在人工智能法律或法規(guī)中都沒有規(guī)定“安全港條款”(safe harbors),以減少用戶的風險。hHtesmc
安全港條款是法律中的一項規(guī)定,在滿足某些條件的情況下,給予免于懲罰或責任的保護。例如,如果一個正確的實施、基于實例的人工智能貸款審批系統(tǒng)檢測到的錯誤,可以將此事標記為人工審查。hHtesmc
Diveplane首席執(zhí)行官Mike Capps也歡迎監(jiān)管,但他也是該產業(yè)自我監(jiān)管的支持者。hHtesmc
為了說明原因,他舉美國的患者隱私法(patient-privacy law)為例。1996年的健康保險可移植性與責任法案(HIPAA)為從醫(yī)療記錄中清除識別信息的用戶提供安全港條款,不幸的是,將其已辨識過的數據庫與另一個數據庫交叉比對,可以協助找出那些本該匿名人的身份。hHtesmc
這可能是20世紀立法者沒有預料到的。“如果你對今天的計算機如何工作設定了一些硬性規(guī)定,你就沒有能力適應……你寫的時候還不存在的技術,”Capps提到。hHtesmc
這種想法促使Diveplane共同創(chuàng)立了數據與信任聯盟(Data & Trust Alliance),此為非營利性的聯盟,其成員“學習、開發(fā)與采用具有信任性的數據與人工智能實際作法”,據其網站所介紹。Capps是該聯盟領導委員會的成員,其代表來自NFL、CVS Health與IBM等實體企業(yè)。hHtesmc
該組織在制定人工智能的道德標準。“這些規(guī)則將繼續(xù)改變與發(fā)展,因為它們需要這樣。”Capps說到,“我會把它寫入法律嗎?不,我肯定不會,但我肯定會把它作為一個案例,提到如何建立一個靈活的系統(tǒng)來盡量減少偏差。”hHtesmc
Mahmoudian提到,隨著新數據的出現,歐盟的AIA有重新審查分配給申請風險等級的語言。她表示,這對于像Instagram這樣案例是很重要的,例如,Instagram曾經被認為是無害的,但在出現的幾年后被證實對青少年的心理健康有負面影響。hHtesmc
(參考原文:EU, U.S. Making Moves to Address Ethics in AI,by Ilene Wolff)編譯:Luffy Liu hHtesmc
責編:Elaine