為避免政府過度“插手”,美國白宮提出十條AI監管規范

該項包含監管意味的指導文件由美國第四任首席技術 Michael Kratsios 主導推進,將在今年的 CES 上正式宣布,目的在于限制主管機關「過度插手」,并表示希望歐洲當局同樣能夠避免采取激進措施。

文件涉及十條指導規范,其中對于人工智能技術的產業的思考深入而全面,強調公眾層面的信任與參與,強調使用誠實與科學的方法,指出要進行全面而有效的風險評估機制,還要兼顧技術投入的收益與成本、靈活性,以及技術可能造成的歧視與不平等,強調信息披露和透明度,以及使用過程中的安全性、機構間的協調合作。

2019 年,技術管制是美國對外政策的關鍵詞,到了 2020 年,這個趨勢仍在延續。

上周美國宣布限制 AI 軟件出口,防止敏感技術旁落。本周二,白宮發布規范人工智能發展及應用的監管原則,一份名為《人工智能應用規范指南(Guidance for Regulation of Artificial Intelligence Applications)》的文件,目的在于限制主管機關「過度插手」,并表示希望歐洲當局同樣能夠避免采取激進措施。

比如,在指導的第六條規范中明確指出,「為了推進美國的創新,各機構應牢記人工智能的國際應用,確保美國公司不受美國監管制度的不利影響?!?/p>

該套文件將由美國首席技術官 Michael Kratsios 在本周舉行的美國拉斯維加斯 CES2020 消費電子展上宣布,以指導未來聯邦政府用于醫學、交通和其他行業的人工智能法規制定,在制定法規時,聯邦機構必須考慮公平,不歧視,開放,透明,安全,并且盡可能減少法規監管。

例如,文件提到,美國食品藥物管理局 (FDA) 目前正在考慮如何規范醫療設備制造商對 AI 和機器學習技術的使用。

文件指出,各聯邦機構就 AI 采取任何監管行動之前,應該進行風險評估及成本效益分析,將重點放在建立有彈性的架構,而非一刀切的監管做法。

白宮提出上述原則正值各企業競相整合 AI 及深度學習至其事業,以保持公司競爭力之時。但多家公司和專家表示,這項技術引發了有關控制、隱私、網絡安全及未來工作等方面的道德疑慮。

文件還表示,「歐洲以及我們的盟國應避免使用過度干預、扼殺創新的監管方式?!蛊溲a充說,「避免 AI 技術出現壟斷的最佳方法就是確保美國和我們的國際伙伴仍然是全球創新中心?!?/p>

該份文件在生效前有 60 天的公眾意見征詢期,各個政府機構將有 180 天的時間來制定實施原則的計劃。

首席技術官 Michael Kratsios

Kratsios 畢業于普林斯頓大學 ,曾是 Thiel Capital 公司的 CEO,今年 8 月成為美國第四任首席技術官,美國首席技術官角色是在奧巴馬時期創建,首席技術官職位就技術問題向總統提出建議,致力于制定技術政策。在 Kratsios 的領導下,白宮發起了 AI、量子計算、5G 和寬帶通信、自動駕駛汽車、商用無人機以及先進制造等各方面的計劃。

Kratsios 在接受媒體采訪時表示,這些原則旨在確保安全、透明地開發 AI,目前諸如中國和俄羅斯這樣的競爭對手在 AI 開發上過于激進,人們越來越擔心 AI 工具不受限制的普及,尤其是面部識別,此次規則的制定能夠反映美國在人工智能上的態度與原則。

據了解,白宮曾于 2018 年與福特汽車、波音、亞馬遜以及微軟等 30 多家主要公司舉行了 AI 會議,表態不會妨礙該技術的發展。

去年 2 月,美國總統特朗普簽署了一項行政命令,要求聯邦政府機構將更多的資源和投資用于與 AI 相關的研究、推廣和相關人員培養。

但目前美國部分州已經對 AI 應用提出了擔憂。加利福尼亞州的立法機關在 9 月份通過了一項針對州和地方執法機構的三年禁令:禁止使用帶有面部識別軟件的人體攝像機。有人說這是對公民自由構成威脅的最新技術限制。另外,美國一些城市還投票通過了執法部門禁止使用面部識別技術的法案。

此前,美國已經拒絕與其他七國集團(G7)合作開展名為全球人工智能合作計劃的項目,該項目旨在建立共同的原則和法規。Kratsios 表示,七國集團的計劃以官僚主義干預、扼殺創新,他希望其他國家在制定自己的 AI 法規時能效仿美國。

但是,一些評論者質疑這些原則的有效性。

Martijn Raasser 認為,這些原則是公開地對各個獨立機構進行干預;此外,原則非常模糊,機構們據此制定出來的計劃都應該被否決,如果美國堅持單獨行動,影響力可能會變小,與其他國家走不同的道路對美國來說是不利的。

Martijn Raasser 是新美國安全中心(CNAS)的技術和國家安全計劃的高級研究員,加入 CNAS 之前,Martijn 在中央情報局(Central Intelligence Agency)擔任高級情報官和分析師,在那里他從事國外新興技術,技術創新以及武器研發等工作。

以下是該份名為《人工智能應用規范指南(Guidance for Regulation of Artificial Intelligence Applications)》主要內容,具體包括十條指導規范。

詳情可見:https://www.whitehouse.gov/wp-content/uploads/2020/01/Draft-OMB-Memo-on-Regulation-of-AI-1-7-19.pdf

1、 公眾對人工智能的信任

人工智能將在社會和經濟生活各個領域產生積極影響,包括就業、交通、教育、金融、醫療保健、個人保障和制造業。與此同時,人工智能應用可能會對隱私、個人權利、自主權和公民自由構成風險,必須仔細評估并妥善處理這些風險。

人工智能的繼續采用和接受將在很大程度上取決于公眾的信任和認可。

因此,政府對人工智能的監管和非監管方法促進可靠、穩健和可信的人工智能應用是非常重要的,這將有助于公眾對人工智能的信任。對隱私和其他風險的適當監管或非監管響應必須取決于所呈現的風險的性質和適當的緩解措施。

2 、公眾參與

公眾參與,特別是在人工智能使用有關個人信息的情況下,將改善機構的問責制和監管結果,并增加公眾的信任和信心。

機構應在可行且符合法律要求的范圍內,為公眾提供充足的機會,參與規則制定過程的所有階段。

鼓勵各機構在切實可行的范圍內,向公眾通報情況,并提高公眾對標準和其他信息性文件的認識和普及。

3 、科學誠信與信息質量

政府對人工智能應用的監管和非監管方法應利用科學技術信息和流程。

各機構應以高質量、高透明度和高合規性的標準存檔信息,這些信息包括可能對重要的公共政策或私營部門決策(包括消費者的決策)產生明確和實質性影響,無論這些信息是由政府提供的還是由政府從第三方獲得的。

根據規則制定和指導過程中的科學完整性原則,各機構應制定有關人工智能的監管方法,既為政策決策提供信息,又可促進公眾對人工智能的信任。

最佳實踐包括透明地闡明人工智能應用程序的優點、缺點、預期的優化或結果、偏差緩解和結果的適當使用。

各機構還應注意,為了使人工智能應用程序產生可預測、可靠和優化的結果,用于訓練人工智能系統的數據必須具有足夠的質量,以達到預期用途。

4 、風險評估與管理

對人工智能的監管和非監管方法應基于風險評估和風險管理在不同機構和不同技術之間的一致應用。

沒有必要降低每一個可預見的風險。

事實上,監管政策的一個基本原則是,所有活動都需要權衡。應采用基于風險的方法來確定哪些風險是可接受的,哪些風險可能造成不可接受的損害,或者損害的預期成本大于預期收益。

各機構對其風險評估應保持透明,并在適當的時間間隔內重新評估其假設和結論,以促進問責制。

相應地,如果人工智能工具失敗或成功,根據產生的后果以及性質可以幫助確定適當的監管力度和類型,以識別和減輕風險。

具體而言,各機構應遵循第 12866 號行政命令「監管規劃和審查」的指示,考慮其管轄范圍內各種活動所構成風險的程度和性質。在適當的情況下,五種預防性監管方法將避免因不合理使用而帶來不必要的危害。

5、 收益與成本

在制定監管和非監管方法時,機構通常會考慮將人工智能應用和部署到已受監管的行業中。

據推測,除非這些投資提供了巨大的經濟潛力,否則不會有如此重大的投資。與所有這種性質的技術轉變一樣,人工智能的引入也可能帶來獨特的挑戰。

例如,雖然更廣泛的法律環境已經應用于人工智能應用,但在某些情況下,現有法律對責任和責任問題的應用可能不清楚,這導致一些機構需要與他們的當局相一致,來評估利益、成本,與任何確定的或預期的責任方法相關的分配效應。

行政命令 12866 呼吁機構「選擇那些最大化凈利益的方法(包括潛在的經濟、環境、公共衛生和安全,以及其他優勢;分配影響和公平性)。在符合法律規定的情況下,機構在考慮與人工智能應用程序的開發和部署有關的法規之前,應仔細考慮全面的社會成本、效益和分配效果。

與設計用來補充或替代人工智能的系統相比,這種考慮將包括采用人工智能產生的潛在收益和成本,實施人工智能是否會改變系統產生的錯誤類型,以及與其他現有的容忍風險的程度進行比較。

各機構在評估人工智能成本和效益時,也應考慮關鍵的依賴性,因為技術因素(如數據質量)和人工智能實施相關的人類過程的變化可能會改變風險和效益的性質和程度。如果無法與當前系統或流程進行比較,也應評估不實施系統的風險和成本。

6、 靈活性

在開發監管和非監管方法時,機構應采用基于績效的靈活方法,以適應人工智能應用的快速變化和更新。

在大多數情況下,試圖規定僵化的人工智能應用技術規范、基于設計的法規是不切實際和無效的,因為人工智能將以預期的速度發展,因此機構需要對新的信息和證據作出反應。

有針對性的機構合格評定計劃,以保護健康和安全、隱私和其他價值,對一個成功的、靈活的、基于績效的方法至關重要。

為了推進美國的創新,各機構應牢記人工智能的國際應用,確保美國公司不受美國監管制度的不利影響。

7 、公平和不歧視

各機構應以透明的方式考慮人工智能應用可能對歧視產生的影響。人工智能的應用有可能減少目前由人的主觀性造成的歧視。

同時,在某些情況下,應用可能會引入現實世界的偏見,產生歧視性的結果或決定,損害公眾對人工智能的信任和信心。

在考慮與人工智能應用相關的法規或非法規方法時,各機構應依法考慮有關人工智能應用產生的結果和決定的公平和不歧視問題,以及有關人工智能應用是否可能降低非法、不公平的程度,或與現有過程相比,其他意想不到的歧視。

8 、披露和透明度

除了改進規則制定過程外,透明度和公開還可以增加公眾對人工智能應用的信任和信心。

有時,此類公開內容可能包括識別人工智能的使用時間。如果適用于解決有關應用程序如何影響人類最終用戶的問題。機構應該意識到人工智能的一些應用可以提高人類的自主性。

在考慮采取更多的公開和透明措施之前,機構應該仔細考慮現有的或正在發展的法律、政策和監管環境的充分性。

適當的公開和透明要視具體情況而定的,這取決于對潛在危害的評估、危害的大小、技術水平以及人工智能應用的潛在好處。

9 、安全

各機構應安全,有保障,按預期運行開發 AI 系統,并在整個 AI 設計、開發、部署和運行過程中考慮安全問題,此外還應特別注意現有的保障措施,以確保人工智能系統處理,存儲和傳輸的信息的保密性,完整性和可用性。

各機構應進一步考慮擔保人的方法監測系統的彈性,防止不法人士利用人工智能系統的弱點,包括 AI 運作中帶來的網絡安全風險,以及對受監管機構的人工智能技術進行對抗性使用。

在評估或介紹 AI 政策時,各機構應謹記任何潛在的安全風險,以及可能惡意部署和使用 AI 應用程序的風險。

10 、機構間協調

各機構應相互協調,分享經驗,確保人工智能相關政策的一致性和可預見性,以促進美國人工智能領域的創新和增長,同時保護隱私,公民自由和美國價值觀,并在適當時允許采取針對具體部門和應用的方法。

根據第 12866 號行政命令,為了機構間審查的目的,簽署與人工智能有關的管制行動草案 為「重大」,信息與規制事務辦公室 (Office of Information and Regulatory Affairs)將確保所有可能受到某一特定行動影響或感興趣的機構都有機會提供自己的想法意見。

分享到:更多 ()
广东十一选五开奖视频