丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給黃善清
發(fā)送

0

《 AI Now Report 2018 》:避免 AI 淪為惡魔,問責(zé)制度迫在眉睫

本文作者: 黃善清 編輯:楊曉凡 2018-12-13 16:37
導(dǎo)語:缺乏有意義的問責(zé)和監(jiān)督機(jī)制已經(jīng)成為一項日益緊迫的問題。

雷鋒網(wǎng) AI 科技評論按:2018 年圍繞著人工智能的一連串技術(shù)丑聞的核心只有一個:問責(zé)制。當(dāng) AI 系統(tǒng)對我們的身體造成傷害時,誰應(yīng)該為此負(fù)起責(zé)任?我們應(yīng)該如何定義這些危害,一旦傷害造成后又該如何進(jìn)行補(bǔ)救?假設(shè)想對此進(jìn)行干預(yù),干預(yù)的重點應(yīng)該是什么?我們還需要哪些額外的研究和監(jiān)管活動來保證干預(yù)效果?目前看來,這些問題都沒有完善的答案,當(dāng)下存在的人工智能管理框架也不足以支撐問責(zé)制的執(zhí)行。然而隨著系統(tǒng)的普遍性、復(fù)雜性和規(guī)模的逐漸增長,缺乏有意義的問責(zé)和監(jiān)督機(jī)制(包括責(zé)任、擔(dān)當(dāng)和正當(dāng)程序的基本保障)已經(jīng)成為一項日益緊迫的問題。

在 2016 年和 2017 年的報告基礎(chǔ)上,AI Now 研究所試圖通過《AI Now 2018》來回應(yīng)這一核心問題,并據(jù)此提出幾個解決問題的提議。(完整版文件可通過 https://ai.yanxishe.com/page/resourceDetail/660 下載)對于每個提議他們都會總結(jié)出最新的挑戰(zhàn)與研究,并就 AI 技術(shù)的開發(fā)、部署與監(jiān)管情況提供改進(jìn)建議。他們的建議基于嚴(yán)謹(jǐn)?shù)膶W(xué)術(shù)研究、可操作性較強(qiáng),能夠幫助政策決策者、群眾以及技術(shù)人員更好地理解并減輕可能出現(xiàn)的風(fēng)險。由于 AI Now 研究所身處美國,過去專注的研究區(qū)域也是美國,再加上世界最大的幾家人工智能公司都位于美國,因此報告會優(yōu)先關(guān)注美國本土的情況。

人工智能領(lǐng)域現(xiàn)有的問題

人工智能領(lǐng)域的問責(zé)缺位問題日益突出2018 年發(fā)生的幾條技術(shù)丑聞表明,那些從人工智能發(fā)展中受益的人,與那些最有可能承受人工智能發(fā)展惡果的人,兩者之間的隔閡正在進(jìn)一步擴(kuò)大。造成這種結(jié)果的原因很多,其中包括政府監(jiān)管不到位、社會對人工智能的莫名狂熱、公司的治理制度存在缺陷、企業(yè)與用戶之間的權(quán)力不對稱、負(fù)責(zé)技術(shù)研究的工程小組與負(fù)責(zé) AI 系統(tǒng)部署的群體存在文化差異。這些分歧迫使人們更加重視偏見、歧視、正當(dāng)程序、責(zé)任以及傷害問責(zé)制的建設(shè)。報告想強(qiáng)調(diào),社會如今迫切需要針對不同行業(yè)強(qiáng)而有力的研究與監(jiān)管。

人工智能被最大限度地用于監(jiān)視活動:人工智能在美國、中國和許多國家被廣泛用于監(jiān)視活動,這點從傳感器網(wǎng)絡(luò)、社交媒體跟蹤、面部識別和情感識別等技術(shù)的使用和普及程度上可以看出。這點變化不僅威脅個人隱私,同時加速了監(jiān)控自動化的進(jìn)程,進(jìn)而導(dǎo)致人們被監(jiān)控范圍和頻次的擴(kuò)大。這帶來了新的危險,并放大了許多長期存在的擔(dān)憂。揭露欺瞞行為的情感識別技術(shù)被頻繁使用,通過對人們臉部的近距離觀察,情感識別技術(shù)能夠解讀人們的內(nèi)心情感,無論是情緒、心理健康水平、參與程度或有無罪都將一覽無遺。需要警惕的是,這種技術(shù)在人們不知情的情況下已經(jīng)被用來進(jìn)行一些具有歧視性和不道德的活動。面部識別技術(shù)同樣不讓人省心,它強(qiáng)化了從刑事司法到教育再到就業(yè)等領(lǐng)域各種扭曲和隱性的歧視性做法,并對多個國家的人權(quán)與公民自由形成了威脅。

在未保障公民權(quán)利的情況下,政府頻繁使用那些會對個人和社區(qū)造成影響的自動化決策系統(tǒng):許多國家的政府機(jī)構(gòu)基于提升效率和節(jié)省成本的目的,對自動決策系統(tǒng) (ADS) 進(jìn)行采購和部署。問題是這些決策系統(tǒng)好多都未經(jīng)過嚴(yán)格檢驗,功能設(shè)計上也不一定完美匹配目標(biāo)任務(wù),由此導(dǎo)致了對個人權(quán)利的非法侵犯。更糟糕的是,當(dāng)他們做出錯誤和不好的決定時,我們想質(zhì)疑、爭辯、糾正這些錯誤往往會面臨困難。據(jù)了解,一些機(jī)構(gòu)正試圖提供更加符合透明、正當(dāng)程序和保障基本權(quán)利的系統(tǒng),可類似貿(mào)易保密這樣的法律又會對系統(tǒng)的審查與測試形成阻礙。無論是機(jī)構(gòu)的積極努力還是近期可見的一些戰(zhàn)略訴訟,報告提煉并概述了可以形成系統(tǒng)問責(zé)制的有效途徑。

各種缺乏管制和監(jiān)控、基于人口的人工智能實驗:硅谷以其「快速行動,打破現(xiàn)狀」的理念聞名世界,在這種理念的影響下,許多當(dāng)?shù)仄髽I(yè)被迫快速試驗新技術(shù),而不怎么重視類似誰承擔(dān)風(fēng)險這種實驗失敗后的問責(zé)制度的建設(shè)。過去一年里,AI Now 研究所見到越來越多在公共場所部署的人工智能實驗,卻未曾見實驗方提供任何的通知、同意或問責(zé)協(xié)議。由于這些實驗尚未大范圍出現(xiàn)問題,AI Now 研究所發(fā)現(xiàn)好大一部分實驗還在繼續(xù)進(jìn)行。可一旦事故發(fā)生時,我們往往不清楚責(zé)任該由哪個單位/個人承擔(dān)。因此,主體責(zé)任的界定、事故發(fā)生時如何追責(zé)仍然是一項優(yōu)先級較高的任務(wù)。

技術(shù)解決公平、偏見與歧視問題時局限性:為避免機(jī)器做出具有歧視性的決定,人們做了許多工作,其中包括為機(jī)器設(shè)計「公平」的數(shù)學(xué)算法模型。如果模型缺乏充分考慮社會、政治與歷史背景因素的算法框架,這些「公平」的數(shù)學(xué)公式幾乎不可避免地要遺漏幾項關(guān)鍵因素,導(dǎo)致忽略深層次的問題,最終造成更嚴(yán)重的傷害與更多的不公正。為了確保我們有力解決核心問題——將焦點從平等轉(zhuǎn)移到公正,我們目前迫切要做的是拓寬研究視角,將研究范圍擴(kuò)大至人工智能的公平性與偏見等問題,而不要局限于數(shù)學(xué)領(lǐng)域。

對倫理原則的遵守與落實:為了回應(yīng)人們對人工智能社會影響力日益增長的擔(dān)憂,今年出現(xiàn)了許多創(chuàng)建和部署人工智能技術(shù)的倫理原則和指導(dǎo)方針。然而研究表明,如果道德承諾不與責(zé)任制度還有工作場合的實踐直接產(chǎn)生聯(lián)系,它們對軟件開發(fā)領(lǐng)域的影響幾乎是微乎其微。此外,這些規(guī)范和準(zhǔn)則往往很少得到執(zhí)行、監(jiān)督或偏差后果的支持。換句話說,只有將倫理準(zhǔn)則融入到人工智能的發(fā)展過程中,同時得到對公眾利益負(fù)責(zé)的執(zhí)行機(jī)制的支持,才能有助于人工智能問責(zé)制度的建設(shè)與發(fā)展。

報告接下來的內(nèi)容將詳細(xì)闡述這些課題,除了反映最新的學(xué)術(shù)研究成果外,還會介紹 7 項富有建設(shè)性的改進(jìn)策略:

  • 將人工智能的公平性研究從數(shù)學(xué)等價性和統(tǒng)計公平性問題擴(kuò)展至公平性問題。

  • 研究與跟蹤創(chuàng)建人工智能所需的基礎(chǔ)設(shè)施,其中包括材料供應(yīng)鏈的核算。

  • 仔細(xì)說明創(chuàng)建與維護(hù)人工智能系統(tǒng)所需的勞動形式。

  • 致力于推動人工智能更深層次的跨學(xué)科研究。

  • 分析在人工智能領(lǐng)域出現(xiàn)的種族、性別與權(quán)力課題。

  • 制定新的干預(yù)政策與訴訟戰(zhàn)略。

  • 在研究人員、公民與科技領(lǐng)域組織者之間建立合作聯(lián)盟。

這些策略旨在積極重塑人工智能領(lǐng)域,以解決目前日益加劇的權(quán)力不平衡,這種權(quán)力不平衡導(dǎo)致那些開發(fā)人工智能系統(tǒng)并從中獲利的人持續(xù)獲得受益,從而犧牲了那些承受人工智能發(fā)展惡果的人群。

《 AI Now Report 2018 》的 10 條建議

  1. 政府需要擴(kuò)大特定部門機(jī)構(gòu)的權(quán)力來監(jiān)管、審計和監(jiān)控特定領(lǐng)域的技術(shù),以便更好對人工智能技術(shù)進(jìn)行監(jiān)管。

  2. 我們需要通過嚴(yán)格的法規(guī)對人臉識別與情感識別的使用進(jìn)行監(jiān)管,以保護(hù)公眾的利益。

  3. 人工智能領(lǐng)域迫切需要新的治理方法,正如這份報告所示,大多科技公司的內(nèi)部治理結(jié)構(gòu)尚未能很好地對人工智能系統(tǒng)產(chǎn)生的結(jié)果進(jìn)行問責(zé)。

  4. 人工智能公司應(yīng)該為了公眾利益放棄那些妨礙進(jìn)行問責(zé)的商業(yè)秘密與法律主張。

  5. 技術(shù)公司應(yīng)該為良心拒服兵役者、員工組織以及道德檢舉者提供必要的保護(hù)。

  6. 消費者權(quán)益機(jī)構(gòu)應(yīng)該對人工智能產(chǎn)品與服務(wù)實施「廣告真實」法。

  7. 人工智能公司需要超越「流水線模式」,致力于解決工作場所出現(xiàn)的排擠與歧視行為。

  8. 我們需要對人工智能系統(tǒng)「全棧供應(yīng)鏈」進(jìn)行詳細(xì)梳理,以保障公平性、問責(zé)制與透明度在人工智能領(lǐng)域的落實。

  9. 我們需要意識到在人工智能問責(zé)制度的建設(shè)問題中,訴訟、勞工組織以及社區(qū)需要更多來自資金和其他方面的支持。

  10. 大學(xué)里的人工智能項目應(yīng)該將研究視野擴(kuò)大至計算機(jī)科學(xué)與工程學(xué)科以外的內(nèi)容。

via:《AI Now Report 2018》,AI Now Institute(https://ainowinstitute.org/AI_Now_2018_Report.pdf

雷鋒網(wǎng) AI 科技評論 雷鋒網(wǎng)

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

《 AI Now Report 2018 》:避免 AI 淪為惡魔,問責(zé)制度迫在眉睫

分享:
相關(guān)文章
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說