丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
智慧城市 正文
發(fā)私信給高秀松
發(fā)送

0

左手技術(shù),右手規(guī)范,AI治理需要「價(jià)值觀」

本文作者: 高秀松 2022-01-19 19:42
導(dǎo)語:以人為本,AI向善。

假設(shè)你駕駛的車輛出現(xiàn)意外,你有且只有兩種選擇:

A:無動(dòng)于衷,車會(huì)直接撞向前方的人群;

B:撥動(dòng)方向盤,但車會(huì)撞向另一條路上的人。

你該如何抉擇?

功利主義者認(rèn)為,決策應(yīng)該遵從“為多數(shù)人提供最大利益”原則,即犧牲更少的人,拯救更多的人。

這一觀點(diǎn)遭到義務(wù)論者的反對(duì),后者認(rèn)為因救人而殺人,本質(zhì)屬于不道德行為,與人內(nèi)心的道德命令相悖。

這個(gè)被稱為電車難題的實(shí)驗(yàn),不論如何選擇,人都會(huì)陷入「道德困境」之中。

假如把人換成AI呢?

在電影《機(jī)械公敵》中,主角戴爾·史普納曾遭遇一次車禍,前來營(yíng)救的機(jī)器人經(jīng)過計(jì)算,選擇了生存率更高的男主,而非另一個(gè)小女孩Sarah。實(shí)際上,史普納更希望機(jī)器人救小女孩。

左手技術(shù),右手規(guī)范,AI治理需要「價(jià)值觀」

電影《機(jī)械公敵》劇照

這部劇中,AI并未面臨「道德困境」,而是根據(jù)其計(jì)算出的“生存率”進(jìn)行施救,但恰恰是這冷冰冰的數(shù)字,加深了戴爾·史普納對(duì)機(jī)器人(AI)的不信任。

這實(shí)際上反映出一個(gè)問題:當(dāng)人們期待更高智能水平的AI時(shí),要不要對(duì)AI本身進(jìn)行法律上的規(guī)制,或進(jìn)行道德約束?假設(shè)需要,如何進(jìn)行規(guī)制?

更具體一點(diǎn),在上述的施救過程中,AI能不能擔(dān)責(zé)?法律責(zé)任如何界定?等等,該如何回答?

AI的「信任危機(jī)」

先來思考一個(gè)問題:《機(jī)械公敵》中,機(jī)器人根據(jù)“生存率”救下男主戴爾·史普納,這個(gè)“生存率”是怎么計(jì)算的?

這個(gè)在劇中看似簡(jiǎn)單的問題,實(shí)際上觸摸到了AI的核心難題之一:決策的不可解釋性。

性別、年齡、情緒等特征可能是計(jì)算生存率的部分?jǐn)?shù)據(jù),但機(jī)器人是怎么進(jìn)行決策的,目前的人工智能系統(tǒng)很難解釋。

換句話說,人們知其然而不知其所以然。

以現(xiàn)在非常火熱的深度學(xué)習(xí)為例,其決策場(chǎng)景下的模型可解釋性很差,具體表現(xiàn)為:輸入特征與輸出結(jié)果之間存在一個(gè)無法觀測(cè)的“黑箱”空間。

比如,阿爾法狗在與柯潔的對(duì)弈中,其每一步都是動(dòng)態(tài)的,谷歌只下達(dá)了“贏得比賽”的指令,但阿爾法狗是如何根據(jù)柯潔的落子來決定對(duì)策從而贏得比賽,人們卻無從得知。

這種不可解釋性對(duì)于非常重要的場(chǎng)景,比如交通、金融、醫(yī)療等,是一種巨大的安全隱患。人們無法從人工智能系統(tǒng)決策過程中獲取有效信息,進(jìn)而也無法快速對(duì)系統(tǒng)進(jìn)行優(yōu)化,避免可能導(dǎo)致的利益損失。

另一個(gè)重要的點(diǎn):機(jī)器人在救人過程中是否涉嫌“算法歧視”?也就是人工智能系統(tǒng)的公平性問題。

人工智能算法會(huì)受到訓(xùn)練數(shù)據(jù)的影響,如果訓(xùn)練數(shù)據(jù)中存在偏見,那么其決策也會(huì)形成歧視。

電影里的機(jī)器人在面對(duì)男女性別差異時(shí),作出的決策有沒有偏見,這一點(diǎn)無從得知。但現(xiàn)實(shí)生活中,美國(guó)芝加哥法院曾采用的犯罪風(fēng)險(xiǎn)評(píng)估系統(tǒng)(COMPAS)被證明對(duì)黑人存在歧視。

如果一個(gè)黑人犯了罪,他被該系統(tǒng)錯(cuò)誤地標(biāo)記為具有高犯罪風(fēng)險(xiǎn)的可能性更大,因此可能會(huì)被法官判處更長(zhǎng)的刑期。

更為普遍的例子是,人們所熟知的大數(shù)據(jù)殺熟,實(shí)際上是根據(jù)用戶特征/偏好數(shù)據(jù)形成的價(jià)格歧視。

從經(jīng)濟(jì)學(xué)角度上講,價(jià)格歧視并非貶義,比如老人小孩乘坐公交車享受比成人更低的價(jià)格優(yōu)惠。

但對(duì)于人工智能系統(tǒng)而言,基于數(shù)據(jù)訓(xùn)練形成的價(jià)格歧視,根據(jù)用戶購買行為、性別等進(jìn)行分層,從而給新用戶以優(yōu)惠,給老用戶「高貴」,這種歧視無法可依,本身影響了「消費(fèi)者公平」。

除了可解釋性、公平性之外,AI的安全性、穩(wěn)健性等問題也引發(fā)人們對(duì)AI的信任危機(jī)。

安全性表現(xiàn)在AI如何保護(hù)數(shù)據(jù)安全。過去一段時(shí)間里,Google、Meta等公司先后被爆出數(shù)據(jù)泄露問題,引發(fā)全球?qū)?shù)據(jù)保護(hù)的關(guān)注,各國(guó)也加快了針對(duì)隱私、數(shù)據(jù)保護(hù)方面的立法。

穩(wěn)健性則是指人工智能系統(tǒng)在異常情況下,仍能保持正常運(yùn)行,而不至于崩潰。例如,現(xiàn)在的智能駕駛都有一套「冗余」方案,目的是防止極端天氣、車輛碰撞等場(chǎng)景下,車輛失控的情況。

但目前人工智能系統(tǒng)的穩(wěn)健性,還有待增強(qiáng)。

基于不可解釋性、公平性、安全性、穩(wěn)定性等問題,AI需要面臨的最后一道門檻是:人工智能到底能不能成為責(zé)任主體?

也就是說,人工智能因技術(shù)缺陷帶來的不良后果,誰來背鍋?軟件開發(fā)商還是所有者?

《機(jī)械公敵》中,機(jī)器人桑尼殺死了自己的“父親”朗寧博士,真相大白以后主角史普納警官卻沒有對(duì)桑尼提起訴訟,因?yàn)樯D岵⒎侨祟?,處于人類法律的界限之外?/p>

左手技術(shù),右手規(guī)范,AI治理需要「價(jià)值觀」

電影《機(jī)械公敵》劇照

上述的問題實(shí)際上造成了普通大眾對(duì)于人工智能的「信任危機(jī)」,然而直到現(xiàn)在,尚且沒有一部成型的法律來對(duì)人工智能進(jìn)行規(guī)制。

不過,從學(xué)界、產(chǎn)業(yè)界以及政府等多方的實(shí)踐之中,仍能看到有益的探索。

AI治理需要什么樣的「價(jià)值觀」?

《機(jī)械公敵》里對(duì)機(jī)器人設(shè)置了三大法則:

1、機(jī)器人不得傷害人類個(gè)體,或者目睹人類個(gè)體將遭受危險(xiǎn)而袖手不管;

2、機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時(shí)例外;

3、機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存。

 這三條法則相互制約,但從規(guī)則內(nèi)容不難看出,「以人為本」是其根本精神。

這種精神從AI誕生元年就已經(jīng)存在,然而在漫長(zhǎng)的AI發(fā)展年輪中,技術(shù)探索始終占據(jù)著主流,對(duì)AI的審視與反思,主要是近十年來的結(jié)果。

究其原因,是技術(shù)從實(shí)驗(yàn)室或者小規(guī)模應(yīng)用場(chǎng)景,走向了大規(guī)模落地場(chǎng)景;人們對(duì)AI的認(rèn)知也在逐漸深化,從“不可置信”到懷疑,再到建立信任,是一個(gè)螺旋式上升的過程。

雷峰網(wǎng)了解到,對(duì)于人工智能的規(guī)范性研究,主要以2015年為爆發(fā)點(diǎn)。

2015年1月,歐盟議會(huì)法律事務(wù)委員會(huì)(JURI)決定成立專門小組,研究機(jī)器人和人工智能發(fā)展相關(guān)的法律問題。同年,聯(lián)合國(guó)教科文組織開啟關(guān)于機(jī)器人倫理方面的研究。

此后的幾年時(shí)間里,聯(lián)合國(guó)、歐盟、電氣和電子工程師協(xié)會(huì)(IEEE)等國(guó)際性組織先后開啟關(guān)于人工智能倫理方面的研究工作,并且發(fā)布了相應(yīng)的倫理準(zhǔn)則。其中,影響較為廣泛的是2017年的“阿西洛馬人工智能原則”和IEEE倡議的人工智能倫理標(biāo)準(zhǔn)。

我國(guó)于2018年1月成立了“人工智能標(biāo)準(zhǔn)化總體組”,并發(fā)布《人工智能標(biāo)準(zhǔn)化白皮書2018》,論述了人工智能的安全、倫理、隱私等問題,并設(shè)定了相應(yīng)的倫理要求和共識(shí)原則。

可以看出,自2015年以來,不論是國(guó)家級(jí)別的頂層設(shè)計(jì),還是專業(yè)組織的呼吁倡議,人工智能的研究主要集中在倫理方面。

但這些倫理準(zhǔn)則在實(shí)操過程中卻面臨執(zhí)行困難問題,其根本原因在于,倫理準(zhǔn)則屬于“軟性約束”,缺少相配套的落地機(jī)制,比如法律監(jiān)管、行業(yè)約束等等,容易形成道德漂白(ethics washing)。

因而,在倫理準(zhǔn)則的基礎(chǔ)上,學(xué)術(shù)界開始了「可信AI」的討論與探索。

所謂「可信AI」,根據(jù)中國(guó)信通院發(fā)布的《可信人工智能白皮書》的定義,可以理解為一種方法論,即“從技術(shù)和工程實(shí)踐的角度,落實(shí)倫理治理要求。”

國(guó)內(nèi)關(guān)于可信AI的討論最早可追溯至2017年香山科學(xué)會(huì)議,由何積豐院士提出的“人工智能技術(shù)應(yīng)該具備可信的品質(zhì)?!辈膶W(xué)術(shù)研究角度,將可信AI的研究范圍放在安全性、公平性、可解釋性、隱私保護(hù)等方面。

國(guó)際上對(duì)于可信AI的研究在近幾年也呈爆發(fā)趨勢(shì),2020年關(guān)于可信AI的研究論文比2017年增長(zhǎng)近5倍,國(guó)際先進(jìn)人工智能協(xié)會(huì)(AAAI)連續(xù)數(shù)年舉辦了 Explainable AI 研討會(huì)。

學(xué)術(shù)界的影響也蔓延至政府,后者開始在人工智能倫理準(zhǔn)則之上,強(qiáng)調(diào)“治理”。

2020年,歐盟發(fā)布《人工智能白皮書》,提出人工智能“可信生態(tài)系統(tǒng)”,對(duì)高風(fēng)險(xiǎn)人工智能系統(tǒng)提出強(qiáng)制性監(jiān)管要求;同年,美國(guó)也發(fā)布了《促進(jìn)政府使用可信人工智能》的行政命令。

我國(guó)在可信AI方面,先后發(fā)布了《國(guó)家新一代人工智能標(biāo)準(zhǔn)體系建設(shè)指南》《新一代人工智能倫理規(guī)范》等文件。

綜合人工智能倫理規(guī)范和可信AI相關(guān)的學(xué)術(shù)研究和行政文件,可以總結(jié)出,當(dāng)前的AI治理「價(jià)值觀」體現(xiàn)在“以人為本,AI向善”,具體則表現(xiàn)為公平(無歧視)、透明(可解釋)、無害(不作惡)等等。

而在這種價(jià)值觀的指引下,作為AI落地的實(shí)際推動(dòng)者,產(chǎn)業(yè)界也開始了關(guān)于AI治理的探索之路。

AI治理「方法論」

對(duì)于治理人工智能發(fā)展出現(xiàn)的的各種問題,企業(yè)作為直接相關(guān)方,起著不可或缺的作用。

一方面,在市場(chǎng)經(jīng)濟(jì)大環(huán)境下,需求對(duì)供給的反向作用非常明顯,大眾對(duì)于人工智能安全隱患的擔(dān)憂,實(shí)際上影響著企業(yè)的生存空間。

作為技術(shù)/產(chǎn)品供應(yīng)商,企業(yè)倘若不能深刻理解市場(chǎng)需求,只關(guān)注技術(shù)而忽略市場(chǎng),必然遭遇獲取用戶信任的滑鐵盧,導(dǎo)致失去市場(chǎng)。

另一方面,企業(yè)作為整個(gè)經(jīng)濟(jì)活動(dòng)中的一份子,必然要遵循「市場(chǎng)法則」(法律法規(guī)),在追求經(jīng)濟(jì)效益的同時(shí),強(qiáng)化社會(huì)責(zé)任(Corporate social responsibility)。

因此,國(guó)內(nèi)外諸多互聯(lián)網(wǎng)、AI公司先后加入了對(duì)AI治理的探索,國(guó)外如微軟、亞馬遜,國(guó)內(nèi)如騰訊、京東、曠視等等。

雷峰網(wǎng)(公眾號(hào):雷峰網(wǎng))發(fā)現(xiàn),目前多數(shù)公司的AI治理主要分三個(gè)方面:頂層設(shè)計(jì)、內(nèi)部管理、技術(shù)攻關(guān)。

以人工智能公司曠視為例:

在頂層設(shè)計(jì)方面,2019年7月,曠視公布了基于企業(yè)自身管理標(biāo)準(zhǔn)的《人工智能應(yīng)用準(zhǔn)則》,從正當(dāng)性、人的監(jiān)督、技術(shù)可靠性和安全性、公平和多樣性、問責(zé)和及時(shí)修正、數(shù)據(jù)安全與隱私保護(hù)六個(gè)維度,對(duì)人工智能正確有序發(fā)展作出明確規(guī)范。

與此同時(shí),曠視還參加了多個(gè)國(guó)家及行業(yè)規(guī)范標(biāo)準(zhǔn)制定,例如《新一代人工智能治理原則》、《新一代人工智能倫理規(guī)范》等,并成為國(guó)內(nèi)率先通過隱私保護(hù)國(guó)際標(biāo)準(zhǔn)ISO/IEC 27701的人工智能企業(yè)。

在內(nèi)部管理上,曠視主要從企業(yè)制度和架構(gòu)兩方面進(jìn)行管理。

  • 架構(gòu):2019年8月,作為業(yè)內(nèi)首個(gè)成立“人工智能道德委員會(huì)”的AI公司,曠視聚焦于研討、制定公司相關(guān)倫理道德治理的規(guī)章與管理機(jī)制,并對(duì)公司業(yè)務(wù)中涉及到的重大倫理問題進(jìn)行決議;

    2020年1月,曠視又成立AI治理研究院,旨在聯(lián)合國(guó)內(nèi)頂尖研究機(jī)構(gòu),積極探索AI道德倫理與治理工作的落地路徑。

  •  制度:除了發(fā)布《人工智能應(yīng)用準(zhǔn)則》這類綱領(lǐng)性文件,曠視還出臺(tái)了《數(shù)據(jù)分類分級(jí)管理規(guī)范》、《員工信息安全守則》等細(xì)則,在內(nèi)部形成規(guī)范化管理。

    與此同時(shí),曠視倡導(dǎo)客戶遵循《數(shù)據(jù)安全聲明》、《正確使用人工智能產(chǎn)品倡議書》,形成行業(yè)「合力」。

對(duì)于技術(shù)攻關(guān),曠視目前主要集中在數(shù)據(jù)安全和隱私保護(hù)、算法的安全性、穩(wěn)健性等問題。

例如,曠視研發(fā)的前端圖像脫敏方案,是目前業(yè)內(nèi)率先實(shí)現(xiàn)在采集端就能完成人臉圖像的不可逆脫敏,來加強(qiáng)個(gè)人信息保護(hù)。

而在AI基礎(chǔ)平臺(tái)研發(fā)上,曠視主張通過研發(fā)面向數(shù)據(jù)安全和隱私保護(hù)的AI平臺(tái),實(shí)現(xiàn)從需求提出到交付的全流程一體化數(shù)據(jù)安全及隱私保護(hù),相關(guān)成果將進(jìn)行試點(diǎn)推廣。

值得一提的是,曠視還聯(lián)合人民智庫、中國(guó)人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟等專業(yè)機(jī)構(gòu)、組織,發(fā)布“全球十大人工智能治理事件”評(píng)選榜單,以議題設(shè)置的方式,聯(lián)動(dòng)各方對(duì)AI治理進(jìn)行持續(xù)關(guān)注與深度討論,通過多元交流,共同推動(dòng)AI治理走向規(guī)范化。

目前,該榜單已持續(xù)三屆,針對(duì)2021年度全球十大人工智能治理事件,來自不同領(lǐng)域的專家表達(dá)了類似的觀點(diǎn)。

中國(guó)信息通信研究院副總工程師、中國(guó)人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟副秘書長(zhǎng)王愛華認(rèn)為,2021年是全球人工智能治理極具實(shí)質(zhì)性突破的一年,縱觀全年的治理事件,全球人工智能治理呈現(xiàn)出“趨實(shí)、趨嚴(yán)、趨細(xì)”三大特點(diǎn)。

清華大學(xué)公共管理學(xué)院教授、人工智能國(guó)際治理研究院副院長(zhǎng)梁正同樣表示,人工智能治理已經(jīng)成為全球共識(shí),且已從理念層面進(jìn)入到建章立制、落地實(shí)施的階段。

從曠視的人工智能治理探索中不難發(fā)現(xiàn),多數(shù)企業(yè)采取的是自上而下的方式,即建立規(guī)章制度,先保證企業(yè)自身的技術(shù)、制度合規(guī)性,再通過企業(yè)實(shí)踐和行業(yè)研討來共識(shí)產(chǎn)業(yè)方向。

而在當(dāng)下的人工智能治理中,自下而上的基于應(yīng)用主體和用戶選擇的參與,也成為人工智能治理的一個(gè)重要方法。

需要指明的是,當(dāng)前的AI治理仍然處于探索期,如何引導(dǎo)人工智能進(jìn)一步規(guī)范發(fā)展,仍有待市場(chǎng)經(jīng)濟(jì)環(huán)境下,供給、需求、監(jiān)管等多方在「磨合」后,達(dá)成「共識(shí)」。

正如曠視聯(lián)合創(chuàng)始人兼CEO印奇所言:“AI不僅要在技術(shù)創(chuàng)新和應(yīng)用落地上下功夫,也需在治理上使力氣,這離不開所有AI從業(yè)者和社會(huì)各界的共同努力?!?/p>

結(jié)語

回到最初的「電車難題」,在這個(gè)場(chǎng)景中,人不得不面臨道德困境,AI或許能破解這個(gè)困局。但隨之而來的AI治理相關(guān)的難點(diǎn),又成為AI發(fā)展過程中必須要回答的問題。

如今,AI行業(yè)在多方的努力下已邁出實(shí)質(zhì)性的一步:在規(guī)范中發(fā)展,在發(fā)展中規(guī)范。

在正確「價(jià)值觀」的引導(dǎo)下,作為改變世界的技術(shù),人工智能也將快速走進(jìn)日常生活,造福大眾。

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

分享:
相關(guān)文章

編輯

緊跟科技最前沿
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說