丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
金融科技 正文
發(fā)私信給溫曉樺
發(fā)送

0

AI金融若不解決這些問題,等于在制造新的不可解問題

本文作者: 溫曉樺 2016-09-10 02:37
導(dǎo)語:誰來監(jiān)護(hù)監(jiān)護(hù)者?最后,人類必須有一個彼此制衡的閉環(huán)。

AI金融若不解決這些問題,等于在制造新的不可解問題

人們對新事物總是充滿恐懼。就在大家擔(dān)心無人駕駛汽車是否弊大于利的時候,AI重塑金融規(guī)律的創(chuàng)新也引起許多人對其中的法律和道德問題的顧慮。

讓一個軟件程序來決定,誰擁有投資開戶的資格,誰能夠獲得貸款(征信),應(yīng)該收取多少的費(fèi)率,甚至在主流金融體系之外的金融服務(wù)客戶都可能收獲意想不到的后果。

但也有些人認(rèn)為,沒有什么能夠比算法更公平公正了——純粹數(shù)學(xué),畢竟,不會有偏見,對吧?

“一臺機(jī)器或一個機(jī)器人將基于事實和標(biāo)準(zhǔn)來計算出決策,”紅杉軟件財政性轉(zhuǎn)型主管Steve Palomino表示,“去除人為因素意味著,人們可以基于事實和具體情況來應(yīng)用標(biāo)準(zhǔn),而不是根據(jù)偏好或個人偏見和經(jīng)驗?!?/p>

偏見問題

這個論點的缺陷之一是,算法也是人為創(chuàng)建的,通常會在連他們都意識不到的細(xì)微處隱含了偏見。這些偏見也許會被嵌入到算法當(dāng)中。比如,去年卡耐基梅隆大學(xué) 的研究者測試谷歌的算法是如何向用戶推送廣告時發(fā)現(xiàn),廣告設(shè)置中的“男性”和“女性”標(biāo)簽中,谷歌會給“男性”用戶推薦薪酬更高的招聘廣告。

更極端地說,一個人工智能引擎做出信貸決策時,也許會傾向于只認(rèn)可常春藤盟校畢業(yè)的,或者家庭收入超過30萬美元的群體。

人工智能,究其本質(zhì)而言,還不能完全控制今天的以規(guī)則為基礎(chǔ)的系統(tǒng)。在AI里面,電腦可以隨著時間的推移來學(xué)習(xí)人們通常是如何做的:通過接收信息,然后決策基于這些數(shù)據(jù)進(jìn)行征信決策,并不斷觀察結(jié)果進(jìn)行風(fēng)控。隨著它們在錯誤和正確的信息中不斷學(xué)習(xí),它們會不斷修正自己的規(guī)則和算法,然后開始作出它們自己的結(jié)論。

喬治華盛頓大學(xué)社群主義政策研究所國際事務(wù)教授兼主任Amitai Etzioni指出,無人駕駛汽車被指示不要超速,但它們也被設(shè)計了學(xué)習(xí)程序。當(dāng)周圍的汽車加速時,它也會加速。它們所謂的標(biāo)準(zhǔn)是根據(jù)周圍的參照而對結(jié)果做出調(diào)整。

同樣的原則也適用于AI交付的抵押貸款決策?!般y行告訴程序:在任何情況下都不應(yīng)該將種族作為一個標(biāo)準(zhǔn),”他說,“但程序會發(fā)現(xiàn)風(fēng)險與收入、受教育程度和郵政編碼有關(guān)——它會說‘種族也是因素之一’,因為教育與郵政編碼都有種族標(biāo)簽有聯(lián)系,那為什么我不可以把種族也作為規(guī)則標(biāo)準(zhǔn)之一?”

人工智能程序缺乏良知。咨詢公司Spitzberg Partners首席分析師Steve Ehrlich表示,“你很難將道德編碼到機(jī)器里面去——它唯一的目的是為企業(yè)尋找解決方案?!?/p>

如何制衡?

Etzioni表示,我們需要的是AI監(jiān)護(hù)者——AI系統(tǒng)伴侶,它可以確保人工智能引擎不會偏離特定值。

那AI監(jiān)護(hù)者最后就不會學(xué)壞了嗎?

“這個問題從柏拉圖一來就是個未解的難題。在柏拉圖理想的國度里,最高統(tǒng)治者是監(jiān)護(hù)者”Etzioni說道,“但是,誰來監(jiān)護(hù)監(jiān)護(hù)者?最后,人類必須有一個彼此制衡的閉環(huán)。

這就引出了第三個問題——人工智能程序的內(nèi)部運(yùn)作往往比較隱蔽,甚至他們的創(chuàng)造者也不知道其原理。換句話說,AI如同一黑盒。通過AI系統(tǒng),金融機(jī)構(gòu)做出的誰能成為他們的客戶,他們將對誰放貸,收取多少的費(fèi)率等等決定時,都將成為不可知的。

這些問題不僅僅是針對于傳統(tǒng)金融機(jī)構(gòu)的考慮。許多Fintech公司都采取了黑盒自動化決策,并嚴(yán)重依賴算法。Social Finance (SoFi)已經(jīng)宣布自己是“FICO-Free Zone(FICO自由區(qū))”,即公司在進(jìn)行貸款資格審查的過程中已經(jīng)不再需要FICO的模型進(jìn)行評分。

但沒有人知道,他們在算法了使用了什么數(shù)據(jù)。美國P2P公司Prosper的CEO Ron Suber曾表示,該公司對每個借款人分析的數(shù)據(jù)樣本達(dá)到500個,但具體的數(shù)據(jù)點又是什么呢?他們從不會說。

Ehrlich表示,讓人工智能引擎做出金融決策還引發(fā)隱私問題——這些數(shù)據(jù)的獲取或會涉及侵犯用戶的隱私。

“如果說征信公司想要看看你的社交媒體或搜索歷史來確定你的信用評分,那么銀行至少應(yīng)該告知客戶其計劃使用這些信息?!?/p>

當(dāng)然,不管有沒有人工智能,數(shù)據(jù)隱私問題都同樣存在。但人工智能程序的成功取決于它分析海量數(shù)據(jù)的能力。但與IBM的沃森和谷歌的AlphaGo不同,銀行不能將所有東西都扔進(jìn)它們的AI引擎里面。

“銀行應(yīng)該在前期公示他們將要搜集哪些信息,如何收集并用于什么地方?!?/p>

可依賴否?

使用人工智能自動化決策的另一個問題是,它們是否會使用智能合約技術(shù)自動執(zhí)行,謂之可依賴性。

“如果我們不小心,我們可能無法實現(xiàn)我們認(rèn)為通過自動化能夠做好的一切,”多倫多一名專門研究反洗黑錢規(guī)則、反恐怖主義集資、跨國資產(chǎn)追回的律師,Digital Finance Institute聯(lián)合創(chuàng)始人Christine Duhaime表示,“原因是,我們實現(xiàn)越高水平的自動化后,就越難與人類溝通問題?!?/p>

Ehrlich還指出,如果一個自動生成的決策將對客戶造成消極后果,那么這需要對其有一個保護(hù)的機(jī)制。

確保決策過程中所有被用到的數(shù)據(jù)都是精確且最新的,這對企業(yè)來說是一個特別的責(zé)任,除非用戶明確表示授權(quán),同時企業(yè)在適當(dāng)?shù)臅r候具備恰當(dāng)?shù)募夹g(shù)安保措施和隱私保護(hù)政策,并且只訪問特許儲存的數(shù)據(jù)。

Duhaime指出,在AI中還有一個危險隱患是,該技術(shù)實則將那些無法使用計算機(jī)或移動設(shè)備的殘疾人和老者排除在外了?!霸谶@樣的情況下,我們打著普惠金融的旗號,最后卻將大部分客戶拒之門外,我們實即也沒有解決銀行現(xiàn)存問題的能力。這只不過是制造了新的永遠(yuǎn)無法解決的銀行問題罷了。

AI系統(tǒng)也許也能夠被應(yīng)用于創(chuàng)造為殘疾人服務(wù)的技術(shù),“如果我們無法服務(wù)殘疾市場,那么該技術(shù)在未來創(chuàng)造出的也許是弊大于利?!?/p>

AI金融若不解決這些問題,等于在制造新的不可解問題

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

分享:
相關(guān)文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說