丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
金融科技 正文
發(fā)私信給周蕾
發(fā)送

0

王強(qiáng):AI金融偽場景眾多,為何應(yīng)重倉三維視覺與開放金融平臺? | CCF-GAIR 2019

本文作者: 周蕾 2019-08-14 21:22 專題:CCF-GAIR 2019
導(dǎo)語:“其實在AI在金融領(lǐng)域的應(yīng)用進(jìn)展很慢,也沒有切實解決金融行業(yè)的痛點。張鈸院士曾在CCF-GAIR中談到:AI并不是技術(shù)發(fā)展比較緩慢,而是它缺乏常識。”

 王強(qiáng):AI金融偽場景眾多,為何應(yīng)重倉三維視覺與開放金融平臺? | CCF-GAIR 2019

雷鋒網(wǎng)按:2019第四屆全球人工智能與機(jī)器人峰會(CCF-GAIR 2019)于深圳正式召開。峰會由中國計算機(jī)學(xué)會(CCF)主辦,雷鋒網(wǎng)、香港中文大學(xué)(深圳)承辦,深圳市人工智能與機(jī)器人研究院協(xié)辦,得到了深圳市政府的大力指導(dǎo),是國內(nèi)人工智能和機(jī)器人學(xué)術(shù)界、工業(yè)界及投資界三大領(lǐng)域的頂級交流博覽盛會,旨在打造國內(nèi)人工智能領(lǐng)域極具實力的跨界交流合作平臺。

IEEE Fellow、前美國Fiserv東亞及東南亞總裁王強(qiáng)博士帶來了題為《3D人臉識別與開放金融平臺》的主題演講。

王強(qiáng):AI金融偽場景眾多,為何應(yīng)重倉三維視覺與開放金融平臺? | CCF-GAIR 2019

以下為王強(qiáng)博士演講全文,雷鋒網(wǎng)做了不改變原意的編輯如下:

我今天跟大家分享的是,將會對金融支付產(chǎn)生重要影響的三維視覺及開放銀行框架。

大家知道金融領(lǐng)域,最關(guān)鍵的問題之一是身份識別KYC(know your customers),KYC最難的地方在于怎么識別你的客戶,這在金融場景獲客、反欺詐、風(fēng)控和貸后環(huán)節(jié)非常關(guān)鍵,我的一個觀點是:金融場景都是偽場景,只有獲得便捷高頻支付的金融場景才是真正可靠的金融場景。

大家知道現(xiàn)在iPhone X可以做人臉支付,人臉支付也存在了好多年,表面看起來應(yīng)用也較為成熟,但其實它不斷面臨的難題和新挑戰(zhàn)一直困擾著全球?qū)W術(shù)和產(chǎn)業(yè)界。行業(yè)有這么一個現(xiàn)象,每一項新技術(shù)的突破,背后也將不斷涌現(xiàn)出新的安全破解方法。

其實蘋果三維人臉識別的部分專利,也是由我的團(tuán)隊所研究。而我今天在這里面將會給大家,分享什么樣的三維人臉識別算法,可以在工業(yè)界達(dá)到頂尖的安全標(biāo)準(zhǔn),抵御風(fēng)險,并能高于指紋、聲維等生物特征支付的安全性,并具備極高的防抵賴和防破解能力。

從二維到三維,計算機(jī)視覺發(fā)展之路

我們知道,近些年ResNet和GAN的發(fā)展對AI起到了非常大的幫助。現(xiàn)在我們把時間撥回到上個世紀(jì),計算機(jī)視覺之父David Marr曾把計算機(jī)視覺分為三個階層。

王強(qiáng):AI金融偽場景眾多,為何應(yīng)重倉三維視覺與開放金融平臺? | CCF-GAIR 2019

  • 二維基素圖(2-D sketch)

視覺過程的第一個階段,以人臉圖像來看,是圖像中強(qiáng)度變化劇烈處的位置及其幾何分布和組織結(jié)構(gòu),人臉中用到的包括斑點、端點、邊緣片斷、有效線段、線段組、曲線組織、邊界等基元,這些稱為人臉基素圖,都是在檢測零交叉的基礎(chǔ)上產(chǎn)生。目前人臉識別大都是二維圖像,這也是處理第一步進(jìn)行零交叉檢測生產(chǎn)人臉基元。

Marr認(rèn)為所有圖像的變化,都是從視覺和感覺兩個方向看待的。人臉一旦有明暗或者有一個完全突變的過程,他認(rèn)為這就是一個元素。這一階段的目的在于把原始人臉二維圖像中的重要信息更清楚地表示出來。

  • 2.5維要素圖

這是視覺過程的第二階段,拿人臉來說,通過RGB等處理,將線條、點和斑點以不同的方式組織起來而獲得2.5維人臉圖。以人眼的仿生視覺過程被稱為中期視覺。2.5維人臉圖是在以觀察者為中心的坐標(biāo)系中,可見表面的法線方向、大致的深度以及它們的不連續(xù)輪廓等要素,其中用到的基元包括可見表面上各點的法線方向、和各點離觀察者的距離(Deep)、深度上的不連續(xù)點、表面法線方向上的不連續(xù)點等等。

由于這個階段中包含了深度的信息,因而比二維人臉圖像要多,但還不是真正的三維表示,所以得名2.5維人臉圖,大家可能看得比較清楚。你用人眼視角看,不能完全看到整個三維的情況,后面會有遮擋的情況。按Marr的理論,這個階段是由一系列相對獨立的處理模塊組成的。

這些處理模塊包括:體現(xiàn)、運動、由表面明暗恢復(fù)形狀、由表面輪廓線恢復(fù)形狀、由表面紋理恢復(fù)形狀等。它的作用是揭示一個圖像的表面特征。Marr指出,早期任何視覺加工的目標(biāo)就是要建立一個2.5維的要素圖,這是把一個表面解釋為一個特定的物體或一組物體之前的最后一步。

  • 基于二到二點五到三維重建的技術(shù)的三維模型表征(3-D model representation)

他是以人臉為中心的坐標(biāo)系中,用含有體積基元(即表示形狀所占體積的基元)和面積基元的模塊化分層次表象,描述形狀和形狀的空間組織形式,其表征包括容積、大小、形狀及姿態(tài)變化后體積基元的變化,包括現(xiàn)在成熟一些的云三維重建技術(shù)等,這個領(lǐng)域全球的科學(xué)家從1980年耕耘到現(xiàn)在將近有40年。進(jìn)度一直受限于很多原因:一是傳感器和算力,二是攝像機(jī)和三維人臉樣本庫及標(biāo)注。

早期三維攝像機(jī)都非常昂貴,動輒幾十萬美金,成本一般人確實無法承受,同時獲取圖像基素符號也受到距離和精度的影響。

在這其中,三維世界里最難處理的問題是姿態(tài)的調(diào)整,面對物體剛性的變化,三維重建比較容易解決;但面對柔性剛體的對象,比如人臉這類柔性姿態(tài)形變的時候,三維技術(shù)就很難處理。

三維視覺技術(shù)關(guān)鍵之一:三維重建

三維重建分為接觸類、非接觸類和透視類三大類。

  • 接觸式三維重建:包括3D打印、3D掃描、三維機(jī)械鑄造等;

  • 透視類三維重建主要在醫(yī)學(xué)領(lǐng)域,包括MR和CT等醫(yī)療影像領(lǐng)域;

  • 非接觸式三維重建包含光學(xué)與非光學(xué)兩類:

非光學(xué)三維重建,比較常見為激光雷達(dá)和聲納等方式,現(xiàn)在激光雷達(dá)的發(fā)展非常迅速,但它的最大問題是效率較低;而聲納的優(yōu)勢在于掃描寬度很大,但精度不夠。激光雷達(dá)和聲吶的三維重建更多用于工業(yè)場景,對于生活場景和金融場景是做不到的。

光學(xué)重建有分為被動光學(xué)和主動光學(xué)的重建。三維重建里有三類最為重要光學(xué)重建技術(shù):主動光學(xué)的TOF、結(jié)構(gòu)光和被動光學(xué)的雙目和奪目立體視覺;結(jié)構(gòu)光有分為編碼結(jié)構(gòu)光和散斑結(jié)構(gòu)光。

王強(qiáng):AI金融偽場景眾多,為何應(yīng)重倉三維視覺與開放金融平臺? | CCF-GAIR 2019

TOF

王強(qiáng):AI金融偽場景眾多,為何應(yīng)重倉三維視覺與開放金融平臺? | CCF-GAIR 2019

雙目立體視覺(Binocular Stereo Vision)

王強(qiáng):AI金融偽場景眾多,為何應(yīng)重倉三維視覺與開放金融平臺? | CCF-GAIR 2019

3D結(jié)構(gòu)光

結(jié)構(gòu)光最常見的應(yīng)用場景就是iPhoneX的刷臉解鎖。其實蘋果十年前就在布局結(jié)構(gòu)光技術(shù),其中部分專利來自當(dāng)時我所負(fù)責(zé)的團(tuán)隊和一家以色列公司合作研發(fā)的。其實蘋果的3D結(jié)構(gòu)光技術(shù)首先得感謝微軟的一代Kinect,它是這一技術(shù)大規(guī)模應(yīng)用的集大成者。

目前按照移動設(shè)備領(lǐng)域,據(jù)報道,TOF領(lǐng)域全球布局的手機(jī)巨頭只有OPPO一家。應(yīng)用編碼結(jié)構(gòu)光的有小米、VIVO、應(yīng)用散斑結(jié)構(gòu)光只有蘋果一家;雙目立體光主要是華為。

而主動光源主要基于RGB 及D(深度信息),研究者從RGB及灰度中提取斑點、端點、邊緣片斷、有效線段、線段組、曲線組織、邊界等紋理變化基素;從D(Deep)提取表面上各點的法線方向、和各點離觀察者的距離(Deep)、深度上的不連續(xù)點、表面法線方向上的不連續(xù)點等曲面特征和紋理特質(zhì)進(jìn)行三維點云重建等來打造工業(yè)場景。預(yù)估蘋果也在被動光學(xué)里布局雙目立體。

無論是TOF、結(jié)構(gòu)光還是雙目立體,他們目前在人臉識別領(lǐng)域還面臨很多問題。

TOF是不可見的面積光,人臉面積最大也就是500-600平方厘米,TOF的一面光打過來大概會有30多萬個有效深度信息點,30萬點掃描到人臉時,像素的精度差不多到微米級,1/10毫米的精度。它所獲得你的景深、RGB值、灰度值是非常準(zhǔn)確的。同時它獲得最關(guān)鍵的值是人臉的表面紋理、深度紋理及法線曲度等細(xì)粒度特征信息,其結(jié)果也非常精確。

結(jié)構(gòu)光目前最多現(xiàn)在有10萬個點,iPhone X的散斑結(jié)構(gòu)光方案是3萬個結(jié)構(gòu)光點,所有投射過來通過類毛玻璃慢衍射形成的斑點集合,用統(tǒng)計學(xué)原理及互相關(guān)函數(shù)等來模擬三維結(jié)構(gòu)化重建過程。

從光學(xué)的角度來說,采集到基素及要素信息之后,如何進(jìn)行快速計算,然后再用三維場景重建,現(xiàn)在所有的方法都是2維變成2.5維。David  Marr提到的方式,也是二維到二點五維到三維。在這個過程中大家用了很多方法包括幾何方法、統(tǒng)計學(xué)方法及點云等進(jìn)行三維重建,其實沒有太多大的進(jìn)展。

三維人臉識別五大挑戰(zhàn)及解決思路

三維最高端的應(yīng)用場景就是三維人臉識別,但它面臨很多的挑戰(zhàn):

  1. 姿態(tài)的變化

    比如蘋果人臉解鎖,人的雙目需要緊盯著它的屏幕,否則就無法解鎖;此外,如果人的身體有后仰或者張嘴大笑,也無法解鎖,不過如果你經(jīng)常笑,它可以自動學(xué)習(xí)進(jìn)行解鎖。

  2. 離線學(xué)習(xí)能力

    iPhoneX如此大的出貨量,仍舊保持超高體驗的三維人臉識別率,可見其背后的離線學(xué)習(xí)能力之強(qiáng)大。像國內(nèi)業(yè)內(nèi)知名的人臉識別公司,他們的算法縱使厲害,但在如此大規(guī)模的實際場景中,它們的三維人臉可以脫離GPU或TPU,實現(xiàn)多大規(guī)模的高效離線計算呢?目前他們還沒有這么大的用戶量去考驗。

    三維人臉識別最大的障礙是算力不夠,我們沒有像樣的芯片。據(jù)相關(guān)資料分析,目前能提供這樣芯片的大概有5家,國內(nèi)一家、微軟、英特爾、蘋果、Mantis Vision,同時這些芯片幾乎都是輸出RGB和D值,提供基素信息,但是復(fù)雜的要素檢測、三維重建、標(biāo)注、識別及姿態(tài)矯正、局部到全局的泛化需要具有嵌入各類模型算法的算力芯片。

    從數(shù)據(jù)上看,我們認(rèn)為目前算力最強(qiáng)的,還是蘋果收購的PrimeSense,它可以做離線運算出RGBD值及三維重建模型匹配給蘋果A11-A12運算器進(jìn)行人臉模型計算,將復(fù)雜模型計算進(jìn)行分布式部署,同時三維人臉模型數(shù)量遠(yuǎn)遠(yuǎn)低于二位人臉模型數(shù)量(以商湯240特征點模型為例來比較),降低芯片算力要求。

    這里我需要強(qiáng)調(diào)一點,并不是所有算法都可以進(jìn)行離線運算,它后臺要有結(jié)構(gòu)化分布式的算法邏輯模型及少量的模型數(shù)量才能保證降維情況下離線運算,要樣本少、維度低才可以做到。

  3. 誤解率

    蘋果號稱有百萬分之一的誤解率,國內(nèi)好幾家也達(dá)到這個級別。目前沒有足夠的數(shù)據(jù)支撐它達(dá)到這么高,相關(guān)的原理也沒有公開過。

  4. 算力

    芯片的能力,具備結(jié)構(gòu)化的分布式算法模型計算能力,要求基素、要素及特征模型分布式協(xié)調(diào)并行計算能力,既有分布式又有交互計算的運算框架,這個要求很高,對芯片的多框架計算能力設(shè)計非常嚴(yán)謹(jǐn)和苛刻。

  5. 第一次注冊效率

    第一次的注冊用時非常關(guān)鍵,注冊時需要很強(qiáng)的少樣本帶自標(biāo)注的自學(xué)習(xí)能力。

來看下我們后面的方案:

原來我在CMU時的前輩團(tuán)隊用三維相機(jī)做幾何建模,包括立體光幾何的建模,這屬于被動的建模。

發(fā)展到現(xiàn)在,我在美國時團(tuán)隊的第一次在全球開始使用主動光學(xué)的建模:散斑結(jié)構(gòu)光的建模方式,當(dāng)時結(jié)構(gòu)光只有3千多個,現(xiàn)在蘋果發(fā)展得很快。

三維建模方式另一個主要關(guān)鍵是三維人臉庫的問題,現(xiàn)在大容量帶標(biāo)注的三維人臉庫非常少,我們團(tuán)隊最近幾年嘗試使用S+U方法進(jìn)行三維人臉庫重建及圖像自標(biāo)注研究,人臉方面當(dāng)然這些前提是有獲得RGBD等基素,并具備了三維重建模型基礎(chǔ)進(jìn)行的。

S+U是SimGAN S+U模擬融合無監(jiān)督學(xué)習(xí)算法,是模擬+非監(jiān)督學(xué)習(xí)。

這套算法的實現(xiàn)過程,它做的第一件事,是先解決粗粒度生產(chǎn)圖像問題,而且粗粒度圖不可出現(xiàn)偏差,那需要對生成圖像剛體進(jìn)行自標(biāo)注;我們用GAN做對抗學(xué)習(xí),但GAN它存在很多問題,一個是局部的對抗損失或者注重的細(xì)節(jié)沒有做到全局。最關(guān)鍵的是怎么做黑盒模擬器,黑盒模擬器集成了GAN加了CNN的算法,我們在里面做了一個10×10的Resnet放在里面。

王強(qiáng):AI金融偽場景眾多,為何應(yīng)重倉三維視覺與開放金融平臺? | CCF-GAIR 2019

這個過程中,模擬器的做法是,當(dāng)你的手機(jī)拍到正常臉時,它看到的是真實照片,模擬器幫你模擬出了合成的圖像,合成圖像是低粒度細(xì)節(jié)的,并對剛體進(jìn)行標(biāo)注例如眼珠。這是第一個關(guān)鍵問題。

第二,為了保證圖像更逼真,我們做了細(xì)粒度的網(wǎng)絡(luò),把合成的圖像做細(xì)?;?/strong>,細(xì)?;^程要求你要了解所有人面部的所有細(xì)節(jié)特征、曲面、以及所有紋理,這些數(shù)據(jù)要采集回來,做細(xì)粒化,做細(xì)?;笞屨婺槇D像和細(xì)粒化合成臉圖像互相對抗,關(guān)鍵是如何保證學(xué)習(xí)過程不會過擬合,保證有標(biāo)注參照物,同時使用統(tǒng)計學(xué)原理保證標(biāo)注參照物不會改變情況下,那么大概率其學(xué)習(xí)不會過擬合或者出現(xiàn)問題,那么萬一出問題怎么辦?后面我們會有個懲罰方案,是多個懲罰函數(shù)模型集合。

其次一個非常重要的東西是辨識器,直到辨識器實在沒有辦法分清楚細(xì)節(jié)合成和真圖像有什么區(qū)別時,這套學(xué)習(xí)就OK了。

大家都應(yīng)該知道,iPhone X的人臉用戶注冊,大概需要5秒時間,其中需要用戶左右轉(zhuǎn)臉、點頭等動作,注冊過程是全息掃描三維圖像給你。全息掃描是1秒輸出60幀的畫面,也就是60張圖片,5秒達(dá)到了300張。

所以它會對300張圖像進(jìn)行離線學(xué)習(xí),對抗演練,用300張采集的圖像,生成300張合成圖像。然后又生成300張細(xì)?;瘓D像,把原來歷史的合成圖像扔掉,但是我們需要一個網(wǎng)絡(luò)進(jìn)行講學(xué)習(xí)歷史信息補(bǔ)償回來,他不是個自編碼網(wǎng)絡(luò),而是一個全連接網(wǎng)絡(luò),保證它萬一學(xué)習(xí)過擬合,用學(xué)習(xí)的歷史來用激勵機(jī)制補(bǔ)償它。做完這個學(xué)習(xí)之后,但發(fā)現(xiàn)合成網(wǎng)絡(luò)在學(xué)習(xí)過程中一定會有問題,他會遺失掉一些有用的數(shù)據(jù),有時會學(xué)到一些細(xì)節(jié),沒有辦法泛化整個圖像。

這里面三維結(jié)構(gòu)光帶來非常關(guān)鍵的問題,把所有立體像素RGBD做解析幾何及統(tǒng)計學(xué)的融合三維重建。相當(dāng)于把1毫米的立體點融合成為剛性的三維模型(體積、面積、法線向量、紋理及要素特征)。

這個框架是不會放在現(xiàn)在兩個對抗學(xué)習(xí)里面去,當(dāng)發(fā)現(xiàn)我有一組懲罰函數(shù)放在里面,一旦學(xué)習(xí)出了問題,會懲罰第二個網(wǎng)絡(luò),然后讓它做糾正或者補(bǔ)充,補(bǔ)充過程中就會把丟失的東西找回來。像自編碼網(wǎng)絡(luò)但不是自編碼網(wǎng)絡(luò)會用簡單、低成本找回遺失的數(shù)據(jù)信息。

下一個問題就是,我們懲罰的方案,最好的方式是能夠讓它兩個在學(xué)習(xí)過程中,使用更好的學(xué)習(xí)走樣(例如過擬合)的解決方式。預(yù)設(shè)當(dāng)我學(xué)習(xí)了三個內(nèi)容,辨識器分別不出兩張的真假,再來第三張圖片,他們?nèi)齻€同時在學(xué),組成三個網(wǎng)絡(luò)互相可以學(xué)、對抗,最后樣本會變得越來越大。這里面我們用了全的CNN網(wǎng)絡(luò)來操作RGBD等基素、要素,特別是全局法線特征向量趨勢等特征集,然后來預(yù)處理全局,三維視角里面最大的難點是預(yù)處理。這是非線性的結(jié)構(gòu)化的算法過程。

接下來,這里面有幾個關(guān)鍵的組成,我們會限制它學(xué)習(xí)的區(qū)域,不讓它做全臉學(xué)習(xí)。全臉學(xué)習(xí)是不可能的,它只會做區(qū)域限定,區(qū)域限定是根據(jù)測試結(jié)果來不停調(diào)整區(qū)域限制。再一個是本地遺失函數(shù),一旦發(fā)現(xiàn)學(xué)過擬合的時候,我們會把本區(qū)域內(nèi)遺失的數(shù)據(jù)補(bǔ)償回來。這里面還有一些歷史信息來做補(bǔ)償,還有一組懲罰函數(shù),全局法線向量趨勢泛化模型及懲罰泛化模型,這對算力的要求比較高。通過這些個方式做到對抗學(xué)習(xí),學(xué)習(xí)精度會變得越來越好。

我們進(jìn)行視覺圖靈測試,讓人選擇它所認(rèn)為真實和合成的圖像,共800張圖片,400張真實圖片中人認(rèn)為真實的有356個,400張合成圖片中人認(rèn)為真實的有342個,比例趨近于1:1;我們對400張合成圖片進(jìn)行圖靈測試,人認(rèn)為320個合成圖片是真實的圖像。從視覺圖靈測試的1:1規(guī)則變化看,合成圖像從圖靈測試角度已經(jīng)通過。

根據(jù)目前我們的合成三維圖像的表現(xiàn),在我所知的算法里是最高的,當(dāng)然還有很多未知算法的表現(xiàn)我是不知道,MPIIGaze測試表現(xiàn)目前比同行平均高出24.9點多?,F(xiàn)在平均二維人臉識別的精度是99.5%,大樣本下99.8%,MPIIGaze高24.9點多,即可達(dá)到99.9%,目前預(yù)計可就是百萬分之一的誤解率。

三維人臉技術(shù)的金融應(yīng)用情況

三維人臉工業(yè)領(lǐng)域里,在未來很多領(lǐng)域有非常多的應(yīng)用,比如身份識別,銀行對身份證識別要求非常高,開卡的時候要求人的識別準(zhǔn)確率一定是99.9%,支付的時候也必須是99.9%。同時我們所說的潛在的應(yīng)用場景,會受到硬件限制。

三維重建及人臉在醫(yī)學(xué)領(lǐng)域應(yīng)用可以用來做醫(yī)學(xué)美容,三維細(xì)粒度圖像重建與合成,細(xì)粒度的特征醫(yī)學(xué)美容會讓你的鼻子變得越來越像某個明星,真的好很多?,F(xiàn)在三維技術(shù)不是特別好的時候肯定會走樣。娛樂行業(yè),更厲害美顏需要細(xì)節(jié)化,當(dāng)然對防抵賴是沒有益處。

  • 人臉技術(shù)應(yīng)用于支付

對AI方面,我們更多的考慮是基于風(fēng)險的KYC的問題,二是嚴(yán)苛的身份識別,包括人臉的賬戶開立、支付、反欺詐、反洗錢、支付安全和支付合規(guī),金融在這個領(lǐng)域要求特別多,三維做第一人稱、第二人稱欺詐的問題一定會放在這兒。

其實金融行業(yè)最擔(dān)心的問題是你用GAN生成人臉去騙過二維人臉支付,二是擔(dān)心拿照片騙過他,三是害怕模具,尤其是通過3D打印出來的反求模具會騙過人臉,這三個確實會騙到。第四個活體檢測,活體檢測是最難的問題,你們可能也了解,現(xiàn)在所有的做人臉的廠商做活體檢測要錄一段視頻上去,要和你預(yù)存的視頻進(jìn)行做對比,回去看你這個人是不是活的,但時模型很多,很耗GPU,雖然現(xiàn)在又靜默活體,GAN依然能生成靜默活體視頻,去欺騙他。

GAN生成的視頻完全可以欺騙過全球最厲害的二位人臉識別系統(tǒng),這樣二維人臉就沒有辦法用到金融方面強(qiáng)交易安全的場景,特別是開戶、支付兩個環(huán)節(jié)。有三維人臉技術(shù)之后,15000的特征點,讓假冒幾乎成為不可能。

我們團(tuán)隊將很快會出來創(chuàng)業(yè)。我們可以看到金融最難的問題是獲客,大家都談獲客,用智能或者什么手段,其實都沒有解決最重要的問題。我這幾年一直考慮,怎么甄別你的場景?

其實真正的金融場景就是高頻和快捷的支付為入口,那么支付局面大家可知;另外怎么看你客戶的旅程,你怎么看金融服務(wù)的旅程,怎么讓金融服務(wù)的旅程和客戶的旅程能夠綁定在一起,這是很重要的,是做自己所有的行為,但是金融的過程是完全不能Match客戶行為里面的內(nèi)容,這里面有很多的維度它做不到。

這里面我們會提供一個金融大腦平臺,這個平臺第一關(guān)鍵的是KYC的身份識別(包括我們的二維人臉、三維人臉及交叉驗證信息),第二是因為場景方?jīng)]法將他的數(shù)據(jù)特別是支付交易數(shù)據(jù)給金融機(jī)構(gòu),那我們需要金融大腦嵌入到場景方,讓數(shù)據(jù)不出場景控制,而且能通過深度學(xué)習(xí)模型獲得精準(zhǔn)客戶,提升場景方轉(zhuǎn)化率,同時金融機(jī)構(gòu)會得到他想要的客戶。

原來我在沃森做的一件事是跟AMA做的商業(yè)決策搜索,剛剛和向江旭總談的情況類似,我弄了幾十萬個報告,用了一個隱馬爾可夫模型的算法來看它的詞,這個詞匯包括剛才沈劍平總也講了這個問題,你的語料庫很重要,語料庫是非常龐大的,包括某些著名搜索公司也不會建立龐大的的物料庫,因為成本太高,算不過來,3×3次方的物料,九次方的詞庫。

  • OCR應(yīng)用于征信報告

在這里我們會基于金融大腦平臺建立自己的Finacial Supermarket,是比較超級的金融平臺。這個超級平臺第一個問題是先解決線上貸款問題,貸款最關(guān)鍵的是征信報告,我們自己做OCR進(jìn)行征信報告識別,前段時間我們自己的團(tuán)隊想用一些著名AI公司OCR,但人家覺得我們給錢太少,沒有動力搞定,被迫最后我們自己做,現(xiàn)在我們的識別率到99.7,還不錯,喂報告有40多份差不多就96%多了,喂到一千多份字段級到99%。我們的算法就是圖像檢測算法,不是光學(xué),然后進(jìn)行標(biāo)注,學(xué)習(xí)。第二步太模糊的時候,可做些語義分析,最后做HHM切詞,做到三點精度就可以提到比較高。

同時里面的表格還是用人臉檢測的方法,把單元格全部切片,用FAST視角定位切片出來,像邊線不夠好的地方我們做了補(bǔ)償,差不多做了3個多月。

我們的超級平臺,里面有幾個東西比較有意思,一是金融大腦嵌入場景自學(xué)習(xí)算法模型,二是基于以O(shè)CR征信報告解析為代表的非結(jié)構(gòu)化輔助數(shù)據(jù)結(jié)構(gòu)化及驗證,三是現(xiàn)在大家都做的DMP平臺,這個DMP平臺是基于金融大腦及類腦計算,當(dāng)然關(guān)鍵還是數(shù)據(jù),強(qiáng)關(guān)聯(lián)數(shù)據(jù)和行為數(shù)據(jù),最關(guān)鍵帶場景模擬機(jī)及自學(xué)習(xí)能力;還有就是金融大腦研究,很重要,我們用Lucy的方法做IDDS的東西,我們做四庫,知識庫、常識庫,很多人只想做知識庫不做常識庫,這是誤區(qū),常識庫積累非常難,兩塊互補(bǔ)。然后進(jìn)行對抗。

我們最近研究對抗比較多,知識和常識的轉(zhuǎn)換,什么時候變成常識,我要搜索外圍所有的定理和常理來看你所有的行為,外面有很雜繞的有很多噪聲的物料庫,這個庫是我們在里面扔垃圾或者回收垃圾的庫。這里面最關(guān)鍵的是爬蟲,你去爬所有的資料,這都會扔到垃圾庫里,切掉,互相對抗學(xué),學(xué)出來最好的放到常識預(yù)備庫,然后做規(guī)則匹配,讓預(yù)備庫變成正式庫,最后面要看知識庫的責(zé)任了。和我們設(shè)計風(fēng)險模型的方式一樣,先有規(guī)則,然后才有策略,有了策略才能切分人群,按不同X值和Y進(jìn)行對照組合學(xué)習(xí)等。按照人類腦的方法做,有了常識、規(guī)則之后才會有知識。

如何實現(xiàn)開放金融平臺?

在這個超級金融平臺上,我們還會做開放的金融平臺,做了一鍵接入,包括共享SIT、共享開發(fā)、共享項目管理,包括身份平臺,特別關(guān)鍵的是我們將要共建了一些標(biāo)準(zhǔn),數(shù)據(jù)交換的標(biāo)準(zhǔn),還做了包括系統(tǒng)管理級的東西,還有場景,比較亮點的是場景沙箱,很多銀行說要場景獲客,其實看了別人的場景覺得到底能不能用,把產(chǎn)品、服務(wù)流程等東西扔進(jìn)去之后,模擬未來給他帶來收益,基于風(fēng)險的收益,權(quán)衡收益多少。

重點是,我們做的是一個平臺,同時定制化,公共平臺包括金融大腦、類腦計算、OCR、Tensor Flow、Hadoop等,還有些定制化,包括場景、開放API、面對不同產(chǎn)品的場景嵌入模型,我們完全用微服務(wù)架構(gòu)。我們這個微服務(wù)架構(gòu)不是大家想的那樣,是一個微服務(wù)可以實現(xiàn)好幾個重要功能,但是從業(yè)務(wù)邏輯實現(xiàn),我們沒有按照現(xiàn)在流行的方法做,我們的水平達(dá)不到流行的方法,我們是按照功能來切分微服務(wù)大小。NLP目前使我們團(tuán)隊短板,確實也很難,我們正在積極和一些全球著名團(tuán)隊合作。

最后,我們考慮建立基于數(shù)據(jù)安全、隱私保護(hù)、雙向鑒權(quán)和共享標(biāo)準(zhǔn)的,數(shù)據(jù)地圖,這個地圖大家比較清楚,這些都會在風(fēng)控模型上用到,這些數(shù)據(jù),從風(fēng)控角度來時第一個是看重征信報告的數(shù)據(jù),第二個是通過多方驗證的第三方數(shù)據(jù),第三個是金融支付(支付模型結(jié)構(gòu))數(shù)據(jù)。

大家知道做零售貸款,所有的行為數(shù)據(jù)都是沒有用的,都是無相關(guān)數(shù)據(jù),最重要的是征信數(shù)據(jù)。其他數(shù)據(jù)我們不太看。第二方面,目前風(fēng)控模型對所有的策略和權(quán)重都是半監(jiān)督學(xué)習(xí)、我們模式不同,使用深度學(xué)習(xí)方法,包括統(tǒng)計分析及關(guān)聯(lián)學(xué)習(xí)等,我們不會Y的值和一群X就粗暴地處理,組合式分出權(quán)重,我們更看重最后的表現(xiàn)。

當(dāng)然這些風(fēng)險要有足夠大的樣本,我們大概有15萬個客戶的樣本,額度是在日均25萬,其實模型還是較健壯的,現(xiàn)在采納了40多家銀行,我們未來目標(biāo)希望和大的金融機(jī)構(gòu)進(jìn)行合作共同建模,用歷史數(shù)據(jù)來優(yōu)化模型,同時我們開源這些模型和金融大腦平臺,真正做到超級開放平臺。

王強(qiáng):AI金融偽場景眾多,為何應(yīng)重倉三維視覺與開放金融平臺? | CCF-GAIR 2019

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

分享:
相關(guān)文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄