丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能 正文
發(fā)私信給楊曉凡
發(fā)送

0

醫(yī)學領域的AI除了看醫(yī)療影像還能做什么?谷歌帶來一個新答案:幫醫(yī)生寫醫(yī)療檔案

本文作者: 楊曉凡 2017-11-27 11:34
導語:深度學習的落地中,CV先行,NLP也不甘落后

雷鋒網 AI 科技評論按:醫(yī)療AI已經火熱了很有一陣子了,計算機視覺相關研究的進步讓醫(yī)學圖像輔助診斷改頭換面,不僅準確率日新月異,醫(yī)療影像創(chuàng)業(yè)公司也已經遍地開花。

那么除了醫(yī)療影像之外,深度學習還能以別的方式幫助醫(yī)生、服務病人嗎?答案當然是肯定的,谷歌大腦今天就發(fā)出一篇博文,介紹了他們利用深度學習幫助醫(yī)生撰寫醫(yī)療文檔的研究進展。雷鋒網 AI 科技評論把編譯博文內容及簡介論文如下。

醫(yī)學領域的AI除了看醫(yī)療影像還能做什么?谷歌帶來一個新答案:幫醫(yī)生寫醫(yī)療檔案

理解醫(yī)療對話

如果醫(yī)生能更好地與整個團隊溝通自己的想法、擔憂和未來計劃,相信肯定可以給病人帶來更高的醫(yī)療服務質量,而高質量的文檔記錄就能在這個過程中起到幫助。醫(yī)生們最想做的事情當然是多花點時間在照顧病人上,然而實際上醫(yī)生們常常需要花一半的工作時間在電子醫(yī)療檔案(EHR)中寫文檔記錄。與之相關的是,一份對醫(yī)生的調查報告中也顯示出,參與調查的醫(yī)生中超過一半都顯示出了工作超負荷、精疲力竭的某些癥狀。

為了減輕一些文本記錄的負擔,有些醫(yī)生已經開始聘請醫(yī)療速記員參與到他們的日常工作中。這些速記員跟著醫(yī)生,記錄下醫(yī)生和患者之間的溝通對話,然后在EHR中建立記錄。近期也有一項研究顯示,速記員的引入不僅提高了醫(yī)生的滿意程度,同時也提高了醫(yī)學圖表的質量和準確度。不過,醫(yī)生和患者之間對話的數(shù)量遠遠超過了現(xiàn)有的醫(yī)療速記員的工作能力。

谷歌的研究人員們了解到這一狀況后就開始考慮,谷歌的語音識別技術如今已經有了長足的發(fā)展、也已經應用在了Google Assistant、Google Home和Google Translate中,那它是否也能用來記錄醫(yī)生和病人之間的對話、幫助醫(yī)生和速記員更快地總結整理筆記呢?

在近期發(fā)表的「Speech recognition for medical conversations」論文中,谷歌的研究人員們就表明了可以為醫(yī)學對話建立自動語音識別的文本轉寫系統(tǒng)。當前多數(shù)用于醫(yī)學領域的自動語言識別(ASR)解決方案關注的重點都是轉寫醫(yī)生說的話(也就是說,是帶有可預計的醫(yī)療詞匯的單說話人語音識別);而谷歌這項研究就展示出構建出一個能夠處理多說話人的狀況的、能覆蓋從天氣到復雜醫(yī)療診斷等多種領域的自動語音識別模型也是可行的。

斯坦福大學的醫(yī)生和研究者們已經在如何提升醫(yī)生滿意度方面做了許許多多的研究,而通過這種技術,谷歌大腦的研究人員們也將與他們一起合作,更多地研究自動語音識別等深度學習的技術能夠如何幫助醫(yī)生更好地完成文檔記錄過程。在一項前瞻性研究中,谷歌的研究人員正在探究能從醫(yī)療對話中提取哪些類型的醫(yī)療相關信息,以便幫醫(yī)生節(jié)省使用EHR系統(tǒng)的時間。這項研究是完全經過病人同意的,并且為了保護病人的隱私,錄音的內容也是無法追蹤到病人身份的。

谷歌希望這些技術不僅能夠幫助醫(yī)生在每天的工作中找回醫(yī)療實踐中原有的那些快樂,更能夠幫助病人們獲得更專注、更完善的醫(yī)療關注,最終引向更好的醫(yī)療服務。

「Speech recognition for medical conversations」論文

簡介:這篇論文中介紹了作者們開發(fā)用于醫(yī)療轉寫的語音識別系統(tǒng)的經歷,這個系統(tǒng)的功能就是自動把醫(yī)生和病人間的對話自動轉錄為文字。為了達到這個目標,谷歌的研究人員們沿著兩個思路構建了這個系統(tǒng):一個是基于音素的連接性時間分類(Connectionist Temporal Classification)模型,另一個是基于字母“聆聽、關注、拼寫”(Listen Attend and Spell)的模型。為了訓練這些模型,谷歌的研究人員們用了大約1萬4千小時的匿名對話語音及轉寫結果作為語料。由于轉寫結果中有一些噪音以及對齊的問題,谷歌的研究人員們花費了相當多的精力研究如何清洗這些數(shù)據(jù),并構造了一個用于數(shù)據(jù)分割的兩步策略。

對于基于CTC的模型來說,數(shù)據(jù)清洗并構建一個對應的語言模型是成功的關鍵。而基于LAS的模型,谷歌的研究人員們發(fā)現(xiàn)它們對對齊、轉寫噪聲都有很高的抵抗性,并且不需要使用語言模型。最終,CTC模型可以達到20.1%的單詞錯誤率,LAS模型則可以達到18.3%。作者們的分析表明,兩個模型在關鍵的醫(yī)療用語上都有優(yōu)秀的表現(xiàn),確實可以用于實際的醫(yī)療對話轉寫中。

論文地址:https://arxiv.org/abs/1711.07274 

via Google Research Blog,雷鋒網 AI 科技評論編譯

相關文章:

從MICCAI2017收錄論文一窺人工智能醫(yī)療的最近進展 | AI研習社公開課總結

專訪北京大學王立威教授:阿里天池醫(yī)療AI冠軍團隊是如何煉成的?

雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知

醫(yī)學領域的AI除了看醫(yī)療影像還能做什么?谷歌帶來一個新答案:幫醫(yī)生寫醫(yī)療檔案

分享:
相關文章

讀論文為生

日常笑點滴,學術死腦筋
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說