丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
醫(yī)療科技 正文
發(fā)私信給李雨晨
發(fā)送

0

從510(k)和預(yù)認證計劃來看,F(xiàn)DA對醫(yī)療AI審批的制度性隱患

本文作者: 李雨晨 2020-01-25 14:44
導(dǎo)語:FDA前局長Scott Gottlieb曾表示,政府監(jiān)管機構(gòu)需要確保其創(chuàng)新產(chǎn)品的方法“是有效的、能夠促進創(chuàng)新、而不是阻礙創(chuàng)新”。

從510(k)和預(yù)認證計劃來看,F(xiàn)DA對醫(yī)療AI審批的制度性隱患

(圖片來源:Lynne Shallcross / KHN)

雷鋒網(wǎng)按:本文譯自KHN,作者Liz Szabo,雷鋒網(wǎng)對其進行了編譯。文章的基調(diào)略顯悲觀,言語之中對醫(yī)療AI多有批評。誠然,現(xiàn)階段醫(yī)療AI有很多不足的地方。想要真正獲得世人的認可,醫(yī)療AI要做的事情還有很多,這既需要創(chuàng)業(yè)者能夠腳踏實地、保持初心,也需要我們對AI尤其是醫(yī)療AI這個新事物保持足夠的信心。

從虛擬醫(yī)生到可穿戴式設(shè)備和藥房里的對話機器人,基于AI的健康產(chǎn)品正在快速進入我們的生活。

美國加州的Scripps Research公司心臟病專家兼執(zhí)行副總裁Eric Topol博士說:“在30多年的醫(yī)學(xué)研究中,我發(fā)現(xiàn)沒有像AI一樣具有影響力和變革性的東西。AI幫助醫(yī)生解釋心臟的核磁共振圖像、頭部CT的圖像和眼底照片,還能夠處理很多瑣碎的事情,讓醫(yī)生騰出更多的時間來關(guān)護病人。”

就連過去5年批準了40多種人工智能產(chǎn)品的FDA也表示,“數(shù)字健康的潛力是革命性的?!?/p>

然而,一個行業(yè)的成長不是一帆風順的,畢竟醫(yī)療AI還處于很早期的階段。因此,就有許多醫(yī)療行業(yè)專家擔心,基于AI的產(chǎn)品將無法達到宣傳的效果。許多醫(yī)生和保護用戶權(quán)益的人士擔心,以“不斷試錯、不斷迭代”為信條的科技行業(yè)正在把病人置于危險之中,而監(jiān)管機構(gòu)在保護用戶安全方面顯然做得不夠。

沒有人希望AI失敗

斯坦福大學(xué)生物醫(yī)學(xué)倫理學(xué)中心的兒科教授Mildred Cho說,現(xiàn)在市面上的早期人工智能產(chǎn)品(的實際表現(xiàn)),提醒我們在研發(fā)、部署的過程中應(yīng)該謹慎再謹慎。

Cho說,在一家醫(yī)院開發(fā)的系統(tǒng)在另一家醫(yī)院部署時經(jīng)常會失敗。事實證明,應(yīng)用于數(shù)百萬美國人的AI產(chǎn)品已經(jīng)顯示出對少數(shù)族裔的歧視,而且AI系統(tǒng)有時會根據(jù)與疾病無關(guān)的因素做出預(yù)測。

在一個案例中,AI軟件錯誤地得出結(jié)論:患有哮喘的肺炎患者死亡的可能性較小。這一錯誤可能會讓醫(yī)生對哮喘患者的病情放松警惕。

克利夫蘭診所的心臟病學(xué)主席Steven Nissen博士說:“這種情況(AI作出錯誤判斷)導(dǎo)致嚴重的事故只是時間問題?!?/p>

研究公司Gartner在2019年7月份的一份報告中總結(jié)道,僅在2019年第三季度,醫(yī)療AI產(chǎn)品就吸引了16億美元的風險資金,“幾乎處于虛高預(yù)期的頂峰” 、“隨著現(xiàn)實的考驗,醫(yī)療AI可能會陷入幻滅的低谷”。

即便是《Deep Medicine:How Artificial Intelligence Can Make Healthcare Human Again》一書的作者Topol也承認,許多人工智能產(chǎn)品不過是空話,“這是一個大雜燴?!?/p>

風險投資公司Venrock的合伙人Bob Kocher等專家則直言不諱,“大多數(shù)人工智能產(chǎn)品幾乎沒有證據(jù)支持它們,”Kocher說,“在人工智能系統(tǒng)被大量患者使用之前,一些風險不會變得明顯。我們將繼續(xù)發(fā)現(xiàn)在醫(yī)療數(shù)據(jù)上使用人工智能的一系列風險和意想不到的后果。”

Topol說,在美國銷售的人工智能產(chǎn)品都沒有經(jīng)過隨機臨床試驗的測試,而隨機臨床試驗是最有力的醫(yī)學(xué)證據(jù)來源。第一個也是唯一一個人工智能系統(tǒng)的隨機試驗——計算機輔助診斷的結(jié)腸鏡檢查比標準方式發(fā)現(xiàn)更多的息肉于2019年10月在線發(fā)表。

《歐洲臨床研究雜志》2019年1月發(fā)表的一篇文章稱,很少有科技初創(chuàng)公司在同行評審的期刊上發(fā)表研究成果,而同行評審的期刊可以讓其他科學(xué)家審查他們的工作。這種只在新聞稿或公開活動中描述的“秘密研究”,往往夸大了一家公司的成就。

軟件開發(fā)人員可能會高估人工智能設(shè)備的準確性。專家指出,這是因為,人工智能模型大多是在計算機上測試的,而不是在醫(yī)院或者其他醫(yī)療機構(gòu)。斯坦福大學(xué)醫(yī)療保健學(xué)院AI臨床整合醫(yī)學(xué)信息學(xué)總監(jiān)Ron Li博士說,使用未經(jīng)驗證的軟件“可能會使患者成為不知情的豚鼠”。

除此之外,學(xué)習識別數(shù)據(jù)模式的人工智能系統(tǒng)通常被描述為“黑匣子”——開發(fā)人員也不知道是如何得出結(jié)論的。威斯康星大學(xué)麥迪遜分校法律與生物倫理學(xué)教授Pilar Ossorio表示,考慮到人工智能是如此新的事物,而且它的許多風險還不為人知道,這個領(lǐng)域需要仔細的監(jiān)管。

然而,大多數(shù)人工智能設(shè)備并不需要FDA的批準。

Kocher說:“我所投資的公司都不受FDA的監(jiān)管?!?/p>

2016年,美國國會通過了一項法案,將許多類型的醫(yī)療軟件排除在聯(lián)邦審查之外,其中包括某些健身應(yīng)用、電子健康記錄和幫助醫(yī)生做出醫(yī)療決定的工具,這項法案得到了科技行業(yè)的支持。

美國國家醫(yī)學(xué)研究院12月17日發(fā)布的一份關(guān)于人工智能的報告顯示,很少有關(guān)于目前使用的32萬個醫(yī)療應(yīng)用是否真的能改善健康的研究。

長期以來,F(xiàn)DA一直將注意力集中在對患者構(gòu)成最大威脅的設(shè)備上。消費者權(quán)益保護人士也承認,與診斷或治療疾病的設(shè)備相比,一些幫助人們計算日常步數(shù)的設(shè)備只需要較少的檢查。

2018年《內(nèi)科醫(yī)學(xué)年鑒》的一項研究顯示,即使有法律要求,一些軟件開發(fā)人員也不用申請FDA批準或授權(quán),他們對進行昂貴而耗時的試驗興趣不大。

博思艾倫咨詢公司的負責人、美國國家科學(xué)院報告的合著者Joachim Roski說,“這些公司主要關(guān)心的不是將自己提交給同行評議的期刊進行嚴格的評估?!?/p>

但西雅圖艾倫人工智能研究所(Allen Institute for AI)首席執(zhí)行官Oren Etzioni表示,從經(jīng)濟的層面來說,人工智能的開發(fā)商確實需要保證自己產(chǎn)品的安全性。

Etzioni說:“如果快速失敗意味著很多人會死去,我認為我們不希望快速失敗。”“如果有人死亡或嚴重受傷,沒有人會高興,包括投資者?!?/p>

放寬準入標準,F(xiàn)DA做對了嗎?

近年來,F(xiàn)DA因允許銷售危險醫(yī)療設(shè)備而備受指責。國際調(diào)查記者聯(lián)盟認為,在過去10年里,這些危險醫(yī)療設(shè)備導(dǎo)致8萬人死亡、170萬人受傷。

這些設(shè)備中有許多是通過一種被稱為510(k)途徑的、有爭議的程序獲得許可使用的。該程序允許公司在沒有臨床測試的情況下銷售“中等風險”的產(chǎn)品,只要它們被認為與現(xiàn)有設(shè)備相似。

雷鋒網(wǎng)了解到,2011年,美國國家醫(yī)學(xué)研究院的一個委員會得出結(jié)論,認為510(k)程序存在根本性缺陷,F(xiàn)DA應(yīng)該將其淘汰并重新開始。

但相反的是,F(xiàn)DA正在利用這一過程為人工智能設(shè)備開綠燈。

據(jù)《美國醫(yī)學(xué)會雜志》11月的一篇文章稱,F(xiàn)DA在2017年和2018年批準的14種人工智能產(chǎn)品中,有11種通過了510(k)程序。研究稱,這些產(chǎn)品似乎都沒有進行過新的臨床試驗。

2018年,F(xiàn)DA批準了一款人工智能設(shè)備,該設(shè)備旨在幫助診斷肝癌和肺癌,其原理與20年前批準的成像軟件相似。該軟件本身已被批準,因為它被視為“基本上相當于”1976年以前銷售的產(chǎn)品。

FDA設(shè)備與放射衛(wèi)生中心的數(shù)字健康主管Bakul Patel說,今天由FDA批準的AI產(chǎn)品基本上是“鎖定的”,因此它們的計算和結(jié)果在進入市場后不會改變,F(xiàn)DA還沒有批準“解鎖”的人工智能設(shè)備。

為了應(yīng)對大量AI產(chǎn)品,F(xiàn)DA正在測試一種完全不同的數(shù)字設(shè)備監(jiān)管方法,側(cè)重于評估公司,而不是產(chǎn)品。

FDA于2017年啟動的“預(yù)認證”試點項目,目的在于“減少軟件開發(fā)人員進入市場的時間和成本”,盡可能采用“負擔最小”的系統(tǒng)。FDA官員表示,他們希望跟上人工智能軟件開發(fā)商的步伐。與X光機等傳統(tǒng)設(shè)備制造商相比,人工智能軟件開發(fā)商更新產(chǎn)品的頻率要高得多。

2017年擔任FDA局長時,Scott Gottlieb曾表示,政府監(jiān)管機構(gòu)需要確保其創(chuàng)新產(chǎn)品的方法“是有效的、能夠促進創(chuàng)新、而不是阻礙創(chuàng)新”。

根據(jù)該計劃,F(xiàn)DA將對那些“表現(xiàn)出質(zhì)量和組織卓越文化”的公司進行預(yù)先認證,這將使他們能夠提供較少的設(shè)備前期數(shù)據(jù)。

預(yù)先認證的公司可以發(fā)布帶有“流線型”審查的設(shè)備——或者完全不需要FDA審查。一旦產(chǎn)品上市,公司將負責監(jiān)控自己產(chǎn)品的安全性并向FDA匯報。蘋果、FitBit、三星、強生、Pear Therapeutics、Phosphorus、羅氏、Tidepool和 Verily Life Sciences等九家公司已被選中進行試點。

當然,高風險產(chǎn)品如用于起搏器的軟件,仍將接受FDA的全面評估。“我們絕對不希望病人受傷,”Patel說,如果需要,通過預(yù)先認證的設(shè)備可以被召回,“我們?nèi)匀挥泻芏唷o欄’?!?/p>

但研究表明,即使是低風險和中等風險的設(shè)備也會因為對患者的嚴重風險而被召回,例如,強生公司就曾召回了髖關(guān)節(jié)植入物和外科手術(shù)網(wǎng)。

所以,在寫給FDA的一系列信函中,美國醫(yī)學(xué)協(xié)會和其他機構(gòu)對允許企業(yè)監(jiān)控自身績效和產(chǎn)品安全的做法是否明智提出了質(zhì)疑。

“榮譽不代表就可以放松監(jiān)管的力度?!贬t(yī)師協(xié)會董事會主席Jesse Ehrenfeld博士說。

在10月份寫給FDA的信中,馬薩諸塞州民主黨參議員Elizabeth Warren、明尼蘇達州民主黨參議員Tina Smith和華盛頓州民主黨參議員Patty M·urray質(zhì)疑FDA是否有能力確保公司安全報告“準確、及時并基于所有可獲得的信息”。

實驗室與臨床的距離有多遠?

某些AI設(shè)備比其他設(shè)備經(jīng)過了更仔細的測試,就以去年獲批的IDx-DR產(chǎn)品為例,在2018年獲得批準之前,研究人員對10家初級保健診所的900名患者進行了一項人工智能篩選糖網(wǎng)的研究。

IDx Technologies公司的創(chuàng)始人兼執(zhí)行董事長Michael Abramoff博士說,該公司與FDA合作了八年,才把產(chǎn)品做好。

雷鋒網(wǎng)了解到,IDx-DR產(chǎn)品可以對糖網(wǎng)患者進行篩查,并將高?;颊呓榻B給眼科專家,由他們做出最終診斷。IDx-DR是第一個“自主”的人工智能產(chǎn)品,它可以在沒有醫(yī)生的情況下做出篩查決定。

目前,該公司正在初級保健診所和雜貨店安裝AI系統(tǒng),可以由具有高中文憑的員工進行操作。另外,Abramoff還購買了責任險來承保任何患者的風險。

然而,一些人工智能創(chuàng)新產(chǎn)品卻產(chǎn)生了相反的效果。

例如,一家加拿大公司開發(fā)了一款人工智能軟件,根據(jù)一個人的語言來預(yù)測患老年癡呆癥的風險。但是,個別患者的預(yù)測卻比其他患者更準確。研究報告的撰寫者之一、多倫多大學(xué)計算機科學(xué)副教授Frank Rudzicz解釋說:“可能是由于一些人不熟悉英語,不知道怎么表達,而非認知障礙。”

第二個例子是,紐約西奈山醫(yī)院的醫(yī)生們希望AI幫助他們利用X光片,來預(yù)測哪些病人有患肺炎的高風險。盡管該系統(tǒng)可以根據(jù)在西奈山拍攝的X光片做出準確的預(yù)測,但在對其他醫(yī)院拍攝的圖像進行測試時卻失敗了。

最終,研究人員意識到計算機只是學(xué)會了辨別在病人床旁拍攝的便攜式胸部X光片與在放射科拍攝之間的X光片的區(qū)別。

而對于那些病重而無法離開房間的患者,醫(yī)生傾向于使用便攜式胸部X射線檢查。這些患者本身的病就很重,發(fā)生肺部感染的風險更大也就不足為奇了。

再比如,谷歌旗下的DeepMind開發(fā)了一款基于人工智能的移動應(yīng)用程序,可以提前48小時預(yù)測哪些住院患者會出現(xiàn)急性腎衰竭。DeepMind網(wǎng)站上有文章將倫敦一家醫(yī)院使用的這一系統(tǒng)描述為“游戲規(guī)則的改變者”。

但是,根據(jù)《自然》雜志7月份的一項研究,人工智能系統(tǒng)也會對每一個正確的結(jié)果產(chǎn)生兩次錯誤警報。賓夕法尼亞大學(xué)附屬醫(yī)院放射學(xué)副教授Saurabh Jha博士說,這或許可以解釋為什么患者的腎功能沒有改善。Jha說,早期發(fā)現(xiàn)嚴重腎臟問題的任何好處都可能被高比例的“過度診斷”所稀釋,在這種情況下,人工智能系統(tǒng)會標記出不需要治療的“邊緣性”腎臟問題。

結(jié)果,谷歌對Jha的結(jié)論不予置評。

Jha說,假陽性可能會讓醫(yī)生進行不必要的檢查或停止推薦的治療方法,從而對患者造成傷害。例如,醫(yī)生擔心病人的腎臟可能會停止開布洛芬(一種對腎功能有小風險的安全止痛藥),轉(zhuǎn)而開阿片類藥物,這種藥物有嚴重的成癮風險。

斯坦福大學(xué)的Cho說,正如這些研究表明的那樣,在實驗室里取得好成績的軟件在實際場景中可能會失敗。這是因為疾病比許多計算機科學(xué)家所預(yù)期的要復(fù)雜得多,而且醫(yī)院系統(tǒng)的功能本身就不是很完善。

2019年3月,KHN發(fā)布的一項調(diào)查發(fā)現(xiàn),患者的用藥清單、實驗室檢查和過敏有時會出現(xiàn)危及生命的錯誤。

Cho說,許多AI開發(fā)人員會剔除電子健康記錄,因為它們包含了大量的詳細數(shù)據(jù)。但是這些開發(fā)人員通常沒有意識到他們的AI是在一個不健全的系統(tǒng)上構(gòu)建的,電子健康記錄是為計費而不是為患者護理而開發(fā)的,并且充滿了錯誤或丟失的數(shù)據(jù)。

非營利組織洛恩研究所的主席、心臟病學(xué)家Vikas Saini博士說,考慮到其中的風險,醫(yī)生需要介入,保護病人的利益。

Saini說:“企業(yè)家的工作要有遠見、敢于冒險,而醫(yī)生的工作是保護患者?!?/p>

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

分享:
相關(guān)文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說