• <button id="rrgjj"></button>

    <button id="rrgjj"><tr id="rrgjj"><kbd id="rrgjj"></kbd></tr></button>
    <em id="rrgjj"><acronym id="rrgjj"><input id="rrgjj"></input></acronym></em>

    應用

    技術

    物聯網世界 >> 物聯網新聞 >> 物聯網熱點新聞
    企業注冊個人注冊登錄

    人工智能在醫療落地的三大攔路虎

    2019-09-11 09:36 思宇醫械觀察

    導讀:在醫療服務中使用人工智能有哪些主要風險和障礙?醫療保健系統如何確保這些因素不會給患者和醫療服務提供者帶來重大問題?醫療AI落地的途中,還有哪些難關需要克服?

    醫療器械、腦科,醫療AI,人工智能,大健康

    圖片來自“123RF”

    醫療AI可以帶來許多潛在的好處,這一點毫無爭議。但是,利益相關者也不能忘記使用該技術可能存在的風險和障礙。為了避免AI給醫療保健的潛在危害,供應商、支付方、管理人員和其他主要行業參與者需要解決技術的潛在問題,并找到克服這些挑戰的創新方法。

    近年來,人工智能已迅速成為醫療保健人員、供應商和IT開發人員討論的主要話題。醫療及相關領域的專家已經探索了AI技術的許多應用,并認識到它對未來醫療服務的潛在優點:加快醫療診斷速度、提高讀片的精度、減少醫生的工作量……這些能力可能意味著更好、更精確的治療,改善患者的治療效果,并最終降低護理成本。

    然而,新技術給人帶來的希望很容易讓人們忘記醫療器械AI化可能帶來的問題。例如:算法存在爭議,患者安全問題以及數據隱私威脅等問題,都使人工智能在醫療保健領域的應用受到質疑,并可能限制AI在醫療行業中的發展。

    在醫療服務中使用人工智能有哪些主要風險和障礙?醫療保健系統如何確保這些因素不會給患者和醫療服務提供者帶來重大問題?醫療AI落地的途中,還有哪些難關需要克服?

    第一關:存在爭論的算法與數據

    臨床醫生必須完全相信算法是準確、可靠和客觀的, AI工具才能成為常規臨床護理的一部分。然而,有時用于訓練算法的數據是有偏差的,或者算法可能被設計為偏差結果。在最近發表在新英格蘭醫學雜志(NEJM)上的一篇文章中,斯坦福大學醫學院的研究人員指出:醫療數據中的偏差或許是人們無意識引入的,最終導致有偏差的數據被帶入到醫療保健系統正常的數據中。

    相關部門應該有所作為,并清楚地了解深度學習中數據來源和數據的使用方法。這可能需要商業、學術或專有數據庫提供分析信息來提供算法研究指南。

    第二關:難以服眾的信息安全

    雖然AI評估大量數據的能力令人興奮,但患者并不相信AI工具會將他們的信息保密。

    2018年對500名患者進行的一項調查顯示,雖然大多數患者在醫療保健環境中使用AI比在銀行或零售環境中使用AI更為舒適,但AI技術仍會在醫療保健消費者中產生信任問題。只有35%的受訪者表示他們確信他們用于人工智能的數據是安全存儲的。40歲以上的消費者中有69%擔心他們的數據沒有安全存儲,而40歲以下的消費者中有58%擔心這一點。

    Frost & Sullivan最近的一項分析表明,從可穿戴監測工具中提取信息并直接進行AI化處理的的應用將更加廣泛應用到人們的日常中。隨著移動醫療數據在患者管理中發揮更大作用,數據安全問題將變得更加重要。

    行業的主要參與者正在努力解決數據安全問題。Aetna,Ascension,Humana和Optum最近加入了Synaptic Health Alliance,這是一個使用區塊鏈技術在供應商之間創建安全數據集的協作試點項目。雖然區塊鏈對醫療保健領域來說仍然相對較新,但該技術對數據安全性和更加無縫的數據交換具有重要意義。

    第三關:醫療AI短、中、長期的問題

    人工智能應用于醫療器械中存在的潛在風險是現如今醫療工作真需要認真考慮的問題。當計算機完全按照指令去做事時,也可能會引起或加劇意外結果。我們也分析了短期,中期和長期發展中可能會出現的問題。

    1. 短期

    AI嚴格按照獲得的數據訓練,可能會出現一種稱為“分布式移位”的現象:訓練數據和真實數據不同,導致算法得出錯誤的結論。AI也沒有像醫生那樣權衡假陽性或假陰性的成本和后果的能力,它們不能像人一樣“謹慎行事”。計算機只能按照指令運行,沒有獨立改善數據的能力。并且機器學習應用程序通常作為“黑匣子”運行,如果臨床醫生只能根據系統的最終結果來判斷預測,那么它可能會影響醫生的診斷結果。

    2. 中期

    隨著機器學習變得越來越普遍,臨床醫生和與機器學習相互作用的人有可能變得自滿,并將所有計算機生成的評估都默認為“絕對可靠”。但隨著時間的推移,訓練數據集變得越來越老,可能會與未來新的治療方法與新的用藥種類產生沖突。

    3. 長期

    雖然人工智能控制與人類生活直接相關的過程或設備(胰島素泵,呼吸機等)還有很長的路要走,但相關研究人員必須謹慎行事。機器學習算法在相當狹窄的數據集上進行訓練,無法考慮患者需求或治療結果的更廣泛背景。深度學習可以“忽悠”研發者,因為研究結果會呈現短期有效但與長期目標相悖的結果。

    另外關于機器學習系統可以進行多少程度的“探索”這一問題,是存在道德和安全問題的:持續學習的自主系統最終將嘗試推動治療的界限,發現可能傷害患者的新策略。所有這些都引發了AI和機器學習應該解決的問題——增加人類的直接監督。

    結語

    利用機器學習開發人工智能是一個激動人心的研究領域,但變化快速的步伐、技術的多樣性和調整參數的多樣性,使得人們很難把握AI系統在臨床應用中的準確程度。隨著人工智能和其他分析技術不斷改造醫療行業,醫療系統領導者和供應商所扮演的角色將隨之變化。

    醫療AI可以帶來許多潛在的好處,這一點毫無爭議。但是,利益相關者也不能忘記使用該技術可能存在的風險和障礙。為了避免AI給醫療保健的潛在危害,供應商、支付方、管理人員和其他主要行業參與者需要解決技術的潛在問題,并找到克服這些挑戰的創新方法。


    支付宝提现捕鱼