阿波羅新聞網 新聞 > 科教 > 正文

MIT科學家:人工智慧自動化助力醫療決策

近日,美國麻省理工學院的計算機科學家們,希望通過人工智慧在醫學方面的應用,進而替代一些人工投入過高的步驟,從而改善醫療決策。因為隨著某些數據集變得越來越大,許多醫療決策過程變得越來越費力。

在預測分析領域,人工智慧的出現能夠幫助臨床醫生診斷和治療,甚至是提升患者對於治癒的希望。例如,透過機器學習模型,在自我學習過程中能夠歸納患者的數據特徵,幫助醫護人員進行敗血症的治療,進而設計更安全的化療方案。另外,人工智慧還能夠幫助醫生預測患者患乳腺癌或死於ICU的風險。

通常,訓練數據集是由許多患病和健康的受試者組成,但存在每個受試者的數據相對較少的問題。重要的是,醫療專家們必須在數據集中找到那些對預測很重要的特徵。這樣一項“發現特徵”的工作,不僅消耗較大的資金成本,還會消耗寶貴的人力。但隨著智能可穿戴感測器的興起,這項工作得到了較大的緩解。研究人員可以通過感測器返回的數據,在較長的時間內洞察患者的生理狀況、跟蹤睡眠模式、步態和語音活動。經過一段時間的數據收集,醫療專家們可以為每個科目提供數十億個數據樣本。

這種“特徵工程”可能是一項費力且昂貴的過程。但隨著可穿戴感測器的興起,它變得更具挑戰性,因為研究人員可以更長時間地監控患者的生物識別,跟蹤睡眠模式,步態和語音活動。經過一周的監測,人工智慧設備可以為每個醫療科目提供數十億個數據樣本。

根據最新研究發現,麻省理工學院的研究人員展示了一種具備機器學習的新技術——預測聲帶疾病特徵的模型。模型建立在大約100個醫療科目的數據集,每個科目都有大約一周的語音監測數據和數十億個樣本。數據集的數據是從安裝在受試者頸部的小型加速計和感測器中,捕獲到相應的信號。

在實驗中,預測聲帶疾病特徵模型使用從這些數據中自動提取到的特徵,在通過高精度訓練後,對具有和不具有聲帶結節的患者進行分類。聲帶疾病是在喉部發展的病變,通常是由於患者濫用聲音,如大喊大叫。重要的是,該模型在沒有大量手工標記數據的情況下完成了預測任務。

該模型的主要創作者,Jose Javier Gonzalez Ortiz,一位麻省理工學院計算機科學與人工智慧實驗室(CSAIL)的博士生,解釋到,“收集長時間序列的數據集,在人工智慧的幫助下,變得越來越容易,但仍然需要醫生運用他們的知識來標記數據集。未來,希望模型能夠為專家提供大量的治療參考,並將所有病例特徵工程裝載到機器學習模型中。”

這個模型檢測到聲帶結節的相關活動,進而為醫生提供診斷和治療疾病的方法。隨著技術的推進,通過新設計的算法,可以更準確地識別並警告人們可能會使聲帶受損的行為。

麻省理工學院的研究人員還與美國喉部手術和語音康復中心展開合作,聯合開發和分析來自智能穿戴感測器的數據,以便在及時跟蹤受試者的聲音使用情況。當人們談話時,頸部的感測器開始收集聲音,通過加速度計收集數據,最後傳輸到智慧型手機上。

通過研究,科學家們通過104名受試者,收集了大量的時間序列數據,其中一半的受試者被診斷出患有聲帶結節。對於每個患者,還存在健康者匹配對照。這意味著對照組具有相似年齡,性別,職業和其他因素。

在經驗上,針對對模型有用的各種疾病或病症特徵,專家需要進行人工識別。而這一人工識別過程,能夠預防模型進行機器學習遇到的問題:過度擬合。

模型存在的過度擬合問題,是模型會根據不同受試人聲帶的健康狀況,進行分類,從中尋找規律。但問題是,模型會根據之前的分類模式,對患者進行識別,當出現在分類庫中沒有出現的病症時,模型可能會失效。因為在這一過程中,模型無法正確對新出現的病症進行匹配。

因此,科學家在優化模型時,遇到的一大挑戰就是如何防止過度擬合。科學家通過在模型中輸入大量的陌生聲帶信息,使模型能夠通過深度學習,最終掌握如何捕捉各類聲音,以及的聲音的強度。

當他們的模型遍歷主題數據時,它被編程為定位發聲段,其僅包含大約10%的數據。對於這些發聲窗口中的每一個,該模型計算頻譜圖,頻譜圖隨時間變化的頻譜的視覺表示,其通常用於語音處理任務。然後將譜圖存儲為數千個值的大矩陣。

當模型對大量數據進行挖掘時,它會被設置成對各聲音模塊進行定位。對於各個聲音模塊,模型能夠輸出具備時間序列特點的頻譜圖,能夠用於語音處理過程。最後,模型會將頻譜圖以矩陣的形式存儲。

在龐大的數據面前,還有一個問題就是如何有效地處理矩陣。科學家通過自動編碼器,原理是運用神經網路,從大量數據當中進行有效提取。最開始,自動編碼器會將頻譜圖壓縮到30個值的編碼;之後,再從壓縮後的編碼中重新解壓成對應的頻譜圖。

理論上,這個壓縮到解壓的過程中,模型必須控制頻譜圖保持高度的一致性。科學家為了實現這一點,在模型機器學習過程中,添加了學習壓縮後的時間序列頻譜圖的全部特性。之後,在學習完大量的被壓縮的頻譜圖後,模型能夠進行更精確的預測。

在模型的訓練過程中,它會將聲音特徵映射到患者組和對照組兩個組別。一般,患者的聲音模式會比對照組多。首先,科學家們選用未曾出現在模型當中的聲音進行測試。之後,模型會將相似的頻譜圖壓縮為某一特徵。最後,模型依此得出規律,將發聲區段不正常的受試者歸為患者組,其他歸為對照組。

在實驗中,該模型與需要手動特徵工程的最先進模型一樣精確地執行。重要的是,研究人員的模型在訓練和測試中都能準確地進行,表明它從數據中學習臨床相關模式,而不是學科特定信息。

在實驗中,預測聲帶疾病特徵模型執行操作時,跟人工操作一樣精確。重點是,該模型在訓練和實驗過程中都能準確地執行指令,表明它能夠從數據中學習到臨床的相關模式,而不是某一特定信息。

往後,研究人員希望通過監測各種治療方法,例如手術和聲帶治療,是如何影響聲音行為的。如果患者的行為隨著時間的推移從異常變為正常,那麼他們可能正在康復。研究人員還希望在心電圖數據上使用類似的技術,用於跟蹤心臟的肌肉功能。

阿波羅網責任編輯:王和 來源:Fintech前線 轉載請註明作者、出處並保持完整。

科教熱門

相關新聞

➕ 更多同類相關新聞