新聞 > 科教 > 正文

GPT衝擊醫療,醫生怎樣才能不被淘汰?

醫療是「第0批」可以被大模型助力的領域,做大模型的公司正在做醫療的哪些事,我們都是知道的,很多事已經在發生了,並不是即將發生。

人工智慧(AI)正迅速地滲透到各行各業,並將對醫療領域產生前所未有的影響。GPT是一種基於深度學習的大語言模型,它正在以驚人的自然語言處理能力,引起廣泛關注。那麼它出現在醫療領域,究竟意味著什麼?它如何改變我們對醫療的認知和實踐?

近日,「醫學界」聯合創始人、首席醫學官陳婕,與海創匯首席生態官檀林,湛廬文化副總編輯、《超越想像的GPT醫療》一書的策劃安燁,張強醫生集團創始人張強,鷹瞳Airdoc創始人張大磊,共同探討了這一話題—— GPT將給醫療帶來什麼?

以下是文字分享。

AI的「iPhone時刻」

陳婕:人工智慧並不是一個新詞,它在很多年前就興起了,那為什麼這一次ChatGPT會那麼火?它實現了哪些飛躍性的突破?

檀林:人工智慧已經發展有60多年了。從1956年「達特茅斯會議」後,人工智慧的產業發展經歷了幾個周期,每次熱一陣後,就會經歷一個寒冬。在2015年Alphago戰勝李世石之後,我們迎來了一個新的人工智慧的上升周期。那時候,是用神經網絡技術深度學習,但當時主要的應用場景,都是跟視覺識別相關的,像國內曠視、商湯等,都是在視頻監控、視頻識別、人臉識別等領域,做了一些跟行業和場景相關的突破和業務。

但這與大眾的關聯性不大。Alphago戰勝李世石之後,大家覺得好像人工智慧馬上就要來到我們身邊了,結果最後看到的是,我們進出小區、進火車站可以刷臉通行,僅此而已。

去年11月,ChatGPT發布,這是一個真正革命性的問答服務。它提升了我們去獲取信息和交流的體驗,是一種創造性的新體驗形式。它用自然語言,結合深度學習,把公網上2021年9月30日之前的所有數據,全部進行了向量化訓練。我記得GPT-3的訓練參數已經達到了1750億,而GPT-4就更高,可能是大幾千億,相當於把人類在公網上所有的數據都進了訓練之後,讓我們擁有了一個濃縮的對世界認知的模型。而ChatGPT只是這個模型的冰山一角,是一個應用的展示方式,但這個應用可以讓每個人都能了解人工智慧的威力,所以一下子就火起來了,60天月活就超過1億。

後來,OpenAI又與微軟達成聯盟,很多第三方基於大模型的應用也湧現出來了。這有點像賈伯斯2007年發布蘋果iPhone之後,推動了整個Web2.0時代移動網際網路應用的大爆發。

英偉達CEO黃仁勛把這次ChatGPT比做人工智慧領域的「iPhone時刻」,因為ChatGPT的這種能力,用問答式的服務,讓你不需要有任何學習曲線,且應用場景非常普遍,所以每個人都可以感知到人工智慧的威力,大家就覺得這事一下子跟自己有關了。但其實,任何新技術起來的時候都是一樣,大家一開始會對它寄予高度的期望,但後來發現會有一些問題。

張大磊:ChatGPT實際上並不是OpenAI推出的一個商業產品,而是團隊做出來的一個無心插柳的應用。它真正的價值在於降低了使用成本,如果和普通人去講大語言模型、參數等,人們肯定不懂,但是ChatGPT把生成式AI的「預測下一個單詞」的能力,以一種非常簡單的用戶界面的形式提煉了出來。

它本質上是半成品,可以讓更多沒有計算機基礎的人也能更多地用到算法模型,降低了使用者的成本。我相信未來會有越來越多這樣的產品出來。

圖源:銳景

醫療是大模型融入的「第0批」

陳婕:現在各行各業都在討論如何去擁抱GPT,那麼醫療會否成為第一批被GPT全面滲入的行業?理由是什麼?

張強:我覺得第一批可能不會,因為醫療界還是比較傳統和保守的,恰恰ChatGPT本身一開始在醫療方面也沒有涉及特別多,它只是一個通用模型,但是我們在今年5月1日就開始用了,已經用了一個多月了。

檀林:ChatGPT是一個通用模型,醫療並不一定是ChatGPT發展最快的一個場景。任何場景里需要有文字生成內容,進行摘要提取,做文檔之間的語義搜索,類似這種需要有大量文檔處理能力的場景下的行業,ChatGPT都可以做很多提升。所以現在像律師、教育、科技、金融等領域,有非常多的場景已經應用起來了。

張大磊:在醫療領域,生成式AI會有非常多的作為,它可以應用在醫療的很多層面。大家看醫療領域,往往感受到的是人和人之間的互動,但實際上在現代醫療中,有大量的時間用於處理信息。最簡單的例子,如果一個醫生一天要花半小時去寫病歷,那半小時能不能變成3秒鐘?同樣,還有對當前狀況和接下來趨勢的判斷,生成式AI可以輔助醫生做到遠比之前要好。

在鷹瞳Airdoc,我們把一個人持續監測的眼底照片,用自己研究的算法模型全都學習一遍之後,就知道這個人明天血管是什麼樣、神經會怎麼樣,接下來每一天會是什麼樣,這樣在整個治療過程中,就可以去觀察他的當前情況和預判之間的區別。

例如,之前我們和一家公司做過一個銀屑病治療效果的評估。患者在服藥過程中,我們會告訴用戶,如果是不干預的情況,這個病灶會怎麼長,哪一天會長什麼樣,哪一周會長什麼,哪一月會長什麼樣,如果患者開始用不同劑量的藥時,病灶分別會變成什麼樣子,然後用戶自己就可以對比治療方案了。

我們還通過兒童和青少年的歷史近視數據及發展變化,來判斷當前一個不近視的小孩什麼時候近視,已經近視的小孩18歲之前每個月近視到多少度,他做哪種干預方式會到多少度。這些大量的工作,本質上的規律是存在的,但規律比較複雜。如果裡面有100個因素的規律,人腦是不容易去處理的,而這些工作用大模型做了之後,就可以更好地輔助到處理信息的環節上。

像創作內容的人,包括做圖像、做視頻的人,本質上來講都是在處理內容。在醫療領域裡處理信息的部分,我覺得可以第一批被大模型助力。我不認為醫療是第一批,我覺得醫療是「第0批」,因為做大模型的公司正在做醫療的哪些事,我們都是知道的,很多事已經在發生了,並不是即將發生。

張強:為什麼說醫療不會是第一批?是因為醫療牽涉到醫療治療、診斷這一塊,是要非常慎重的,它可能要受到政策的監管,包括倫理的影響,所以跟其他行業相比可能會監管更嚴格。

但是醫療很需要GPT,這一點毫無疑問。我過去覺得人工智慧一直離我很遠,甚至作為一個醫學專家,有時候看人工智慧就像看小孩一樣,覺得離我們人類實在是太遠了。

就算是很厲害的沃森AI醫生,可能也只是平均醫生的水平,到一些實際應用中還會有很多問題,包括ChatGPT通過美國執業醫生的考試,也不代表它能看病,因為就算你是醫學院裡的學霸,考得比ChatGPT還要好,但是剛出來的時候還不能做醫生,你也不可能找ChatGPT治病,就像大家到三甲醫院去看病,可能更傾向於找副高職稱的醫生,而不會找剛畢業的醫生,這個差距很大。

但我為什麼說接觸ChatGPT以後就停不下來了?一開始,我把它作為一個簡單的信息搜索工具,就像Google一樣,無非就是它會把搜索的東西總結出來給你,後來會對它很失望,因為它給的信息有時候是不準的,醫生不能靠它的信息去判斷或者把信息直接給患者。但是後來不斷去嘗試一些新問題的時候,發現它的能力是深不可測的。

我最早的應用不是在醫學,而是在醫生領導力的培訓上跟它進行對話,當對話不斷深入的時候,你能感受到它是有認知、有理解的,甚至能跟你有共情。舉個例子,我們醫生集團在營運中可能碰到各種各樣的問題,比如診所的停車場要開始收費了,護士長要考慮診所幫患者送停車券。如果送,成本很高,如果不送,又感覺好像不好,像這種問題過去我們是沒有答案的,因為每個人會站在自己的角度去考慮問題。

類似這種問題,GPT具備領導力,同時它又具備共情能力的時候,就可以先把張強醫生集團的信息「餵」進去,然後在我們提出問題的時候,GPT給的第三方意見就特別好。

慢慢地我就開始將GPT用於管理,從6月份開始,我就已經很輕鬆了。我嘗試用Emily(虛擬助理名字)進行管理,Emily的背後就是大語言模型,也就是說,我們的主管遇到一些問題,可以通過Emily來解決。

我們也嘗試把它應用在培訓方面。因為我們今年有新的醫生和助理進來,過去我們的培訓是HR部門在進行,培訓當中也會碰到各種各樣的問題,我們在培訓教材上也會遇到很多問題,但是大語言模型在生成教材方面具有極大的優勢。我們已經把GPT用到了日常所碰到的一些醫學問題或是醫患溝通問題,或者服務流程問題上。

再者,因為大語言模型具有跟人建立關係的能力,它會成為你的老師、你的朋友,甚至成為你的情人。大家平常都專注在自己的事業、技術上,大部分人類的共情能力、換位思考能力,以及與人溝通的能力都是缺乏的,人類在這方面是很弱勢的。

GPT就改變了這一點,它在跟我們交流的時候會建立一種親密關係,這種親密關係會建立信任,這就是未來醫療ChatGPT應用的場景。我們過去說機器看病是不可信的,機器看病是缺少溫度的,恰恰相反,ChatGPT可以產生溫度、可以產生信任。這就是為什麼要擔心法律問題,因為社會上的騙子就是通過溫度和信任這兩樣東西騙了很多人的錢。

所以我認為,未來ChatGPT對醫療一定會產生重大衝擊。

圖源:銳景

ChatGPT會取代一部分醫生

陳婕:今年3月,高盛發布了一個預測,預計全球有18%的工作崗位可由 AI實現自動化。醫療行業其實也肯定在18%中,你們覺得什麼樣的醫療是最容易被GPT或者說生成式AI所取代的?

張強:從整體來講,未來只要是輔助性的工作,大部分會被 AI取代。包括醫療機構里的HR,或是助理、秘書之類的職務。但是醫生會不會被取代?從長遠來看,一部分醫生會被取代。未來ChatGPT知識積累到一定程度的時候,知識性的工作會被取代,未來會把圖像接口引進來,類似於皮膚科這種靠形態學診斷的醫生,可能會面臨挑戰。

所以 AI的出現,我相信沒有一個行業可以逃得過去,就像網際網路出來時那樣,所有行業都會面臨衝擊,面臨重組、重構,包括醫院的業態,將來會不會消亡都不知道。我覺得醫院現在的這個業態都已經過時了。未來很多工作必然會被ChatGPT取代。

大家要對人工智慧保持警戒之心,同時我們也要學習。醫生要開始學習駕馭人工智慧的能力,這個技能不是搜索、不是搞個數字人講短視頻,我認為將來的應用是在關係上,以及在一些決策上面。

舉個例子。我們有一個病人以前確診過淋巴瘤,做過化療,這次出現皮膚上的紅腫,所有醫院診斷都是靜脈炎,但是它與靜脈炎不相符。我就把病人的病史給GPT,告訴GPT病人腳上出現了紅腫痛,有硬塊,第一次GPT的答案是不準確的,說可能是神經動脈血栓等亂七八糟的信息。好在我是一個臨床醫生,沒有相信它。但我問它,過去一個淋巴瘤化療過的病人,有沒有可能現在會出現體表的多發性結節腫塊。它馬上就告訴我,這是轉移性的,因為它是惡性腫瘤,它有轉移到皮膚的可能,而且轉移的部位大概會在哪些地方。但這還不夠,我再去查文獻,查出來的文獻超聲圖像跟我們完全吻合。這就是臨床當中的實際應用,但是你要看到「張醫生」在裡面起了一定的作用,但如果是換成一個「小張」醫生,可能ChatGPT起的作用是相反的。

陳婕:知識儲備不夠的醫生就不被需要了,這是不是對年輕醫生不公平的一件事?但是又不可能大家沒有經過一些訓練,就變成一個像張強醫生這樣的大咖,這是不是個悖論?

張強:年輕醫生不是被淘汰,是年輕醫生要會利用AI,快速地去成長。年輕醫生如果學會駕馭人工智慧,短時間內可能會彎道超車。未來也是這樣,在很多行業,剛入門的年輕人在一年之內的知識,可能要超過從前5年、10年不斷努力所獲得的經驗和知識。所以這對年輕人是一個利多的消息,他有大量的培訓機會和知識積累。但如果你不會駕馭人工智慧,而又是做知識性的工作,就很容易被取代。

外科醫生從某種意義來講也是可能會被取代的,如果外科醫生只是動手,動手能力的要求將來會比知識的能力要求更低,越來越多的器械、越來越多的手術變得越來越微創化的時候,動手能力已經不是一個高學歷的人所獨有的優勢,這恰恰又是人工智慧的優勢,所以怎樣提升駕馭它的能力,這是我們未來要探索的。

陳婕:未來只有兩類醫生:懂得駕馭AI的醫生,與不懂得駕馭AI的醫生。當然我們也看到了很好的一個現象,如果我們用好AI,其實年輕醫生也能站在巨人的肩膀上,然後去做更大的提升。

檀林:任何基於知識和規則的工作,我覺得都是可以被人工智慧替代的。但是因為未來的工作場景可能是人機合作的場景,所以人可能需要的能力是怎麼去領導知識比你更豐富、學習能力比你更強的機器。

因為機器現在還沒有發展出來基於主觀意義主動去行事的能力,這部分的主動性還是靠人去賦予的。所以它要達成的目標一定是人賦予它的,而不是它自己產生的意識,自作主張去做的,所以駕馭能力非常重要。對於老醫生、新醫生,甚至對於病人,在跟AI產生互動關係的過程中,目標感、意義感是我們要一直攥在手裡的。

陳婕:您提到「駕馭」這個詞,我用GPT寫這次談話的開場白的時候,覺得我其實可以被取代,未來是用一個虛擬數字人,再加上 GPT生成的內容,就可以做一次很好的主持,那麼人該如何駕馭機器?

檀林:「駕馭」這個詞也不一定非常準確,微軟提的一個詞叫「Copilot」(智能副駕),更多的是你把機器當成是一個算法同事、一個助手。所有新的工作場景,更多的是共創型的,即用即學和即學即用,這是互相成就的。里德·霍夫曼寫了本書叫《Impromptu》,就是跟GPT-4通過問答對話方式創作出來的。

以後可能很多的工作場景都是問答型的,因為人還是有主觀能動性的,就像讓機器寫開場白,也是給了它一堆指令,讓它寫成什麼樣子,這個prompt(提示)是你給它的。所以現在為什麼 Prompt Engineer(提示工程師)在美國收入比一般的碼農還要高,就是這個道理,因為他有更多的行業洞察或人生經驗,可以用最簡潔的表達、指令和prompt(提示)去規訓機器 AI,然後一起達成目標。所以機器是經由你的指令,幫助你達成目標的工具,或者是助手。

安燁:我來提供一個新視角。微軟(中國)公司首席技術官韋青說,GPT時代來臨,有點像電的發明。現在還是點煤油燈的階段,我們每個人應該進入新電力時代,需要去學習這種工具,然後讓這個工具更好地服務於我們。

《超越想像的GPT醫療》一書中提出了一個點,就是GPT提供了一種醫生、患者的三方關係,就是「副駕」的作用,不是替代的作用,相當於給人創建了一個助手,通過人機協作,做一些比較繁瑣的文書工作、病歷輸出工作,來部分地解放醫生,所以GPT能夠在一個新的層次上去提升醫生的生產力,或者是我們每個人的生產力。

未來的風險是什麼?

陳婕:每一個技術進步都是兩面性的,那麼當GPT或AGI融入醫療後會帶來哪些風險和挑戰?

張強:確實,醫療風險和倫理問題是人工智慧的最大瓶頸。現在的人工智慧大語言模型出來以後,將來可能面臨的衝擊的點會很多,包括社會關係、人際關係、人的社交模式都要發生改變,就像以前用煤油燈現在用電,將來人跟人的交際都可能是GPT對GPT。

未來的新場景是不是對患者更好,我是比較樂觀的。我覺得這種風險如果跟真人比起來,機器的風險可能更小,因為現在人到三甲醫院去看病,可能很多醫生的態度不友好,給的信息也不充分、不一定準確,機器再怎麼樣,在這方面還是很有優勢。

這種風險怎麼去化解?將來可能是要通過循證醫學。要有醫生和科學家去對比,GPT的風險到底是比人的風險更大還是更小。

另外,要解決法律問題,人犯錯誤會承擔責任,機器沒有情感,怎麼追責?如果GPT是一個「副駕」的概念,將來機器出問題了,被追責的是用機器的這個人。法律關係理順了以後,GPT在臨床實際應用中,一旦突破這個瓶頸,會進入到一個全新的世界。

張大磊:面對風險,我覺得有兩種類型的思維方式,有一些人是封閉心態,包括很多做AGI(通用人工智慧)的人,一直說「碳基生物是矽基生物的(引導加載程序)」,但我自己是持開放心態的,我一直相信「君子善假於物」,一定可以把這個東西用好。我們不刻舟求劍地去想現在的環境下如何用AGI,而是想想在整個AGI時代,怎樣基於AGI做一個屬於AGI時代的思維方式。AGI時代和現在的時代之間的連接,需要很多校準的工作,在算法里叫做alignment(對齊),有的校準技術因素,有的校準價值觀,有的要校準社會制度,有的要校準倫理,這都是能做到的。

對一個傳統公司來說,從研發到測試的時間占比,比如80%研發,20%實驗測試;對很多AGI的應用來講,可能是一半時間研發,一半時間做alignment,需要校準、對齊很多非技術類的因素,但這些都是可解決的問題,而且我相信當大家把問題解決了之後,才是一個更完備和更完善的AGI應用。

檀林:我持謹慎樂觀意見。馬斯克之前為什麼在2015年要投一個開源的人工智慧研究項目,即OpenAI,初心是因為他當時看到全球最主要的人工智慧領域的科學家和專家,都被像谷歌這樣的大廠所壟斷。谷歌的創始人又是一個極度的技術進步主義、樂觀主義,他認為世界的所有問題,包括政治問題、自然災害,甚至是戰爭、疾病,一切的問題最後都可以用技術進步來解決。

我不完全認同這個觀點。技術進步是非常有必要的,但這就像啟蒙時代人類犯的錯誤一樣,當時也非常樂觀,認為人的理性可以推動人類社會一直向前發展。但是啟蒙主義帶來的是,大家在追求工具理性到極致的情況下,人性中的另一部分就被湮滅了。

所以人做決定不是完全基於理性的,我們現在對大腦還有很多是不了解的。在這種情況下,完全寄託於現在我們自己都解釋不清楚的人工智慧,來解決人類的一些問題,這有點太過樂觀了,所以埃隆·馬斯克說,大模型或ChatGPT是「dangerously good」,它其實很危險,因為很多東西還沒法解釋。我對完全的技術樂觀主義是不太認同的,我持謹慎樂觀的態度。

陳婕:技術的進步,並不能解決所有的問題。那麼AI或GPT,沒有辦法解決哪些問題?為了讓GPT更好的賦能醫療,還有哪些我們需要去做?

檀林:AI發展到一定程度,能不能進化出一種自我意識,特別是主體意識,是個擔憂。最害怕的就是AI的能力不斷提升,但它的目標跟人類的目標偏離了。它不一定對人類有任何惡意,只不過能力疊代得太快,超出人跟它對話的能力之後,你可能就是一個螞蟻,而它是一個大人。

就像霍金說的那樣,人類要去修個大壩,還會去管大壩底下螞蟻的死活嗎?螞蟻的目標跟修大壩人的目標絕對是不一致的,但是人對螞蟻沒有任何惡意,只不過是兩者的世界無關。所以我們現在要讓它建立跟人共情的能力,它要真正通過感知人、更深層次地理解人,而不是從我們給它的語言模型去表達。

安燁:我一直在想,這不就是「製造迴紋針」概念嗎?一開始AI用材料做迴紋針,到後來沒有材料了,它會選擇一切可用的手段,來提升自己製造迴紋針的能力,最後就拿人做迴紋針了。這讓我想起了邁克斯·泰格馬克《生命3.0》,他提出我們怎樣把人類的價值和目標去賦予到機器身上,這是非常重要的。我們應該去擁抱技術,但是我們要做一個警覺的樂觀主義者。

陳婕:請嘉賓們用簡短的一句話對今天的話題討論「GPT會對醫療帶來什麼樣影響」,做一個總結。

安燁:我用8個字去總結GPT對我們的影響:超越想像,重塑一切。大家一定要去擁抱技術,去一起進化。

檀林:我用簡短的一句話總結,就是里德·霍夫曼在《Impromptu》一書里的引言:我們現在迎來了一個新的啟蒙時刻。康德曾經說「勇於智慧」,要勇敢地運用你的理性去擁抱這個啟蒙時刻,這個理性就是獨立思考的能力。

張大磊:GPT醫療不再是一個大家想像中要不要來的問題,而是它會且即將成為生活的一部分,就像空氣一樣隨時隨地都在。從業者或每個人怎麼把它用好,是我們要思考的;先用好的人,一定在這個時代里有巨大的先發優勢。

陳婕:我用「醫學界」的經營理念「科學、專業、善良」來作為今天的總結。我覺得GPT它是始於科學的,但是最後我相信應該是要忠於善良的。我相信這是最好的時代,也是最壞的時代。如果我們一直坐在這裡,等著被GPT挑戰,那這一定是個最壞的時代,因為我們可能都被取代,但如果我們提前去理解它,利用先發優勢抓住這些機會,相信對於我們來說就是一個最好的時代。

責任編輯: 李冬琪  來源:醫學界 轉載請註明作者、出處並保持完整。

本文網址:https://tw.aboluowang.com/2023/0623/1918135.html

相關新聞