2017年3月15日 星期三

.醫學人工智慧最新突破

MEDICAL BREAKTHROUGHS: Fourth Industrial Revolution opens new era of AI-based healthcare





來源: 醫生科研助手
很久以前,人工智慧(Artificial Intelligence, AI)給人的感覺,還像是科幻片裡的故事,直到去年3月,Google旗下的Deep Mind研發的圍棋AI,AlphaGo,戰勝了圍棋老將李世石,一夜之間AI的名聲火遍大街小巷,人們不管懂不懂AI、懂不懂圍棋,都對這個話題進行了各種摻和。

後來,正在圍棋界還對它不能釋懷之際,它跑去玩起了電競,再後來,它又說要進軍醫學了。


此時,我們才真正關心起它來。不看不知道,原來,AI想學醫已經想了30多年了!大概之前還沒有太好的成績,至少沒有「威脅」到醫生的存在,所以在我們普通醫生眼裡,都只是小透明吧。然而這段時間,大AI們的各種活動又頻繁起來,除了AlphaGo的升級版Master,又去圍棋圈攪個血雨腥風,醫學界也頻頻出現它們的身影。

去年底到今年初短短三個月內,就連續有好幾篇新的研究,發表在醫學頂級刊物上;尤其是Nature今年1月剛剛增設的子刊Nature Biomedical Engineering,一上來就連放三篇人工智慧研究,相當驚艷。

JAMA:糖尿病視網膜病變的高靈敏、高特異診斷
AI的「深度學習」技術,包含一系列的算法,使程序能夠自己透過對一個龐大的樣本數據集,進行學習、優化自身,來實現某種行為。這份JAMA上的研究採用的算法,是深度卷積神經網路(convolutional neural network, CNN),用來進行圖像辨識與分類。


研究者用128,175張視網膜照片,作為訓練數據庫,讓AI學會自動檢測糖尿病視網膜病變,和視網膜黃斑水腫。這將近13萬張圖片,是由54名美國證認的眼科專家,和高級眼科住院醫師,進行分類與分級。

經過8個月學習期,研究者讓AI分別在2個新的數據庫中,驗證它的兩個操作點,一個操作點做高特異性選擇,另一個做度靈敏度選擇。

新的數據庫分別為EyePACS-1和Messidor-2,來自兩個眼科臨床機構,包含9963和4997張視網膜照片,並由至少7位眼科專家進行分類與評級。

對數據集EyePACS-1,AI的高特異性操作點辨識的靈敏度達到90.3%,特異性達到98.1%;對Messidor-2,AI辨識的靈敏度有87.0%,特異性有98.5%。用AI的第2個操作點即高靈敏度操作點辨識,對EyePACS-1的靈敏度有97.5%,特異性有93.4%;對Messidor-2的靈敏度有96.1%,特異性有93.9%。

医学人工智能最新突破:顶级期刊连放大招

EyePACS-1數據集中,AI的靈敏度和特異性曲線。8個圓點代表8位眼科專家,兩個稜形分別代表,AI的高特異性操作點,和高靈敏度操作點。

這份研究是去年12月發表,表明AI的圖像辨識功底,已經有了很了不起的特異性和靈敏度,跟人類眼科專家不相上下。不過研究者也說了,它的臨床應用還有待進一步評估。對了,本研究也是由Google公司領導,與美國、印度多個知名研究機構合作進行。

Nature:開啓皮膚癌的智慧手機篩查
皮膚癌的診斷,通常是靠醫生的視診發現可疑病變,再進一步通過皮膚鏡、活檢等手段確定。但皮膚紋理如此細密而變化多端,也給視診增加了難度。所以,這份來自史丹佛大學的研究也採用了深度CNN算法,來對皮膚圖像進行辨識。

它之所以能登上當期Nature的封面,想必是由於它宏偉壯麗。第一是想法有魄力,他們不僅是幫助醫生診斷,簡直是踢館——要讓人們用智能手機就可以進行皮膚惡性病變的篩查。

第二是數據量很暴力,之前的皮膚AI研究都要依靠專業圖像,如皮膚鏡圖像,或病理活檢圖像,不易獲得,所以數據量比較小,最後訓練出來的小AI們,放到真實的臨床環境中,效率就不高;但要用手機拍照的圖片訓練,又會受到縮放、角度、光線等因素的影響,恐怕一樣效率不高,怎麼破?

本研究先用目前世界上最大的,開源圖像辨識數據庫ImageNet中的128萬張圖片,進行預訓練,再用自己的129,450張圖片的數據庫進行調諧,其中包括3,374張皮膚鏡圖像。

第三是技術(說起來)很簡單,前人的研究都有許多預處理步驟,如病變分層、提取特定表現的視覺特徵等,但本AI的訓練是「端對端(end-to-end)」的,只有原始像素和圖像標籤,用單一網路同時對付普通照片和皮膚鏡圖像。

最後在新的圖片數據集中進行驗證,這些圖片都事先以活檢來確認過。本AI與至少21位皮膚專家的診斷,進行兩場比拼。第一場,是鑒別角化細胞癌與良性脂溢性角化病,即辨識最常見的癌變。第二場,是鑒別惡性黑色素瘤和良性的痣,即辨識最致命的癌變。

医学人工智能最新突破:顶级期刊连放大招

三幅圖分別為角化癌照片、黑色素瘤的照片以及黑色素瘤的皮膚鏡圖像辨識。曲線是AI對病變辨識的靈敏度-特異性曲線,每個圓點代表一位專家的辨識,綠點是專家們的平均值,綠色誤差線是標準差。

可以看到,大多數圓點都在藍色曲線以下,平均值也是。說明專家們判斷的特異性和靈敏度,都輸給了AI。

乍一看,這個研究確實像踢館。不過仔細一想,確診是離不開活檢的,還有其他臨床資訊,而照片辨識只是初篩。預計到2021年就會有63億台智能手機裝上這樣的App,為大家進行皮膚癌的早期篩查了。

Nature Biomedical Engineering:罕見病的診療建議及監控
上一篇研究提到,數據量越大,訓練出來的AI就越準確。那麼罕見病怎麼辦?原本就沒有這麼多病例,是不是可以退出江湖了?中山大學的研究者證明給你看,少量數據不僅一樣可以達到很高的辨識準確度,還可以進行風險分層、給出治療建議,而且已經進入臨床試驗了!

又是CNN算法,這回是辨識先天性白內障(Congenital Cataract, CC),人群中發病率只有1%,還多出現於欠發達地區,醫療資源相對匱乏,於是需要更高效的監控。

這位AI寶寶是有名字的,叫CC-Cruiser,即CC巡洋艦。它的訓練數據庫,包括帶有診斷標記的410張,各種嚴重程度的CC圖片,和476張正常圖片,那410張CC圖片又各自帶有嚴重程度標記(晶體混濁面積、密度、位置)和治療建議(手術或隨訪)標記,就這麼低調華麗有內涵。

之後進行了多項驗試。包括電腦模擬測試(in silico test)、57例臨床樣本的臨床試驗、53例樣本的網路圖片測試,CC-Cruiser的表現都很令人滿意。

以人類專家意見為參考,對前兩者的診斷準確率都在98%左右,網絡圖片品質參差不齊,但也達到了92.45%;對風險評估、診斷建議的判斷也同樣出色。

接下來是有趣的「大海撈針試驗」,模擬CC的發病率,混淆100張正常圖片和1張CC圖片讓它辨識,連測3組,CC-Cruiser都全部通關。最後在跟人類眼科醫生的比拼中,不出意料地贏了。

這麼優秀的AI,給它發個規培證吧~研究者建立了一個雲平台,來幫助非專科醫院進行診療。

地方醫院裡來了一位患者,他的人口學資訊、聯繫方式連同眼科檢查資料,都一起上傳到CC-Cruiser處理器和雲平台,讓它進行診斷、風險評估並給出治療建議。如果建是手術,則同時給中國衛生部兒童白內障計劃(CCPMOH)的專家,發送提示進行人工確認,專家和地方醫院、患者進行溝通,制訂治療計劃。

Nature Biomedical Engineering:腦瘤的術中快速診斷
圖像辨識除了CNN,還有別的算法。在一項關於腦瘤術中快速診斷的研究中,研究者用採一項叫受激拉曼散射顯微鏡(stimulated Raman scattering, SRS)的技術,生成高度模擬傳統的HE染色病理切片的新圖像,稱之為受激拉曼組織學(stimulated Raman histology, SRH)圖像。病理醫生對SRH圖像和傳統HE圖像做了比較,確認了SRH的診斷作用。

AI在這個研究中並不是主角,而是錦上添花。雖然SRS比傳統的病理切片,節省了很多組織樣本預處理的時間,大大提高了術中診斷的速度,但研究者仍嫌病理醫生人手不夠,希望用AI來服務大眾。

這回採用的算法叫多層感知機(Multilayer Perceptron, MLP),更適應目前常用的電腦的處理能力。研究者用來自101名患者的12,897張SRH高倍視野圖片,建立訓練庫,同時也加入了一個外部的開源圖像數據庫WND-CHRM的2,919張圖片,讓MLP進行迭代,直到診斷的預測值和觀察值差距最小。

MLP根據神外醫生做出決策的需要,對圖像進行四種分類:非病變組織、低級別膠質瘤、高級別膠質瘤和非膠質腫瘤(包括轉移瘤、腦膜瘤、淋巴瘤和成神經管細胞瘤)。

用了30個案例對MLP進行驗證,結果它在樣本層面能做到100%區分病變和非病變;對單個顯微視野的辨識則能達到94.1%的特異性和94.5%的靈敏度。在病變樣本中,MLP能以90%的準確率區分膠質瘤和非膠質瘤。

医学人工智能最新突破:顶级期刊连放大招
a, MLP對30個樣本的病變與非病變鑒別;b, MLP對膠質瘤和非膠質瘤的鑒別;c, MLP對30個樣本進行4種分類的總體情況。NL,非病變;LG,低級別膠質瘤;HGG,高級別膠質瘤;NG,非膠質腫瘤。

研究者稱,這個結果已可以滿意了,AI可以幫助病理醫生,進行術中快速診斷,並彌補醫生的個體水平差距,但將來還要研發更準確、更細化的方法。

Nature Biomedical Engineering:神經假體的精確控制
前面的研究都是在診斷上下功夫,最多給出治療建議,但它能切實地進行治療,改善病情嗎?這項來自倫敦帝國理工學院的研究就是一個成功的探索。

被截肢的患者裝了假肢,如何恢復自主運動功能?靶向肌肉神經移植術(targeted muscle reinnervation, TMR)是本領域的一個突破,例如將正中神經接到肱二頭肌長頭。之後需要檢測相關肌肉神經的電活動資訊,來實現患者對假肢的控制。

傳統的做法是用兩個電極檢測,整個肌肉(或肌群)的電活動,但由於位置太模糊,容易跟鄰近肌肉的資訊發生交叉,不容易做到精確控制。

本研究則使用了至少50個更小的電極緊密排布,使得檢測到的資訊更為細緻豐富,可獲得單個神經元的電活動資訊,並使用一種叫支持向量機(support vector machine, SVM)的機器學習算法來處理,與傳統方法比較,精確度有很大的提高(97% VS 85%)。

医学人工智能最新突破:顶级期刊连放大招

a, 上圖:傳統方法用兩個電極記錄機電信號。下圖:高密度肌電系統使得AI能夠辨識單個運動單元及其放電率。b,c, 示例盂肱關節截肢並TMR術後患者,用高密度肌電圖解碼神經驅動

b, 虛線區為神經移植區域)。給予3個電極陣列來收信肌電信號

(c)不過從圖上看,很顯然這麼個龐然大物攜帶起來肯定不方便。但這至少提供了一種思路,研究者也會在將來尋找更好的設備,或開發新的方法來解決。
原文:Man/machine interface based on the discharge timings of spinal motor neurons after targeted muscle reinnervation

如此看來,AI在醫學圈的事業好像終於起飛了呢。

近日又聽到圍棋圈傳出,4月要進行人機大戰第二季的消息,這回對擂雙方是AlphaGo和柯潔。柯潔已經算是圍棋界百年一遇的奇才了,但現在連對戰圍棋AI「絕藝」都有些吃力,人工智慧的發展確實令人震驚。而且,聽說這回是AlphaGo在圍棋界的最後一戰,之後大概就潛心學醫了吧。

至於那些「AI要替代醫生、我們的存在還有沒有意義」之類的言論,向來心大的麥子覺得,我們發明的一切東西難道不都是為我們所用的嗎?

況且,還有小型研究要研發寫病理報告的AI,給病理醫師騰出認真讀片的時間呢(Arch. Pathol. Lab. Med. (2015) 139, 929–935.),說不定很快臨床醫生就有病歷AI、科研人員就有論文AI了。

                                                                                                                                                                                                                 


1 則留言:

  1. 小弟是醫師,對醫療AI的應用與商機有一些idea,歡迎對醫療AI有興趣的公司與我連絡,也許我們可以合作開創新的AI應用,請在下方留連絡方式

    回覆刪除