【線下技術沙龍】11月23日,多云時代開啟企業(yè)業(yè)務新高度,安全如何與時俱進?
除了5G,人工智能依然是今年備受關注的話題,筆者近日近距離觀看了一個醫(yī)療人工智能大賽,現(xiàn)場十幾個醫(yī)療項目,每一次路演完成臺下評委老師們就會發(fā)問,上面這幾個是最經(jīng)常被問到的幾個問題。
這些評委老師們多數(shù)是醫(yī)院的醫(yī)生專家、醫(yī)療領域的投資者,他們犀利的提問背后也是人工智能在醫(yī)療領域應用最常面對的幾個問題:準確率、安全性、商業(yè)模式。于是又回到一個最核心的也是老生常談的問題:信任。比如人工智能對疾病識別的敏感度、特異度、準確率值得醫(yī)生信任嗎?如果醫(yī)生用人工智能輔助決策,患者該相信醫(yī)生嗎?
隨著人工智能技術的發(fā)展,語音交互、計算機視覺和認知計算、深度學習等技術也逐漸成熟,人工智能醫(yī)療領域的各項運用變成了可能,如語音錄入病歷、醫(yī)療影像智能識別、輔助診療、醫(yī)療機器人、個人健康大數(shù)據(jù)的智能分析及AI醫(yī)藥研發(fā)等。
然而具體到實際的應用,三年前,人工智能先驅(qū)Geoffrey Hinton曾信誓旦旦地說:“我們現(xiàn)在應該停止培訓放射科醫(yī)生。五年之內(nèi),深度學習將比放射科醫(yī)生做得更好。”如今,全球數(shù)百家新興公司都在探索將深度學習應用于放射學,然而被AI取代的放射科醫(yī)生的數(shù)量是多少呢,放射科醫(yī)生在全球范圍內(nèi)仍然非常短缺。
今天的人工智能+醫(yī)療,除了信任和商業(yè)化,還面臨政策、監(jiān)管等方面的挑戰(zhàn),近日騰訊集團法務部發(fā)布了《醫(yī)療人工智能產(chǎn)業(yè)監(jiān)管及法律研究》(以下簡稱《報告》),就醫(yī)療AI領域的法律與監(jiān)管主題進行了探討和研究分析。
《報告》指出,醫(yī)療AI面臨的法律及監(jiān)管問題包括:醫(yī)療人工智能產(chǎn)品在進入市場時是否需要作為醫(yī)療器械進行注冊;在醫(yī)療人工智能產(chǎn)品的研發(fā)及運行過程中如何對健康醫(yī)療數(shù)據(jù)、個人信息進行合法使用;如何確認醫(yī)療人工智能產(chǎn)品在使用過程中的產(chǎn)品責任和醫(yī)療損害責任;如何對醫(yī)療人工智能產(chǎn)品的知識產(chǎn)權進行保護;如何面對和規(guī)避醫(yī)療人工智能產(chǎn)品所帶來的醫(yī)學倫理問題等。
1、如何保護隱私
醫(yī)療AI無論是在研發(fā)階段還是應用階段,不可避免地會收集、使用到個人的健康信息,比如某些健康管理型的AI產(chǎn)品會采集和利用用戶健康信息、某些癌癥的CT影像或MRI照片會被用于醫(yī)療AI模型訓練。
如何在保證個人信息和隱私安全的前提下做到數(shù)據(jù)的開放共享,探索大數(shù)據(jù)挖掘的合理邊界,成為醫(yī)療AI發(fā)展面臨的關鍵問題。
“當前法律規(guī)定,收集和使用個人信息要滿足公開透明、最小夠用原則,但醫(yī)療AI使用信息的復雜性和黑箱測試的不可知性使得上述原則很難被滿足。而且,醫(yī)療AI的開發(fā)者從第三方獲取數(shù)據(jù)時面臨的審查義務邊界,法律也沒有明確規(guī)定”,面對這些困境,《報告》指出,目前國際上通用的合規(guī)做法是“去標識化”。
“去標識化”是指通過對個人信息的技術處理,使其在不借助額外信息的情況下,無法識別到個人信息主體的過程,經(jīng)過“去標識化”處理的個人信息即成為“去標識化信息”。使用“去標識化信息”有助于降低數(shù)據(jù)安全風險,更有利于保障個人的信息安全。
但《報告》顯示,我國對健康醫(yī)療數(shù)據(jù)去標識化的標準在具體執(zhí)行上還尚未統(tǒng)一,開發(fā)者很難判斷信息被處理到什么程度才屬于去標識化信息。
有專家表示,希望相關部門盡快出臺醫(yī)療健康信息去標識化的標準,并可適當放寬使用去標識化信息的限制要求,以促進醫(yī)療AI技術的合規(guī)發(fā)展。
2、醫(yī)療AI的倫理問題
未來的醫(yī)療AI產(chǎn)品可能具備人類的情感、性格、習慣,不同程度地參與到醫(yī)療健康相關的活動中,甚至可以代替醫(yī)生獨立從事診療行為。這時,是否應當保護以及如何保護醫(yī)療AI的倫理地位和法律權利,將是未來需要考慮的問題。
歐盟對人工智能機器人權利的討論處于世界前沿,并已經(jīng)在考慮要不要賦予智能機器人“電子人”的法律人格,具有權利能力并對其行為負責。
2017年初的一份歐洲議會報告認為:“從長計議,為機器人創(chuàng)造一個獨立的法律地位,至少讓最精密復雜的自動機器人具有電子人的身份,使他們?yōu)榭赡茉斐傻膿p害負責,并可能將電子人身份應用于機器人做出自主決定或以其他方式獨立地與第三方互動的情境。”
然而,授予人工智能法人資格的話題引起了巨大爭議。報告發(fā)布后不久,包括計算機科學家、法學教授和公司首席執(zhí)行官在內(nèi)的、來自14個歐洲國家的156名人工智能專家聯(lián)名簽署了公開信,警告說從“法律和倫理角度”來看,授予機器人法人資格是“不恰當?shù)?rdquo;。
雖然因受限于技術的發(fā)展,針對上述倫理困境在現(xiàn)階段尚難以給出明確答案。但《報告》認為,隨著科技的不斷進步,應當對該類問題保持關注,逐步探索并建立醫(yī)療專業(yè)人士利用AI作出診斷決策的倫理規(guī)范和行為準則,以適應AI在醫(yī)療領域更加廣泛和深入的應用。
3、醫(yī)療數(shù)據(jù)是壟斷還是共享
數(shù)據(jù)是人工智能發(fā)展的基石,對于數(shù)據(jù)的控制及壟斷可能會直接影響醫(yī)療AI產(chǎn)業(yè)的發(fā)展。
《報告》認為,從數(shù)據(jù)占有的角度來說,數(shù)據(jù)的獨占本身并不違反《反壟斷法》。只有因獨占數(shù)據(jù)在某一相關商品市場形成市場支配地位,并且企業(yè)濫用這種市場支配地位,或因獨占數(shù)據(jù)造成嚴重排除、限制競爭的效果才會違反《反壟斷法》。
目前仍未看到各國直接針對醫(yī)療AI相關的數(shù)據(jù)壟斷問題進行專門立法,但一些國家出臺政策鼓勵數(shù)據(jù)的開放共享。
我國目前在政務數(shù)據(jù)開放和公共企事業(yè)單位數(shù)據(jù)的開放方面已做出了規(guī)劃;歐盟委員會已將建立出于研究目的的健康數(shù)據(jù)的安全訪問和跨境交換的技術規(guī)范提上了日程;美國通過《21世紀治愈法案》確立了打擊數(shù)據(jù)阻隔、鼓勵數(shù)據(jù)共享的總體方向。
《報告》建議,立法者可以專注各國在醫(yī)療數(shù)據(jù)共享方面的進展,逐步建立醫(yī)療數(shù)據(jù)共享的統(tǒng)一標準,在解決醫(yī)療數(shù)據(jù)來源合法性的問題的基礎上,進一步推進醫(yī)療數(shù)據(jù)的公平共享,保證醫(yī)療AI開發(fā)者安全合法的使用數(shù)據(jù),以促進醫(yī)療AI開發(fā)者的公平競爭。
4、醫(yī)療大數(shù)據(jù)跨境傳輸必須合規(guī)
在跨境傳輸方面,國際間的交流合作是醫(yī)療AI技術進步不可或缺的要素。但《報告》指出,從國家利益角度看,健康醫(yī)療大數(shù)據(jù)已然成為了重要的國家資產(chǎn),因此各國幾乎都采取了較為謹慎的出境管制態(tài)度。
我國于2014年5月5日發(fā)布施行的《人口健康信息管理辦法(試行)》規(guī)定人口健康信息僅能在境內(nèi)存儲,不能以任何形式儲存于境外。
國家衛(wèi)健委通過《國家健康醫(yī)療大數(shù)據(jù)標準、安全和服務管理辦法(試行)》第三十條進一步規(guī)定:“健康醫(yī)療大數(shù)據(jù)應當存儲在境內(nèi)安全可信的服務器上,因業(yè)務需要確需向境外提供的,應當按照相關法律法規(guī)及有關要求進行安全評估審核。”
《報告》認為,如何能夠在保障公民和國家利益的同時,持續(xù)推動健康醫(yī)療大數(shù)據(jù)的流動和相關科技產(chǎn)業(yè)的健康發(fā)展,是今后值得繼續(xù)深入探索的現(xiàn)實命題。
小結(jié)
據(jù)IDC的統(tǒng)計數(shù)據(jù),到2025年人工智能應用市場總值將達到1270億美元,其中醫(yī)療行業(yè)將占市場規(guī)模的五分之一,人工智能+醫(yī)療領域是大勢所趨。
從解放醫(yī)院管理到解放醫(yī)生到輔助制藥再到大眾健康管理,經(jīng)過幾十年的發(fā)展,人工智能逐漸深入醫(yī)療的方方面面,邁入深水區(qū)。而從監(jiān)管和政策層面上,近日中國衛(wèi)生信息與健康醫(yī)療大數(shù)據(jù)學會成立智慧醫(yī)院與人工智能應用專業(yè)委員會、標準委員會和工作委員會,未來將制定中國智慧醫(yī)療與人工智能應用的行業(yè)標準。那么隨著技術、政策、監(jiān)管等困境的一點點清除,期盼已久的顛覆性革命必將會有到來的那一天。
【責任編輯:未麗燕 TEL:(010)68476606】