AI and the pandemic: should we encourage or regulate innovation?

Highlights

AI and the pandemic: should we encourage or regulate innovation?

活動資訊

  • 日期:2020年8月6日(四)下午14:00-16:00
  • 專題演講1:AI是對抗肺炎疫情萬靈丹?機會與限制 (國立臺灣大學資訊工程系教/Appier首席機器學習科學家 林守德 教授)
  • 專題演講2:人工智慧應用於疫情控制的法律歸責課題(中央研究院歐美研究所 陳弘儒 助研究員)

專題演講1:AI是對抗肺炎疫情萬靈丹?機會與限制

林教授的演講主要介紹了5種類型的人工智慧在 COVID 19 疫情應用,包括預警和預判、檢測和追蹤、診斷和治療、監控和支援、科研和打假。

在預警和預判部分,林教授以BlueDot為例,提及該公司會掃描來自上百種管道的資料,例如衛生組織、商業航班、媒體等發布的報告與資訊,從中過濾出與疫情相關的詞彙,得以提早判斷潛在疫情的風險。而在預警方面採用的技術以自然語言處理技術和機器學習演算法為主,在這個案例中,成功地預測了10個城市可能爆發疫情。預判則是發生在疫情發生後,自各式各樣的數據中,例如電子病歷、連鎖藥局的抗病毒處方籤、醫療服務利用率、住院率、死亡率等,用以預測高風險患者,並進一步判斷以下問題:誰應該被檢測以及隔離?哪裡需要醫療用品補給?或者哪個地區復發風險較高?這些訓練資料是讓預測成功的關鍵。

在檢測和追蹤的應用上,目前最常見的是紅外線體溫檢測設備經常失準,倘若運用AI,即可進一步「辨識」熱源是否來自於個人的身體而非物件。目前AI技術還可用來辨識個人身分,並與體溫資訊結合。另一個是無人機的遠處監控案例,無人機可透過監控不同的生理訊號(如呼吸、心跳、溫度、咳嗽等),來判斷是否有疑似 COVID-19 的症狀。這類的AI應用採用的技術是較熱門的影像辨識的深度學習以及生理訊號檢測等。還有一種稱之為病毒變異的追蹤技術,做法上是比對遺傳序列監測 COVID-19 病毒的變異,來推算病毒傳播路徑,可以找出病毒的源頭或傳播的速度。

在診斷和治療方面,目前在肺部影片判斷方面已有相關應用,AI 可在幾秒鐘內分析電腦斷層掃描影像,協助加速診斷;此類應用採用深度學習技術來判讀 CT 影像,並初步排除感染較輕個案,也可加速治療效率,;也可找出特定屬於冠狀肺炎而非其他種類疾病的特徵,作為初步篩選機制。林教授也強調,這些應用是為節省時間,而非取代醫生判斷。

治療方法方面主要是從多種治療方法組合中,找出最好的治療方法。IBM的技術已在今年3月針對 8,000 多種化合物進行模擬運算,從中找出有望阻止冠狀病毒的物質,為生產最有效的藥物、疫苗提供研究基礎,因為AI可以減少摸索時間,並決定優先測試,輔助與加速疫苗開發與治療。

在監控與支援方面,主要在於對病患足跡的追蹤,背後技術是大數據蒐集與分析,在國內主要是由電信公司執行,在畫出軌跡地圖後,再與一般民眾交叉比對,用以判斷出某個時間內,可能與病患近距離接觸者,並發出警訊提醒。因為這樣的應用會涉及民眾個資的使用,需要政府介入。在醫療院所,還可利用AI來監測醫護人員是否使用酒精消毒,或者是否洗手按應有程序進行,以分析臨床醫師手部的衛生狀況。隔離者的監控也是另外一種案例,透過監控隔離者的身體姿態來判斷是否出現應有的行為。這一類的監控應用另外一種情境是針對獨居長者,用以判斷長者的活動狀態。

另外一個重要應用是後勤與支援,台灣因為疫情控制得當尚未有太多類似的應用,但是對於疫情較嚴重的區域,就可以利用如無人機、機器人來執行像是投遞藥物、食物或生活資源,降低人與人之間實體接觸的風險;或是直接對患者蒐集檢體樣本進行檢測,以降低病毒傳染的機率,也填補短缺的勞動力。

在科研和打假方面也有AI的應用,本次COVID-19大流行,冠狀病毒的研究激增,現階段已有超過6萬篇論文,而AI 技術有助於快速分析文獻資料,利用自然語言分析有助於產生新的洞察。在打假方面,台灣自疫情爆發以來,光是今年2月份就偵測到大量假消息,包括像是特定物資缺乏的謠言等;AI可運用自然語言處理技術,來分析新聞內容,用以評比內容可靠度來判斷訊息錯誤程度。

在下一波疫情來臨之前,林教授認為我們還有機會去嘗試與體驗AI技術應用;對政府而言,積極建置 AI 預防解決方案好即時幫助緩和疫情,減少長期經濟損失;要從根本上擺脫疫情的威脅,大量的投資與適度的授權是必要的。對個人而言,AI可以協助做好自我健康管理。

最後林教授提醒,我們會越來越習慣用AI來做決策,而不是用感覺在判斷,一個國家或企業如何把資料的生態鏈做好快速協助做決策,是AI用來防疫的重要關鍵。利用AI技術加上人類,才是最好的組合。

專題演講2:人工智慧應用於疫情控制的法律歸責課題

陳弘儒博士首先引用Stuart Russell 與 Peter Norvig的著作整理多位學者對AI界定系統的4種發展取向,第一種是將系統設計以推理為主,第二種是不關注推理過程只關注行動(其以掃地機器人為例,清掃路徑並不重要,重要的是清掃結果);第三種系統設計要能做出合理判斷,此判斷標準可以人為主,或者是給予一個和理性的判斷方向,但是不需要理會判斷的歷程,此即是第四種取向。這四種並非互斥的,只是在設計上選擇不同偏重而已。

AI系統有兩個關鍵,其一是行動者與另外一個是功能履行。陳博士首先提及歐盟在去年發布的AI道德指引提到,AI系統無論是硬體或軟體,有一些被給定的目標,可以感知有環境,當環境改變的時候會改變行為來適應,此即是AI的基本界定。英國ICO在今年2月公布的AI稽核指引中也界定了AI是:當涉及到個資進行預測時,個資法就應適用;當系統會用於預測之途時,就得引用此指引。AI的界定中最重要的就是功能論。

AI設計的實戰者均抱持功能論想法,亦即為達到哪個目的,系統就該有哪些功能,但是在達到功能目的的過程中,系統也會衍伸許多其他能力,例如掃地機器人為達清潔目的,必須執行的mapping、感知等功能。達到目的與減輕負擔是AI在初始設計的主流,因此會出現類似,當我們要求Alpha Go推薦美食,可能得到很糟的建議,但是在下棋方面卻表現卓越。不過這也代表了一個重要課題:當AI做出決策時的因應,是遵從或違背或參考AI決定?做出決定會是AI與人互動最重要的關鍵。在法律上到底誰可以做出決定,誰就要負責,在現階段讓AI負責為不可能,也因此最後都還是由該決策體系中的最高決定者來負責。

陳博士引用了Yuval Noah Harari的論點,要疫情變和緩有許多方式,但是中心化監控與嚴苛處罰,並非唯一迫使人們遵守對其有益規則的途徑,而是基於科學事實,好好告訴民眾當今狀況為何,如此將可達到更好效果。講者提出其隱憂,我們會朝向一個更監視性的、我不在意現況只要按照政府的指令走就對了的方向。

後續陳博士分析了台灣在這段防疫期間有關隔離監控的作法,大致可分為三個階段,一開始由政府給予被隔離者一個手機用以監控當事人,可是當隔離者越來越多的時候,又改為被隔離者用自己的手機,透過手機基地台三角定位來進行;最後又再演變成為被隔離者用自己的手機,但是直接採用GPS定位技術。

他進一步解釋,隔離監控目的在於讓被隔離者保持隔離狀態,為達此目的,當發現違規現象時,就要馬上採取立即行動。講者提到目前還有一種社交距離APP已發展出來,不採中心化資料庫概念,而是透過藍牙技術的互通紀錄,作為辨識是否有接觸確診者的依據。這類型app的應用可能會大量降低隱私。還有一種是台灣目前是備而不用的健康回報app,當疫情再度爆發時可讓民眾自我監控。

其他可能的應用還包括如,加強生物感測的監控以及提高執法效率政策。前者就是人臉辨識追蹤系統,在台灣於去年已建置完成人流安全管制,包然有人臉辨識的功能,只是尚未啟用。不過台鐵過去的人臉辨識系統已引發爭議,至今仍未啟用。即便如此,仍可預期人臉辨識系統在疫情控制相關應用是有效的,仍會有人繼續研發。

講者也進一步分析鑽石公主號所採用的追蹤與示警方式,包括利用行程表、接駁巴士的GPS、信用卡交易記錄、監視器與車牌辨識系統、手機定位系統來描繪出可能確診者的行動足跡,並在電信業者協助下,自基地台撈資料來做出警訊。其結論出此追縱方式隱含意義包括了監控系統會更有力、例外狀態的常態化,以及隱性的變更。

國內的相關法律在實踐相關監控措施方面其實有不足之處,在公主號事件發生當下,我們對病毒仍不了解,當知道確診者存在,政府是可以採取有緊急的利益或正當理由來避免疫情擴散,但是這類正當理由仍需要面對既有法律的檢視,近一步思考如此使用個資是否已超過法律所設定的條件。避免如此例外作法成為常態,目前雖不致於使民眾心生恐慌,但卻會隱性地變更自由社會中法律體系的價值設定。

陳博士強調武漢肺炎爆發賦予了我們去檢視既有法律在面對緊急事件不足的寶貴經驗,而首要之務是抽絲剝繭找出不足之處,並加以修正,而非在防疫措施有效的結果下誤以為法律已有足夠的規範機制。在未來疫情可能會升高,當期望民眾持續遵守相關規定時,政府要建立信任度,而法律的引用錯誤降低此信任度。

講者也提出法治主體並非中立的概念,也就是每個人作為須負責任的主體時,可以對於法律的要求遵循與否有自主判斷空間,因為壓縮人民不守法空間的高效率執法可能是危險的!因為高效率執法系統強調的不是「法律是什麼」,而是「法律處罰是什麼」,法律理性思辯的空間也會因此崩塌。

COVID-19疫情的預期升溫,其所造成的法治面威脅必須從政治道德層面進行思考,思考政府政策的正當性依據;例如最佳化系統醫療資源的分配,就是高度涉及政治哲學的問題。AI可協助判斷與決定,但當涉及政治道德時,就有必要引進人文社會思考。對於個資的揭露與否的決定涉及到權力的控制,疫情指揮中心也須納入透明度考量,思考哪些人可以依據哪些法律條文來近用哪些資料。

最末,陳博士還提出另外一個需要思考的重要課題:因為AI應用多由私人公司所設計與研發,是否將透明度列為法規條件的議題,將出現在這些私人公司對於一般大眾的數據與資訊的掌握與近用。陳博士也提醒,民主與獨裁政權均渴望掌握大量的資料數據,但更應關切藉技術壟斷而取得的資料,例如大型科技業者所擁有得AI技術資料來源是使用者體驗,而這些貢獻經驗的用戶卻對自己的資料不具有掌握權。


照片集錦


Scroll to Top