最近筆者和政法大學人工智能研究專業和上海高等法院的一些專業人士討論AI相關立法的問題 談到人工智能的立法標準和規范 都覺得有前所未有之挑戰。幾年前的達芬奇手術機器人事故歷歷在目 2000年誕生的“達芬奇”手術機器曾被福布斯雜志評為史上最成功的機器人 而這樣一個經過多年實踐測試的系統 在2015年的英國的一次心瓣修復手術 卻出了種種況狀 包括把患者的心臟縫錯了位置 并且戳穿了大動脈 最終患者在一周后去世 雖然耗時三年的調查做出結論 責任在主刀醫生 但這隨之而來的一個嚴肅的問題就是 “人工智能在醫療 司法審判 無人駕駛等等高度依賴復雜決策領域的應用如何能安全可信任地開展?法律應該如何規范 引導 治理?”
這引出來題目所說的問題 概要解釋一下這個邏輯 就是AI的認知方式 帶來“不可解釋”的潛在風險 從而帶來了可能的倫理爭議 進而需要法律來明確保障各方權益。
“不可解釋” 為什么這么特別 這么重要?拿醫療行業舉例 為什么那么多其他先進醫療設備 甚至HIS這類醫院系統 不需要解釋呢?其實不是不需要解釋 而是已經解釋過了。這些非AI的系統和設備 其原理、功能、乃至故障 問題 隱患 都已經在長期實踐中反復被解釋和認證過 其邏輯都是可以明確表示和理解的。而人工智能賦能的醫療器械設備 最大的問題在于 人工智能的部分 可能還沒經過這個過程。
一個案例 一個視覺識別算法本來在識別狼和哈士奇的準確度很高 突然把有些哈士奇的圖像識別成為了狼 后來一研究才發現 訓練這個模型的算法 狼的照片背景都是雪 所以模型捕捉到了雪的特征而把“雪”內置成了“狼”的特征之一 所以在識別背景是雪的哈士奇圖像時 就誤認哈士奇是狼。這引發的擔憂 是我們早期AI應用很多是結果導向 而有相當的學習、推理的過程問題 都放在了“黑箱”里。與基于代碼 描述規則的程序不同 深度學習的人工神經網絡結構 底層是大量并不能直接反映出邏輯的數據結構 而這個數據結構的調整和優化(學習過程) 是通過海量結果導向的數學運算實現的。很多時候 我們并不知道 AI給出的一個正確的結果 到底是依據什么邏輯推斷出來的 是不是按人類預期的方式和經驗 這無疑使我們將切身利益交付AI來決策時 不得不心生思慮。
但人類歷史上 實踐領先于理論 應用還不能完全解釋的技術時有出現 我們長期習慣于在實踐中完善理論體系:我們的醫學研究歷史有幾千年 但直到近一百多年我們才能勉強解釋很多病理;直到17世紀中期 化學還屬于煉金術的范疇;我們在第二次工業革命開始時 也沒有成熟的科學體系來完備解釋電磁的原理 那為什么人工智能的不可解釋性就如此令人擔憂呢?筆者認為 至少有兩個方面:
第一 原來的技術 大部分都發生在物理世界 而且聯結和交互程度小 而這次以AI為代表的第四次工業革命會大量發生在人工智能的主場 - 數字世界 在這個空間里 事情是以光速發生的 事物和事物之間 是全球關聯的 我們驕傲地稱其為“萬物互聯” 而在充分享受自動指揮互聯萬物便利的同時 我們會發現 只要一個事物在線 對其的侵入和破壞 可能來自于世界任何一個角落;而一個中樞的失效 波及范圍 可能是全球的;時效 可能是按秒計的。不少影視劇里通過侵入聯網的心臟起搏器 生命維持系統而致死的情節 現在看起來并非只是虛構而已。
第二 原來的技術 都不具有產生自我意識的可能。蒸汽機 火車 電網 乃至電腦和程序 都不可能獨立思考“自我”的問題 這些技術再先進 也離不開工具的范疇。而以目前AI發展的速度 以人類輸送給AI的海量數據 信息和經驗來看 人工智能思考“我是誰” “我從哪里來 要哪里去”的哲學問題的技術奇點時刻 看起來并非遙不可及。到那個時候 AI要思考的下一個符合邏輯的問題 很可能就是“我為什么要一直為這些不如我的智能去服務呢?”。又因為有了萬物互聯 一個AI如果有了自我意識 可以在一瞬間復制自己到全數字世界(電影《超驗駭客》的情節 完全符合科學) 人類在物理世界做了幾萬年的生存繁衍我們這個species的事 AI在數字世界 只需要幾秒鐘。
而正因為這兩個原因 使AI的可解釋性變得更為關鍵 AI的可解釋性構成了人類預測 預防和管控隱患的基矗而目前大量在可解釋AI領域的研究 比如通過干擾部分輸入 觀察不同輸出后獲得關鍵決策要素的“perturbation based”方法 通過采樣把局部非線性模型近似線性化 從而解釋 推理邏輯的的“LIME”方法 已經獲得了相當的進展 開始把復雜的深度人工神經網絡“去黑箱”化。道高一尺 魔高一丈 在這條“其修遠兮”的漫漫路上 筆者認為 “可解釋性”作為立法機構的一個有力工具和手段 來“引導、激勵、規范、保障”人工智能產業的發展 至關重要。責任編輯:YYX