人工智慧(artificial intelligence、AI)的技術日新月異,其結合巨量資料、物聯網等發展出的智慧科技已逐漸成熟,並將大幅改變產業生態及大眾生活。如何適度「鬆綁法規,開放場域」,即時因應 AI 所帶來的發展及改變並放眼未來,成為首要之務。行政院科技會報辦公室指導財團法人資訊工業策進會科技法律研究所(資策會科法所),於 9 月 27 日在集思交通部會議中心國際會議廳,舉辦 2017 科技法制前瞻論壇,探求新規範思維與方式。
行政院科技會報辦公室執行秘書郭耀煌於開幕致詞時表示,全球各國無不將 AI 視為未來競爭力的重點。行政院也在「數位國家・創新經濟發展方案」(DIGI+方案)將 AI 技術之應用列為研發重點項目,並在今年 7 月召開「智慧系統與晶片產業發展策略會議」,汲取各界建議及需求,進一步規劃政府推動智慧科技相關計畫所應投入的資源及經費。資策會科法所所長蕭博仁則表示,AI 時代有幾個特色,資料巨量化、行為主體多樣化、損害結果難以預見,因果關係複雜等,造成對於傳統隱私、資料安全、損害填補、風險調控、責任分配等規範模式受到衝擊,因此資策會科法所籌辦本次科技法制前瞻論壇,進行充分研討。
在行政院科技會報辦公室指導下,資策會科法所今(27)日舉辦 2017 科技法制前瞻論壇,邀請行政院科技會報辦公室執行秘書郭耀煌(下圖左)與資策會科法所所長蕭博仁(下圖右)蒞臨致詞。
AI 時代下,消費者享受科技發展帶來的生活福祉與便利,然而隱私與資料卻暴露在危險之下,稍一不慎就會造成難以填補的損害。論壇中,資策會科法所鄭嘉逸法律研究員藉由英國的 DeepMind 案,探討 A.I. 的角色與定位對於蒐集與處理資料之法制面影響,以及 A.I. 的資料安全保護法律議題。而國立臺灣大學資訊工程系暨研究所教授林守德也表示,除了法律制度的保護外,保護隱私的資料探勘法,包括模糊資料的精確度、隨機修改、分散儲存也是可行的方式。
如何讓 AI 發揮其應有的功能,而不會遭到誤用、惡用,對人類造成危害,同時當 AI 造成損害時,責任歸屬及損害填補機制該如何因應調適就成為最重要的課題。國立臺灣師範大學資訊工程學系教授林順喜認為,宜從安全評估標準切入,先確保 AI 應用的安全性,再討論各種不同角色(包括公司主管、研發人員、使用者等)關於管理、設計、操作等責任;美國的《聯邦自動駕駛汽車政策》可為參考適例。
智慧載具是當前致力推展之 AI 應用領域,不管美國、新加坡、日本還是我國都開始著手無人車的上路測試。然而這看似單純的 AI 技術應用,實際發展上卻面臨許多關鍵規範議題,都需要相當的討論與構思。元智大學資訊傳播學系助理教授葉志良透過歐盟的一般資料保護規則(GDPR)等規範的探討,點明「身分識別」與「進入管理」是建構值得信賴的數位關係之關鍵所在。國立臺灣大學機械工程系副教授李綱則指出研發單位比政府機關更清楚且更在乎其所開發之自駕系統安全性與可靠度,政府機關或許先明定自駕車上路實驗測試要件,包含保險金額與內容,以及實驗資料對官方公開之程度等即可。
資策會科法所協助行政院科技會報辦公室透過本論壇集合產、官、學、研界專家學者進行交流,期能藉由多元溝通及跨領域互動,齊心協力構思 AI 時代可能的法制需求,兼顧發展與保護面向,以作為 AI 產業發展之法制政策基點,帶動下一波經濟轉型、掌握數位科技成長的價值源頭,維繫我國在全球產業價值鏈的關鍵地位。