您的瀏覽器不支援JavaScript功能,若部份網頁功能無法正常使用時,請開啟瀏覽器JavaScript狀態
友善列印 :
請利用鍵盤按住Ctrl + P開啟列印功能
字級設定 :
IE6請利用鍵盤按住ALT鍵 + V → X → (G)最大(L)較大(M)中(S)較小(A)小,來選擇適合您的文字大小,
而IE7或Firefox瀏覽器則可利用鍵盤 Ctrl + (+)放大 (-)縮小來改變字型大小。
:::

打開 AI 黑盒子,台大找到 AI 決策關鍵並開源各界使用

日期:109/05/12
資料來源:TechNews

科技部 11 日舉辦記者會,邀請台灣大學 AI 中心分享「可解釋性人工智慧」,除了具備高辨識率的人臉辨識能力,還可以有條理的解釋 AI 產出結果的原因,有效提升人類使用 AI 的信任度。

近年來 AI 臉部辨識已進步到深度學習等類神經網路,由電腦自己訂規則,憑著數以千計的條件,產出高精準度的答案,不但可辨認出真假金正恩,還可以在低解析度或刻意喬裝的情況下辨識,甚至超越人類辨識能力。

台大資工系教授徐宏民指出,過去人們不了解 AI 做決策的過程及原因,讓人駐足不前,因此,台大人工智慧技術暨全幅健康照護聯合研究中心(台大 AI 中心)在科技部支持下,打造出「可解釋性人工智慧」(Explainable AI,XAI),猶如打開「AI 黑盒子」,確認 AI 決策的合理性。「我們能解釋過去跟現在小豬哪邊不一樣,像是髮型不太一樣,下巴變得比較尖,能解釋這裡不太一樣,但鼻子、眼睛周遭還是非常像,所以專注這裡,最後判斷這是小豬。」

科技部長陳良基也指出,科技部去年 9 月公布人工智慧科研發展指引,強調 AI 的「透明性與可追溯性」及「可解釋性」,期盼讓普世大眾對 AI 感到信賴與安心。「這非常重要,AI 不應該是黑盒子,必須告訴我,現在幫我決定能不能進門、能不能得到補助,不能算完卻不能解釋,必須解釋清楚。」

徐宏民也提到,為加速技術擴散與落地應用,此 AI 模組 xCos 可與其他臉部辨識系統相互搭配,並將這項技術開源供國內外產學研單位使用,希望將相關理念拓展至其他深度學習相關應用。