價值選擇-當政府開始使用AI

討論政府AI應用,關鍵不在模型是否準確,而在制度是否到位。首先,高風險決策應保留人類最終裁量,避免完全自動化。圖/本報資料照片

人工智慧正快速進入政府治理體系,從案件分類、審查輔助到風險預測與資源配置,AI已逐步成爲行政運作的一部分,因此官方多將其定位爲提升效率與決策品質的工具,但真正值得關注的問題是:當AI被納入治理核心,是在強化行政能力,還是在改變權力結構?

與傳統資訊系統不同,AI不只是執行工具,而是具有「建議決策」能力的系統。透過評分、排序與預測,它會影響決策的起點。實務上,行政人員往往依賴這些輸出作爲判斷依據,久而久之,模型結果便成爲隱性的決策框架。

這意味着行政裁量權正在轉移。原本由承辦人員掌握的判斷權,逐步分散到演算法設計者、資料科學團隊及資料本身。權力沒有消失,而是被重組,且變得更難被看見。

隨之而來的是責任問題。一旦AI導致錯誤判斷或資源分配不均,究竟該由誰負責?是設計模型的團隊,還是依據模型決策的公務員?在制度尚未釐清前,這種責任模糊將削弱公共信任,也可能讓技術成爲問責的灰色地帶。

支持導入AI的理由,多半集中在效率與精準度。面對龐大案件量與有限人力,AI確實能提升處理速度並優化資源配置。然而,公共治理的核心不只是效率,還包括公平、透明與可申訴性。若民衆因演算法被標示爲高風險對象,卻無法理解原因,也無從提出申訴,那麼效率的提升,可能是以程序正義爲代價。

國際經驗顯示,多數國家在導入AI的同時,也開始建立監管機制。例如,高風險應用不得完全自動決策,必須保留人類最終裁量;模型需具備基本可解釋性,並接受獨立審計。

臺灣的情境更具挑戰。一方面,完整的戶政與健保資料庫,加上高度數位化的行政體系,使AI應用具備優勢;另一方面,資料集中也放大了風險。一旦模型存在偏誤,其影響將快速擴散。更關鍵的是,AI依賴歷史資料訓練,而這些資料本身可能已反映既有制度偏差。

例如在社福領域,若依過去申請紀錄判斷補助資格,可能忽略未曾申請但實際需要協助的族羣;在執法領域,若依違規紀錄進行風險評分,則可能強化標籤效應,使特定羣體長期處於不利位置。這些問題並非技術錯誤,而是資料與制度交互作用的結果。

因此,討論政府AI應用,關鍵不在模型是否準確,而在制度是否到位。首先,高風險決策應保留人類最終裁量,避免完全自動化;其次,應保障民衆知情權,使其瞭解是否被演算法評估及基本依據;第三,應建立獨立審計與倫理審查機制,確保AI運作符合公共利益。

更深層的問題在於價值選擇。我們希望建立的是一個追求效率的治理體系,還是兼顧效率與民主正當性的制度?若只強調效率,AI將自然成爲主導工具;但若重視信任與參與,制度設計就必須與技術同步發展。

人工智慧讓政府更快速、更精準,但真正需要被設計的,是權力運作的邊界。當決策邏輯逐漸內嵌於系統之中,人民是否仍能理解並監督政府?這將是數位時代最關鍵的治理考驗。