人工智慧(AI)系統「透明度」的重要性,不只是一種技術要求,也是建立使用者信任的基石。如何將透明度的倫理原則化為明訂的法律義務?歐盟人工智慧法案給出了範例。
人工智慧(AI)技術的快速發展對現代社會產生了深遠的影響,無論在醫療、教育還是金融領域,其應用都在逐步改變人類的工作與生活方式。然而,隨著人工智慧技術在不同場景中的廣泛部署,透明度問題逐漸成為影響技術信任與責任的重要議題。透明度不僅是一項技術要求,更是一個涉及倫理價值、法律規範與行業實踐的多層次挑戰。
歐盟人工智慧法(EU AI Act)作為全球首部全面性的人工智慧法律框架,提供了將透明度倫理原則轉化為法律義務的範例。該法以風險為導向的設計方法,針對高風險人工智慧系統設置了詳細的透明度規定,並強調技術文件、使用說明以及可追溯性的重要性。
從信任到民主參與,透明度的多重面向
在人工智慧的發展過程中,透明度的原則已成為倫理層面的關鍵議題。研究人員指出,在設計、開發和部署人工智慧系統時,特別是在如醫療與教育這類敏感領域中,透明度至關重要,旨在提升可問責性以及增進公眾的信任。提高透明性將有助於減輕人們對偏見、公平性,以及人工智慧對個人及整體社會影響的憂心。
透明度不僅僅是揭露資訊,更重要的是讓AI系統的運作過程和決策邏輯易於理解。學者們將透明度視為一個多面向的概念,與最小化傷害、促進信任和推動民主參與等概念都有關聯。此外,設計透明度(Transparency by Design) 的構想也日益受到重視,主張在整個人工智慧生命週期中整合透明度原則。
一、透明度作為人工智慧的倫理原則
研究人員已將透明度確定為人工智慧的一項關鍵倫理原則,與其他原則如「可問責」、「公平」和「可解釋性」並列。人工智慧中的透明度關注的是利益相關者(從使用者到開發者)理解人工智慧系統的邏輯、數據和決策過程的能力。通過促進透明度,利益相關者可以審查人工智慧的內部運作,評估其輸出,並對開發者和組織在這些技術影響方面的責任進行追究。
二、歐盟高級專家組的「可信賴人工智慧倫理指針」中的透明度
歐盟委員會設立的高級專家組在其所提出之「可信賴人工智慧的倫理指導方針」中,提出可解明性的原則作為人工智慧系統脈絡下的倫理原則,並認為透明度是實現可信賴人工智慧的關鍵要求之一。可解明性對於建立和維護使用者對人工智慧系統的信任至關重要。這意味著過程需要透明,人工智慧系統的能力和目的需要公開傳達,並且決策在可能的範圍內需要對直接和間接受影響的人進行解釋。
以下解釋其中的關鍵概念:
● 可追溯性:AI 系統的可追溯性是指能夠跟踪系統的數據、開發和部署過程的能力,通常通過記錄的文檔識別來實現。
● 溝通:人工智慧系統不應該向使用者展現自己是人類;人類有權被告知他們正在與人工智慧系統互動。在歐盟AI法案框架下,「溝通」可能發生於使用者、開發者及監管機構等利益相關者之間。
● 可解釋性(explainability):能夠要求對人工智慧系統的決策過程提供合適的、人類能理解的解釋。
● 資料存取協議:處理個人資料的組織應實施資料協議,概述存取權限和情況。
● 商業模式的透明度:指導方針建議,透明度應擴展到與 AI 系統相關的商業模式。在歐盟AI法案中,商業模式透明度意指與 AI 系統相關的商業運作方式,包括其背後的經濟動機和潛在的利益關係,以便更好地理解系統的開發和部署可能受到的影響。
三、歐盟人工智慧法(AI Act)的透明度框架
歐盟人工智慧法(AI Act)針對人工智慧系統的透明度設有若干規定。
● 揭露互動實況之一般透明度義務:當人類與 AI 系統互動時,必須告知用戶他們正在與機器互動。
● 高風險 AI 系統的透明度義務:高風險人工智慧系統在投入市場或投入服務之前,應要求具備透明度。
● 特定 AI 系統的透明度義務:
生成結果的機器可讀性與可檢測性義務。
情感辨識系統和生物特徵分類系統的透明度。
深偽與生成文本 AI 系統的透明度。
● 通用 AI 模型的透明度義務:模型概述,提供資訊給下游提供者。
小結
透明度在人工智慧的發展中扮演著至關重要的角色。從確保研究的可重複性到促進人機互動中的信任,以及解決不同行業部門的特定挑戰,透明度在建立負責任和可信賴的人工智慧系統中扮演著至關重要的角色。歐盟人工智慧法通過建立全面的法律框架,將透明度原則融入到具體的規範中,為全球人工智慧治理提供了重要的參考。
行動呼籲
● 持續關注並深入瞭解人工智慧倫理與透明度的最新發展。
● 積極參與相關的討論與研究,共同推動人工智慧技術的負責任發展。
● 在AI系統的開發和應用中,始終將透明度作為核心原則之一。
● 借鑒歐盟人工智慧法等國際經驗,完善我國的人工智慧治理體系。