時事
【司法節研討會】AI難免偏見及歧視 律師聯合會理事長提解方
發佈時間2024.01.11 15:35 臺北時間
更新時間 臺北時間
全國律師聯合會理事長尤美女今(11日)在司法節學術研討會上表示,用AI(人工智慧人工智慧Artificial Intelligence)機器語言寫成的軟體、程式碼,跟用人類語言寫成的法律條文一樣,都不可避免會受到創造者的主觀價值及願望影響而成為帶有偏見的結構,AI也可能被餵養各種帶有偏見的資料進行訓練,因此所生成的內容也就不免會複製甚至放大既有的偏見。
尤美女指出,每一年慶祝司法節的學術研討會,都是跟著時代的需求,針對新興的法律議題討論,每一年的主題其實對司法界都有深遠的影響,今年是針對生成式AI,尤美女表示,近年來生成式AI是非常蓬勃發展,全球各領域都造成非常大的衝擊,其中ChatGPT(聊天生成預訓練轉換器)從2022年後掀起全球熱潮,功能非常多元,除了可與人類溝通,也可以生成圖片、程式碼等著作。
尤美女表示,生成式AI技術甚至還能在LSAT(美國法學院入學考試)及GRE(研究生入學考試)等考試,名列前茅,但生成式AI驚人的生產力被形容為社會風險之一,生成式AI為人類社會帶來便利,但同時也伴隨人權、智慧財產權、營業秘密等侵害,去年底《紐約時報》指控OpenAI和微軟未經授權逐字轉載紐約時報的文章做為訓練ChatGPT大型語言模型的資料而提告。
尤美女提到,這些生成式AI對人類社會的影響,永遠不僅於這些的表面,這些用機器語言寫成的軟體、程式碼跟用人類語言寫成的法律條文一樣,都不可避免會受到創造者的主觀價值及願望影響而成為帶有偏見的結構,也可能生成式的AI被餵養各種帶有偏見的資料進行訓練,因此所生成的內容也就不免會複製甚至放大既有的偏見。
尤美女指出,跟據研究,美國用以評估信用等級及刑事犯罪再犯的風險的AI工具,就呈現出對於有色人種的偏見及歧視及刻板印象,低估了這些人的信用評等等級及高估了再犯風險,這些在社會普遍認為AI只是一個程式計算的結果,不會帶有任何價值判斷的天真假設之下,生成式AI對於人權、弱勢及性別所帶來的歧視、侵害,恐怕比以往更廣泛。
尤美女表示,為避免AI複製人類既有的偏見及刻板印象,各國的政府或機構都在思考怎麼去規劃去規範一套最為良善的訓練方法及素材,如有機構試圖開發合憲AI程式,用世界人權宣言等文本做為訓練的素材,使AI決策不違背人類的人權宣言,甚至監督其他AI所做的決策是否符合人類人權的標準,然而AI訓練AI的漏洞在於如果起初設定的規則有問題,後面訓練的AI當然同樣會有問題。
尤美女提到,目前國際的趨勢仍然是要製定一套以期待能解決這樣的難題,例如聯合國的教科文組織在2023年就通過《人工智慧倫理建議書》,美國2022年也提出人工智慧權力藍圖,指出AI自動化系統對於人權、隱私等造成影響,提出了設計及使用的指導原則,包括自動化系統應保障資訊安全及隱私,並確保使用的演算法不會造成歧視,並促進以人為本、值得信賴的AI,以保障個人基本權利。
尤美女表示,為因應AI的發展及AI運用在行政、司法體系中,我國政府己努力制定了相關的規範及指引,如《人工智慧科研發發展指引》等,有助於減少運用AI所帶來的負面影響。