AI 調適
評估危害的標準跟定義,就綁在一小群人身上嗎?
談到 AI 治理,除了相關立法外,我想強調的是「超前部署」的 AI 調適機制。
為什麼要超前部署?
好比數年前科技會報辦公室和我曾拍過影片,用便宜的手機、筆電,來深偽(deepfake)我自己的影像,來告訴大眾深偽技術有多容易。
這樣一來,在還沒有發生大規模損害時,就可以早一步來防治,也同時提前讓大眾瞭解如何因應風險。
而所謂 AI 調適機制,背後就有兩個超前部署的方向:一是透過全民參與,迅速發現新的危害;二是在發現後,如何快速告知從業人員,並且在危害的邊界前訂定界線,引導業者往安全的方向開發。
因為 AI 是通用技術,在實驗室的研發階段難以評測所有可能的危害,所以應該要有系統性的方式,透過至少每半年一次的審議,來瞭解實際部署時,對社會的影響。
但,這代表評估危害的標準跟定義,就綁在一小群人身上嗎?
並不盡然。我們可以採取兩種做法,第一種是「自願通報」,也就是任何人發現有潛在危害,都有一個地方可以舉手發言,並跟其他處境類似的人討論。第二,我們可以採用「隨機抽樣」的方式,在確定人口比例後,進行分層抽樣電訪。不過,這種傳統的民意調查方法也有其缺陷,通常只能問選擇題,無法進一步詢問開放性的問題。
為了因應這個挑戰,我們可以運用「審議式調查」模式,結合審議討論和隨機抽樣,邀請全國具有統計代表性的幾百人,甚至上千人一起分組加入視訊會議,彼此腦力激盪。如此一來,既可以深入討論,也讓更多民眾都有機會參與。
我期待,根本還沒使用 AI,或是剛剛受到影響的人,都有機會透過審議的過程,先瞭解有這一件事,而且放在自己的生活情境當中想一想:如果親朋好友,甚至公司開始運用先進的生成式 AI 時,各方要如何因應?如此,我們才能超前部署,即時回應社會的需求。
(本著作係採用創用 CC 姓名標示 4.0 國際 授權條款授權。)