本文共1109字
數位發展部唐鳳部長日前接受Podcast節目「全神貫注」(Your Undivided Attention)專訪。她在專訪中表示,面對AI快速發展的挑戰,台灣經驗展示了如何提升對AI的理解與應用,為AI可能造成的風險形成預防效果,以及如何運用AI進行即時查核與審議式民調,讓民主升級。
唐鳳指出,民主社會的自由與多樣性,正面臨專制政權的威脅,例如利用網路安全漏洞、阻斷服務攻擊、深偽技術等方式來分化人群、製造對立,進而危害社會信任與公共治理;生成式AI的出現,使有心人士更容易利用AI偽冒人類行為,進行攻擊與分化。
唐鳳說,預防勝於治療,臺灣經驗展示如何讓民主升級,來面對這些挑戰。透過「預先澄清」(pre-bunking),在攻擊發生前就讓民眾了解這些危害,並產生「心靈抗體」,比「事後澄清」(debunking) 更為有效。
唐鳳進一步舉例,2022年在科技會報辦公室的協助下,她拍攝了一段深偽自己的影片,展示深偽影片容易製作的特性,並向社會傳遞「先查證,不轉傳」的重要性。此外,數位部去年啟用111政府專屬短碼簡訊平臺,建立了非常容易辨別內容來源的機制,確保政府訊息不會被任意冒用,從源頭強化民眾可信任的資訊來源。
唐鳳說明,AI技術應用所帶來的影響是一體兩面,除了負面衝擊,也有正面助益,如民間開源專案「真的假的」(Cofacts)運用AI語言模型提供「自動分析」服務,有助於更精準回應待查訊息,提昇作業效率。此外,受惠於AI技術發展,審議式民意調查(deliberative poll)的執行可行性也大為提升,政策規劃者可以更完整傾聽到人民的意見表述。
面對AI技術快速發展,唐鳳強調,AI應從技術競賽轉為安全競賽,做好風險控管。臺灣在2023年底成立「AI產品與系統評測中心」,建立我國可信任的AI環境,宣示台灣與國際夥伴共同走在安全的AI發展道路上,以呼應美國國家標準技術局(NIST)發布人工智慧風險管理框架(AI RMF)、歐盟發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),以及英國、美國近期分別成立的「AI安全研究院」(AI Safety Institute)等組織。
數位部表示,「全神貫注」為非營利組織「人性科技中心」(Center For Humane Technology)旗下科技節目,主持人為中心執行長兼共同創辦人、科技倫理學家Tristan Harris,以及共同創辦人Aza Raskin。該節目邀請各領域專家探討新興科技對社會的影響、探索解決方案,全球下載量已超過2,300萬次,並收錄於TED Audio Collective。
※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容
留言