本文共1277字
詐騙橫行,如何精準識詐、阻詐,成為當前台灣的國安問題。玉山金控(2884)科技長張智星就提及,透過大數據分析,AI可以輕易找出可疑之處,新近大家討論中,屬於「升級版」的AI「聯邦式學習」(federated learning),則有機會觸動AI向AI學習,產生「團結力量大」效果。
以信用卡盜刷偵測為例,假設有五家銀行各自以自家資料訓練出AI模型來,當有一筆可疑交易產生時,各模型就來「投票」決定,這是不是盜刷,再經由事實檢測,讓命中結果的AI,可以傳授經驗給答錯的AI。多次反覆練習後,各家的AI會變得愈來愈聰明。
治理規範還沒出爐
不過,理想美好,現實卻很骨感,短期內要金融機構實踐聯邦式學習,還有困難。中信金控科技長賈景光就說,雖然在個資隱私部分,可用「代碼化」技術將資料去識別化,但難保不被回推出原始數據;另外,資料授權使用需經過客戶同意,再加上金管會原訂8月公布的資料分級及資料治理規範迄今仍未推出,種種都是阻礙。
回到生成式AI助攻普惠金融,近期外界最質疑的,莫過於AI有時會產生,連開發者也難以解釋的「幻覺」(hallucination),一旦幻覺產生,本來可幫助金融知識小白、小微族群的目標,將大打折扣。
張智星形容,幻覺猶如夢囈,由於AI讀取了海量資料,這些資料中可能夾雜著如政治、道德、倫理與法律層面的主觀偏見,甚至還夾雜惡意或病毒的程式碼,「有問題的資料」將形成金融業應用生成式AI的痛點。
中信銀數據暨科技研發處長王俊權也提及,金融業對於「精準」的要求,近乎苛求,「因為對客戶的每一個溝通,都是承諾」。假設一個AI客服回覆的資訊有誤,乃至於驗證用戶身分的人臉辨識,出現了百萬分之零點八的極低錯誤率,放在現實生活中一個月有幾千萬次的提款次數,即便是幾十次的誤判,也是不被允許的。
說人話卻錯誤百出
永豐金控數位科技長張天豪指出,生成式AI使用的大型語言模型(LLM),訓練方式為讓AI閱讀大量文本資料後,再進行「克漏字」及接龍測驗,目標是要訓練出「講人話」而非「講正確話」的AI,因此AI有時會出錯。
綜合國內多位金控科技長看法認為,目前還很難讓AI單獨直面客戶,現在最為可行的是「人機協作」,例如由AI協助客服人員彙整相關資訊,或是幫研究人員摘要研究報告等。
在與AI協作時,人類員工也必須具備思辨能力,查核資訊是否正確無誤。
在AI時代裡,得「算力」者得天下,由此掀起企業新一輪的科技軍備競賽。面對過往行之有年的分析式AI,企業多可自建模型分析運用,但針對新興的生成式AI,能燒得起錢、訓練大型語言模型者,少之又少。
張天豪說,現在有一些企業開始採用開源模型來部署自己的AI,但是運算能力與目前全球少數幾家科技巨擘打造出的大型語言模型,可說是小巫見大巫。另一方面,近年來企業對於AI技術人才需求孔急,也成為國內金融機構發展AI的另一痛點。
賈景光還提及,企業活用AI的最大難處,在於AI並非隨裝即用的工具,「它需要長時間累積試錯、不斷微調優化,才能帶來最大價值。」面對AI,to be or not to be,以及該做到什麼程度,還將持續考驗金融業者。
※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容
留言