銀行導入AI模型 須遵守「十誡」
金融行業導入AI模型潮流,在輝達(NVIDIA)的高效能GPU問世之後,AI人工智慧和機器學習(ML)已成為包括銀行業在內的所有行業關鍵字,美國較大型銀行導入人工智慧,讓人看到人工智慧和機器學習正在改變銀行的運作方式,也充滿了期望,似乎將發生革命性的成長。
在網路上,已經有人示範如何利用ChatGPT結合其他證券商的API,產生自動下單的程式交易碼,大幅降低一般人進入程式交易的障礙,是最典型生成式AI的創新應用,過去專業投資機構強調的「機器人選股」已不再遙不可及。
然而事情沒有那麼簡單,在生成式AI來臨之前,早期的AI和機器學習,也曾導致金融界的悲歌,2012年騎士資本集團(Knight Capital Group)因演算法的程式碼錯誤導致該公司在短短45分鐘內損失了4.4億美元,最後宣告倒閉。
AI演算法錯誤 曾導致金融機構倒閉
另一個案例是美國第一資本(Capital One)允許AI程式自動汲取資料庫,給予錯誤權限,這個漏洞被駭客發現,導致公司雲端的防火牆配置錯誤,使駭客能夠存取敏感的客戶數據,包括姓名、地址、信用評分和美國社會安全號碼,造成嚴重損失,這是一個導入AI和現有IT系統整合上的錯誤造成。
人工智慧和機器學習是複雜的技術,執行時需要大量的專業知識和監督,如果銀行不具備必要的專業知識,可能無法正確設計、測試和維護其人工智慧及機器學習系統,進而造成大錯。
因此國外專家、顧問公司對銀行導入AI人工智慧,提出了各種注意事項,在此歸納整理成導入AI的十誡。
第一,資料偏誤。美國麻省理工大學電腦科學與AI實驗室(Computer Science and Artificial Intelligence Laboratory)就曾發現,一般人認為機器本身是中立的、沒有偏見的,卻忽略了人工智慧學習軟體,透過人類的設定與校正,帶入微妙的偏見,最終影響緊急決策的結果。
資料偏誤 訓練模型也存在偏誤
他們發現,當醫院用AI訓練判讀X光片結果時,對白人病患預測結果準確度受到干擾,起因於訓練資料的差異。
在銀行,人工智慧的機器學習很大程度上依賴過去的數據,如果用於訓練這些演算法的資料包含無意識或有意識的偏見,則可能使不公平作法和歧視長期存在,例如過去資料中,某種職業申請者成功獲得貸款的次數,本身就非常低,可能源自於本來的偏見。
問題是,這個偏見將會被帶入訓練資料中,這可能會導致銀行業拒絕向特定群體提供貸款或信貸,那麼訓練出來的模型,說不定得到的結果,和沒有應用模型篩選的最終結果,根本沒有太大差異。