top of page

金融科技趨勢 – 人工智慧在金融領域中如何巧妙地緩解風險問題?

已更新:3月23日


作者:Edward


金融科技趨勢 – 人工智慧在金融領域中如何巧妙地緩解風險問題?

最新的人工智慧技術突破將不止對對話機器人產生持久深遠的影響,更將對欺詐偵測(Fraud Detection)產生翻天覆地的變革。自然語言處理在欺詐偵測領域中的融入,尤其是在進行“瞭解您的客戶”(KYC)調查時,能夠使流程變得更為高效與全面。本期電子報將首先檢視傳統KYC流程與KYC分析師所遭遇的挑戰,再討論人工智慧如何加速並改變KYC的程序。

此份電子報原文在在LinkedIn平台上發表。



欺詐檢測:KYC調查

欺詐檢測是金融科技中一個良好的應用案例,特別是在KYC調查方面。在欺詐檢測中,KYC的過程涉及企業驗證客戶身份、評估其適當性,並識別可能存在的任何潛在風險。


下圖是一個KYC過程的示例:



傳統KYC流程的挑戰

正如上圖所示,KYC流程涉及對存儲在不同位置的大量非結構化資料進行數據查詢、總結和分析。許多企業需要遵循KYC流程,尤其是金融行業等高度監管的行業。法規要求企業進行各種檢查並篩查大量資料。然而,手動執行這些任務可能複雜、耗時,且容易出現錯誤。除了篩查所有資料的挑戰外,傳統KYC流程還存在許多其他挑戰,例如:


  • 1. 客戶可能有多個姓名,KYC分析師必須確定這些不同的姓名是否實際上指的是同一個人。

  • 2. 同樣的姓名可能實際上指的是兩個或更多人。

  • 3. 姓名和對應的新聞可能出現在不同的語言中。

  • 4. KYC分析師還需要確定被調查人是否與其他帳戶存在關係,例如共同帳戶或由家庭成員或商業夥伴持有的帳戶。

  • 5. KYC分析師必須具備相關知識去深入瞭解資金流動情況,特別是可疑模式或異常情況。

因此,一個能夠解決上述所有痛點的解決方案將極大地提高KYC調查流程的效率和準確性。金融領域人工智慧的快速發展開闢了新的潛力,通過在KYC調查中使用自然語言處理(Natural Language Processing, NLP),軟體可以首先收集、其次結構化、然後分析,並學習從輸入的資訊中識別出異常情況。金融機構和企業,包括進口商、出口商和製造商,能夠更高效地識別業務關係和供應鏈中的潛在風險。


基於人工智慧的KYC解決方案示例:Eureka FinTech

Eureka FinTech是一家領先的金融科技解決方案供應商,他們開發了一款基於人工智慧的KYC解決方案平台,命名為Eureka。Eureka是一個以人為中心的平臺,利用先進的人工智慧技術,包括自然語言處理(NLP)、圖技術(Graph Technology)和大數據(Big Data),並整合公開資料和客戶內部資料,提供有價值的分析與洞察力。這個KYC平台可以協助企業克服傳統KYC的挑戰,並改善整體KYC流程。Eureka協助使用者分析可疑的業務關係、客戶和供應商,以及可能衍生的風險。許多時候,這些風險無法被傳統的KYC系統所識別。


Eureka相較傳統KYC調查流程具有顯著優勢,主要在於協助用戶節省時間和提高效率。而且通過先進的人工智慧技術,它能夠迅速讀取、總結和視覺化各種資料來源之間的關聯,超越了人類對數據的判讀能力。此外,Eureka通過檢查公共領域資料(public domain data),在幾秒鐘內生成合規性評分報告(Compliance Score Report),使用戶能夠快速評估潛在風險。標準的KYC流程檢查包括兩個維度:帳戶資訊和帳戶之間的關係,這包括個人和公司的的帳戶及其之間的關係。然而,Eureka的4D-KYC平台涵蓋兩個額外的維度:上下游供應鏈資料以及供應鏈關係的應收賬款期限,因此能夠進行更深入且更廣泛的KYC調查。這些額外的KYC調查維度對於進行徹底的金融欺詐分析與判讀有極大的幫助。


Eureka利用人工智慧自動化了KYC流程,對於沒有豐富金融或法律背景的人來說,KYC流程變得更加直覺且簡單快速。Eureka利用基於人工智慧的欺詐檢測對金融行業的工作流程進行創新,使KYC流程更高效,對企業也更易於使用。


人工智慧的限制

在金融行業中使用人工智慧產生了顯著的影響,革新了聊天機器人、欺詐檢測和許多其他應用場景,使金融機構能夠提告客戶服務水平。然而,在人工智慧帶來的諸多好處之外,人工智慧的使用仍存在潛在風險,例如隱私問題和歧視風險。



隱私問題

在使用人工智慧收集客戶資料時,隱私問題是最重要的考量。在銀行內部使用私人資料進行內部目的時,隱私風險雖然較低,但金融機構在與外部合作方共用此類資訊時必須嚴格遵守法律法規,因為這些規定嚴格限制了私人資料的披露。


人工智慧可以基於私人資料進行訓練,但必須確保這些資料的安全性,以防止潛在的資料洩露。值得注意的是,資料洩露並不僅僅是與人工智慧相關的問題。機構必須建立適當的內部機制與工作守則來保護敏感資訊和維護客戶信任。


保護客戶隱私極其重要,金融機構在資料安全方面必須高度謹慎並建立完善的制度規範。如此一來,金融機構可以更有效地利用人工智慧,而不損害客戶隱私。


歧視風險

機器學習演算法具有像黑盒子一樣不可解釋的特性,可能導致潛在偏見和歧視風險。如果初始訓練資料缺乏多樣性可能導致“演算法性歧視” (algorithmic discrimination),也就是模型有可能對某些群體產生偏見結果。因此要解決這個風險,我們必須對人工智慧演算法實施嚴格的測試和驗證程序,以識別和糾正任何偏見或歧視。其次,增加資料來源的多樣性(diversity)和包容性(inclusivity)非常重要,以確保訓練資料能夠對整個群體具有代表性,並避免任何潛在的偏見。此外,在人工智慧系統的開發和部署中融入多樣的觀點(diverse perspectives)也有助於發現可能被忽視的歧視和偏見。


人工智慧使用的平衡點

在金融行業中使用人工智慧的場景不斷增加,在人工智慧帶來的益處和潛在風險之間的平衡非常重要。與其替代傳統工作模式,人工智慧和金融科技工具可以相互配合,創建一個更高效的系統。然而,在人工智慧導入的整個過程中人類監督是不可或缺的。資料科學家(data scientist)可以藉由驗證使用的資料和演算法來減少歧視風險,而政府和監管機構可以實施私人資料安全法規與措施以確保隱私資料的保護。


人工智慧不應取代人類,而應被視為支援和簡化重複性工作的工具,使每個人的工作效率提高,並處理原本人工作業無法完成的任務。人類作為人工智慧的創造者,我們必須具備能力監督和引導人工智慧更好地服務於金融領域和其他行業。



《撰文:台北彗聖律師事務所金融科技顧問沈振德Edward Shen, 由杜克大學Yiwen Chen協助編輯整理》


英文文章原文請參見:


---


【作者】Edward Shen

│德恒創投創辦人,天使投資人,目前擔任上市IC設計公司顧問、負責策略投資。

 │主要經歷橫跨AI公司、國際資本市場,持續關注生成式AI對於半導體產業的影響以及金融科技。

│密西根大學金融工程學碩士、台大商學研究所及台大化工系畢業

 │訂閱Edward Shen


│專為理財顧問成立的LINE社群。

│投資、理財、執業、顧問行銷等資訊分享。歡迎加入,跟我們一起討論~

45 次查看0 則留言

Comments


bottom of page