判決層:為什麼人工智慧在領導者更聰明之前並不真正聰明

Guillermo Delgado Aparicio 是 Nisum 的全球人工智慧領導者。


探索頂尖金融科技新聞與活動!

訂閱金融科技週刊的電子報

由摩根大通、Coinbase、貝萊德、Klarna 等高層閱讀


金融科技中的人工智慧涵蓋範圍廣泛,從欺詐偵測與算法交易到動態信用評分與個人化產品推薦。然而,一份金融行為監管局的報告指出,在使用人工智慧的企業中,75%的人使用AI,但只有34%的人了解其運作原理。

問題不僅在於缺乏認識,而是對數據分析的力量與範疇存在深刻誤解,這正是AI的源頭。生成式AI工具的普及已將此議題帶到高層管理層。但許多決策者在實施AI時,並不理解其背後的微積分、統計學與高階算法原理。

以本福德定律為例,這是一個簡單的統計原則,用來通過數字中的模式來偵測欺詐。AI建立在類似的數學基礎上,只是規模擴展到數百萬筆交易。撇除炒作,基礎仍是統計學與算法。

這也是為何高層管理者的AI素養如此重要。無法區分分析何時結束的領導者,可能會過度信任自己不理解的系統,或因恐懼而低估其潛力。歷史告訴我們,當決策者誤讀科技時會發生什麼:曾經監管機構試圖禁止國際IP通話,卻見技術超越規則。同樣的動態也在AI上重演。你不能封鎖或盲目採用它;你需要判斷力、背景知識以及負責任引導的能力。

金融科技領導者必須彌補這些差距,以負責任且有效地運用AI。這意味著理解分析何時結束、AI何時開始,建立引導這些系統的技能,以及運用明智判斷來決定何時、如何信任其輸出。

AI的限制、盲點與幻象

分析學分析過去與現在的數據,解釋發生了什麼以及為何會這樣。AI則在此基礎上,利用高階分析預測未來,並逐漸自動做出決策或行動。

憑藉其卓越的數據處理能力,金融科技領導者很容易將AI視為魔法子彈。但它無法解決所有問題。人類在模式識別方面仍具有天生優勢,尤其在資料不完整或「髒」的情況下。AI可能難以理解人類能迅速掌握的語境細微差別。

然而,認為不完美的資料使AI無用,是一個錯誤。分析模型可以在資料不完整的情況下運作。但知道何時部署AI、何時依賴人類判斷來填補空白,才是真正的挑戰。若缺乏這種謹慎監督,AI可能帶來重大風險。

其中一個問題是偏見。當金融科技用舊資料訓練AI時,往往會繼承資料中的偏差。例如,客戶的名字可能無意中成為性別的代理指標,或姓氏暗示族裔,從而影響信用評分,這是監管機構不會批准的。這些偏見,藏在數學中,常需人類監督來發現與修正。

當AI模型遇到未曾訓練過的情境,可能導致模型漂移。市場波動、監管變化、客戶行為演變與宏觀經濟轉變,都可能影響模型的效能,若缺乏人類監控與重新校準。

在使用黑箱模型(無法觀察變數間關係)時,重新校準的難度會大幅提升。在這種情況下,企業失去將知識傳遞給管理層的可能性。此外,不透明模型中的錯誤與偏見難以察覺,削弱信任與合規性。

金融科技領導者需要了解的事

德勤調查顯示,80%的公司董事會幾乎沒有AI經驗。但高層管理者不能將AI視為「技術團隊的問題」。AI的責任在於領導層,因此金融科技領導者必須提升技能。

跨分析能力

在推行AI之前,金融科技領導者必須能夠切換視角——觀察數字、商業案例、運營與倫理——並理解這些因素如何交織影響AI結果。他們需要理解模型的統計準確性與信用風險暴露之間的關聯。並且要能辨識當一個看似合理的變數(如還款歷史)可能因與受保護族群(如年齡或族裔)相關而引入社會或監管風險。

這種AI素養來自與合規人員討論規範、與產品經理探討用戶體驗,以及與資料科學家審查模型結果,以捕捉漂移或偏見的跡象。

在金融科技中,100%的風險避免是不可能的,但透過跨分析能力,領導者可以辨識值得承擔的風險與可能侵蝕股東價值的風險。這項技能也能幫助領導者從策略與倫理角度,識別並行動於偏見問題。

例如,若一個AI信用評分模型偏向某一客戶群,修正這種不平衡不僅是資料科學的任務,更是保護公司聲譽的行動。對於追求金融包容或面臨ESG審查的金融科技公司來說,僅符合法律規範是不夠的。判斷力意味著知道什麼是正確的,而不僅僅是允許的。

可解釋性素養

可解釋性是建立信任的基礎。沒有它,決策者、客戶與監管者都會質疑模型為何得出特定結論。

這要求高層能區分可解釋模型與需要事後解釋(如SHAP值或LIME)的模型。他們必須在模型邏輯不清楚時提出疑問,並認識到僅靠「準確性」無法正當化黑箱決策。

偏見並非無中生有;它在模型訓練與部署時若缺乏充分監督就會產生。可解釋性讓領導者能早期察覺這些問題,並在造成傷害前採取行動。

AI就像飛機的自動駕駛。大多數時間運行順暢,但遇到風暴時,飛行員必須接管。在金融領域亦是如此。團隊需要能在條件變化時停止交易、調整策略或甚至中止產品推出。可解釋性與備用控制能力相輔相成,確保高層理解AI並能掌控,即使在大規模運作時亦然。

概率模型思維

高層習慣做決定,比如信用分低於650就拒絕申請。但AI的運作方式不同,這是一個重大的思維轉變。

對領導者而言,概率思維需要具備三個能力:

*   解讀風險範圍,而非二元的是/否結果。
*   在考量其他商業或監管因素時,衡量預測的信心程度。
*   知道何時可以覆蓋自動化,運用人類判斷。

例如,一個金融科技的概率AI模型可能將某客戶標記為高風險,但這不一定代表「拒絕」。可能意味著「進一步調查」或「調整貸款條件」。若缺乏這種細膩度,自動化可能變成一把鈍刀,侵蝕客戶信任,並引來監管壓力。

為什麼判斷層將決定金融科技的勝負

未來的金融科技不會由最強大的AI模型決定,而是由最具判斷力的運用者決定。隨著AI商品化,效率提升已成為基本條件。真正的贏家在於能在算法遇到不確定性、風險與倫理灰區時,做出明智判斷。

判斷層不是抽象概念。它體現在高層決定暫停自動交易、延遲產品上市或覆蓋不符合實際情況的風險評分時。這些都不是AI失誤,而是證明人類監督是價值創造的最後一道防線。

策略性的一致性使判斷成為制度化的元素。一個強大的AI策略不僅制定技術路線圖,更確保組織定期檢視計畫、升級團隊AI能力、建立必要的資料架構,並將每次部署與明確的商業目標連結。在這個意義上,判斷不是偶發事件,而是融入運作模式,讓高層能以價值為導向進行領導。

金融科技需要懂得平衡AI的速度與規模,以及人類的背景知識、細微差別與長遠願景。AI能在秒內偵測異常,但只有人才能決定何時反駁數學、重新思考假設,或冒險追求成長。這層判斷力,才是將AI從工具轉化為競爭優勢的關鍵。

關於作者:

Guillermo Delgado 是 Nisum 的全球人工智慧領導者兼 Deep Space Biology 的首席營運官。擁有超過25年的生物化學、人工智慧、太空生物學與創業經驗,他致力於開發促進地球與太空人類福祉的創新解決方案。

作為企業策略顧問,他曾參與NASA的太空生物學AI願景,並獲得多項創新獎。他擁有喬治亞理工學院的人工智慧碩士學位,並以優異成績取得學位。此外,他也曾擔任大學教授,教授機器學習、大數據與基因科學等課程。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)