Gate 廣場“新星計劃”正式上線!
開啟加密創作之旅,瓜分月度 $10,000 獎勵!
參與資格:從未在 Gate 廣場發帖,或連續 7 天未發帖的創作者
立即報名:https://www.gate.com/questionnaire/7396
您將獲得:
💰 1,000 USDT 月度創作獎池 + 首帖 $50 倉位體驗券
🔥 半月度「爆款王」:Gate 50U 精美周邊
⭐ 月度前 10「新星英雄榜」+ 粉絲達標榜單 + 精選帖曝光扶持
加入 Gate 廣場,贏獎勵 ,拿流量,建立個人影響力!
詳情:https://www.gate.com/announcements/article/49672
判決層:為什麼人工智慧在領導者更聰明之前並不真正聰明
_Guillermo Delgado Aparicio 是 Nisum 的全球人工智慧領導者。
探索頂尖金融科技新聞與活動!
訂閱金融科技週刊的電子報
由摩根大通、Coinbase、貝萊德、Klarna 等高層閱讀
金融科技中的人工智慧涵蓋範圍廣泛,從詐騙偵測與演算法交易,到動態信用評分與個人化產品推薦。然而,一份金融行為監管局的報告指出,在使用人工智慧的企業中,75%的人知道AI的運作方式的僅有34%。
問題不僅在於缺乏認識,而是對資料分析的力量與範圍存在深刻誤解,這正是AI的根源。生成式AI工具的普及已將此議題帶到高層管理層。但許多決策者在實施AI時,並不理解其背後的微積分、統計學與高階演算法原理。
以本福德定律為例,這是一個簡單的統計原則,用來透過數字中的模式來偵測詐騙。AI建立在類似的數學基礎上,只是規模擴展到數百萬筆交易。撇除炒作,基礎仍是統計學與演算法。
這也是為何高層的AI素養如此重要。無法區分分析何時結束的領導者,可能會過度信任自己不理解的系統,或因恐懼而低估其潛力。歷史告訴我們,當決策者誤讀科技時會發生什麼:監管機構曾試圖禁止國際IP通話,卻見技術超越規則。同樣的動態也在AI上重演。你不能封鎖或盲目採用它;你需要判斷力、情境理解與負責任的引導能力。
金融科技領導者必須彌合這些差距,以負責任且有效率地運用AI。這意味著理解分析何時結束、AI何時開始,建立引導這些系統的技能,以及運用明智判斷來決定何時何地信任其輸出。
AI的限制、盲點與幻覺
分析利用過去與現在的資料來解釋發生了什麼以及為何會這樣。AI則在此基礎上,運用先進分析預測未來,並逐漸自動做出決策或行動。
憑藉其卓越的資料處理能力,金融科技領導者很容易將AI視為魔法子彈。但它並非萬能。人類在模式識別方面仍具有天生優勢,尤其在資料不完整或「髒亂」時。AI可能難以理解人類能迅速掌握的語境細微差別。
然而,認為不完美的資料使AI無用,是一個錯誤。分析模型可以在資料不完整的情況下運作。但知道何時部署AI、何時依賴人類判斷來填補空白,才是真正的挑戰。若缺乏這種謹慎監督,AI可能帶來重大風險。
其中一個問題是偏見。當金融科技用舊資料訓練AI時,往往會繼承資料中的偏差。例如,客戶的名字可能無意中成為性別的代理指標,或姓氏暗示族裔,導致信用評分偏離規範。這些偏見,藏在數學中,常需人類監督來察覺與修正。
當AI模型遇到未經訓練的情境,可能導致模型漂移。市場波動、監管變化、客戶行為演變與宏觀經濟轉變,都可能影響模型效能,若缺乏人為監控與調整。
調整算法的難度會大幅提升,尤其當金融科技使用黑箱模型,無法得知變數間的關係。在這種情況下,管理層無法將知識傳遞給決策者。此外,錯誤與偏見藏在不透明的模型中,削弱信任與合規性。
金融科技領導者必須了解的重點
德勤調查顯示,80%的公司董事會幾乎沒有AI經驗。但高層管理者不能將AI視為「技術團隊的問題」。AI的責任在於領導層,因此金融科技領導者必須提升相關技能。
跨分析能力
在推行AI之前,金融科技領導者必須能夠切換視角——從數字、商業案例、運營到倫理——並理解這些因素如何交織影響AI結果。他們需要理解模型的統計準確性與信用風險暴露之間的關聯。並且要能辨識一個看似合理(如還款紀錄)的變數,可能因與某些受保護族群(如年齡或族裔)相關聯,而引入社會或監管風險。
這種AI素養來自與合規人員討論規範、與產品經理探討用戶體驗,以及與資料科學家審查模型結果,以捕捉漂移或偏見的跡象。
在金融科技中,100%的風險避免是不可能的,但具備跨分析能力的領導者,能辨識值得冒的風險與應避免的風險,從而保護股東價值。這項技能也能幫助領導者辨識並行動於偏見,不僅從合規角度,更從策略與倫理層面。
例如,若一個AI信用評分模型偏向某一客戶群,修正這種偏差不僅是資料科學的任務,更是保護公司聲譽的行動。對於追求金融包容或面臨ESG審查的金融科技公司來說,僅符合法律規範是不夠的。判斷力意味著知道什麼是正確的,而不僅僅是允許的。
可解釋性素養
可解釋性是建立信任的基礎。沒有它,決策者、客戶與監管者都會質疑模型為何得出特定結論。
這要求高層能區分可解釋模型與需要事後解釋(如SHAP值或LIME)的模型。他們必須在模型邏輯不清楚時提出疑問,並認識到僅靠「準確性」無法正當化黑箱決策。
偏見並非無中生有;它在模型訓練與部署時若缺乏足夠監督就會產生。可解釋性讓領導者能早期察覺這些問題,並在造成傷害前採取行動。
AI就像飛機的自動駕駛。大多數時間運行順暢,但遇到風暴時,飛行員必須接管。在金融領域亦然。團隊需要能在條件變化時停止交易、調整策略或甚至中止產品推出的能力。可解釋性與備用控制能力相輔相成,確保高層理解AI,並在其規模運作時仍能掌控。
概率模型思維
高層習慣做確定性決策,比如信用分低於650就拒絕申請。但AI的運作方式不同,這是一個重大的思維轉變。
對領導者而言,概率思維需要具備三個能力:
例如,一個金融科技的概率AI模型可能將某客戶標記為高風險,但這不一定代表「拒絕」。可能意味著「進一步調查」或「調整貸款條件」。若缺乏這種細緻度,自動化可能變成一把鈍刀,削弱客戶信任,並引來監管風險。
為何判斷層將決定金融科技的勝負
未來的金融科技不會由最強大的AI模型決定,而是由最具判斷力的運用者決定。隨著AI商品化,效率提升已成為基本條件。真正的贏家在於能在算法遇到不確定性、風險與倫理灰區時,做出明智的判斷。
判斷層不是抽象概念。它體現在高層決定暫停自動交易、延遲產品上市,或覆蓋不符合實際情況的風險評分時。這些都不是AI失誤,而是證明人類監督是價值創造的最後一道防線。
策略性的一致性使判斷成為制度化。強大的AI策略不僅制定技術路線圖,更確保組織定期檢視計畫、升級團隊AI能力、建立完整資料架構,並將每次部署與明確的商業目標連結。在這個意義上,判斷不是偶發事件,而是融入運作模式,讓高層能以價值為導向,領導公司。
金融科技需要能在速度與規模上運用AI,同時由人類掌握情境、細微差別與長遠願景的領導者。AI能在秒內偵測異常,但只有人能決定何時反駁數學、重新思考假設,或冒險開拓成長的門檻。這層判斷,才是將AI從工具轉化為優勢的關鍵。
關於作者:
Guillermo Delgado 是 Nisum 的全球人工智慧領導者兼 Deep Space Biology 的首席營運官。擁有超過25年的生物化學、人工智慧、太空生物學與創業經驗,他致力於開發促進人類福祉的創新解決方案,無論在地球或太空。
作為企業策略顧問,他曾參與NASA的太空生物學AI願景,並獲得多項創新獎。他擁有喬治亞理工學院的人工智慧碩士學位,並以優異成績取得。此外,他也曾擔任大學教授,教授機器學習、大數據與基因科學等課程。