![]()
萬事達卡開發了一種大型表格模型(LTM,區別于大語言模型),該模型基于交易數據而非文本或圖像進行訓練,專門用于解決數字支付中的安全性和真實性問題。
該公司已在數十億筆信用卡交易上訓練了這一基礎模型,計劃未來擴展至千億筆交易規模。訓練數據集包括支付事件及相關數據,如商戶位置、授權流程、欺詐事件、退單和忠誠度活動。萬事達卡表示,在訓練開始前已移除個人標識符,模型專注于解析行為模式而非個體身份。
通過排除個人數據,該技術降低了可能影響金融服務領域其他人工智能形式的隱私風險。公司在最近的博客文章中表示,盡管缺乏用戶個人信息,但數據的規模和豐富性仍能讓模型推斷出具有商業價值的模式。雖然匿名化處理移除了在風險評估中可能有用的信號,但萬事達卡堅持認為,使用足夠大量的行為數據可以彌補豐富數據的損失。
LTM架構與大語言模型的架構不同
LTM架構與大語言模型不同,后者基于非結構化輸入進行訓練,通過預測序列中的下一個Token來工作。萬事達卡的LTM檢查多維數據表中字段間的關系,使該技術的定義更接近純機器學習而非人工智能。
大型表格模型從原始輸入中準確學習哪些關系是可預測的,因此能識別預定義規則無法捕獲的異常模式。
該公司將LTM描述為一個"洞察引擎",可用于現有產品中,增強現有工作流程。與客戶互動的模型(通常是大語言模型)的操作風險不同于作為內部決策一部分的模型。
LTM的技術基礎設施來自英偉達和Databricks,前者提供計算平臺,Databricks負責數據工程和模型開發。
網絡安全領域率先應用
網絡安全是萬事達卡首個積極部署該技術的領域。像許多機構一樣,萬事達卡運營著多個檢查交易數據的欺詐檢測系統。這些系統在開始時需要人工輸入,并需要持續調整以定義可疑行為。這些可能包括交易頻率突然增加,或用戶在短時間內在世界不同地區進行購買。
公司表示,早期結果顯示在特定情況下相比傳統技術有改進的性能。它引用了高價值、低頻率購買的例子,傳統模型可能將其標記為異常,但新模型似乎能比同類模型更準確地區分合法事件。
該公司計劃部署結合既定程序和新模型的混合系統,這種謹慎程度反映了其運營的監管水平。它承認沒有單一模型能在所有場景下都表現良好,因此LTM將在這一領域的工具中占據一席之地。
據稱該模型可以掃描忠誠度計劃活動,用于投資組合管理和內部分析,這些領域都有大量結構化數據。在當前運營中,公司通常為每項任務部署多個適配的模型,但這可能涉及多倍的訓練成本以及驗證和監控努力。一個可以針對不同任務進行微調的單一基礎模型可能簡化流程并降低成本。
多功能方法的風險和未來計劃
多功能LTM方法當然存在風險:廣泛部署的模型如果出現故障可能產生系統性后果,這在一定程度上解釋了萬事達卡將其技術與現有檢測系統結合應用的策略,至少目前如此。
萬事達卡希望增加模型使用的數據規模和整體復雜性。它還計劃提供API訪問和SDK,讓內部團隊構建新應用。
博客文章強調了LTM承擔的數據責任,提到了隱私和透明度、模型可解釋性和可審計性。除了LTM運營中涉及的任何數據實踐外,對影響信貸決策或欺詐結果的任何系統進行監管審查都是預期的。
高度結構化的數據(相對于文本或圖像)是LTM的核心。大型表格模型可能是核心銀行和支付基礎設施中新一代AI系統的開始。迄今為止的證據仍限于供應商報告,因此任何性能聲明不應被視為確定性的。
對抗條件下的穩健性、長期訓練后成本和監管接受度都是表格模型可能失敗或成功的問題。這些因素將決定采用的步伐和范圍,但這是萬事達卡目前下注的領域。
Q&A
Q1:萬事達卡的大型表格模型LTM與大語言模型有什么區別?
A:LTM基于交易數據而非文本或圖像進行訓練,檢查多維數據表中字段間的關系,更接近純機器學習。而大語言模型基于非結構化輸入訓練,通過預測序列中下一個Token工作。
Q2:萬事達卡如何保護用戶隱私?
A:萬事達卡在訓練開始前移除了所有個人標識符,模型專注于解析行為模式而非個體身份。通過排除個人數據,該技術降低了隱私風險,使用大量匿名化行為數據來補償豐富數據的損失。
Q3:大型表格模型在反欺詐方面有什么優勢?
A:LTM能從原始輸入中準確學習可預測關系,識別預定義規則無法捕獲的異常模式。在高價值、低頻率購買等場景中,新模型能比傳統模型更準確地區分合法事件,減少誤報。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.