人工智能模型的侷限性探討——以金融行業爲例

金融科技的應用旨在利用先進的科技手段,推動金融服務的創新與變革,從而使得金融服務能夠更加便捷、普惠、高效且安全。金融科技的發展歷程與信息技術息息相關:19世紀,電報和電話的發明加速了金融信息的傳遞速度,使得金融市場能更快地響應各種信息;到了20世紀,計算機的發展爲金融科技提供了強有力的技術支持,將金融科技推向新的時代(X L ZHENG,M Y ZHU,Q B LI. et al.,2019);進入21世紀,隨着互聯網及大數據、雲計算、人工智能等技術的出現,金融與科技的深度融合正推動着全球經濟向智能化轉型。

正是在這個背景下,人工智能和金融科技的潛力得到了更多的關注。通過機器學習和深度學習等方法,人工智能模型能夠處理和分析大量複雜的金融數據,協助金融機構進行快速準確地分析和決策,從而提高金融服務的效率和質量。隨着人工智能技術日漸成熟,許多金融機構如商業銀行、投資銀行、保險公司、私募基金等開始嘗試將人工智能應用在資產管理、自動交易、金融客服、欺詐監測等方面並且取得顯著的成果。然而,在亮麗的外表下,人工智能在金融領域的應用仍然存在一些限制和挑戰。黨的二十大報告指出,防範金融風險還須解決許多重大問題。其中,包括數據安全性、模型的透明度及解釋性等問題。在當今這個金融市場中,如何應對這些挑戰,使得金融科技和人工智能的應用更加安全、有效,將是一個重要的議題。

本文將從三個主要方面深入探討這個議題:第一,介紹人工智能模型的特性及這些特性對於金融行業的影響;第二,分析人工智能應用在當前金融領域存在的問題和風險;第三,討論人工智能在金融領域存在的問題的潛在解決方案以及未來發展前景。筆者希望,通過深入研究並提出解決方案,能夠推動中國乃至全球的金融科技和人工智能不斷向前發展。

阻礙人工智能技術

在金融領域廣泛應用的因素

數據

成功的人工智能模型離不開數據的支持。以近期流行的大語言模型(Large Language Model)爲例,Bard的LaMDA模型使用137B個參數進行訓練,OpenAI公司的GPT3.5模型使用175B個參數進行訓練,而目前效果最好的GPT4則使用多達1T個參數作爲訓練數據 (S SOMAN,H G RANJANNI,2023)。由此可見,用於訓練的數據的質量、數量和多樣性直接影響模型的性能。目前,主流的AI模型均爲通過訓練數據進行預測,良好的訓練數據可以幫助人工智能模型得到更準確的效果(B LI,P QI,B LIU,2022)。因此,數據作爲人工智能模型的基礎,具有不可替代的作用。

挑戰1:金融數據特有的性質會阻礙人工智能模型實現效益最大化。第一,金融數據的巨大規模和複雜性使得數據預處理階段變得尤爲困難,如數據類別的差異性大,權益資產、固定收益資產、不動產、另類資產等各類資產的數據特性差異顯著。這使得適應各類數據特性的人工智能模型預處理變得更爲複雜。第二,金融領域的相關數據通常源自多個渠道,包括中央銀行、證券交易所、投資銀行等。儘管這些數據都屬於同一類別,但由於每個機構統計的天數、選取的樣本數量等可能存在差異,導致同類數據間也有微小的差異。這種微小的差異可能會對AI模型的預測結果產生重大影響。第三,數據的隱私性和安全性也是金融機構需要重點考慮的問題。一項研究表明,62%的銀行家對大數據的使用持謹慎態度(B FANG,P ZHANG,2016)。部分私人金融機構可能出於保護商業競爭力和客戶隱私的需要,不願公開或分享數據。而這無疑增加了人工智能模型在金融領域的數據收集和分析的難度。第四,人工智能模型通常需要大量數據進行訓練,然而,對於一些短期內收益起伏較大的金融機構,如私募基金,其數據的穩定性不足,貿然使用這類數據可能會產生極端值。這些極端值可能會對人工智能模型的訓練和結果造成影響。第五,金融行業數據的即時性也是限制人工智能模型廣泛應用的因素之一。對於實時更新的金融數據流,人工智能模型需要在短時間內處理大量的數據,這對模型的計算能力和處理速度提出極高的要求,所需的計算資源也會爲企業帶來巨大的成本。第六,金融市場的波動性會導致數據常常伴隨着噪聲和異常值,這會干擾人工智能模型的學習和預測,從而影響模型的準確性和穩定性。

過擬合問題

過擬合(Overfitting)是機器學習和統計模型中的一個現象,其體現爲模型在處理訓練數據或歷史數據時表現優異,然而在應對測試數據或未知數據時則表現欠佳,因此難以有效處理新的數據並進行準確預測。具體來說,模型在訓練過程中開始“記憶”一些無意義的噪音和異常值,而不是從訓練數據中學習潛在規律。產生過擬合的原因包括模型複雜度過高、數據量過小、數據噪聲幅度大,以及訓練迭代次數過多等。Fernando和Rafael指出,“鑑於歷史數據的相對稀缺性和金融序列不斷變化的性質,將深度學習技術應用到金融數據時,過度擬合是不可避免的現象” (F D M PARDO ,R C LOPEZ,2020)。

挑戰2:過擬合現象會影響人工智能模型在金融行業的預測準確性。金融市場的變化實質上是對現實世界的真實事件作出的反應,這導致了金融市場具有較高的隨機性,因此金融數據往往含有噪聲、非線性數據,以及許多隱藏的、影響市場行爲的因素。這意味人工智能模型在處理金融數據時不可避免會遇到過擬合現象。David和Marcos在研究中指出,基於人工智能得出的“最優”金融投資策略通常在統計學角度表現優異,但在現實中卻是海市蜃樓(D H. BAILEY ,M L D PRADO,2011)。具體來說,金融市場表現出的是金融產品的實際價值與投資者預期的結合,這意味着當現實世界受到突發事件的影響時,投資者的行爲與金融產品的表現會使得金融市場頻繁受到衝擊。人工智能模型的預測結果也會相應地受到影響。此外,由於金融市場的隨機性,模型可能會在不斷地訓練中過度適應歷史數據中的噪聲,從而無法有效預測未來的趨勢,以至於造成人工智能模型預測結果偏差較大。

人工智能模型的偏見和公平性

當前,普遍使用的人工智能模型的決策依據主要來源於訓練數據,儘管常規意義上的人工智能模型是客觀的,但模型訓練所使用的數據存在一定的偏見性,例如性別、年齡、收入等方面的偏差。人工智能模型在訓練過程中可能會無法判斷,甚至會學習和複製這種偏差,從而導致其預測結果受到影響。主觀偏差會造成人工智能模型中一類常見的問題,即算法偏見。算法偏見(Algorithmic Bias)是指人工智能模型在預測、決策過程中表現出對某一類羣體或特定結果的不公正傾向。這種傾向通常源自模型訓練數據的不平衡或者特徵選擇的問題。

挑戰3:算法偏見會造成多方位的社會問題。當人工智能模型應用在金融系統時,算法偏見可能會引起一系列問題。首先,算法偏見會導致某些羣體在使用金融服務時受到歧視。其次,人工智能模型的決策結果存在偏見會造成預測結果異常,不僅會對企業造成一定量的虧損,還有可能導致其品牌形象和社會信譽受損。人工智能模型中的算法偏見並非刻意爲之,但其結果可能導致一些嚴重的社會問題,尤其是在對模型準確度要求更高的金融領域。算法偏見會從四個方面對金融行業造成影響。第一,信貸評估:在使用人工智能模型進行信貸評估時,如果訓練數據中存在偏見,例如,對特定人羣(如某一種族、性別或年齡段)的過度代表或欠代表,可能導致算法在評估信貸風險時產生偏見。例如,如果歷史數據顯示某一種族或性別的違約率較高,算法可能會對此類人羣進行不公平的高風險評估。第二,投資策略:在使用算法制定投資策略時,如果訓練數據主要基於某個特定的市場階段(如牛市或熊市),可能導致算法在面對不同的市場環境時表現出偏差。例如,如果算法主要在牛市環境下進行訓練,它可能在熊市環境下表現不佳。第三,高頻交易:高頻交易(HFT)使用複雜的算法在極短的時間內進行大量交易,以獲得微小的價格差異帶來的利潤。然而,這些算法可能對市場產生不利影響,如加劇市場波動、引發“閃電崩盤”等。這種情況下的偏差更多的是對市場整體的影響,而不僅僅是對單個個體。第四,保險定價:在使用算法對保險產品進行定價時,如果算法過度關注個別因素(如年齡、性別或健康狀況),可能導致對某些人羣的不公平定價。例如,如果算法在健康保險定價時過度依賴年齡因素,可能導致年長者的保費過高。由此可見,人工智能模型造成的算法偏見可能造成的潛在風險是每個金融從業者在使用人工智能技術時都不得不考慮的問題。

人工智能模型的透明度

人工智能模型,尤其是深度學習模型,通常由數百萬甚至數億個參數組成,這些參數在模型訓練過程中進行復雜的數學運算,形成難以理解的決策邏輯。由於其內部工作原理很難被觀察到,這些模型通常被視爲“黑箱”(Black Box)。

“黑箱”產生的原因有以下兩點:一是一些複雜的模型,例如深度神經網絡,包含大量的隱藏層和參數,導致模型的決策過程十分複雜且難以直觀的分析和理解。二是許多模型需要處理大量高維數據,例如卷積神經網絡(Convolutional Neural Network)或循環神經網絡(Recurrent Neural Network),數據的複雜性也會導致模型決策過程的透明度降低。

挑戰4:人工智能模型的不透明性會爲金融行業帶來監管問題。“黑箱”這一特徵導致人工智能模型缺乏透明度,從而使監管機構、利益相關者、客戶對人工智能的決策產生質疑。在金融領域,透明度被認爲是非常重要的一個因素。監管機構維持金融市場穩定的重要步驟之一是瞭解金融市場的運作過程,然而,人工智能模型決策的不透明性與之背道而馳,在一些情況下甚至會違反某些金融法規。例如,歐洲的通用數據保護條例(GDPR)中要求企業能夠解釋對個人產生明顯影響的決策的人工智能系統,儘管GDPR並不要求企業透露全部的算法,但是由於“黑箱”模型的存在,如何解釋算法決策過程可能會無法滿足GDPR的要求(張濤,2019)。除此之外,投資者可能會因爲模型的不透明度對人工智能模型與金融機構產生信任危機,會避免將所有資產與個人名譽置於危牆之下,企業利益和信譽也會隨之受損。由於無法理解“黑箱”模型內部的運算過程,使用者和監管者也無法對“黑箱”模型進行有效的風險管理。以工具爲例,用戶使用工具時不僅需要了解工具的使用方法,還需要知道工具的注意事項,這樣才能保證達成目的的同時也不會危害到人身安全。對於應用於金融領域的人工智能模型,低透明度意味着有相對較低的風險管控能力,同時也會一定程度上使人工智能模型遊離於監管之外。

金融市場的外部性因素

對人工智能模型及其應用的影響

黑天鵝事件

黑天鵝事件(Black Swan Event)指那些極端但又具有深遠影響的罕見事件,這類事件的特點是預測困難且影響巨大(N N TALEB,2007)。黑天鵝事件在金融市場中用於形容那些無法預料且對市場有巨大打擊的突發事件。

挑戰5:人工智能模型無法很好地應對黑天鵝事件及其帶來的影響。一般來說,造成黑天鵝事件的原因包括三個方面:一是市場的不完全理性,雖然金融市場在大部分時候是理性的,但是市場參與者的非理性行爲,例如恐慌性買賣有可能會引發黑天鵝事件;二是複雜的經濟系統互動,在當前經濟全球化的背景下,各個市場和金融產品之間的相互影響和聯繫使得金融體系變得越來越複雜,可能會導致黑天鵝事件;三是政策因素,不可預測的政策變化常常是引發金融市場變動的黑天鵝事件,例如貨幣政策轉向等。於2022年初開始的俄烏衝突可被視爲一種黑天鵝事件。首先,衝突導致俄羅斯和烏克蘭地區的實體經濟受到嚴重打擊。基礎設施遭到破壞,工廠停產,供應鏈中斷,這些都直接影響了生產和貿易。進而,這種影響會擴散到全球範圍,尤其是對那些與這兩個國家有密切經濟聯繫的國家。其次,衝突還會引發能源價格的劇烈波動,特別是俄羅斯作爲全球主要的石油和天然氣供應國,衝突可能導致能源供應中斷,進而推高全球石油和天然氣價格,影響全球經濟的穩定。再者,衝突引發的政治和經濟不確定性會導致全球金融市場的劇烈波動。在衝突爆發的消息公佈後,投資者可能會出於風險規避的心理大規模拋售股票和其他風險資產,導致股市暴跌。同時,投資者可能會轉向黃金、美元等被視爲“避風港”的資產,推高這些資產的價格。俄烏衝突這類黑天鵝事件會對全球金融市場造成巨大的影響,然而,對於人工智能模型來說,這類突發性事件是很難預測的。並且其引起的一系列經濟金融波動也會造成人工智能模型對事件發生之後的金融市場的分析出現誤差。

由此可見,黑天鵝事件是人工智能模型在金融領域廣泛應用的重要阻礙之一。黑天鵝事件的預測難度很大,人工智能模型對於此類事件的預測能力表現得並不令人滿意,且事件發生後人工智能模型的預測準確度會有一定下降。人工智能模型的預測失準會導致金融機構和投資者做出錯誤的商業決策,造成無可估量的經濟損失。此外,黑天鵝事件發生後,模型將不得不進行大規模參數調整,這會爲模型優化帶來困難和潛在風險。

金融市場的就業問題

挑戰6:人工智能模型的廣泛應用可能會造成金融市場的就業問題。隨着人工智能技術的日益發展和成熟,其在金融領域的應用也逐步擴大。然而,這種發展趨勢在某種程度上導致了金融市場就業狀況的波動,因爲一些工作職能會逐步被人工智能技術所取代。“以史爲鑑,可以知興替”,回顧歷史,我們可以看到這並非首次出現技術替代人力的現象。在工業革命的初期,許多曾經依賴人力完成的工作,如紡織縫紉等,被“勞動力替代型技術”所取代,從而導致大量工人失業。這種現象造成工人的收入水平下降,資本家的利潤上升,對整體經濟發展產生了深遠影響,被經濟史學家羅伯特·艾倫稱爲“恩格斯停滯”(C B FREY,2019)。不僅如此,據弗雷和奧斯本在2013年的研究預測,未來20年,美國有47%的工作面臨被技術取代的風險(C B FREY,M A OSBORNE,2013)。在金融業中,一些可以通過自動化程序完成的任務,如數據處理、審計以及某些類型的客戶服務,很可能在未來被人工智能技術取代。然而,這種勞動力被技術替代的趨勢在短期內可能導致社會穩定性受到衝擊。因爲隨着一些工作崗位的消失,一些員工可能會發現他們的技能不能再滿足市場的需求。這可能會帶來一系列社會問題,如就業安全感的缺失和收入的不均等,進而導致社會不滿情緒的上升。儘管人工智能的發展和應用帶來了效率的提升和成本的降低,但其對金融行業勞動力的影響也不容忽視。如何在新技術帶來的變革中,保持社會穩定和公平,是我們面臨的重大挑戰。

人工智能在金融市場的安全性

挑戰7:人工智能模型存在安全隱患。安全,作爲互聯網時代的關鍵核心之一,是每項科技進步必須優先關注和考慮的問題。安全的重要性在金融領域更加引人注目,因此,人工智能模型可能帶來的風險亦成爲一個迫切需要解決的問題。人工智能算法在金融領域主要有以下三方面的問題:第一,數據安全問題。人工智能模型在金融領域的應用通常需要處理大量的個人和企業數據。這些數據可能包括敏感信息,如個人身份信息、銀行賬戶信息、信貸歷史等。如果這些數據的保護措施不足,可能會導致數據泄露,對個人或者企業造成嚴重損失。第二,模型穩健性問題。模型穩健性是指模型在面對輸入數據的微小變化時,其預測結果是否能夠保持穩定的性質。如果一個模型的穩健性不足,可能會導致其在金融決策中的表現不穩定,甚至可能出現嚴重的錯誤。例如,如果一個模型對價格波動的預測在面對微小的市場變化時出現大幅波動,那麼這個模型在實際應用中可能會導致嚴重的金融損失。第三,惡意攻擊問題。隨着人工智能模型在金融領域的應用越來越廣泛,它們也成了攻擊者的目標。惡意攻擊者可能會嘗試篡改模型的輸入數據,以欺騙模型做出錯誤的預測。這種攻擊方式被稱爲對抗性攻擊。例如,攻擊者可能會通過篡改他們的信貸申請數據,欺騙信貸審批模型批准他們的貸款金額。

在金融領域,人工智能模型的安全性是一項至關重要的議題,須被認真對待並謹慎管理。隨着人工智能的不斷演進以及其在金融業務中的日益廣泛應用,確保這些系統的安全性成爲對抗潛在破壞以及維繫公衆對金融機構信任度的關鍵所在。

金融市場的平衡性

挑戰8:人工智能模型大規模應用可能會打破金融市場的平衡。在中國,政府的干預對於經濟高質量發展有不可或缺的作用(王桂梅,趙喜倉,羅雨森,2020)。然而,人工智能模型在金融領域的大規模應用可能會對政府幹預造成一定的影響,主要表現在監管難度增加、缺少人爲干預的問題,以及可能打破資源分配平衡,導致財富兩極化。首先,如前所述,人工智能模型的複雜性和不透明性會增加監管的難度。政府需要確保金融市場的公平、透明和穩定,而這需要對市場行爲有清晰和深入的理解。人工智能模型的決策過程通常基於複雜的算法和大量的數據,這使得其決策過程往往難以理解和審查,進而會對政府的監管能力提出挑戰。其次,儘管人工智能模型在某些工作上的效率和精確性超過人類,但它缺乏理解和執行人爲干預的能力。這是因爲人爲干預通常涉及對複雜的社會和經濟問題的理解,需要在各種利益之間進行權衡,這超出了人工智能模型目前的能力範圍。並且金融市場的穩定性需要人爲監管來維護,而人工智能模型的大規模使用會爲監管增加難度。最後,人工智能模型的大規模應用可能會打破資源分配的平衡,導致財富的兩極化。因爲人工智能模型的開發和應用需要投入大量的資源,這使得擁有這些資源的公司會獲得更強的競爭力,並且會使其在金融博弈中佔據優勢地位且有可能造成財富分配不均、市場壟斷等經濟問題。

例如,通過LSTM股價預測模型的預測結果和對股票市場具體分析的結果可以看出,儘管LSTM對於價格長期穩定的股票具有相對較高的預測準確率,但其無法準確預測短時間大幅漲跌的股票。這也證明了人工智能模型無法準確預測複雜的金融市場以及對金融市場有影響的事件。此外,在使用人工智能模型時選取的數據集也會對結果產生較大影響。

關於人工智能模型

在金融領域應用的建議

儘管當前的大部分人工智能技術在金融領域的應用都存在一些問題,但人工智能依然是一項值得深入探索的技術。針對本文中討論的問題,筆者從以下三方面出發,對於人工智能模型在金融領域的應用提出建議。

政府

在人工智能技術井噴式發展的當前,政府和有關部門應出臺更多相關的政策和法規來保證人工智能模型的使用走在正確的道路上。金融領域對數據的處理、信息的透明度及業務的公平性等都有嚴格的要求,而這些都是人工智能模型在使用過程中需要關注的問題。法規和政策在很大程度上決定了金融機構如何、在何種範圍內使用這項技術,也影響了人工智能模型在金融領域的創新和發展。因此,建立明智的法規和政策,以及與之相適應的實踐,對於推動人工智能模型在金融領域的成功應用至關重要(吳漢東,2017)。

政府和有關部門應考慮以下幾方面:第一,數據保護與隱私政策,規定如何收集、存儲、處理和共享個人和機構的金融數據,確保數據的安全性和隱私;第二,算法透明度和可解釋性政策,對於金融機構使用的人工智能算法,需要有規定要求其能夠解釋其決策過程和結果,增強算法的可信度和公正性;第三,算法公平性和無歧視政策,金融機構在使用人工智能進行決策時,應遵循公平性和無歧視原則,避免算法偏見帶來的不公正;第四,風險管理政策,需要有針對使用人工智能的金融機構的特殊風險管理規定,包括數據泄露、算法誤判、系統故障等風險;第五,人工智能責任和監管政策,明確人工智能在金融交易和決策中的責任,建立相應的監管機制,確保人工智能的合規使用;第六,人工智能教育和培訓政策,推動在金融機構內部進行人工智能教育和培訓,提高員工的AI素養,確保他們能理解和正確使用人工智能。

人工智能的相關政策需要政府、金融機構、人工智能企業以及公衆共同參與和建設,從而爲人工智能在金融領域的應用和發展創造健康的環境。

金融企業

在金融科技不斷創新的潮流中,金融企業如何理解和使用人工智能技術,是決定其在金融市場競爭中取得優勢地位的關鍵之一。針對前文提到的挑戰,筆者提出以下建議。

金融企業應保證數據和信息安全。金融領域的數據安全由於涉及個人財產、公司信譽、商業機密等高敏感度的因素,顯得格外重要。第一,加強數據加密,對存儲和傳輸的數據進行加密,是保護數據安全的最基本方式,可以防止未經授權的人員訪問和使用數據,同時應使用最新和最安全的加密技術,並定期更新加密算法和密鑰。第二,使用安全的數據存儲和處理設施,確保使用的雲服務或物理數據中心具有高級別的安全保護措施。數據中心應該有嚴格的物理安全措施,以及高級的網絡安全措施,例如防火牆和入侵檢測系統。第三,實施強大的訪問控制,制定嚴格的訪問控制政策,只有經過授權的人員才能訪問和處理數據。這包括使用強大的身份驗證方法,例如多因素身份驗證。第四,數據脫敏和匿名化,在不影響數據質量和AI算法性能的前提下,對敏感數據進行脫敏和匿名化。這可以減少如果數據被泄露所帶來的風險。第五,建立有效的數據泄露應急響應機制,即使有最好的安全措施,數據泄露的風險仍然存在。因此,應制定數據泄露應急響應計劃,一旦發生數據泄露,可以迅速採取行動,最大程度地減少損害。第六,培訓員工和用戶,員工和用戶的行爲是數據安全的重要組成部分。應定期爲員工和用戶提供數據安全培訓,幫助他們瞭解如何保護數據,避免高風險行爲。第七,金融公司須合理地結合人工智能和人類智能,例如加強員工的培訓和教育,使他們能夠理解人工智能技術,知道如何與人工智能系統協作,以及如何利用人工智能來做出更好的決策。此外,要重新考慮和設計職位,將一些職位的重點從執行任務轉向管理和監督人工智能,或者從處理數據轉向解釋和利用數據。

金融企業在使用人工智能技術時應合理選取模型。隨着時代的進步和科技的發展,越來越多的人工智能模型在金融領域投入使用。從簡單的線性迴歸到相對複雜的神經網絡,人工智能模型通過不斷更新,可以發揮多樣化的作用。金融研究人員和金融分析師應該瞭解特定模型在特定金融領域的可行性(J HUANG,J CHAI,S CHO,2020)。合理的選擇人工智能模型可以提高工作效率,在人工智能模型的幫助下將複雜問題簡單化,實現多元化的目標。在選擇模型的時候,企業和從業者應該考慮以下幾方面:第一,模型性能,選取相對成熟、穩定的模型。並且使用交叉驗證(Cross Validation)、生成式對抗網絡(Generative Adversarial Networks)、正則化(Regularization)技術等方法評估模型在未知數據上的性能,從而儘可能消除過擬合等問題對模型的影響。第二,符合業務需求,選擇的模型應與具體的業務問題緊密相關。使用者需要清楚地定義希望人工智能模型解決的問題適合何種模型,例如,自然語言處理(Natural Language Process)適合情感分析(Sentiment Analysis)、文本挖掘(Text Mining);深度學習適合創建市場模型、創建交易模型、風險分析、價格走勢預測等,信貸風險評估、欺詐檢測、市場走勢預測等;強化學習(Reinforcement Learning)適合優化投資組合和投資行爲、優化交易策略等(L CAO,2022)。第三,解釋性,在金融領域,模型的解釋性非常重要。一個好的金融AI模型應該不僅能做出準確的預測,還能清楚地解釋其決策過程。因此,可能需要優先考慮具有高解釋性的模型,如決策樹、邏輯迴歸等。此外,隨着人工智能技術的發展,可解釋性人工智能XAI(Explainable Artificial Intelligence)的使用可以很大程度上解決人工智能模型不透明性的問題(D GUNNING,J CHOI, T MILLER. et al,2019)。第四,數據兼容性,由於金融數據的來源差異性很強,所選模型應與使用的數據兼容。例如,某些模型可能需要大量的數據才能工作良好,而其他模型可能更適合處理稀疏或非結構化的數據。第五,法規遵從性,模型的選擇需要符合金融監管法規。例如,某些地區的法規可能要求金融機構能夠解釋其信貸決策的原因,在這種情況下公司應選擇透明度較高的人工智能模型。第六,技術實現,模型的選擇應考慮到技術實現的可行性。一些複雜的人工智能模型需要高性能的硬件、龐大的數據庫、高水平技術人員的支持。公司需要考慮相關的硬件設施以及技術人員的技能是否匹配,以及投入產出比是否值得使用人工智能模型等問題。

社會

金融是社會的重要組成部分,其在促進經濟增長、創新和社會福利方面起着關鍵作用,人工智能模型在金融領域的應用應基於維護社會穩定的前提。

在使用人工智能模型時應注重人工與智能相結合。具體來說,人類和機器在不同的任務上各有優勢,機器擅長處理大量數據、執行復雜計算和自動化流程;而人類在解決需要深度理解、創新思考和情緒智能的問題上有優勢。因此,應該讓人和機器各司其職、協同合作,發揮各自的優勢。人工智能的出現和發展不會取代人類,但是會取代一些工作。就像第一次工業革命之後,工廠需要更多懂得如何操作機器的勞動力;第二次工業革命之後,社會和企業需要一系列新職位如工程師、機械師、維修工等(許怡,2022)。企業、政府和社會有必要通過適當的保障措施來緩解過渡期的困難,以及通過勞動市場政策來鼓勵新的就業機會的創造。對於金融行業來說,只有合理地將人力資源與人工智能技術相結合,才能在保證市場穩定的情況下使這項技術在金融領域更好地發揮其作用。

在使用人工智能模型時應執行完整的風險管理流程。金融機構和企業在使用人工智能技術的時候需要進行風險評估與風險控制,從而在保證安全的情況下實現人工智能的價值,並且降低人工智能模型對社會穩定性的影響。企業和政府應定期進行全面的風險評估,識別和量化使用人工智能可能帶來的各種風險,包括數據隱私和安全風險、技術風險、合規風險、業務連續性風險等。不僅如此,在使用人工智能算法的時候應進行算法審覈,保證其性能、可靠性和公平性。金融機構和政府應建立實時監控和報告系統,以便快速發現和解決任何潛在的問題。包括對模型性能的監控、對異常交易或行爲的監控,以及對任何可能的數據泄露或安全威脅的監控。此外,金融從業者和管理者應制定適合自身情況的風險管理制度和框架,從而最大程度降低使用人工智能帶來的不確定性(NIST,2023)。總的來說,風險管理是人工智能在金融市場廣泛應用的關鍵部分,需要在戰略規劃、實施和運營的每個階段都予以充分的考慮。只有通過有效的風險管理,金融機構才能充分利用人工智能,同時避免或最小化可能的負面影響。

關於人工智能模型在金融領域應用的未來展望

在人工智能技術發展的過程中,數據、算法和算力被視爲三大核心要素,人工智能模型在金融領域的未來也將受到這三大核心要素的影響。

數據作爲人工智能模型的“知識原料”,在金融領域發揮着巨大的作用。隨着大數據技術的不斷髮展,人工智能模型使用的數據將不再侷限於傳統數據集。更多的非結構化數據(如文本、社交媒體信息、新聞事件、消費者行爲等)作爲理解金融市場動態的重要信息資源,將被有效地應用於金融領域的人工智能模型中。因此,對於金融機構來說,確保數據質量和安全性十分重要。因爲優質安全的數據資源不僅可以提高模型的預測準確性,還有助於有效防範風險,對金融行業的穩健運行起到了關鍵性的作用。例如可以用到反量子加密技術,這也將避免再次出現類似於“千年蟲”的問題。就如 Jonathan在文中提到的一樣,伴隨着量子時代曙光而來的安全和加密轉變將成爲最不起眼的問題(喬納森·魯安,2022)。

科技進步將帶來更多可能性。隨着科技的進步,越來越多新的算法不斷涌現,例如深度學習、強化學習等,將爲人工智能模型在金融領域的應用帶來更多的可能性。深度學習技術可以通過模仿人腦神經網絡來理解和學習複雜的金融模型,從而實現更精準的預測。而強化學習則可以通過不斷與環境互動和學習,達到優化決策的目的,這對於金融機構在不確定環境下的決策有着重要價值。可以預見的是,未來的金融人工智能模型算法具有向多樣性、自動化、透明性以及個性化發展的趨勢。多樣化指未來的模型會具有更多的功能,正如在過去的幾十年中人工智能算法從決策樹到神經網絡再到大語言模型的發展歷程,未來的算法將有能力實現更多、更復雜的功能。自動化指未來的模型會具備自我學習、自我優化的能力。具體來說,金融領域的人工智能模型將具備自我檢查、主動學習、自動優化等能力。透明性指金融領域的人工智能算法會具有較高的可理解性。如前文所述,金融行業的人工智能模型有必要被政府和企業所理解,而具有高透明度的算法,例如,XAI等會成爲未來的發展方向之一。個性化指根據使用者的需求定製具有獨特能力的算法,例如金融領域的量化交易算法或金融類大語言模型等。算法的進步伴隨着人工智能模型替代人工勞動力的過程,未來的金融算法將有能力完成現在的高端人力資源所做的工作。

算力是推動人工智能發展的關鍵驅動力。隨着計算能力的提升和雲計算技術等的發展,人工智能模型將具備處理更大規模的數據的能力,例如量子計算、邊緣計算和類腦計算。量子計算通過量子力學效應增強計算能力,可以爲處理大量數據或者一些突發事件提供策略優化。在2021年5月,一家量子計算公司Zapata Computing宣佈了與西班牙對外銀行 (BBVA)共同進行的研究結果,該研究旨在調查量子系統在創建信用估值調整 (Credit Valuation Adjustment, CVA)——爲儘量減少系統性金融風險而實施的一項監管要求方面的實際應用(Jonathan,2022)。一些大型金融機構正在逐步認識到,量子計算在未來具有深遠且廣闊的發展前景及潛在影響力,例如高盛(Goldman Sachs)與摩根大通(J.P.Morgan Chase)等機構的團隊正積極探索量子計算在金融領域中的優化效應,並對其在人工智能模型中的潛在應用可能性進行深入研究。邊緣計算作爲雲計算的一種補充,進一步推動了微型機器學習(TinyML)發展。這一類新技術的出現,幫助人工智能模型以更高的速度進行計算,這對於金融市場的實時決策具有極大的幫助。更重要的是,高效的計算能力也爲模型的實時更新和優化提供了可能,使得模型能夠更好地適應金融市場的快速變化。

隨着數據技術、算法和算力的不斷進步,人工智能模型在金融領域將會有更廣闊的未來。我們可以預見未來的金融市場將會因爲更高效的數據處理,更加精確的預測模型以及更強的計算能力而變得更加智能化。因此,我們有理由期待人工智能模型爲金融領域帶來的無限可能,幫助金融機構更好地適應市場的快速變化。

結語

儘管人工智能在金融領域的應用道阻且長,但是其在數據處理、風險預測、決策支持等方面獨特的優勢,讓我們對人工智能在金融領域的未來充滿期待。我們深入探索和研究這些挑戰和限制,目的不僅在於指出人工智能的缺陷,更是爲了通過這樣的探究找到解決問題的途徑,進而更好地發揮人工智能在金融領域的潛力和價值。

在嚴格的監督和科學指導下,我們期待着人工智能能夠幫助金融業提升效率,降低風險,並推動其持續、健康、穩定地發展。在金融領域內,人工智能不僅有可能對現有的金融產品和服務進行創新,還有可能開創全新的金融模式。因此,我們需要繼續研究和解決那些擋在人工智能模型應用道路上的難題,爲今後實現這一具有深遠影響的轉型做準備。

作者:郭俊逸 陸昊鋮 吳仕琦 陳嘉健,單位:約翰霍普金斯大學,北京大學,香港大學