在數(shù)學上,人心比計算機更加優(yōu)越。
——哥德爾
2017年10月,谷歌下屬公司DeepMind在《自然》雜志上發(fā)表論文,其研發(fā)的AlphaGo Zero在完全不用人類棋譜,從隨機走子開始自我對弈學習,只用3天,AlphaGo Zero就以100:0擊敗了2016年3月戰(zhàn)勝李世石的AlphaGo Lee。40天以90%的勝率大勝之前戰(zhàn)勝了世界排名第一的中國棋手柯潔的AlphaGo Master,成為目前最強的圍棋程序。在那些對弈棋局中AlphaGo顛覆了許多由古至今的圍棋定式,而且最后證明它的選擇都是成立的。從而證明,在圍棋這樣的完全信息博弈游戲領域不用借助任何人類知識,人工智能也可以自我訓練,并橫掃 頂尖職業(yè)棋手。
在撲克這類不完全信息博弈游戲呢?隨機性、信息不完全可見性、博弈規(guī)模大等條件下,是不是能夠阻擋人工智能的腳步?答案也確是否定的。由卡耐基梅隆大學(CMU)開發(fā)的名為Libratus的人工智能系統(tǒng),在一對一、無限制投注的規(guī)則下,擊敗了世界上最強的人類德州撲克玩家。借助于博弈論與強化學習等模型,結合強大計算能力,在非完全信息博弈游戲領域中人工智能也完勝了人類。
2018年,在全球蛋白質結構預測競賽(Critical Assessment of protein Structure Prediction,CASP)上,組織者宣布,谷歌DeepMind團隊的最新人工智能程序AlphaFold,僅僅通過蛋白質的基因序列,就能預測蛋白質的3D結構,成功在43個參賽蛋白中拿到25個單項最佳模型。[1]這極大推動該領域的發(fā)展,模型找到了基因序列數(shù)據(jù)中人們沒有認識到的規(guī)律和信息。
在一些領域都傳出人工智能戰(zhàn)勝人類的新聞,人們不禁擔心人工智能即將在各行各業(yè)代替人類,各種媒體的報道也助推了這樣的焦慮,仿佛沒有什么是其不能解決的。這其實涉及人工智能和人類的能力邊界問題。我們定義這個能力是特定領域中解決問題的能力。這自然也離不了對于世界的基本假設??雌饋矶际欠浅U軐W與科學的主題,但又是探討領域中人工智能應用不可回避的主題。不用擔心,請耐心閱讀,希望本章的論述能讓您對人工智能在領域中的應用的邊界和方向等有自己的看法。
弱人工智能與強人工智能
1956年,在達特茅斯大學舉辦的夏季會議上“人工智能(Artificial Intelligence,AI)”一詞正式被提出。在過去半個世紀,幾經(jīng)冷暖。2012年,圖靈獎獲得者Geoffrey Hinton領導的課題組參加了ImageNet圖像識別比賽,通過卷積神經(jīng)網(wǎng)絡(CNN)在比賽中一舉奪得冠軍,性能遠超第二名。2016年,谷歌AlphaGo戰(zhàn)勝圍棋世界冠軍李世石,徹底引燃人工智能熱潮。這里就不回顧人工智能發(fā)展史了,有興趣的讀者請參閱《人工智能:一種現(xiàn)代的方法》[2]等相關書籍中的介紹。
什么是人工智能(AI),在《人工智能:一種現(xiàn)代的方法》書中對人工智能的4種用途進行了定義:
? 像人一樣思考
? 像人一樣行動
? 合理地思考
? 合理地行動
這定義是指強人工智能(Artificial General Intelligence, AGI),也叫通用人工智能,是能夠獨立進行思考、計劃、解決問題、抽象思維、學習、認知和推理等行為的機器。強人工智能目的是研究具有感覺和自我意識的智能機器;是能獨立思考問題,并在能力范圍內(nèi)制定解決方案;有自己的價值觀選擇體系進行決策;能夠在無監(jiān)督的情況下處理經(jīng)驗外問題;并同時能夠與人類交互式學習的智能機器??苹闷兄悄苤韼缀醵际菑娙斯ぶ悄?,比如,《她》(2013)中的薩曼莎,《人工智能》(2001)中的小男孩大衛(wèi),以及《機械姬》(2015)里面的艾娃等。
電影《機械姬》中的艾娃
與之對應的是弱人工智能(Artificial Narrow Intelligence, ANI),也叫專用人工智能:不是強人工智能的智能機器,不擁有獨立思考能力,也不會有自主意識進行決策。弱人工智能專注于某個特定的任務,例如語音識別、圖像識別、圍棋和自動駕駛等。它們只是被用于解決特定的、具體的任務,屬于工具的范疇。
人工智能技術近些年的進展和成功,是緣于“弱人工智能”而不是“強人工智能”,IBM的Watson和谷歌的AlphaGo等,都屬于弱人工智能。目前,人工智能取得重大突破的,是弱人工智能領域,強人工智能幾乎沒有進展。何況,是否應該研究強人工智能,科學界和工業(yè)界都存在很大爭議。國內(nèi)知名人工智能專家周志華教授就提出:“即便強人工智能是可能的,也不應該去研究它?!盵3]
不具備常識的人工智能
? 莫拉維克悖論(Moravec's Paradox)
莫拉維克悖論是由漢斯·莫拉維克、馬文·明斯基等人于1980年代提出的:模仿人類的高階智慧能力只需要非常少的計算能力,如,推理等,所以要讓人工智能下棋是相對容易的。但是要讓人工智能模擬一歲小孩般的感知和行動能力,模擬人類直覺等,卻是相當困難甚至是不可能的。2019年,機器學習領域國際頂級會議,國際機器學習大會(International Conference on Machine Learning ICML),Alison Gopnik教授主題分享“為什么四歲兒童能做而人工智能不能做?”[4]也探討了同樣問題。
人工智能之父馬文·明斯基在其著作《情感機器》[5]中討論了人類大腦的思維運行方式,并嘗試設計一個能理解、會思考的人工智能。其在回答為什么會有莫拉維克悖論時說道,“所有的現(xiàn)代程序都不具備常識性知識(Commonsense Knowledge)”。這亦是人工智能產(chǎn)品常常給人感覺不夠智能的根本原因之一。常識性知識和推理包括:
1)正面經(jīng)驗(Positive Expertise):在什么情況下應使用特定類型知識。
2)負面經(jīng)驗(Negative Expertise):在什么情況下不應采取哪種行動,因為可能會使事情變得更糟。
3)調(diào)試技能(Debugging Skills):當常規(guī)方法不再適用時,還有其他可供選擇的方法。
4)適應技能(Adaptive Skills):將原有知識應用到新情景中。
人類的能力之一是從少數(shù)例子中學習,進行模式識別。即使之前從未遇到過的環(huán)境,我們也可以進行判斷和預測。這種對未知環(huán)境、未知事件的處理能力,是當前人工智能無法具備的。明斯基在書中提出了通過框架表示常識試圖模擬這個能力。Alison Gopnik的分享中也引用類似觀點。這屬于機器學習中的符號主義(Symbolists),不同于當前大熱的聯(lián)結主義(Connectionists)的深度學習。將兩個領域有效結合是未來機器學習的重要方向之一。
人工智能之父馬文·明斯基
為什么深度學習能“大力出奇跡”
深度學習(Deep Learning),概念源于神經(jīng)網(wǎng)絡的研究,指通過構建深度神經(jīng)網(wǎng)絡結構,將原始數(shù)據(jù)轉變成為更高層次的、更加抽象的特征表示,從而使復雜的函數(shù)映射也能夠被學習。近些年,人工智能大熱的起因就是由于深度學習在一些領域取得突破性成果,在圖像、語音、自然語言處理等領域取得非常好的效果。目前機器學習、深度學習的應用在各行各業(yè)都越來越熱。深度學習雖然在一些應用場景取得了巨大突破,但業(yè)界也存在大量批評的聲音,通常包括以下質疑:
? 深度學習模型的優(yōu)化是經(jīng)驗性的、不穩(wěn)定的。
? 效果依賴于大量標注的訓練數(shù)據(jù)。
? 不透明、可解釋性差。
? 難以結合領域的先驗知識。
? 低效率等問題。
2018年1月,紐約大學認識心理學家Gary Marcus發(fā)表一篇文章[6]列舉了十大理由質疑深度學習的局限性。圖靈獎得主、貝葉斯網(wǎng)絡發(fā)明者Judea Pearl也批評當前深度學習研究,認為從數(shù)學層面看,不論從數(shù)據(jù)中得到多少信息,都只是曲線擬合而已,但很多問題僅靠曲線擬合是無法解決的,未來的發(fā)展方向應是基于因果推理的模型。[7]
之后,2018年圖靈獎新晉獲得者、Facebook首席AI科學家Yann LeCun等知名專家學者在社交媒體上就深度學習展開了多輪的論戰(zhàn),探索深度學習的適用場景與局限性。Yann LeCun堅持認為深度學習是人工智能解決方案的重要部分之一。
強化學習領域著名教授理查德·薩頓(Richard S.Sutton)則認為,人類不應試圖把自己的知識和思維方式植入到AI之中,比如用人類的思路教AI下棋,將讓AI按照人類總結的思路來識別圖像,等等。真正的突破,必然來自完全相反的方向。摒棄人類在特定領域的知識,充分利用大規(guī)模計算才是王道。用人類在特定領域的知識來提升人工智能,都是在走彎路。OpenAI首席科學家Ilya Sutskever精辟地總結了薩頓的核心觀點:大力出奇跡(Compute always wins)。對此也有相反觀點,牛津大學計算機系教授希蒙·懷特森(Shimon Whiteson)就認為構建AI需要融入人類知識,問題只在于該何時、如何、融入哪些知識。[8]關于深度學習、人工智能發(fā)展方向的討論,本書不再過多引述,感興趣的讀者可以看看雙方的論戰(zhàn)。
筆者認為,在科學界,自然需要各樣的研究方法論。但在工業(yè)界,在一些特定領域,“大力出奇跡”,是不二法門。大規(guī)模計算的作用還遠遠沒有發(fā)掘完,只要數(shù)據(jù)數(shù)量與質量、計算能力持續(xù)提升,加之算法的優(yōu)化,在工業(yè)界一定還有更多的驚喜等著我們。靠自我對弈圍棋的AlphaGo Zero,基于深度學習識別語音、圖像的算法等,一次次擊敗了先前那些濃縮了人類知識的人工智能方案。2018年,狂破11項自然語言處理領域紀錄的谷歌BERT(Bidirectional Encoder Representation from Transformers)模型[9],其亦是借助大規(guī)模計算,通過預訓練得到更好的文本特征,屬于暴力模型。
自然語言處理處理(Natural Language Processing,NLP)是人工智能領域的一個重要方向,主要研究能實現(xiàn)人與計算機之間用自然語言進行有效通信的各種理論和方法。大量訓練數(shù)據(jù)和云計算可以說是近幾年深度學習在自然語言處理方面取得了重大突破的重要前提。為什么大力能出奇跡?谷歌的BERT模型,使用無監(jiān)督學習[10]對大量語料進行預訓練,設計了兩個預訓練任務:一個是隨機遮蔽掉一個句子中某個詞,利用上下文進行預測;另一個是直接預測下一個句子。預訓練模型的目的是為每個詞匯找到恰當?shù)南蛄勘硎?。當特定領域中相關語料越多,效果越好。就是說機器學到了語料數(shù)據(jù)中,我們無法用符號表述的規(guī)則或知識。
深度神經(jīng)網(wǎng)絡的理論依據(jù)之一——萬能逼近定理(Universal Approximation Theory):神經(jīng)網(wǎng)絡能以任意的精度逼近任何從一個有限維空間到另一個有限維空間的連續(xù)函數(shù)。
2015年,三位圖靈獎獲得者、深度學習和人工智能領域的著名學者杰弗里·辛頓(Geoffrey Hinton)、延恩·勒昆(Yann LeCun)和約書亞·本吉奧(Joshua Bengio)在《自然》雜志上發(fā)表了深度學習綜述論文[11],文章中總結了深度學習在一些領域確定突破性成果的原因。對于一些復雜的問題,如圖像、語音、自然語言理解等,研究人員往往很難知道提取哪些特征合適。解決的方法之一是表征學習(Representation Learning),通過機器學習方法去提取特征?!吧疃葘W習就是一種表征學習方法,把原始數(shù)據(jù)通過一些簡單的但是非線性的模型轉變成為更高層次的、更加抽象的表達。當神經(jīng)網(wǎng)絡足夠多層,再復雜的函數(shù)也可以被學習?!?/p>
在王維嘉的《暗知識》[12]中提到,數(shù)據(jù)有一些人類既無法感受又無法表達和描述的暗知識隱藏在海量數(shù)據(jù)的關系中。他也例舉了AlphaGo Zero“自學”戰(zhàn)勝之前基于人類棋譜最強AlphaGo Master,認為機器發(fā)現(xiàn)了人類既無法感受也無法表達的知識。利用機器挖掘我們?nèi)祟悷o法認識的知識與信息,是其書中提出的重要觀點,筆者非常認同。知識表征(Knowledge Representation)是人類永恒的問題,是對事物、事實的一種代替,以使我們可借助用知識表征的符號進行計算,對世界、事實進行推理。過去幾千年,人類都在進行宇宙、世界中事物、事實的知識表征探索,而利用機器挖掘數(shù)據(jù)中我們所不能理解的知識表征才剛開始。所以,在數(shù)字化時代,“大力出奇跡”才剛起航。
工業(yè)界擊敗BERT模型已然出現(xiàn),2019年7月,阿里巴巴公司的“TransBERT”模型在多輪對話型閱讀理解評測(QuAC)進一步刷新了記錄。[13]可以想見,基于自然語言模型的智能新聞、語音助理等將成為領域中可行的、更高效的方案。
人心計算不可替代的優(yōu)勢
人們說到心靈的時候,說的并不是一臺(任何一般意義上的)機器。而是一臺察覺到自身的正確性的機器。
——哥德爾
前面章節(jié)所提到的常識,亦是一種直覺。愛迪生說過“天才就是99%的汗水加上1%的靈感,但沒有這1%的靈感,那99%的汗水也是徒勞”。靈感既大師、專家們在決策時的直覺。諾貝爾經(jīng)濟學獎、圖靈獎獲得者郝伯特·西蒙做過一個國際象棋棋法研究,其將一個布局合理的中盤棋局給大師們看,他們往往能在很短的時間就找到最優(yōu)下一步,這就是基于直覺的搜索。專家和新手區(qū)分不僅是前者具有大量和多樣的信息,更重要的是,他的直覺經(jīng)驗使其能快速發(fā)現(xiàn)所面對的棋局形勢中的熟悉模式。長期記憶中儲存大量的棋局模式,識別這些模式,從長期記憶中找到相關信息,這樣的直覺搜索,并不需要大量復雜的腦力計算。
而AlphaGo在模型訓練過程中,也是抽取一盤圍棋中的隨機中盤布局,使用蒙特卡羅樹搜索(Monte Carlo Tree Search,MCTS)結合估值網(wǎng)絡(Value Network)來搜索最優(yōu)下一步。由此看來,對于一個領域問題,新手往往是低效的、痛苦的直覺搜索,專家是高效的直覺搜索,而AlphaGo是啟發(fā)式結合暴力搜索。即,人類和人工智能是完全不同的搜索途徑。計算機不必學習人的做法,就如同飛機不必學習鳥的飛行一樣。但,是否可能借助人工智能提高新手的搜索效率呢?這應該是個非常值得探索的方向,在之后的章節(jié)還將探討該主題。
現(xiàn)代的計算機的理論依據(jù)是偉大的數(shù)學家、邏輯學家艾倫·麥席森·圖靈發(fā)現(xiàn)的圖靈機理論。該理論中的停機問題(Halting Problem)是哥德爾不完備定理(Godel Incompleteness Theorems)的一種證明。圖靈機以一種精確的定義完全把握了機械(或計算)過程的直觀概念,因而徹底解釋了哥德爾不完全性定理的普遍性。
哥德爾不完全性定理:任何一個形式系統(tǒng)(圖靈機是一種形式系統(tǒng)),只要包括了簡單的初等數(shù)論描述,它必定包含某些系統(tǒng)內(nèi)所允許的方法既不能證明真也不能證偽的命題。
根據(jù)哥德爾定理,基于數(shù)論的所有一致的公理化形式系統(tǒng)都包含有不可判定的命題,基于圖靈機原理的計算機自然也包括在內(nèi)。而人類基于直覺、情感的決策并不并這個問題。一個十分著名的例子,當亞歷山大面對難以解開的“格爾迪奧斯繩結”,用手中的劍直接就將繩結砍斷。跳出來看問題,這是人類的能力之一。還有,數(shù)學中著名的黎曼猜想,亦是先猜測可能的真理,就進行應用了,到目前為止,并沒有證明該猜想。
對于人心計算與計算機能力對比,偉大的數(shù)學家、邏輯學家和哲學家?guī)鞝柼亍じ绲聽栒J為數(shù)學直覺就可以看到并證明自身的一致性,這一點不同于計算機。人是擅長通過直覺解決新問題的,這才是相對于人工智能,人類真正的優(yōu)勢。
在系列電影《黑客帝國》的動畫版電影,九段獨立動畫之一的《第二次文藝復興》中描述了人工智能和人類的戰(zhàn)爭,最后人類啟用了核武器并遮擋了整個地球的太陽光,但機器還是取得了最后的勝利??蓹C器無法獲得太陽能,只好圈養(yǎng)人類獲得生物能,將所有存活下來的人類養(yǎng)在母體Matrix中。該理由非常牽強,低等生物的能量轉換率一定比人類這樣的高等動物更高。更合理的解釋是,由于人工智能無法代替人類的直覺計算,而直覺計算又是探索宇宙,探索數(shù)學、物理等充滿不確定性領域必不可少的能力,所以只好將人類圈養(yǎng)在母體中。
《黑客帝國》動畫版電影劇照
另外,可不要小看我們自己大腦中的計算能力,麻省理工學院物理系邁克斯·泰格馬克教授在他的著作《生命3.0》[14]中參考了相關研究,認為要模擬人類大腦,所需要的浮點運算次數(shù)差不多相當于2017年全世界運行最快的超級計算機,我國的“神威-太湖之光超級計算機”,價值3億美元。這還只是從浮點運算次數(shù)來看,要復制人腦的計算能力,光靠已有的神經(jīng)網(wǎng)絡可不行。所以在“神威-太湖之光超級計算機”的成本還沒有降到和人類的成本一樣前,從計算成本角度來看,決策中的人機合作都還應該以人為主。
所以,人類的直覺有其不可或缺的重要性,直覺才是人類最重要的決策方式之一,是無法代替的。在未有強人工智能,機器的計算成本未占優(yōu)之前,領域中的解決方案總不免同時需要這兩種計算。針對不同領域問題,根據(jù)具體情況,選取人和計算機各自優(yōu)勢共同構建解決方案將是可行的途徑。
機器在什么場景下可以代替人?
在BBC網(wǎng)站上有一個頁面[15],可以查詢涵蓋數(shù)十個領域的上千份工作崗位可能被人工智能替代的預測。這個預測是基于英國牛津大學兩位學者卡爾·弗雷和邁克爾·奧斯本的研究《未來職業(yè):工作被計算機取代的可能性?》[16]。2013年,兩位學者預測,在未來10~20年間,47%的工作很有可能被自動化取代。越是專業(yè)化程度高的領域,人工智能更加有優(yōu)勢代替人類。而那些與人打交道的,教師、護士等,以及需要創(chuàng)造性思維的架構師、藝術家等是不容易被替代的。這和弱人工智能擅長的領域非常一致,在社會化大分工的環(huán)境下,弱人工智能在那些專業(yè)的領域能夠代替人類部分工作。
《生命3.0》中將提出莫拉維克悖論的漢斯·莫拉維克一段關于人工智能能力前景的描述,以地形圖的形式形象地畫出來。其中“海拔高度代表這項任務對于計算機的難度,不斷上漲的海平面代表計算機現(xiàn)在能做的事情。”這里計算機既包括強人工智能也包括弱人工智能。從圖上看來,似乎投資也是一個即將被攻克的領域,筆者并不認同,在之后的章節(jié)還將論述。
在什么場景下機器能夠代替人類決策呢?這里所指機器包括計算機系統(tǒng)、數(shù)據(jù)以及弱人工智能,并不包括強人工智能。如果你問一位機器學習從業(yè)者這個問題,通常,他會告訴你,如果這個有足夠的訓練數(shù)據(jù),以及能構建有效收集反饋的閉環(huán)時,就可以嘗試用機器學習代替人類決策。一般我們認為司機的智能助理,最終目標定位是自動駕駛。因為通過傳感器可以收集大量訓練數(shù)據(jù),并且有實時反饋的運行環(huán)境。即使是倫敦黑色出租車司機,他們都必須通過嚴格的倫敦知識考試,包括知曉城市數(shù)千個景點和街道位置,以及在任何時段規(guī)劃到目的地的最優(yōu)路線等。[17]從技術角度來看,他們也是可以被人工智能替代的。駕駛這個任務,并不需要司機的個人意識,一個人類司機會享受音樂、欣賞窗外風景等等,但對于駕駛這個任務來說這些能力并沒有增益,而是潛在的風險。這些場景下,人工智能必然將會替代人類決策。
在丹尼爾·卡尼曼教授《思考,快與慢》[18]中描述了兩種人類決策思考的系統(tǒng):
? 快思考:“系統(tǒng)1運行時無意識且快速地,不怎么費腦力,沒有感覺,完全處于自主控制狀態(tài)?!?/p>
? 慢思考:“系統(tǒng)2將注意力轉移到需要費腦力的大腦活動上來,例如復雜的運算。系統(tǒng)2的運行通常與行為、選擇和專注等主觀體驗相關聯(lián)。”
快思考適用于快反饋的場景,互聯(lián)網(wǎng)激增了這樣的反饋場景。人是偏好及時行樂的,這非常符合人性,互聯(lián)網(wǎng)產(chǎn)品更加推波助瀾了這個傾向。新聞媒體行業(yè)應該是算法輔助人們快決策非常成熟的領域,大量的用戶的特征、不斷迭代算法模型、可量化的反饋等等,都已融入行業(yè)的方方面面。新聞內(nèi)容產(chǎn)生者根據(jù)大量的反饋數(shù)據(jù)可以知道哪些用戶喜歡這篇文章,閱讀了多長時間,在什么地方停頓等,從而不斷調(diào)整新聞的編輯,向著更好評估指標(點擊率等)的方向前進。
快決策的場景基本都是弱人工智能、算法擅長的場景,因為有足夠的數(shù)據(jù)與反饋,可以幫助算法提升性能。但決策并不只是快思考,在BBC的紀錄片《人生七年》中,用幾十年跟蹤英國不同階層的七歲的小孩子,每隔七年,都會重新采訪當年的這些孩子,了解他們的現(xiàn)狀,傾聽他們關于生活、理想、人生的觀點。當你觀看這部紀錄片時,常常能感受到有些人在面對人生重大決策時,并沒有經(jīng)過太多的思考就草率地決定了。人工智能的作用不只是要幫助人類去快決策,也應該輔助去做那些慢思考的決策。如何輔助,直接代替人們做出更明智的決策嗎?機器學習最大的挑戰(zhàn)之一是需要大量特定問題的樣本作為訓練數(shù)據(jù),可惜關于人生,誰都沒有足夠的樣本和反饋。在金融投資領域也同樣如此,面臨的問題都是不確定環(huán)境下具有時間跨度的決策問題,其關乎于未來收益,自然有不確定性等屬性,也是屬于慢思考決策。弱人工智能擅長快思考,眼觀并不長遠。在不確定環(huán)境下,特別是跨期決策,是結合行為主體偏好的選擇,人心計算必不可少,并應起主要作用。更一般地來看,這其實是可計算性理論(Computability Theory)的問題,該理論研究哪些算法問題是能夠被解決的。其中涉及兩個重要概念,判定問題,是尋求一種能行的方法,一種算法,能夠對某類問題中的任何一個問題,在有窮步驟內(nèi)判定其是否具有某一特定性質。另一個概念是計算復雜性理論,使用數(shù)學方法對計算中所需的各種資源的耗費作定量的分析,并研究各類問題之間在計算復雜程度上的相互關系和基本性質。當前,人工智能如此之火,有時也會驚訝于仿佛所有的算法都歸于這面大旗之下。但,不要忘記機器學習只是計算機理論算法中的一部分。
既然有不可判定的問題、計算復雜的各類問題存在,再次證明弱人工智能不應該是代替人類決策的方案。在未有科幻片中那樣的強人工智能之前,弱人工智能與物聯(lián)網(wǎng)、大數(shù)據(jù)、云計算等技術結合,在某些領域必然具備超越人類的能力。
所以,在不同場景下,弱人工智能的能力邊界決定了人工智能方案的能力邊界與定位。這是本書將持續(xù)討論的問題,接下來所有提到的人工智能沒有單獨說明都是指弱人工智能。
注釋
1.乾明.哈佛醫(yī)學院研究員解讀DeepMind大突破AlphaFold:有進步,但未解決根本問題[OL].凹非寺公眾號.2018-12-03.
2.Stuart J.Russell,Peter Norvig.人工智能:一種現(xiàn)代的方法(第三版)[M].清華大學出版社,2013.
3.周志華.關于強人工智能[J].中國計算機學會通訊.2018,1.
4.https://icml.cc/Conferences/2019/ScheduleMultitrack?event=4334
5.馬文·明斯基.情感機器[M].浙江人民出版社.2015,12.
6.Gary Marcus.Deep Learning: A Critical Appraisal[OL].arXiv Preprint.2018,01.
7.Judea Pearl,Dana Mack.The Book of Why: The New Science of Cause and Effect[M].Allen Lane.2018,5.
8.乾明,安妮.只有大規(guī)模算力才能救AI?強化學習之父vs牛津教授掀起隔空論戰(zhàn)[OL].量子位公眾號.2019-03-17.
9.Devlin,J.,Chang,M.-W.,Lee,K.,and Toutanova,K.Bert: Pretraining of deep bidirectional transformers for language understanding.[OL].arXiv preprint,2018.
10.無監(jiān)督學習屬于機器學習中的一個類別,是對無標記訓練樣本的學習來發(fā)現(xiàn)數(shù)據(jù)內(nèi)在性質與規(guī)律。
11.Yann LeCun,Yoshua Bengio,Geoffrey Hinton.Deep learning Review[J].Nature.2015,5.
12.王維嘉.暗知識:機器認知如何顛覆商業(yè)和社會[M].中信出版社.2019,3.
13.阿里巴巴AI模型“TransBERT”擊敗全球對手,刷新了QuAC世界紀錄.科技日報.2019,7.
14.邁克斯·泰格馬克.生命3.0[M].浙江教育出版社.2018,6.
15.Will a robot take your job?[OL].https://www.b bc.com/news/technology 34066941.BBC.2015.
16.Michael Osborne,Carl Frey.The Future of Employment: How Susceptible Are Jobs to Computerisation?[J].Technological Forecasting and Social Change.2013.
17.在倫敦,想成為黑色出租車司機有多難?[OL].中國日報網(wǎng).2018,09.
18.丹尼爾·卡尼曼.思考,快與慢[M].中信出版社.2012,7.
本文為新書《人工智能為金融投資帶來了什么》(袁峻峰/著,經(jīng)濟科學出版社2020年3月版)第一章的部分章節(jié)。