亚洲视频国产视频,亚洲综合首页,亚洲最大色视频,国内精品自产拍在线电影,日韩久久网,久久午夜影院,欧美亚洲高清

  • 歡迎光臨燃?xì)獗硇畔⒕W(wǎng)!
 
當(dāng)前位置: 首頁(yè) » 技術(shù)前沿 » 創(chuàng)新技術(shù) » 正文

ChatGPT的這個(gè)弱點(diǎn),說(shuō)明人與人工智能沒(méi)有本質(zhì)的區(qū)別

字體: 放大字體  縮小字體 發(fā)布日期:2023-04-20  來(lái)源:世界經(jīng)理人  瀏覽次數(shù):5506
 從鸚鵡,到烏鴉

1/6 人工智能不只是ChatGPT

(本文前半部分與上周末發(fā)在“思想鋼印”公眾號(hào)上的文章的前半部分相同,后半部分為新撰寫,討論的是本公眾號(hào)最感興趣的思維方式的內(nèi)容)

ChatGPT火了之后,有一個(gè)段子,說(shuō):我們過(guò)去想象的人工智能是,我們寫詩(shī)畫畫編音樂(lè),AI燒飯洗碗修電腦,沒(méi)想到,最后是AI寫詩(shī)畫畫編音樂(lè),我們自己燒飯洗碗修電腦。

白領(lǐng)危機(jī)四伏,藍(lán)領(lǐng)暗自慶幸。

然而,ChatGPT實(shí)際上只是人工智能歷史上的第一個(gè)爆款應(yīng)用,又是以一對(duì)一對(duì)話形式展開(kāi),效果又超出了我們的心理預(yù)期,很容易讓我們產(chǎn)生一個(gè)“人工智能能說(shuō)會(huì)道”的錯(cuò)覺(jué),進(jìn)而讓我們覺(jué)得,它未來(lái)可以取代很多白領(lǐng)的工作。

其實(shí),ChatGPT底層的自然語(yǔ)言大模型GPT,只是眾多人工智能大模型中率先“涌現(xiàn)”的一個(gè),它更傾向于生成文本的能力,所以看起來(lái)都是寫寫文章,說(shuō)說(shuō)話,畫畫畫,但并不是說(shuō)人工智能就只能干這些,你總不能因?yàn)橼w本山演小品,就以為東北人只會(huì)演小品吧?

所以說(shuō),哪有什么“只取代白領(lǐng)的工作”這么簡(jiǎn)單的事啊,取代藍(lán)領(lǐng)工作的人工智能早晚也會(huì)來(lái)的。

僅就自然語(yǔ)言大模型而言,最有名的有兩種方向,除了GPT模型外,還有Google的BERT模型,兩者的核心區(qū)別在于目標(biāo)不同,GPT更傾向于生成文本,而BERT 模型更傾向于理解文本,更不用說(shuō)還有更多開(kāi)發(fā)中的各種方向的人工智能模型。

這個(gè)區(qū)別可能人類無(wú)法理解,不理解文本怎么生成文本呢?

但這個(gè)問(wèn)題對(duì)AI來(lái)說(shuō),并不存在。

本文就從這個(gè)話題開(kāi)始,聊一聊ChatGPT跟人類的“思考方式”有什么不同。

2/6 文科的GPT和全科的BERT

在不理解的基礎(chǔ)上,如何生成內(nèi)容?大家可以參考一部勵(lì)志日本電影《墊底辣妹》。

這部電影講述了一個(gè)年級(jí)倒數(shù)第一的差生,通過(guò)一年內(nèi)復(fù)習(xí)考入日本一流名校慶應(yīng)大學(xué)的真實(shí)故事,相當(dāng)于在全國(guó)學(xué)生中的最后2%,進(jìn)步到前2%。

這個(gè)神奇的故事之所以能實(shí)現(xiàn),是因?yàn)樗灰?ldquo;英語(yǔ)、小論文、歷史”這三門強(qiáng)調(diào)記憶的科目,她不需要很深的理解,只需要記憶和“生成”,注意重點(diǎn)是——不考數(shù)學(xué)、物理等注重推理的科目。

而GPT模型的成功,就像“墊底辣妹”一樣,很大程度在于選擇了“語(yǔ)言生成”為目標(biāo)的捷徑,從而讓它看上去的效果比它實(shí)際上的突破更明顯——這一點(diǎn)跟現(xiàn)實(shí)中一樣,一個(gè)能說(shuō)會(huì)道的員工,總是比只會(huì)干實(shí)事的員工,看起來(lái)更能干。

GPT模型就像文科畢業(yè)生,由于其在生成文本方面的強(qiáng)大能力,畢業(yè)后最大的“就業(yè)去向”是自動(dòng)生成文章類的“工作”、包括新聞、廣告文案、創(chuàng)意內(nèi)容、法律文書、文秘、各類咨詢,等等;其次的“就業(yè)去向”是作為聊天機(jī)器人、虛擬助手、智能客服,等等,進(jìn)行更加自然、流利的對(duì)話。

相比而言,BERT模型雖然也是一個(gè)文科生,但也要學(xué)習(xí)數(shù)學(xué)、物理這一類注重推理的課程,全面發(fā)展。BERT模型需要“理解”文本的內(nèi)容,GPT模型則不一定。

兩者的區(qū)別在一開(kāi)始訓(xùn)練時(shí)就產(chǎn)生了,GPT的訓(xùn)練目標(biāo)是通過(guò)最大化下一個(gè)單詞的條件概率來(lái)預(yù)測(cè)下一個(gè)單詞,從而完成生成任務(wù);而BERT的訓(xùn)練目標(biāo)是隨機(jī)掩蓋一些輸入詞匯并要求模型預(yù)測(cè)這些詞匯,強(qiáng)迫模型預(yù)測(cè)缺失的單詞,因此它的理解是到詞匯這個(gè)級(jí)別的。

在不理解的基礎(chǔ)上生成的文本,難免會(huì)發(fā)生胡說(shuō)八道的情況,雖然大家已經(jīng)覺(jué)得GPT很神奇了,但如果真的大規(guī)模投入應(yīng)用,在那些非生成內(nèi)容為主的應(yīng)用上,它還是有缺陷的。

比如你對(duì)AI助理說(shuō):“幫我在陸家嘴附近訂一個(gè)粵菜餐館,人均消費(fèi)在500元左右,時(shí)間是明天晚上。”

對(duì)于這個(gè)句子,GPT模型的“理解”是從過(guò)去的語(yǔ)料訓(xùn)練中,判斷“陸家嘴、粵菜、明天晚上、人均消費(fèi)、500元”這些詞的組合而不是詞本身的意義,由此來(lái)判斷自己應(yīng)該輸出什么樣的內(nèi)容,它對(duì)于語(yǔ)言的最小理解單位是句子,而不是詞匯,會(huì)導(dǎo)致“模型產(chǎn)生幻覺(jué),編造訓(xùn)練中從未有過(guò)的數(shù)據(jù)”。所以我們有時(shí)看到GPT推薦必勝客等成都小吃的離譜結(jié)果,因?yàn)樗⒉焕斫?ldquo;必勝客”的屬性,它還會(huì)把數(shù)學(xué)計(jì)算中的1995當(dāng)成年代。

雖然GPT4中,這些現(xiàn)象已經(jīng)大大減少,但由于底層邏輯仍然是一個(gè)“文科生”,未來(lái)很難說(shuō)在遇到更復(fù)雜的問(wèn)題時(shí),會(huì)不會(huì)出錯(cuò),很可能最后給你預(yù)訂了一個(gè)經(jīng)常與粵菜館一起出現(xiàn)的咖啡館。

由此看來(lái),GPT模式不會(huì)是終點(diǎn),AI代替人類的工作,文本類只是一個(gè)“開(kāi)胃菜”。

很多人可能會(huì)想,GPT模型的進(jìn)化速度如此之快,年底就要發(fā)布GPT-5了,那未來(lái)會(huì)不會(huì)真的“理解”人類的語(yǔ)言呢?

這就要涉及到,到底我們應(yīng)該如何定義“理解”?人類又是如何“理解”的?

3/6 相關(guān)性不等于因果性……嗎?

熟悉邏輯學(xué)的讀者一定知道,它有一個(gè)著名的說(shuō)法:相關(guān)性不代表因果性,相關(guān)性只是對(duì)現(xiàn)象的描述,因果性才是現(xiàn)象之間的內(nèi)在聯(lián)系。

所以有人說(shuō),人類與人工智能的區(qū)別在于,人可以判斷因果關(guān)系,而人工智能只能判斷相關(guān)性。

這個(gè)觀點(diǎn)的后半段是正確的,目前所有的人工智能模型,都是通過(guò)學(xué)習(xí)數(shù)據(jù)中的相關(guān)性來(lái)進(jìn)行預(yù)測(cè)和推理。

GPT模型完成任務(wù)的方法就是“猜猜下一個(gè)概率最大的詞是什么”,根據(jù)輸入的一段文本,預(yù)測(cè)下一個(gè)單詞出現(xiàn)的概率分布。比如給定前面的句子“我喜歡吃?”,模型可能預(yù)測(cè)下一個(gè)單詞為“蘋果”的概率是0.2,“香蕉”的概率是0.3,“披薩”的概率是0.1,等等,這些概率值的總和為1,代表了所有可能的下一個(gè)單詞的概率分布。

根據(jù)這個(gè)概率分布,選擇最有可能出現(xiàn)的單詞。所以ChatGPT都是一個(gè)字一個(gè)字地蹦出來(lái)的,跟剛剛學(xué)會(huì)說(shuō)話的小孩子一樣。

BERT模型的復(fù)雜之處也在于概率判斷,它會(huì)考慮每一個(gè)單詞與前后文的關(guān)系,還要反向預(yù)測(cè)“喜歡吃蘋果?”,所以更準(zhǔn)確,也更需要更多的訓(xùn)練。

人類認(rèn)為,自己的判斷靠的是因果關(guān)系,先學(xué)習(xí)各類事件之間的因果聯(lián)系,再去推斷出某個(gè)事件是另一個(gè)事件的原因或結(jié)果。所以,早期人工智能的方向是模仿人類的思維,去建立因果關(guān)系。

可當(dāng)專家們想用計(jì)算機(jī)語(yǔ)言描述因果關(guān)系時(shí),才發(fā)現(xiàn)此路不通——人類自以為嚴(yán)謹(jǐn)?shù)囊蚬P(guān)系,可能并不存在。

看過(guò)《三體》的讀者,都應(yīng)該對(duì)其中哲學(xué)家羅素的“農(nóng)場(chǎng)主假設(shè)”有深刻的印象,農(nóng)場(chǎng)里有一只火雞科學(xué)家,通過(guò)長(zhǎng)期觀察,發(fā)布了一個(gè)科學(xué)規(guī)律,每次農(nóng)場(chǎng)主來(lái),就會(huì)有食物,兩者之前存在因果聯(lián)系。結(jié)果復(fù)活節(jié)前,農(nóng)場(chǎng)主帶來(lái)的不是食物而是屠刀。

不要以為“把相關(guān)性當(dāng)成因果性”只是普通大眾缺乏科學(xué)常識(shí)導(dǎo)致,我們所認(rèn)為的因果性,正是站在火雞科學(xué)家的角度,從科學(xué)的角度,想要證明兩件事之間存在嚴(yán)格的因果幾乎是不可能的。

抽煙與肺癌的因果關(guān)系,現(xiàn)在醫(yī)學(xué)已經(jīng)廣泛認(rèn)可,但這只是“認(rèn)可”,認(rèn)為抽煙與肺癌存在高度的相關(guān)性,而不是“證明兩者之間存在因果關(guān)系”,因?yàn)槟銦o(wú)論用什么方法,都無(wú)法嚴(yán)格證明。

哲學(xué)家大衛(wèi)·休謨?cè)缭?00多年前就稱之為“因果關(guān)系幻覺(jué)”,他認(rèn)為:“我們無(wú)從得知因果之間的關(guān)系,只能得知某些事物總是會(huì)連結(jié)在一起,而這些事物在過(guò)去的經(jīng)驗(yàn)里又是從不曾分開(kāi)過(guò)的。”

更糟糕的是,基于經(jīng)驗(yàn)的因果判斷并不是人類獨(dú)有的能力,比如人工智能學(xué)家最喜歡研究的動(dòng)物——烏鴉。

4/6 人工智能,從鸚鵡到烏鴉

烏鴉喜歡吃堅(jiān)果,但它弄不開(kāi)堅(jiān)硬的外殼;烏鴉發(fā)現(xiàn)汽車可以幫它壓碎外殼,可行駛中的汽車又太危險(xiǎn)了;烏鴉還觀察到,有一樣?xùn)|西可以讓汽車停下來(lái)——紅綠燈。

于是烏鴉建立一個(gè)策略:叨著堅(jiān)果在路邊等候,在紅燈時(shí),把堅(jiān)果丟在汽車輪子前,等綠燈能行后,汽車就可以將堅(jiān)果壓碎,再等下一次紅燈,它們就可以吃到堅(jiān)果了。

但我們知道,烏鴉不可能懂“因果律”,做不了數(shù)學(xué)題,它們只是像人類一樣,觀察到紅綠燈閃爍和汽車的運(yùn)行,汽車開(kāi)過(guò)與堅(jiān)果破碎,這兩組現(xiàn)象之間存在著相關(guān)性。

2010年,人工智能專家約瑟夫·魏茲提出了烏鴉與鸚鵡的比喻,來(lái)描述人工智能未來(lái)的方向。他認(rèn)為,鸚鵡是一種高度訓(xùn)練的動(dòng)物,它們可以通過(guò)反復(fù)模仿來(lái)掌握特定的技能,但是在新的情境下,它們就無(wú)法產(chǎn)生新的解決方案;而烏鴉是一種具有高度自適應(yīng)和學(xué)習(xí)能力的動(dòng)物,可以通過(guò)試錯(cuò)的方式不斷學(xué)習(xí),從而能夠在各種不同的情境下靈活應(yīng)對(duì)。

于是人工智能科學(xué)家們產(chǎn)生了一個(gè)共識(shí):相關(guān)性就是因果性,是一套描述因果關(guān)系的語(yǔ)言體系,它的單位是“概率”,因果關(guān)系不是0和100%,而是15%、60%、99%,等等。

于是就有了貝葉斯算法,有了聲音模擬信號(hào)變成數(shù)字信號(hào),才有了手機(jī)通信,才有了郵件反垃圾系統(tǒng),以及更復(fù)雜的大數(shù)據(jù)推薦和人工智能算法。

人類之所以自詡“理解因果關(guān)系”,恐怕是因?yàn)?strong>數(shù)學(xué),這是人類唯一掌握的建立在嚴(yán)格因果性上的方法,而計(jì)算機(jī)運(yùn)作恰恰是基于嚴(yán)格邏輯推理,所以,過(guò)去的人工智能專家總是希望能基于這種嚴(yán)格的因果關(guān)系實(shí)現(xiàn)人工智能。

偏偏人工智能最終突破的方向,是基于貝葉斯概率的相關(guān)性,第一個(gè)爆款級(jí)人工智能應(yīng)用ChatGPT最不擅長(zhǎng)的就是做數(shù)學(xué)題,因?yàn)閿?shù)學(xué)題的解題步驟和方法通常需要基于因果關(guān)系的邏輯推理,而GPT模型在生成文本時(shí)只是一種概率判斷,你變著法子問(wèn)它同一個(gè)問(wèn)題,它可能有十種不同的答案,這顯然不是數(shù)學(xué)的思維。

結(jié)果,還是概率戰(zhàn)勝了邏輯推理,相關(guān)性戰(zhàn)勝了因果性。

事實(shí)上,人類也是擅長(zhǎng)概率判斷的,只不過(guò),我們通常稱之為“經(jīng)驗(yàn)”。

5/6 人類也會(huì)貝葉斯計(jì)算

如果你是一個(gè)非常有經(jīng)驗(yàn)的售貨員,面對(duì)一位走進(jìn)店鋪的客戶,你要時(shí)刻不停地根據(jù)客戶的舉動(dòng),判斷客戶的成交概率,才能決定花多長(zhǎng)時(shí)間去向客戶推銷,有經(jīng)驗(yàn)的銷售員從不會(huì)干巴巴地介紹產(chǎn)品,而是進(jìn)一步詢問(wèn)客戶的需求,選相應(yīng)的推銷重點(diǎn),并且決定給出多大的折扣把客戶拿下。

你判斷客戶成交概率的過(guò)程,與人工智能猜下一個(gè)單詞的貝葉斯算法,其實(shí)是一回事。

想象一下,一位中年男性走進(jìn)你的店,你首先根據(jù)經(jīng)驗(yàn)知道,所有進(jìn)店的中年男性,有20%會(huì)買東西——這就是貝葉斯算法中的“先驗(yàn)概率”。

你觀察到,他在店里看了一圈,超過(guò)10分鐘以上,此時(shí)你開(kāi)始把成交概率修正到29%,并開(kāi)始主動(dòng)詢問(wèn)。

你是如何修正成交概率的呢?實(shí)際上就是貝葉斯計(jì)算:

以往的經(jīng)驗(yàn)告訴你一個(gè)條件概率:在所有最終買東西的人中,停留超過(guò)10分鐘以上的占50%;那些最終沒(méi)有買東西的人中,停留超過(guò)10分鐘以上的,僅占30%。

根據(jù)貝葉斯算法:此人成交概率為:20%*50%/(20%*50%+80%*30%)=29.4%(不知道怎么計(jì)算的,可以看我的文章《職場(chǎng)戀情成功的概率有多大?這個(gè)算法告訴》)

根據(jù)貝葉斯算法:此人成交概率為:20%*50%/(20%*50%+80%*30%)=29.4%

接下來(lái),客戶開(kāi)始咨詢,根據(jù)咨詢這個(gè)行為對(duì)應(yīng)的條件概率,這個(gè)成交概率猛得上升到60%;

可此時(shí),他接到了一個(gè)電話,不好,歷史證明這種情況下的成交概率會(huì)下降,于是降到了50%;

還好,這是一個(gè)垃圾電話,他掛掉電話,直接開(kāi)始談價(jià)格,很好,根據(jù)談價(jià)格的行為,最終成交概率又上升到85%……

在這個(gè)過(guò)程中,雖然一開(kāi)始你只有一個(gè)與實(shí)際結(jié)果相差很大的先驗(yàn)概率,但通過(guò)掌握更多的信息,這個(gè)概率會(huì)越來(lái)越接近實(shí)際情況——0或100%,你就可以作出應(yīng)對(duì)。

這些條件概率,都是在以往大量的銷售實(shí)踐中,漸漸總結(jié)出來(lái)的,并且始終不斷更新,比如今天的這個(gè)中年男人,在85%的成交概率下,最后竟然沒(méi)有買,這個(gè)經(jīng)驗(yàn)就會(huì)改變你前面的那些先驗(yàn)概率和后面的一系列條件概率。

所謂“有經(jīng)驗(yàn)”,就是在某個(gè)專業(yè)方向,掌握了大量的條件概率。

很多人可能會(huì)說(shuō),可我根本不知道條件概率是什么,也不知道怎么進(jìn)行貝葉斯計(jì)算,我只是憑感覺(jué)罷了。

那么,這個(gè)感覺(jué)又是什么呢?

6/6 人腦,也是一套特殊的算法模型

人類的學(xué)習(xí)方式中有一類特殊的隱藏學(xué)習(xí),學(xué)習(xí)者并不知道自己在學(xué)習(xí),也沒(méi)有人教,也不知道自己什么時(shí)候?qū)W會(huì)了,就算學(xué)會(huì)了,也無(wú)法總結(jié)其中的一些規(guī)律。

心理學(xué)家稱之為“內(nèi)隱式學(xué)習(xí)”,最經(jīng)常被引用的例子是“母語(yǔ)學(xué)習(xí)”。母語(yǔ)學(xué)習(xí)都是在上學(xué)之前完成的,幾乎沒(méi)有正式的學(xué)習(xí)過(guò)程,習(xí)得后,也無(wú)法總結(jié)語(yǔ)言的一般規(guī)律。

這就是前面所說(shuō)的“感覺(jué)”的來(lái)源,實(shí)際上就是大量的貝葉斯計(jì)算。

人際關(guān)系、情感關(guān)系處理的學(xué)習(xí),育兒與親子關(guān)系的學(xué)習(xí),欣賞品位的提升,等等,一切規(guī)則模糊領(lǐng)域的學(xué)習(xí),都至少有一部分需要內(nèi)隱式學(xué)習(xí)。

我們?cè)谏蠈W(xué)前的學(xué)習(xí)方法,基本上是內(nèi)隱式學(xué)習(xí),上學(xué)后就變成了主動(dòng)式學(xué)習(xí),工作之后,內(nèi)隱式學(xué)習(xí)的重要性又開(kāi)始漸漸提升。

人到底是如何進(jìn)行“內(nèi)隱式學(xué)習(xí)”的呢?不知道,因?yàn)槿四X是一個(gè)黑箱。

就像GPT的人工智能訓(xùn)練過(guò)程,也是一個(gè)黑箱,都說(shuō)它突然間就“涌現(xiàn)”了,就像兒童有一天忽然開(kāi)口說(shuō)話了、站起來(lái)走路了,其中到底發(fā)生了什么,沒(méi)有人知道。

人腦,也是一套特殊的算法模型,跟人工智能沒(méi)有本質(zhì)的區(qū)別,只是復(fù)雜得多——黑箱設(shè)計(jì)出的黑箱,難怪馬斯克會(huì)擔(dān)心,不知道它在無(wú)數(shù)次迭代后,會(huì)出現(xiàn)什么。

當(dāng)然,關(guān)于人腦與人工智能在認(rèn)知上的區(qū)別,還有人提出一些標(biāo)準(zhǔn),比如情感、自我意識(shí)、還有頓悟時(shí)刻,這些我以后有機(jī)會(huì)再分析。

 
免責(zé)聲明:
本站所提供的文章資訊、圖片、音頻、視頻來(lái)源于互聯(lián)網(wǎng)及公開(kāi)渠道,僅供學(xué)習(xí)參考,版權(quán)歸原創(chuàng)者所有! 如有侵犯您的版權(quán),請(qǐng)通知我們,我們會(huì)遵循相關(guān)法律法規(guī)采取措施刪除相關(guān)內(nèi)容。


 
[ 技術(shù)前沿搜索 ]  [ 加入收藏 ]  [ 告訴好友 ]  [ 打印本文 ]  [ 關(guān)閉窗口 ]

 
 
 
一周資訊排行
圖文推薦