色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ChatGPT的邏輯推理能力是如何學(xué)到的?

jf_78858299 ? 來源:中國科學(xué)院自動(dòng)化研究所 ? 作者:張家俊教授 ? 2023-02-22 10:56 ? 次閱讀

看到ChatGPT的華麗誕生,心情很復(fù)雜,既高興、驚喜,也感到恐慌,高興和驚喜的是沒有預(yù)料到這么快就見證了自然語言處理(NLP)技術(shù)的重大突破,體驗(yàn)到通用技術(shù)的無限魅力。恐慌的是ChatGPT幾乎可以高質(zhì)量地完成NLP中的大多數(shù)任務(wù),逐漸認(rèn)識(shí)到很多NLP的研究方向遇到了極大挑戰(zhàn)。

總體而言,ChatGPT最令人非常驚艷的是它的通用性,相比于GPT-3需要通過設(shè)計(jì)非常精巧的提示來實(shí)現(xiàn)效果并不太好的各種NLP能力,ChatGPT已經(jīng)讓用戶感受不到提示的存在。作為一個(gè)對(duì)話系統(tǒng),ChatGPT讓用戶自然提問便可實(shí)現(xiàn)從理解到生成的各種任務(wù),而且性能在開放領(lǐng)域幾乎都達(dá)到了當(dāng)前最佳水平,很多任務(wù)超越了針對(duì)特定任務(wù)單獨(dú)設(shè)計(jì)的模型,并且在代碼編程領(lǐng)域表現(xiàn)卓越。具體而言,自然語言理解能力(尤其是用戶意圖理解能力)十分突出,無論是問答、聊天、分類、摘要、翻譯等任務(wù),盡管回復(fù)不一定完全正確,但是幾乎都能夠領(lǐng)會(huì)用戶意圖,理解能力遠(yuǎn)超預(yù)期。相比于理解能力,ChatGPT的生成能力更加強(qiáng)大,可以針對(duì)各種問題生成具有一定邏輯且多樣化的長文本。總的來說,ChatGPT表現(xiàn)出的更多是驚艷,是通向AGI的初步階段,一些技術(shù)瓶頸解決后會(huì)更加強(qiáng)大。

對(duì)于ChatGPT表現(xiàn)案例的總結(jié)已經(jīng)非常多了,這里主要總結(jié)一下自己對(duì)ChatGPT技術(shù)問題的一些思考,算是與ChatGPT斷斷續(xù)續(xù)交互兩個(gè)多月的一個(gè)簡單總結(jié)。由于無法了解ChatGPT的具體實(shí)現(xiàn)技術(shù)和細(xì)節(jié),所以幾乎都是主觀猜想,肯定有很多不對(duì)的地方,歡迎一起探討。

1. ChatGPT的通用性為何做得如此之好?

只要使用過ChatGPT,我們就會(huì)發(fā)現(xiàn)它不是一個(gè)傳統(tǒng)意義上的人機(jī)對(duì)話系統(tǒng),實(shí)際是一個(gè)以自然語言為交互方式的通用語言處理平臺(tái)。2020年的GPT-3雖然擁有了通用能力的雛形,但是需要精心設(shè)計(jì)提示語來觸發(fā)相應(yīng)功能,而ChatGPT允許用戶采用非常自然的提問就可以準(zhǔn)確識(shí)別意圖完成各種功能。傳統(tǒng)方法往往先進(jìn)行用戶意圖識(shí)別,再針對(duì)不同意圖調(diào)用相應(yīng)功能的處理模塊,例如通過用戶數(shù)據(jù)識(shí)別出摘要或翻譯意圖,再調(diào)用文本摘要或機(jī)器翻譯模型。傳統(tǒng)方法在開放域的意圖識(shí)別準(zhǔn)確率不夠理想,而且不同功能模塊各自為戰(zhàn)無法共享信息,難以形成強(qiáng)大的NLP通用平臺(tái)。ChatGPT突破了各自為戰(zhàn)的模式,不再區(qū)分不同功能,統(tǒng)一認(rèn)為是對(duì)話過程中的一種特定需求。那么,ChatGPT的通用性為何做得如此之好呢?一直在思考這個(gè)問題,由于沒有條件實(shí)驗(yàn)證實(shí),所以僅能猜想。根據(jù)Google的Instruction Tuning研究工作FLAN,當(dāng)模型達(dá)到一定規(guī)模(e.g. 68B)且Instruction任務(wù)的類型達(dá)到一定數(shù)目(e.g. 40),模型就涌現(xiàn)出對(duì)新意圖的識(shí)別能力。OpenAI從其開放的API中收集了全球用戶各種任務(wù)類型的對(duì)話數(shù)據(jù),根據(jù)意圖分類和標(biāo)注,然后在175B參數(shù)GPT-3.5上進(jìn)行Instruction Tuning,自然就涌現(xiàn)出了通用的意圖識(shí)別能力。

2. 為什么面向?qū)υ挼奈⒄{(diào)沒有遭遇災(zāi)難性遺忘問題?

災(zāi)難性遺忘問題一直是深度學(xué)習(xí)中的一個(gè)挑戰(zhàn),經(jīng)常因?yàn)樵谀硞€(gè)任務(wù)上訓(xùn)練后就喪失了在其他任務(wù)上的性能。例如,一個(gè)30億參數(shù)的基礎(chǔ)模型,先在自動(dòng)問答數(shù)據(jù)上進(jìn)行微調(diào),然后在多輪對(duì)話數(shù)據(jù)上進(jìn)行微調(diào),結(jié)果會(huì)發(fā)現(xiàn)模型的問答能力大幅度下降。ChatGPT似乎不存在這個(gè)問題,其在基礎(chǔ)模型GPT-3.5上進(jìn)行了兩次微調(diào),第一次依據(jù)人工標(biāo)注的對(duì)話數(shù)據(jù)進(jìn)行微調(diào),第二次根據(jù)人類反饋的強(qiáng)化學(xué)習(xí)進(jìn)行微調(diào),微調(diào)使用的數(shù)據(jù)很少,尤其是人類反饋的打分排序數(shù)據(jù)更少,微調(diào)后竟然仍然表現(xiàn)出強(qiáng)大的通用能力,而并沒有完全過擬合到對(duì)話任務(wù)。這是個(gè)非常有趣的現(xiàn)象,也是我們沒有條件驗(yàn)證的現(xiàn)象。猜測可能有兩方面的原因,一方面是ChatGPT使用的對(duì)話微調(diào)數(shù)據(jù)實(shí)際可能包含了非常全面的NLP各種任務(wù),正如InstructGPT中對(duì)用戶使用API的問題分類可以發(fā)現(xiàn),很多都不是簡單的對(duì)話,還有分類、問答、摘要、翻譯、代碼生成等等,因此,ChatGPT實(shí)際是對(duì)若干任務(wù)同時(shí)進(jìn)行了微調(diào);另一方面,可能當(dāng)基礎(chǔ)模型足夠大之后,在較小數(shù)據(jù)上的微調(diào)不會(huì)對(duì)模型產(chǎn)生很大影響,可能僅在基礎(chǔ)模型參數(shù)空間非常小的鄰域中優(yōu)化,所以不會(huì)顯著影響基礎(chǔ)模型的通用能力。

3. ChatGPT的大范圍上下文連續(xù)對(duì)話能力是如何做到的?

使用ChatGPT時(shí)就會(huì)發(fā)現(xiàn)它一個(gè)讓人十分驚訝的能力,即使和ChatGPT交互了十多輪,它仍然還記得第一輪的信息,而且能夠根據(jù)用戶意圖比較準(zhǔn)確地識(shí)別省略、指代等細(xì)粒度語言現(xiàn)象。這些對(duì)我們?nèi)藖碚f似乎不算問題,但是在NLP的研究歷史中,省略、指代等問題一直是一個(gè)難以逾越的挑戰(zhàn)。此外,在傳統(tǒng)對(duì)話系統(tǒng)中,對(duì)話輪次多了之后,話題的一致性難以保障。但是,ChatGPT幾乎不存在這個(gè)問題,即使輪次再多,似乎都可以保持對(duì)話主題的一致性和專注度。猜測這個(gè)能力可能有三方面的來源。首先,高質(zhì)量的多輪對(duì)話數(shù)據(jù)是基礎(chǔ)和關(guān)鍵,正如Google的LaMDA,OpenAI也采用人工標(biāo)注的方式構(gòu)造了大量高質(zhì)量多輪對(duì)話數(shù)據(jù),在此之上進(jìn)行的微調(diào)將會(huì)激發(fā)模型的多輪對(duì)話能力。其次,基于人類反饋的強(qiáng)化學(xué)習(xí)因?yàn)樘嵘四P突貜?fù)的擬人性,也會(huì)間接增強(qiáng)模型多輪對(duì)話的一致性能力。最后,模型對(duì)8192個(gè)語言單元(Token)的顯式建模能力使其幾乎可以記憶普通人一整天的對(duì)話數(shù)據(jù),在一次對(duì)話交流中很難超出這個(gè)長度,因此,所有對(duì)話歷史都已經(jīng)被有效記憶,從而可以顯著提升連續(xù)多輪對(duì)話的能力。

4. ChatGPT的交互修正能力是如何煉成的?

交互修正能力是智能的一種高級(jí)體現(xiàn),對(duì)我們來人說稀松平常的事情卻是機(jī)器的痛點(diǎn)。在交流過程中,被指出問題后我們會(huì)立刻意識(shí)到問題所在并及時(shí)準(zhǔn)確地修正相關(guān)信息。對(duì)于機(jī)器而言,意識(shí)到問題、識(shí)別問題范圍并更正對(duì)應(yīng)信息的每一步都不是一件容易的事情。ChatGPT出現(xiàn)之前尚未看到過具有較強(qiáng)交互修正能力的通用模型。與ChatGPT交互后就會(huì)發(fā)現(xiàn),無論是用戶更改自己之前的說法還是指出ChatGPT的回復(fù)中存在的問題,ChatGPT都能夠捕捉到修改意圖,并準(zhǔn)確識(shí)別出需要修改的部分,最后能夠做出正確的修正。目前為止,沒有發(fā)現(xiàn)任何模型相關(guān)的因素與交互修正能力直接相關(guān),也不相信ChatGPT具有實(shí)時(shí)學(xué)習(xí)的能力,一方面是重啟對(duì)話后ChatGPT可能還會(huì)犯相同錯(cuò)誤,另一方面是基礎(chǔ)大模型的優(yōu)化學(xué)習(xí)從來都是從高頻數(shù)據(jù)中總結(jié)頻繁模式,一次對(duì)話無論如何也難以更新基礎(chǔ)模型。相信更多的是基礎(chǔ)語言大模型的一種歷史信息處理技巧,不太確定的因素可能包括:(1)OpenAI人工構(gòu)建的對(duì)話數(shù)據(jù)中包含一些交互修正的案例,微調(diào)后擁有了這樣的能力;(2)人工反饋的強(qiáng)化學(xué)習(xí)使得模型輸出更加符合人類偏好,從而在信息修正這類對(duì)話中表現(xiàn)得更加遵循人類的修正意圖;(3)可能大模型達(dá)到一定規(guī)模(e.g. 60B)之后,原始訓(xùn)練數(shù)據(jù)中的交互修正案例就被學(xué)到了,模型交互修正的能力自然就涌現(xiàn)出來了。

5. ChatGPT的邏輯推理能力是如何學(xué)到的?

當(dāng)我們?cè)儐朇hatGPT一些邏輯推理相關(guān)的問題時(shí),它并不是直接給出答案,而是展示出詳細(xì)的邏輯推理步驟,最后給出推理結(jié)果。雖然雞兔同籠等很多案例表明ChatGPT并沒有學(xué)會(huì)推理本質(zhì),而僅僅學(xué)會(huì)了推理的表面邏輯,但是展示的推理步驟和框架基本是正確的。一個(gè)語言模型能夠?qū)W習(xí)到基本的邏輯推理模式已經(jīng)極大超越了預(yù)期,其推理能力溯源是非常有趣的一個(gè)問題。相關(guān)對(duì)比研究發(fā)現(xiàn),當(dāng)模型足夠大,并且程序代碼與文本數(shù)據(jù)混合訓(xùn)練時(shí),程序代碼的完整邏輯鏈就會(huì)遷移泛化到語言大模型,從而大模型就擁有了一定的推理能力。這種推理能力的習(xí)得有點(diǎn)神奇,但是也能理解,可能代碼注釋是從邏輯代碼到語言大模型推理能力遷移泛化的橋梁。多語言能力應(yīng)該也是類似的道理。ChatGPT的訓(xùn)練數(shù)據(jù)絕大部分是英文,中文數(shù)據(jù)占比極少,然而我們發(fā)現(xiàn)ChatGPT的中文能力雖然比不上英文,但是也非常強(qiáng)大。訓(xùn)練數(shù)據(jù)中的一些中英對(duì)照的平行數(shù)據(jù)可能就是英文能力遷移到中文能力的橋梁。

6. ChatGPT是否針對(duì)不同下游任務(wù)采用不同的解碼策略?

ChatGPT有許多驚艷的表現(xiàn),其中一個(gè)是它可以針對(duì)同一個(gè)問題生成多種不同的回復(fù),顯得很睿智。比如,我們不滿意ChatGPT的回答,可以點(diǎn)擊“重新生成”按鈕,它立刻會(huì)生成另一種回復(fù),若還是不滿意可以繼續(xù)讓其重新生成。這一點(diǎn)在NLP領(lǐng)域并不神秘,對(duì)于語言模型來說是它的一個(gè)基本能力,也就是采樣解碼。一個(gè)文本片段的后面可能接不同的詞語,語言模型會(huì)計(jì)算每個(gè)詞語出現(xiàn)的概率,如果解碼策略選擇概率最大的詞語輸出,那么每次結(jié)果都是確定的,就無法生成多樣性回復(fù)。如果按照詞匯輸出的概率分布進(jìn)行采樣,例如,“策略”的概率是0.5,“算法”的概率是0.3,然后采樣解碼輸出“策略”的可能性就是50%,輸出“算法”的可能性就是30%,從而保證了輸出的多樣性。因?yàn)椴蓸舆^程是按照概率分布進(jìn)行的,即使輸出結(jié)果多樣,但是每一次都是選擇概率較大的結(jié)果,所以多種結(jié)果看起來都相對(duì)比較合理。對(duì)比不同類型的任務(wù)時(shí),我們會(huì)發(fā)現(xiàn)ChatGPT的回復(fù)多樣性針對(duì)不同下游任務(wù)差別比較大。針對(duì)“如何”、“為什么”等“How”、“Why”型任務(wù)時(shí),重新生成的回復(fù)與之前的回復(fù)無論是表達(dá)方式還是具體內(nèi)容具有較大差異,針對(duì)機(jī)器翻譯、數(shù)學(xué)應(yīng)用題等“What”型任務(wù)時(shí),不同回復(fù)之間的差異非常細(xì)微,有時(shí)幾乎沒有變化。如果都是依據(jù)概率分布的采樣解碼,為何不同回復(fù)之間的差異如此之小。猜測一種理想情況可能是“What”型任務(wù)基礎(chǔ)大模型學(xué)習(xí)到的概率分布非常尖銳(Sharp),例如學(xué)到的“策略”概率為0.8,“算法”概率為0.1,所以大多數(shù)時(shí)候采樣到相同的結(jié)果,也就是前面例子中80%的可能性都會(huì)采樣到“策略”;“How”、“Why”型任務(wù)基礎(chǔ)大模型學(xué)習(xí)到的概率分布比較平滑(Smooth),例如“策略”概率為0.4,“算法”概率為0.3,所以不同時(shí)候可以采樣到差異性較大的結(jié)果。如果ChatGPT能夠?qū)W習(xí)到任務(wù)相關(guān)的非常理想的概率分布,那確實(shí)非常厲害,基于采樣的解碼策略就可以適用于所有任務(wù)。通常,關(guān)于機(jī)器翻譯、數(shù)學(xué)計(jì)算、事實(shí)性問答等答案比較確定或者100%確定的任務(wù),一般采用基于貪婪解碼,也就是每次輸出概率最高的詞語。如果希望輸出相同語義的多樣性輸出,大多采用基于柱搜索的解碼方法,但較少采用基于采樣的解碼策略。從與ChatGPT的交互看,所有任務(wù)它似乎都采用了基于采樣的解碼方法,真是暴力美學(xué)。

7. ChatGPT能否解決事實(shí)可靠性問題?

答案缺乏可靠性是目前ChatGPT面臨的最大挑戰(zhàn)。特別是針對(duì)事實(shí)性和知識(shí)性相關(guān)的問答,ChatGPT有時(shí)候會(huì)一本正經(jīng)地胡編亂造,生成虛假信息。即使讓它給出來源和出處或者參考文獻(xiàn),ChatGPT通常也會(huì)生成一個(gè)不存在的網(wǎng)址或者從未發(fā)表過的文獻(xiàn)。不過,ChatGPT通常會(huì)給用戶一種比較好的感覺,也就是很多事實(shí)和知識(shí)它似乎都知道。實(shí)際上,ChatGPT就是一個(gè)語言大模型,語言大模型本質(zhì)就是一種深度神經(jīng)網(wǎng)絡(luò),深度神經(jīng)網(wǎng)絡(luò)本質(zhì)就是一種統(tǒng)計(jì)模型,就是從高頻數(shù)據(jù)中習(xí)得相關(guān)模式。很多常見的知識(shí)或事實(shí),在訓(xùn)練數(shù)據(jù)中出現(xiàn)頻率高,上下文之間的模式比較固定,預(yù)測的詞語概率分布就比較尖銳,熵比較小,大模型容易記住,并在解碼過程中輸出正確的事實(shí)或知識(shí)。但是,有很多事件和知識(shí)即使在非常龐大的訓(xùn)練數(shù)據(jù)中也很少出現(xiàn),大模型便無法學(xué)習(xí)到相關(guān)模式,上下文之間的模式比較松散,詞語預(yù)測的概率分布比較平滑,熵比較大,大模型在推理過程中容易產(chǎn)生不確定性的隨機(jī)輸出。這是包括ChatGPT在內(nèi)所有生成式模型的固有問題。如果仍然延續(xù)GPT系列架構(gòu),基礎(chǔ)模型不做改變,從理論上講是難以解決ChatGPT回復(fù)的事實(shí)可靠性問題。和搜索引擎的結(jié)合目前看是非常務(wù)實(shí)的一種方案,搜索引擎負(fù)責(zé)搜索可靠的事實(shí)信息來源,ChatGPT負(fù)責(zé)總結(jié)和歸納。如果希望ChatGPT解決事實(shí)回答的可靠性問題,可能需要進(jìn)一步提升模型的拒識(shí)能力,也就是過濾掉模型確定無法回答的那些問題,同時(shí)還需要事實(shí)驗(yàn)證模塊來驗(yàn)證ChatGPT回復(fù)的正確性。希望下一代GPT能夠在這個(gè)問題上取得突破。

8. ChatGPT能否實(shí)現(xiàn)實(shí)時(shí)信息的學(xué)習(xí)?

ChatGPT的交互修正能力使得它看起來似乎擁有了實(shí)時(shí)的自主學(xué)習(xí)能力。正如上述討論,ChatGPT可以依據(jù)用戶提供的修改意圖或者更正信息,立刻修正相關(guān)回復(fù),表現(xiàn)出實(shí)時(shí)學(xué)習(xí)的能力。實(shí)則不然,學(xué)習(xí)能力體現(xiàn)的是學(xué)到的知識(shí)是普適的,可以運(yùn)用在其他時(shí)間和其他場合,但是ChatGPT并沒有展現(xiàn)出這個(gè)能力。ChatGPT只是在當(dāng)前的對(duì)話中能夠根據(jù)用戶反饋進(jìn)行了修正,當(dāng)我們重啟一個(gè)對(duì)話,測試相同的問題時(shí),ChatGPT還會(huì)犯相同或類似的錯(cuò)誤。一個(gè)疑問是為何ChatGPT不將修改后正確的信息存儲(chǔ)到模型中呢?這里有兩方面的問題。首先,用戶反饋的信息并不一定是正確的,有時(shí)候故意引導(dǎo)ChatGPT做出不合理的回答,只是因?yàn)镃hatGPT在基于人類反饋的強(qiáng)化學(xué)習(xí)中加深了對(duì)用戶的依賴程度,所以ChatGPT在同一個(gè)對(duì)話過程中會(huì)非常相信用戶的反饋。其次,即使用戶反饋的信息是正確的,但因?yàn)榭赡艹霈F(xiàn)頻率不高,基礎(chǔ)大模型不能根據(jù)低頻數(shù)據(jù)更新參數(shù),否則大模型就會(huì)對(duì)某些長尾數(shù)據(jù)進(jìn)行過擬合從而失去通用性。所以,讓ChatGPT實(shí)時(shí)進(jìn)行學(xué)習(xí)非常困難,一種簡單直觀的方案就是每經(jīng)過一段時(shí)間就利用新的數(shù)據(jù)微調(diào)ChatGPT。或者采用觸發(fā)機(jī)制,當(dāng)多個(gè)用戶提交相同或相似反饋時(shí)觸發(fā)模型的參數(shù)更新,從而增強(qiáng)模型的動(dòng)態(tài)學(xué)習(xí)能力。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1794

    文章

    47642

    瀏覽量

    239694
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    489

    瀏覽量

    22074
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1566

    瀏覽量

    7956
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    大型語言模型的邏輯推理能力探究

    最新研究揭示,盡管大語言模型LLMs在語言理解上表現(xiàn)出色,但在邏輯推理方面仍有待提高。為此,研究者們推出了GLoRE,一個(gè)全新的邏輯推理評(píng)估基準(zhǔn),包含12個(gè)數(shù)據(jù)集,覆蓋三大任務(wù)類型。
    的頭像 發(fā)表于 11-23 15:05 ?1044次閱讀
    大型語言模型的<b class='flag-5'>邏輯推理</b><b class='flag-5'>能力</b>探究

    機(jī)器人核心技術(shù)之一的自主導(dǎo)航該如何實(shí)現(xiàn)

    人工智能和機(jī)器人領(lǐng)域著名的莫拉維克悖論表示:和傳統(tǒng)假設(shè)不同,對(duì)計(jì)算機(jī)而言,實(shí)現(xiàn)邏輯推理等人類高級(jí)智慧只需要相對(duì)很少的計(jì)算能力,而實(shí)現(xiàn)感知、運(yùn)動(dòng)等低等級(jí)智慧卻需要巨大的計(jì)算資源。
    發(fā)表于 08-20 07:31

    科技大廠競逐AIGC,中國的ChatGPT在哪?

    來看,國內(nèi)大模型開發(fā)廠商一是布局以大模型為基礎(chǔ)的通用對(duì)話、生成等能力;二是將其能力整合到搜索引擎、智能客服、智能音箱等產(chǎn)品線中;三是通過能力調(diào)用為中小企業(yè)滿足具體場景落地需求。”董曉飛說。 隨著
    發(fā)表于 03-03 14:28

    不到1分鐘開發(fā)一個(gè)GPT應(yīng)用!各路大神瘋狂整活,網(wǎng)友:ChatGPT就是新iPhone

    能力仍然是不可替代的。 此外,ChatGPT等語言模型的應(yīng)用也需要大量的數(shù)據(jù)和算力支持,以及專業(yè)的技術(shù)人員進(jìn)行開發(fā)和維護(hù)。因此,雖然ChatGPT等語言模型在某些方面具有一定的優(yōu)勢(shì),但它們并不能完全取代
    發(fā)表于 11-19 12:06

    基于邏輯推理的網(wǎng)絡(luò)攻擊想定生成系統(tǒng)

    本文研究并實(shí)現(xiàn)基于邏輯推理的網(wǎng)絡(luò)攻擊想定自動(dòng)生成系統(tǒng),用于網(wǎng)絡(luò)安全模擬演練。采用Datalog描述與安全相關(guān)的網(wǎng)絡(luò)配置信息和攻擊規(guī)則,使用XSB推理引擎構(gòu)造實(shí)現(xiàn)攻擊目的的攻
    發(fā)表于 08-11 08:27 ?20次下載

    模糊邏輯與模糊推理

    模糊邏輯與模糊推理,感興趣的小伙伴們可以瞧一瞧。
    發(fā)表于 11-18 17:59 ?2次下載

    規(guī)則半自動(dòng)學(xué)習(xí)的概率軟邏輯推理模型

    的不正確的信息可能會(huì)影響推理的正確性。為了緩解這種困境,將C5.0算法和概率軟邏輯相結(jié)合,讓數(shù)據(jù)和知識(shí)共同驅(qū)動(dòng)推理模型,提出了一種規(guī)則半自動(dòng)學(xué)習(xí)方法。該方法利用C5.0算法提取規(guī)則,再輔以人工規(guī)則和優(yōu)化調(diào)節(jié)后的規(guī)則作為改進(jìn)的概
    發(fā)表于 11-22 16:01 ?6次下載
    規(guī)則半自動(dòng)學(xué)習(xí)的概率軟<b class='flag-5'>邏輯推理</b>模型

    人工智能中的自動(dòng)邏輯推理的算法介紹

    人類常用的推理方法不能直接在人工智能中應(yīng)用從而實(shí)現(xiàn)機(jī)器的自動(dòng)推理,本文論述了自動(dòng)推理中的歸結(jié)和合一算法的規(guī)則和詳細(xì)步驟,達(dá)到使讀者容易理解和掌握這一方法的目的,使更多人了解這一方法的作用和前景。
    發(fā)表于 01-17 13:39 ?26次下載
    人工智能中的自動(dòng)<b class='flag-5'>邏輯推理</b>的算法介紹

    ChatGPT破圈之后的思考

    ChatGPT的突然爆火并非沒有緣由,相比平日我們所接觸的聊天機(jī)器人,ChatGPT一改傳統(tǒng)AI“人工智障”的固有印象,面對(duì)絕大多數(shù)問題時(shí)的回復(fù),不僅邏輯清晰、極富條理,而且還能根據(jù)上下文展現(xiàn)出極強(qiáng)的
    的頭像 發(fā)表于 03-10 11:19 ?1090次閱讀

    利用大語言模型做多模態(tài)任務(wù)

    大型語言模型LLM(Large Language Model)具有很強(qiáng)的通用知識(shí)理解以及較強(qiáng)的邏輯推理能力,但其只能處理文本數(shù)據(jù)。
    的頭像 發(fā)表于 05-10 16:53 ?1083次閱讀
    利用大語言模型做多模態(tài)任務(wù)

    GPT-4沒有推理能力嗎?

    今年三月,OpenAI 重磅發(fā)布了 GPT-4 大模型,帶來了比 ChatGPT 背后 GPT-3.5 更強(qiáng)的推理、計(jì)算、邏輯能力,也引發(fā)了全民使用的熱潮。在各行各領(lǐng)域研究人員、開發(fā)者
    的頭像 發(fā)表于 08-11 14:20 ?939次閱讀
    GPT-4沒有<b class='flag-5'>推理</b><b class='flag-5'>能力</b>嗎?

    人工智能的概念是什么

    人工智能處理的問題可以包括推理、學(xué)習(xí)、認(rèn)知、感知和行為等各個(gè)領(lǐng)域。其中,人工智能的推理能力指的是根據(jù)已知的條件,通過邏輯推理來得出結(jié)論的能力
    的頭像 發(fā)表于 08-14 14:30 ?5294次閱讀

    ChatGPT是一個(gè)好的因果推理器嗎?

    因果推理能力對(duì)于許多自然語言處理(NLP)應(yīng)用至關(guān)重要。最近的因果推理系統(tǒng)主要基于經(jīng)過微調(diào)的預(yù)訓(xùn)練語言模型(PLMs),如BERT [1] 和RoBERTa [2]。
    的頭像 發(fā)表于 01-03 09:55 ?884次閱讀
    <b class='flag-5'>ChatGPT</b>是一個(gè)好的因果<b class='flag-5'>推理</b>器嗎?

    基于歸結(jié)反演的大語言模型邏輯推斷系統(tǒng)

    邏輯符號(hào)領(lǐng)域的邏輯推理方法的啟發(fā),我們引入了一個(gè)在一階邏輯下完備的邏輯推理范式歸結(jié)反演(其推理過程不會(huì)受到條件1的約束)來提高完備性,并提
    發(fā)表于 04-28 18:00 ?425次閱讀
    基于歸結(jié)反演的大語言模型<b class='flag-5'>邏輯</b>推斷系統(tǒng)

    生成式AI推理技術(shù)、市場與未來

    (reasoning)能力,這一轉(zhuǎn)變將極大推動(dòng)上層應(yīng)用的發(fā)展。 紅杉資本近期指出,在可預(yù)見的未來,邏輯推理推理時(shí)計(jì)算將是一個(gè)重要主題,并開啟生成式AI的下一階段。新一輪競賽已然開始。 那么,在
    的頭像 發(fā)表于 01-20 11:16 ?307次閱讀
    生成式AI<b class='flag-5'>推理</b>技術(shù)、市場與未來
    主站蜘蛛池模板: 夜夜澡人人爽人人喊_欧美 夜夜骑夜夜欢 | 91精品视频网站 | 色综合久久综合网观看 | 无码国产色欲XXXX视频 | 国产AV精品久久久毛片 | 老太婆风流特黄一级 | 亚洲色偷偷偷网站色偷一区人人藻 | 被黑人掹躁10次高潮 | 5G在线观看免费年龄确认 | 2018三级网站免费观看 | 在线观看插女生免费版 | 精品国产原创在线观看视频 | china年轻小帅脸直播飞机 | 入禽太深在线观看免费高清 | 伊人久久亚洲精品一区 | 最新无码国产在线视频9299 | 无码人妻视频又大又粗欧美 | 奇米狠狠干 | 美女也烦恼主题曲 | 高清撒尿hdtube撒尿 | 香蕉59tv视频 | 国产午夜免费视频片夜色 | 一本久道视频无线视频 | 亚洲AV日韩AV欧美在线观看网 | 中文字幕乱码一区久久麻豆樱花 | 久久精品一本到99热 | 日韩少妇爆乳无码专区 | 亚洲成人免费在线观看 | 尹人久久大香找蕉综合影院 | 强上轮流内射高NP男男 | 人性本色联盟 | 国内精品七七久久影院 | 国产精品色欲AV亚洲三区软件 | 国产在线观看www | 99精产国品一二产区在线 | 欧美人与禽zoz0性伦交app | 国家产午夜精品无人区 | 国产亚洲美女精品久久久2020 | 国产性色AV内射白浆肛交后入 | 国产色婷亚洲99精品AV在 | 国产一级毛片在线 |