在本文中,我們探索了一種簡(jiǎn)單的方法,為每個(gè)方面自動(dòng)生成離散意見(jiàn)樹(shù)結(jié)構(gòu)。用到了RL。
首先為每個(gè)方面生成離散意見(jiàn)樹(shù),設(shè)方面詞的位置為[b,e],則首先將方面跨度[b, e]作為根節(jié)點(diǎn),然后分別從跨度[1,b?1]和[e+1, n]構(gòu)建它的左子節(jié)點(diǎn)和右子節(jié)點(diǎn)。為了構(gòu)建左子樹(shù)或右子樹(shù),我們首先選擇span中「得分最大的元素」作為子樹(shù)的根節(jié)點(diǎn),然后遞歸地對(duì)相應(yīng)的span分區(qū)使用build_tree調(diào)用。(除了方面詞外其他node都是單個(gè)詞)。
關(guān)于得分分?jǐn)?shù)的計(jì)算,選擇將""作為BERT的輸入得到特殊于方面詞的句子表達(dá)H,然后按照如下計(jì)算得分:
其中h是H中方面詞部分的平均池化,構(gòu)建樹(shù)的這部分包含的參數(shù)有三個(gè)以及BERT參數(shù)部分。
構(gòu)建樹(shù)的這一部分稱為,輸入為x和a(用于打分),輸出為一棵樹(shù),參數(shù) ? 包括上述參數(shù)。這一部分參數(shù)使用RL進(jìn)行更新而不是最終損失函數(shù)的反向傳播。
生成樹(shù)以后開(kāi)始正式執(zhí)行預(yù)測(cè)任務(wù),模型非常簡(jiǎn)單。
將上面得到的樹(shù)生成鄰接矩陣,經(jīng)過(guò)GCN(可能多層),取最后一層GCN的輸出結(jié)果的方面詞部分以及[CLS]這個(gè)token的表達(dá)之和作為query,與GCN的輸入的初始向量特征(也就是原句子經(jīng)過(guò)句子編碼器得到的)做注意力機(jī)制,用輸入去表達(dá)最終的方面級(jí)分類特征。
最后輸出分類結(jié)果
損失函數(shù):
注意這個(gè)論文分為兩個(gè)模塊,第一個(gè)是生成樹(shù),利用得到t;第二部分是預(yù)測(cè), ,這里的 θ 包括GCN模塊的參數(shù)和輸出(等式5)的部分,PS注意力模塊沒(méi)有引進(jìn)參數(shù)哦。
第二部分使用上述損失函數(shù)進(jìn)行優(yōu)化,由于樹(shù)的采樣過(guò)程是一個(gè)離散的決策過(guò)程,因此它是不可微的,第一部分使用的是RL進(jìn)行優(yōu)化。
強(qiáng)化學(xué)習(xí)實(shí)現(xiàn)訓(xùn)練部分還沒(méi)看。
實(shí)驗(yàn)效果和分析
MAMS 開(kāi)發(fā)集效果
在MAMS數(shù)據(jù)上和多語(yǔ)言評(píng)論數(shù)據(jù)的結(jié)果
SemEval數(shù)據(jù)集上的效果
和span-based RL作對(duì)比
圖3a和圖3b分別顯示了方面術(shù)語(yǔ)“scallops”的induced tree和dependency parse:
圖4a和圖4b顯示了兩個(gè)情緒極性不同的方面術(shù)語(yǔ)的induced tree:
aspect 和 opinion word的距離分析:
基于MAMS的測(cè)試集分類精度與訓(xùn)練集中各方面頻率的關(guān)系:
審核編輯:郭婷
-
編碼器
+關(guān)注
關(guān)注
45文章
3664瀏覽量
135078
原文標(biāo)題:ACL'22 | 西湖大學(xué)提出:面向Aspect情感分析的離散意見(jiàn)樹(shù)歸納方法
文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論