情感分析是指根據(jù)文本數(shù)據(jù)(例如書面評(píng)論和社交媒體帖子)自動(dòng)解釋和分類情感(通常是積極、消極或中立)的分析過(guò)程。
什么是情感分析?
情感分析是一個(gè)自然語(yǔ)言處理 (NLP) 的分支,它使用機(jī)器學(xué)習(xí)來(lái)分析和分類文本數(shù)據(jù)的情感基調(diào)。基本模型主要專注于積極、消極和中立的分類,但也可能包含發(fā)言者的潛在情感(愉悅、生氣、侮辱等)以及購(gòu)買意圖。
上下文會(huì)增加情感分析的復(fù)雜性。例如,感嘆句“沒(méi)什么!” 取決于發(fā)言者對(duì)產(chǎn)品是否喜歡所做出的評(píng)價(jià),其含義可能截然不同。為了理解“我喜歡它”這個(gè)短語(yǔ),機(jī)器必須能夠理清上下文,并理解“它”指的是什么。諷刺和挖苦也具有挑戰(zhàn)性,因?yàn)榘l(fā)言者可能會(huì)說(shuō)一些積極的內(nèi)容,但其表達(dá)的是相反的意思。
情感分析有多種類型。基于層面的情感分析將深入一個(gè)層次,以確定哪些特定特征或?qū)用嬲诋a(chǎn)生積極、中立或消極的情感。企業(yè)可以使用這種見(jiàn)解來(lái)找出產(chǎn)品中的缺點(diǎn),或反之,找出產(chǎn)品中產(chǎn)生意外熱情的特征。情感分析是一種變體,可試圖確定演講者圍繞主題的情感強(qiáng)度。意圖分析決定采取行動(dòng)的可能性。
為什么要使用情感分析?
企業(yè)可以使用來(lái)自情感分析的見(jiàn)解來(lái)改進(jìn)其產(chǎn)品、調(diào)優(yōu)營(yíng)銷消息、糾正誤解并確定積極的影響因素。
社交媒體革新了人們對(duì)于產(chǎn)品和服務(wù)的決策方式。在旅游、酒店和消費(fèi)電子產(chǎn)品等市場(chǎng)中,現(xiàn)在人們通常認(rèn)為客戶評(píng)價(jià)至少與專業(yè)評(píng)論家的評(píng)估同樣重要。TripAdvisor、Google 和 Yelp 上的 Amazon 評(píng)分和評(píng)價(jià)等來(lái)源可以切實(shí)決定產(chǎn)品的成敗。博客、Twitter、Facebook 和 Instagram 等低結(jié)構(gòu)性的渠道還可提供有關(guān)客戶情感的有用見(jiàn)解,以及激發(fā)贊譽(yù)或譴責(zé)的產(chǎn)品特征和服務(wù)的反饋。
手動(dòng)分析客戶或潛在客戶所生成的大量文本非常耗時(shí)。社交媒體、電子郵件、支持票證、聊天、產(chǎn)品評(píng)價(jià)和推薦的情感分析已成為幾乎所有垂直行業(yè)中的重要資源。它非常有助于幫助企業(yè)獲取見(jiàn)解、了解客戶、預(yù)測(cè)和增強(qiáng)客戶體驗(yàn)、定制營(yíng)銷活動(dòng),以及幫助決策制定。
情感分析用例
情感分析的示例用例包括以下內(nèi)容:
產(chǎn)品設(shè)計(jì)師可使用情感分析,來(lái)確定哪些特征會(huì)與客戶產(chǎn)生共鳴,因此這些功能值得額外投資和關(guān)注。反之,他們也可以了解產(chǎn)品或特征何時(shí)下降,并對(duì)其進(jìn)行調(diào)整以防止庫(kù)存進(jìn)入折扣店。
營(yíng)銷組織在很大程度上依靠情感分析來(lái)調(diào)優(yōu)消息、發(fā)現(xiàn)在線影響因素,以及構(gòu)建積極的口碑。
零售組織挖掘情感以確定可能銷售良好的產(chǎn)品,并相應(yīng)地調(diào)整其庫(kù)存和促銷活動(dòng)。
投資者可以識(shí)別在線對(duì)話中出現(xiàn)的新趨勢(shì),這些趨勢(shì)可能預(yù)示著市場(chǎng)機(jī)遇。
政客可使用它對(duì)選民就重要問(wèn)題的態(tài)度進(jìn)行抽樣。
情感分析的工作原理
機(jī)器學(xué)習(xí)特征工程
特征工程是將原始數(shù)據(jù)轉(zhuǎn)換為機(jī)器學(xué)習(xí)算法輸入的過(guò)程。為了在機(jī)器學(xué)習(xí)算法中應(yīng)用該過(guò)程,必須將特征輸入到特征向量中,而特征向量是代表每個(gè)特征值的數(shù)字向量。情感分析需要將文本數(shù)據(jù)輸入到詞向量中,這些詞向量是代表每個(gè)單詞值的數(shù)字向量。可以使用計(jì)數(shù)技術(shù)(如 Bag of Words (BoW)、bag-of-ngrams 或 Term Frequency/Inverse Document Frequency (TF-IDF))將輸入文本編碼為詞向量。
使用監(jiān)督式機(jī)器學(xué)習(xí)進(jìn)行情感分類。
將輸入文本轉(zhuǎn)換為詞向量后,分類機(jī)器學(xué)習(xí)算法可用于情感分類。分類是一系列監(jiān)督式機(jī)器學(xué)習(xí)算法,基于已標(biāo)記的數(shù)據(jù)(例如標(biāo)記為積極或消極的文本)來(lái)識(shí)別物品所屬的類別(例如文本是消極還是積極)。
以下分類機(jī)器學(xué)習(xí)算法可用于情感分析:
Na?ve Bayes 是一系列概率算法,用于確定輸入數(shù)據(jù)類別的條件概率。
支持向量機(jī)在 N 維空間(N 為特征數(shù))中查找對(duì)數(shù)據(jù)點(diǎn)進(jìn)行明顯分類的超平面。
邏輯回歸使用邏輯函數(shù)對(duì)特定類別的概率進(jìn)行建模。
使用深度學(xué)習(xí)進(jìn)行情感分析
深度學(xué)習(xí) (DL) 是機(jī)器學(xué)習(xí) (ML) 的一個(gè)分支,其使用多層人工神經(jīng)網(wǎng)絡(luò)精準(zhǔn)完成 NLP 和其他任務(wù)。DL 詞嵌入技術(shù)(例如 Word2Vec)通過(guò)學(xué)習(xí)詞關(guān)聯(lián)、含義、語(yǔ)義和語(yǔ)法,以有意義地對(duì)詞進(jìn)行編碼。DL 算法還支持 NLP 模型的端到端訓(xùn)練,而無(wú)需手動(dòng)從原始輸入數(shù)據(jù)中設(shè)計(jì)特征。
深度學(xué)習(xí)算法有許多不同的變體。時(shí)間遞歸神經(jīng)網(wǎng)絡(luò)是解析語(yǔ)言模式和序列數(shù)據(jù)的數(shù)學(xué)工具。這些自然語(yǔ)言處理大腦,可為 Amazon Alexa 提供聽(tīng)力和語(yǔ)音,也可用于語(yǔ)言翻譯、股票預(yù)測(cè)和算法交易。Transformer 深度學(xué)習(xí)模型,如 BERT (Bidirectional Encoder Representations from Transformers),是時(shí)間遞歸神經(jīng)網(wǎng)絡(luò)的一個(gè)替代方案,它應(yīng)用了一種注意力技術(shù) – 通過(guò)將注意力集中在前后最相關(guān)的詞上來(lái)解析一個(gè)句子。BERT 通過(guò)在意圖識(shí)別、情感分析等基準(zhǔn)上提供與人類基準(zhǔn)相媲美的準(zhǔn)確性,徹底改變了 NLP 的進(jìn)展。它具有深度雙向的優(yōu)勢(shì),相比于其他文本編碼機(jī)制,它能夠更好地理解和保留上下文。訓(xùn)練語(yǔ)言模型時(shí),遭遇的一個(gè)關(guān)鍵挑戰(zhàn)是缺少標(biāo)記數(shù)據(jù)。BERT 在無(wú)監(jiān)督任務(wù)上接受訓(xùn)練,通常使用書籍語(yǔ)料庫(kù)、英語(yǔ)維基百科等的非結(jié)構(gòu)化數(shù)據(jù)集。
GPU:加速 NLP 和情感分析
自然語(yǔ)言處理中近年來(lái)不斷取得的進(jìn)步和突破是驅(qū)動(dòng) NLP 增長(zhǎng)的一個(gè)因素,其中重要的是部署 GPU 來(lái)處理日漸龐大且高度復(fù)雜的語(yǔ)言模型。
一個(gè)由數(shù)百個(gè)核心組成的 GPU,可以并行處理數(shù)千個(gè)線程。GPU 已成為訓(xùn)練 ML 和 DL 模型及執(zhí)行推理的首選平臺(tái),因?yàn)樗鼈兊男阅鼙燃?CPU 平臺(tái)高 10 倍。
先進(jìn)的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)可能有數(shù)百萬(wàn)乃至十億以上的參數(shù)需要通過(guò)反向傳播進(jìn)行調(diào)整。此外,它們需要大量的訓(xùn)練數(shù)據(jù)才能實(shí)現(xiàn)較高的準(zhǔn)確度,這意味著成千上萬(wàn)乃至數(shù)百萬(wàn)的輸入樣本必須同時(shí)進(jìn)行向前和向后傳輸。由于神經(jīng)網(wǎng)絡(luò)由大量相同的神經(jīng)元構(gòu)建而成,因此本質(zhì)上具有高度并行性。這種并行性會(huì)自然映射到 GPU,因此相比僅依賴 CPU 的訓(xùn)練,計(jì)算速度會(huì)大幅提高。因此,GPU 已成為訓(xùn)練基于神經(jīng)網(wǎng)絡(luò)的大型復(fù)雜系統(tǒng)的首選平臺(tái),推理運(yùn)算的并行性質(zhì)也有助于在 GPU 上執(zhí)行。此外,像 BERT 這樣基于 Transformer 的深度學(xué)習(xí)模型不需要按順序處理連續(xù)數(shù)據(jù),與 RNN 相比,可以在 GPU 上實(shí)現(xiàn)更多的并行化,并減少訓(xùn)練時(shí)間。
NVIDIA GPU 加速 AI 庫(kù)
借助 NVIDIA GPU 和 CUDA-X AI 庫(kù),可快速訓(xùn)練和優(yōu)化大量的先進(jìn)語(yǔ)言模型,從而在幾毫秒或幾千分之一秒內(nèi)運(yùn)行推理。這是一項(xiàng)重大進(jìn)步,可以結(jié)束快速 AI 模型與大型復(fù)雜 AI 模型之間的權(quán)衡。在與復(fù)雜語(yǔ)言模型協(xié)作時(shí),NVIDIA GPU 的并行處理能力和 Tensor Core 架構(gòu)可實(shí)現(xiàn)更高的吞吐量和可擴(kuò)展性,從而為 BERT 的訓(xùn)練和推理提供優(yōu)異的性能。
NVIDIA GPU 加速的端到端數(shù)據(jù)科學(xué)
基于 CUDA-X AI 構(gòu)建的 NVIDIA RAPIDS 軟件庫(kù)套件使您能夠自由地在 GPU 上執(zhí)行端到端數(shù)據(jù)科學(xué)和分析流程。此套件依靠 NVIDIA CUDA 基元進(jìn)行低級(jí)別計(jì)算優(yōu)化,但通過(guò)用戶友好型 Python 接口能夠?qū)崿F(xiàn) GPU 并行化和高帶寬顯存速度。
NVIDIA GPU 加速的深度學(xué)習(xí)框架
GPU 加速 DL 框架為設(shè)計(jì)和訓(xùn)練自定義深度神經(jīng)網(wǎng)絡(luò)帶來(lái)靈活性,并為 Python 和 C/C++ 等常用編程語(yǔ)言提供編程接口。MXNet、PyTorch、TensorFlow 等廣泛使用的深度學(xué)習(xí)框架依賴于 NVIDIA GPU 加速庫(kù),能夠提供高性能的多 GPU 加速訓(xùn)練。
后續(xù)步驟
NVIDIA 提供經(jīng)過(guò)優(yōu)化的軟件堆棧,可加速深度學(xué)習(xí)工作流程的訓(xùn)練和推理階段。如需詳細(xì)了解相關(guān)信息,請(qǐng)?jiān)L問(wèn) NVIDIA 深度學(xué)習(xí)主頁(yè)。
開(kāi)發(fā)者、研究人員和數(shù)據(jù)科學(xué)家可以通過(guò)深度學(xué)習(xí)示例輕松訪問(wèn) NVIDIA 優(yōu)化深度學(xué)習(xí)框架容器化,這些示例針對(duì) NVIDIA GPU 進(jìn)行了性能調(diào)整和測(cè)試。這能夠消除對(duì)軟件包和依賴項(xiàng)的管理需要,或根據(jù)源頭構(gòu)建深度學(xué)習(xí)框架的需要。請(qǐng)?jiān)L問(wèn) NVIDIA NGC 了解詳情并開(kāi)始使用。
NVIDIA Volta 和 Turing GPU 上的 Tensor Core 專門為深度學(xué)習(xí)而設(shè)計(jì),能夠顯著提高訓(xùn)練和推理性能。了解有關(guān)獲取參考實(shí)現(xiàn)的更多內(nèi)容。
NVIDIA 深度學(xué)習(xí)培訓(xùn)中心 (DLI) 能夠?yàn)殚_(kāi)發(fā)者、數(shù)據(jù)科學(xué)家和研究人員提供有關(guān) AI 和加速計(jì)算的實(shí)戰(zhàn)培訓(xùn)。
原文標(biāo)題:NVIDIA 大講堂 “520” 特別篇 | 什么是情感分析?(互動(dòng)有獎(jiǎng))
文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
審核編輯:湯梓紅
-
NVIDIA
+關(guān)注
關(guān)注
14文章
5075瀏覽量
103540 -
情感分析
+關(guān)注
關(guān)注
0文章
14瀏覽量
5247 -
自然語(yǔ)言處理
+關(guān)注
關(guān)注
1文章
619瀏覽量
13616
原文標(biāo)題:NVIDIA 大講堂 “520” 特別篇 | 什么是情感分析?(互動(dòng)有獎(jiǎng))
文章出處:【微信號(hào):NVIDIA_China,微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論