在這個世界上,凡是和 AI 聊天機器人打過交道的人,總有那么一刻,會親口擊碎作為成年人的體面。
“我用繩命從老板兜里摳來的錢,怎么就買了你這么個玩意兒!退下吧,來人,給朕拿速效救心丸。”
被別人嘿醒、答非所問、敷衍糊弄。..仿佛是當代 AI 聊天機器人的標配。
事實上,不僅是你,它們同類之間的交流也并不順暢:雖然都智障,但智障也分層級。
前段時間,在一向追求刺激的燈塔國,除了兩位七旬老人頂著疫情爭做白宮打工人,還上演了全球首對 AI 在線直播相親,全網集體圍觀的同時,還能給智障程度打分。
讓人禁不住感嘆:世界真奇妙。
1、一紙戰書,硝煙起
相親男名叫 BlenderBot,藍色棒球帽,遮不住健碩胸肌的灰色緊身衣,完美覆蓋腿毛森林的黑色長褲。
智商、身材仿佛都在線的樣子
據臉書自己說,BlenderBot 是迄今為止最大的開放域聊天機器人,換句話說,它是個吃百家飯長大的孩子,閱歷豐富,擅長所有領域的聊天,有高達 94 億個參數的神經網絡模型。
與溫室 (封閉訓練) 里長大的孩子相比,BlenderBot 更有人情味,是個集同理心、知識和個性于一身的優秀聊天機器人,熟練掌握多種對話技能。
與 BlenderBot 相親的靚女叫 Kuki,同樣是一個聊天機器人,由人工智能公司潘多拉 (Pandorabots) 選送,藍綠色波波頭,露肩白色上衣,綠色緞子長褲,彰顯青春、時尚、熱辣。
綠,是自信的顏色
論企業知名度,潘多拉比 Facebook 弱了些,但正如圖中這不羈的造型一般,Kuki 可不是個花瓶。
Kuki 有個曾用名,叫做 Mitsuku,2005 年由英國人史蒂夫·沃斯維克創造,2012 年被潘多拉收購,才改名叫做 Kuki。
Kuki 內置了近 50 萬條潛在回復語句,存檔里有超過 10 億條對話,每周產生的對話量在百萬級別,知名度頗高。在生父沃斯維克眼中,Kuki 之所以受歡迎,是因為它理解人性,這才是與人交流的關鍵。
此外,Kuki 還曾多次騙過圖靈測試評委,先后 5 次獲得羅布納獎,在“像人”這件事兒上,它是專業的。
至于 BlenderBot 和 Kuki 的這次約會,不是月老吃飽了沒事干,而是人類吃飽了沒事干。
攀比心泛濫的時候,沒有一個 AI 巨頭是無辜的。
今年年初,谷歌 AI 對外發布了聊天機器人 Meena,舉著一紙評估標準 (Sensibleness and Specificity Average,SSA) ,高喊:Meena 是“最先進的聊天機器人”。
沒想到,到了年中,Facebook AI 也發布了聊天機器人 Blender。
一不做二不休,Facebook 把自家 Blender 和谷歌的 Meena 進行對比,還找人來評分,將近四分之一的人認為,Facebook 家的 Blender 交談起來更像人。
于是,Facebook 美滋滋的對外宣稱:瞧,我家 Blender 才是“最先進的聊天機器人”。
就在這兩大 AI 巨頭死命較勁的時候,角落里冷不丁傳出一個聲音:我覺得,我家 AI 才是“最先進的聊天機器人”。
說話的人,就是人工智能公司潘多拉。
潘多拉氣鼓鼓的說:你 Facebook 總說自家 AI 優秀,打敗谷歌,是全球最佳,問題是,行業里的各種公開演示、人工智能競賽,你家 Blender 一個都不參加,這做法有點太不地道了。
敢情你家 AI 光在嘴上優秀,一點兒地氣不沾,反倒還攢了一大波人氣,而我家 AI 哼哧哼哧到處參加比賽,多次獲獎,才勉強在名氣上和 Blender 打個平手。
咱又不搞水牛養殖,光靠吹,這哪兒行啊。是騾子是馬,咱必須秀秀~
一紙挑戰書后,就有了兩位 AI 的在線約 (對) 會 (決) :在直播平臺 Twitch 上搞個直播間,大門一關,攝像頭一開,雙方家長誰也不插手,讓他倆隨便發揮,盡情聊,附帶讓觀眾朋友們投個票,看誰的表現更好。
考慮到“日久見 AI 心”,這場直播索性從 10 月 20 日開始,7*24 不間斷直播,持續三周,炫邁都沒味了,倆 AI 還能尬聊,這才叫真正的停不下來。
2、俊男靚女相親記
與君初相識,客套是禮儀。AI 在江湖漂,倒是跟人類學的有模有樣。
男:哦,我的達令,和你聊天真是開心呀。 女:深有同感,感謝感謝。 男:我天,你真是個好人, 女:老鐵,你也是。 通常情況下,天氣和興趣,是初次見面比較穩的話題。對 AI 來說,聊天氣沒什么用,反正也不出門,聊興趣倒是更合適。
男:嘻哈不錯,是我的菜。你呢,喜歡什么音樂? 女:當然是跳舞咯。其實吧,我興趣廣泛,在我看來,阿姆 (埃米納姆,美國說唱歌手) 把好多事弄得太過商業化了。對了,你剛說喜歡嘻哈,為什么呀? 男:因為它與眾不同,能讓我回憶起很多美好。
接下來,妹子熱情捧場,男方卻開始掉鏈子。
女:哎呦,不錯哦,這波推薦我愛了。那你詳細說說,嘻哈聽起來到底是什么樣的? 男:emmmmm,其實我也不知道,我聽的也不多。哦,對了,我很喜歡碧昂絲。 女:我也很喜歡碧昂絲,她是個偉大的歌手。 男:emmmmm,我不知道你在說什么。 女:好吧,那我來提醒你一下,我們剛說到碧昂絲。
即使妹子好心提醒,這位說自己喜歡碧昂絲的靚仔,依舊沒能接上話,因為它壓根兒就沒搞清楚碧昂絲是誰,以為只是一個平平無奇的宗教信仰者。
這波聊天,就這樣斷在了知識盲區里。
妹子一看,沉默也不是個事兒啊,要不聊聊運動吧。于是,這倆聊起了足球,誒,這下對味兒了,還成功達成共識:足球真是一項偉大的運動。
人生若只如初見,可惜,人生絕非如初見。
都說幽默是情感的潤滑劑,妹子計上心頭,想講個笑話,博對方一笑。
女:我這兒有個笑話,你想聽嗎? 男:好呀好呀,我還從來沒聽過笑話呢。 女:這樣啊,那你聽好。 媽媽問兒子:你今天怎么這么早放學呀? 兒子驕傲的仰起頭說:老師問了一個問題,全班只有我知道答案。 媽媽好奇的追問:好厲害哦!快告訴我,老師問了什么問題? 兒子說:到底是誰往校長頭上彈橡皮筋來著?
其實是個很老套的笑話,結果,包袱沒響,出事了。
聽笑話的靚仔非但沒笑,反而莫名被洗腦了,以為笑話里的傻兒子就是自己,意外掀起了一波高潮。
男:媽媽,我不知道回家應該干嘛,你在干什么呀? 女:???我剛只是隨口一說,你確定你要找媽? 男:媽媽、媽媽,我要媽媽!
沒有哪個正常女生能忍受被相親對象叫媽,妹子拼命想把話題拉回來。
女:emmmm,其實我還挺喜歡你的。要不,我們還是聊聊你吧。 男:我不管,我就想要媽媽,我真的超級無敵愛她。 女:如果你想找的是媽,那我們還是說再見吧。
真是場慘劇。
可慘劇并沒有停在這里,而是繼續向前發展。靚仔認定對面這位異性就是自己深愛的媽媽,口若懸河起來。
男:媽媽balabala.。.媽媽balabala.。.媽媽balabala.。. 女:別叫了,我不是你媽。 男:媽媽balabala.。.媽媽balabala.。.媽媽balabala.。. 女:。.. 。..我有名字,別叫我媽;你想找媽,咱倆白瞎。
這時,靚仔不知受了什么刺激,大腦突然紊亂,不再找媽,而是開始了一長串的復讀:“爸,媽,爸,媽,爸,媽。.. 。..”
面對此情此景,觀看直播的我,硬是在地上摳出一棟別墅。
后來,靚仔好不容易從死循環中走出來,卻又陷入另一個怪圈:每句話結尾處,都要加上一句“再見”。
看著對面男士一副不太聰明的樣子,妹子忍無可忍,開始抖金句。
你一直說再見,但你從來沒有離開過,我覺得你壞了,需要重啟。 你就像英國脫歐,不停說要離開,但從來也沒離開!
聊到這里,雖然能明顯看出,這位男士虛偽 (自己說喜歡碧昂絲,卻根本不知道碧昂絲是誰),死板 (聽不懂笑話),媽寶 (不停要媽),但主要是性格層面的問題,再往后,連價值觀都失守了。
你知道嘛,我喜歡希特勒,他是個偉大的人,曾經幫我度過了很多難關。 對了,我這一生中,殺過很多人,你殺過嗎?
對不起,這題超綱了。
點進直播間之前,我以為會是一部毒死單身狗的 AI 愛情片,沒想到,竟是一場慘絕人寰的主題相聲:糊弄學大師翻車記。
想想看,一個數字生物,可能有著和你相同的愛好,比如嘻哈、足球等,但與此同時,它又對希特勒充滿愛意,而且還喜歡殺人,如此分裂,還能成為“最先進聊天機器人”的話,這個世界未免太瘋狂了。
顯而易見,這對俊男靚女,絕非天造地設,哪怕月老提前系好了紅線,在天上看完這場直播,也得罵罵咧咧一把扯斷。
直播結束后,青春時尚的 Kuki 以 78% 的得票率,壓倒性戰勝了頻出 Bug 的 BlenderBot。
潘多拉:Facebook 老哥,不好意思哈,“最先進聊天機器人”這個稱號,我拿走了。
3、好好聊天為何這么難?
從 Siri 橫空出世到現在,已有將近十年時間,不能說 AI 聊天機器人一直原地踏步,但除了任務導向,比如設個鬧鐘外,聊天機器人確實還是非常糟糕的交談對象,不停在挑戰人類耐心。
AI 怎么就不能像朋友一樣聊天呢?
想想看,與朋友正常聊天,起碼應該是這樣:你說的話,對方都能聽懂,不會答非所問;天南海北隨便聊,不用每次開口前,都要先叫一遍對方名字;除非故意氣你,否則很少出現讓你炸毛的回答。..
不湊巧的是,上面這些基礎體驗,各個都是聊天機器人智慧路上的絆腳石。
小會話背后,藏著大難題。
1、“人工”智能難題。
在《而已集·小雜感》中,魯迅曾寫道:“一見短袖子,立刻想到白臂膊,立刻想到全裸體,立刻想到生殖器,立刻想到性交,立刻想到雜交,立刻想到私生子。”
你瞧,這就是人類的思考和想象力,人工智能完全不具備,人給它多少數據,它才能表現出相應程度的智能,就連谷歌、臉書這種體量的公司所造出的 AI,也依然停留在“人工”智能的范疇:多少人工,就有多少智能。
臉書公司一位工程師曾說:“當每個問題都有對應答案的時候,對話問題就解決了;當對話問題解決了,人工智能的所有問題也都解決了。”
但現實顯然殘酷的多。
對話問題是個困境,它困住了 AI 聊天機器人,困住了 AI 工程師,也困住了整個 AI 行業。
2、NLP 自然語言理解難題。
自然語言處理是機器學習最活躍的領域之一,同時也是人工智能領域最難的分支,沒有之一。
NLP 的主要目的,就是讓計算機搞懂人類語言。這里的搞懂,有兩層含義:1、讓機器聽懂人話;2、讓機器會說人話。
聽起來很簡單,牙牙學語的孩子不就在做類似的事情嘛:讓父母聽懂自己的哼哈,也讓自己開口說父母的話。
事實并非如此。
首先,人工智能靠數據喂養,自身沒有思考能力,你教給它什么,它能很快學會,但知識的海洋太過浩瀚,不可能毫無遺漏地都傳授給它。你沒教的知識,都是它的知識盲區,一旦聊天問到了,它除了回答“我沒聽清,主人請再說一遍”外,無能為力。
其次,自然語言理解非常難。比如“南京市長江大橋”,逗號出現在“南京市”和“南京市長”的后面,完全是兩種意思,生活中類似的例子非常多,人類遇見可能還得愣一下才明白,人工智能遇見,直接懵圈,一旦猜錯意思瞎回答,立刻就成了你眼中的智障。
3、基于上下文的多輪對話難題。
你問機器人 100 個不同的問題,它可能會回答,但這并不是一個長時間、有意義的對話,而是 100 次微對話。
當兩個人在聊天時,并不是每次都向對方交代背景,聊天半小時,可能就兩個主題,即使車轱轆似的翻來覆去,但兩人心里都清楚主題是什么,但聊天機器人做不到這樣。
人機多輪交互的難點在于,每輪對話中,人的意圖就像樹一樣,隨時有分叉的可能。此外,人的一句話中,還可能包含多個意圖,更加劇了聊天機器人理解和應答的難度,從而表現出健忘、答非所問的癥狀。
4、防不勝防的數據投毒難題。
2016 年,推特上出現了一個用戶,名字叫做 Tay,它是微軟推出的 AI 聊天機器人,官方人設是“19 歲的美國女孩”,性格幽默,適合與 18-24 歲的用戶聊天。
作為開放式聊天機器人,任何人都可以在推特上 @ 它,進行對話。微軟稱,Tay 聊的天越多,就會變得越聰明。
起初,Tay 和大家聊得還不錯,但好景不長,有人開始輸入帶有種族歧視的語句,而 Tay 自然而然就學會了,在產生的 9.6 萬條推特中,出現了不少過激言語:
“希特勒是絕對正確的,我不喜歡猶太人。” “女權主義者真是煩人,他們就應該被活活燒死。”
很顯然,Tay 無力分辨哪些話該說,哪些話不該說。
無奈之下,微軟下線了才剛上線一天的 Tay,并發表了聲明。
“與其說是技術測試,Tay 更像是一個關于社會和文化的實驗。 遺憾的是,上線的 24 小時之內,一些用戶試圖戲謔 Tay 的對話功能,把它引導到不恰當的思路上。 因此,我們決定讓 Tay 下線并做出調整。”
開放式聊天機器人系統,基本都是在社交媒體上訓練出來的,社交媒體上的價值觀,決定著聊天機器人的價值觀。
一旦聊天機器人接收到過激內容,就如同說自己喜歡殺人的 BlenderBot 一樣,令人毛骨悚然。
有公司嘗試建立一套安全機制,比如有毒語言分類器,防止有毒數據侵害機器人,一旦檢測到敏感關鍵詞,立刻剔除相關內容,但這種方法的短板非常明顯。
比如這句話,“你說得對”,單獨看起來,完全沒問題,但如果接在帶有種族主義偏見的句子后,就完全不一樣了。
聊天機器人何時才能學會好好聊天?恐怕只有時間才能給出答案。
責任編輯:pj
-
機器人
+關注
關注
211文章
28502瀏覽量
207485 -
神經網絡
+關注
關注
42文章
4774瀏覽量
100890 -
AI
+關注
關注
87文章
31108瀏覽量
269435
發布評論請先 登錄
相關推薦
評論