老話說“眼見為實”,這句話放在幾年之前或許還有些可信度,那個時候我們在照片和視頻中看到的內容可以說是真實的。即使Photoshopping圖像流行開來,我們仍然相信P過的圖片也總有個原圖。
然而,現在隨著人工智能的進步,世界變得越來越虛化,你甚至不能確定你所看到或聽到的是真實的,還是人工智能和機器創造的。在許多情況下,這項技術用得很好,但既然它存在,它也可以用來欺騙。
人工智能創造了一個假世界 - 這對人類意味著什么?
“智能虛構”的迷思
其實,如果觀眾能夠足夠了解,就會接受人工智能的“虛構”。多年來,為了我們能夠能快樂地享受娛樂品,我們已經開始接受電影和電視屏幕上對現實生活的表現。不過現在,好萊塢已經連寫劇本都要獲得AI協助。
adobe公司正嘗試用機器模仿聲音,可創建一份30分鐘的合成音頻(洛杉磯時報2019年4月13日)
隨著機器學習的發展,算法可以對大量數據進行分類分析,以了解哪些元素更有可能使電影獲獎,商業成功或更受觀眾歡迎。這是人工智能幫助人們去做一些“創造性活動”的另一個例子,(甚至他們可以自己做,根本用不到人類)
合成的聲音
現在只需要將音頻放入機器算法之中,它就能模擬出這個人的聲音,從而模糊真假之間的界限。這在某些情況下肯定會有所幫助,例如修復電影中的即時聲音采集,而不用讓演員回到現場重新錄制,但濫用的機會也是可能的,并且很容易想象。
AI拯救渣畫質
智能內容
個性化或智能內容的出現是把雙刃劍,其他人工智能程序也一樣,它們應該對用戶透明,否則就不是“科技引領生活”而成了“科技誤導生活”。這里說的智能內容是指內容本身根據訂閱者的用戶畫像而自覺進行的內容變化,并且正在通過Netflix和TikTok(一種短視頻應用)進行測試。我們習慣于我們的搜索和推薦引擎根據我們自身特點向我們推送“更適合”的信息,智能內容會允許每個用戶獲得不同的體驗。
就在我還在看這篇文章的時候,網站就會給我推送“You may also like”
Deepfake專業”槍手“
GPT2是OpenAI(一個由埃隆·馬斯克投資的非營利性研究組織)開發的一個人工智能模型。它可以根據你輸入進去的數據的語言特點來生成文字內容,不論這是發在朋友圈的、還是寫進科幻小說里的、還是其他任何一種語境。該小組沒有公開發布其研究報告,因為現實是很可怕的,他們害怕技術被濫用。
不再可信的照片
為了提高對人工智能技術的認識,Phillip Wang創建了網站“這個人不存在。”網站上代表的每一個人臉看起來都像一個真人,但它們都是人工智能生成的。另一個類似的網站,Whichfaceisreal.com,它的創建也是為了提高人們對這種技術的能力的認識,要欺騙人們簡直太輕松了。兩個站點都旨在反映NVIDIA公司的軟件工程師所開發的技術有多么的強大。他們使用了“通用對抗網絡”(General Adversarial Network),這種技術就是說,兩個神經網絡在創建人工圖像時反復競爭,通過計算機強大的高效的計算能力不斷地去“糾正對方”,最終兩者之間的和解就是問題的“最優解”。盡管在某些人臉中有一些細節能讓他們暴露,但很多情況下都可以以假亂真。
假視頻的危險性
乍一看,人工智能的能力創造逼真的聲音,圖像和視頻,如此逼真,令人興奮,令人捧腹、令人難以置信。但在深入了解這項技術之前,我們必須停下來考慮更惡毒的用途。
“Deepfake”技術使用計算機生成的音頻和視頻來呈現并未發生的事情。它被用來交換斯嘉麗·約翰遜的頭像以及色情電影中的其他著名人物,也就是我們說的AI換臉,(此前本號文章中具體談論過這種被BBC稱為“色情報復的強大武器”)
除了個人的虛假陳述和可能對個人造成的損害之外,一些立法者還擔心這種技術可能在互聯網上傳播的錯誤信息。
這部奧巴馬總統的視頻展示了音頻/視頻被操縱的可能性,以便讓一個有權威的人說出他們實際上從未做過的事情。除了影響個人聲譽之外,這種欺騙可能對國家安全和選舉產生負面影響。
Youtube用戶用聲音模擬軟件做出的奧巴馬演講視頻
中國的國營新聞機構新華社,也開發了自己的人工智能主持人,如果不是特殊說明,還真的不好分辨它究竟是一串代碼,還是一個真實的人。
新華社的AI主持人
隨著AI越來越復雜,確定什么是真實的和什么是人為的將變得更具挑戰性。如果“假”信息以文本,照片,音頻或視頻傳達,輕易的迷惑大眾,則可以用于惡意目的。或許我們再也不能相信“眼見為實”了。
-
人工智能
+關注
關注
1796文章
47643瀏覽量
240086 -
引擎
+關注
關注
1文章
361瀏覽量
22628
原文標題:人工智能為我們編織了一個“幻象牢籠”
文章出處:【微信號:smartman163,微信公眾號:網易智能】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論