針對人工智能(AI)算法的網絡攻擊新聞已不再罕見,現在幾乎每天都在發生。研究人員發現,無論是在實驗室環境還是在實踐中,算法都十分脆弱。在許多頭條新聞中,我們看到人臉識別系統可能被特殊眼鏡和黑客操縱的醫療應用程序欺騙,比如AI癌癥診斷系統。
AI的進步、新神經網絡的構成以及神經科學新模型的出現都表明,我們正在接近這樣的現實,即AI算法可以復制大腦功能。盡管這些技術還遠遠不夠完美,但AI和人類大腦有許多驚人的相似之處,尤其是在圖像處理技術方面。
最近,科學家們發現,黑客不僅可以對神經網絡發起對抗性攻擊,也可以對人類發起類似攻擊。通過某些操作,他們成功地對狗的圖像進行了修改,讓人們誤以為它是貓。然后,科學家們又改變了蛇的圖像,使它看起來像蜘蛛,反之亦然。
這項研究之所以引起了我的注意,是因為它提供了很好的例子,我們可以把它付諸實踐,檢查各種情況下發生欺騙的可能性。這促使我做了個實驗,調查人們對這些照片的反應,尤其是那些患有蜘蛛恐懼癥的人。喜歡蛇的人(同時也對蜘蛛有很深的恐懼)看到蜘蛛變成蛇的畫面會感到不舒服。
然而,當他們意識到照片中的主體確實是蜘蛛時,他們的不安變成了恐懼。這些實驗表明,這種類型的對抗性攻擊可以在潛意識中發揮作用。也就是說,某個人沒有意識到圖片有什么問題,就像算法不能識別攻擊一樣。
因此,當涉及到對抗性攻擊和網絡安全時,我們必須考慮到,即使是人類的眼睛,這個復雜的器官和長期進化的產物,也無法抵御這種攻擊。從這個意義上說,很容易看出對感官的攻擊可以與對算法的攻擊進行比較。
雖然神經語言程序設計(NLP)還沒有得到科學的證實,但對語言或其他感官的對抗性攻擊可能與這個領域有關。事實上,對AI的隱私攻擊可以被視為吐真藥或催眠,讓我們研究以下幾種AI欺騙人類大腦的示例:
閾下知覺廣告
深度學習模型可以通過大量的圖像數據集進行訓練,從而根據一張照片來識別一個人的信任水平。使用AI進行對抗性攻擊可以創建任何人最“可靠”的照片,并提高受眾的信任水平。
我們所需要的只是改變一張照片,這樣照片才能激發信任。它可以被用于廣告,由于照片的快速調整,你會更容易吸引客戶青睞!
利用音頻
現在,讓我們來看看音頻信息和語音感知的過程。當我們聽到某個詞,沒有上下文我們無法解釋它的意思時,我們經常會在腦海中產生幾個猜測。當我們聽到一個句子的結尾時,我們的大腦會固定信息,并推斷出某個單詞的最終含義。這種機制類似于遞歸神經網絡中基于注意力的模型。
在我們解密信息之前,沒有上下文存在的所有含義都會在某種程度上被下意識地處理掉,它們會對我們的思維產生輕微的影響。如果人類的大腦能夠識別由多義詞組合而成的句子的不同可能含義,人們就能在不經意的情況下接收到平行乃至互相矛盾的命令。而巨大的數據集可以自動化這個過程,并創建具有隱藏雙重含義的文本。
AI支持的測謊儀
我再舉個例子——隱私攻擊,就是試圖揭露某個人隱藏的信息。在交流中,人們傾向于使用面部表情、身體姿勢、手勢和眼神來推斷意思。肢體語言往往能或明或暗地透露說話人的心理狀態、情緒和感受。事實上,有許多類似的隱藏數據泄漏通道,如體溫、瞳孔大小、輻射水平或人類呼吸出的化學成分。
如果有人構建了一個精確的設備,能夠捕捉所有這些隱藏的通道,他們就能讀懂人類對外界刺激的反應,比如圖像和挑釁的問題。這與神經網絡上的隱私攻擊類似,攻擊者測試不同的輸入數據來訪問信息。
自我保護措施
對人類的潛意識攻擊,如我提到的例子,通常是很可怕的。最糟糕的是,它們不是憑空想象出來的,而且可以在任何時候實施。有了這些建議,你可以武裝自己,抵御這些攻擊:
——仔細檢查你所使用媒體中的所有關鍵信息,并對你發送的信息進行反復審核;
——學習心理學,并了解大腦是如何工作的,然后把這些知識應用到你每天看到的視覺刺激上;
——不要在社交媒體上發布過多不必要的個人信息,你肯定不希望有額外的數據可以提供給黑客有針對性的信息。
如果將來我們可以戴上特殊的眼鏡或助聽器來保護自己免受音頻或視覺網絡攻擊,我對此不會感到驚訝。但在此之前,使用這些策略將是非常重要的,盡可能多地了解AI及其不那么光彩的用例,以確保自己和公司的安全。請記住,只要對這些應用有更多的了解,與那些沒有相同知識的人相比,就就具備了很大的優勢。
-
算法
+關注
關注
23文章
4629瀏覽量
93202 -
AI
+關注
關注
87文章
31490瀏覽量
269981
原文標題:AI算法復制人類大腦功能?這種AI正通過三種方式欺騙你!
文章出處:【微信號:smartman163,微信公眾號:網易智能】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論