外媒DefenseOne網站報道稱,來自14家業界、學術界機構的26名人工智能專家撰寫了《人工智能的惡意使用:預測、預防和緩解》報告。這份長達100頁的報告指出AI技術是一把“雙刃劍”,具有“雙重用途”屬性,即該技術能夠每秒做出成千上萬個復雜的決策,這種能力既可用于造福人類,也可用于擾亂秩序,完全取決于設計該系統的人。報告中,專家們探討了現存的或可能在未來五年內出現的人工智能的惡意用例,及其所帶來的潛在安全威脅,并將其分成數字威脅、物理威脅和政治威脅三組進行了研究,最后提出了更好地預測、預防和減輕這些威脅的方法。
1. AI技術的潛在安全威脅
(1)數字威脅:①通過自動釣魚或創建虛假電子郵件、網站、鏈接等手段竊取信息;②通過自動發現軟件漏洞進行更快速的黑客攻擊;③利用人工智能對于外界的理解缺陷,欺騙人工智能系統。
(2)物理威脅:①利用商用無人機或無人駕駛車輛作為武器,實現恐怖主義的自動化;②機器人集群,即由許多自主機器人圍繞共同目標開展行動;③遠程攻擊,由于自動機器人無需在任何設置距離內進行控制,因此得以實施遠程攻擊。
(3)政治威脅:①通過易于生成的假圖像和視頻進行宣傳;②通過自動查找、刪除文本或圖像等技術自動清除異議;③個人觀點說服,利用公開的信息針對個人觀點進行說服。
2.相關建議
隨著人工智能技術的日益強大和普及,報告預測,人工智能系統帶來的威脅將不斷變化,如現有威脅的擴大、新威脅的產生、典型威脅的特征發生變化等。為了應對不斷變化的威脅環境,報告提出了四項高級建議:
(1)決策者應與技術研究人員緊密合作,調查、預防和減輕人工智能的潛在惡意使用;
(2)人工智能的研究人員和工程師應認真看待其工作的“雙刃劍”性質,考慮誤用等因素的影響,調整相應研究重點和規范,并在可預見有害應用程序時主動聯系相關組織;
(3)對于能夠成熟妥當地解決“雙刃劍”問題的研究領域,如計算機安全等,應識別最佳實踐案例,并將其引入人工智能領域加以應用;
(4)擴大利益相關方與領域專家的范圍,積極探討相關挑戰。
此外,報告還建議在四個優先研究領域內探討開放性問題和潛在的干預措施:向網絡安全社區學習;探索不同的開放模式;營造負責的文化氛圍;制定技術和政策解決方案。
報告指出,對AI雙重用途的干預行動不僅需要人工智能研究人員和企業的關注和行動,還需要立法者、公務人員、監管機構、安全研究人員和教育工作者的關注和行動。
-
人工智能
+關注
關注
1791文章
47305瀏覽量
238588 -
ai技術
+關注
關注
1文章
1279瀏覽量
24330
原文標題:人工智能的惡意使用:預測、預防和緩解
文章出處:【微信號:AI_News,微信公眾號:人工智能快報】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論