人工智能,是由人制造出來的機器所表現出來的智能,是通過普通計算機程序來呈現人類智能的技術,人工智能正越來越廣泛地應用于商業領域。
比如商家考慮使用人工智能來設置要出售給特定客戶的保險產品的價格,為不同的客戶設置不同的價格。這可以說是有正當理由的,但是“玩弄”客戶的心理或購物意愿時常為的是可能會有利可圖。
人工智能具有很多潛在的策略可供選擇,這其中涉及到道德問題,有些策略不道德。這些策略不僅會帶來道德上的損失,而且會帶來巨大的潛在經濟損失,因為如果利益相關者發現使用了這樣的策略,他們將對其施加一定的懲罰,比如客戶可能會投訴、抵制,還有監管者可能會懲罰高達數十億美元的巨額罰款。
因此,在越來越多的決策無需人工干預而完全應用人工智能的情況中,無論是商家還是客戶都有強烈的訴求,想了解人工智能系統在什么情況下可能采取不道德的策略,從而降低這種風險,或者在可能的情況下完全消除這種風險。
最近,由英國華威大學(University of Warwick)、帝國理工大學(Imperial College London)、洛桑聯邦理工學院(Lausanne EPFL)數學研究所和沃里克大學數學學院的數學家和統計學家組成的一個研究團隊,發現了一種數學方法,可以幫助監管機構和業務管理并監管人工智能系統偏向做出不道德、可能非常昂貴和破壞性商業選擇的偏見,幫助企業和監管機構制定了新的“不道德優化原則”,并提供一個簡單的公式來估算其影響。他們的題為“不道德優化原則”的論文發表在最近的皇家學會科學雜志上。
論文作者、華威大學數學研究所的羅伯特·麥凱教授說:“我們建議的‘不道德優化原則’可用于幫助監管機構、合規人員和其他人員找到可能隱藏在大型策略空間中的問題策略??梢云谕麅灮瘯怀杀壤剡x擇許多不道德策略,對其進行檢查應顯示在哪里可能會出現問題,因此建議應如何修改人工智能搜索算法,以免今后避免使用它們。
該數學方法所體現的原則還表明,可能有必要重新考慮人工智能在非常大的戰略空間中的運作方式,以便在優化與學習過程中明確拒絕不道德的結果。
-
AI
+關注
關注
87文章
30946瀏覽量
269187 -
人工智能
+關注
關注
1791文章
47314瀏覽量
238613 -
數學
+關注
關注
0文章
99瀏覽量
19251
發布評論請先 登錄
相關推薦
評論