作者 / 技術(shù)與社會(huì)部 Anoop Sinha 以及 Google Research、Responsible AI 和以人為本技術(shù)團(tuán)隊(duì) Marian Croak
標(biāo)準(zhǔn)基準(zhǔn)是衡量重要產(chǎn)品質(zhì)量的公認(rèn)方法,存在于許多領(lǐng)域。一些標(biāo)準(zhǔn)基準(zhǔn)用于衡量安全性:例如,當(dāng)汽車(chē)制造商宣傳 "整體安全評(píng)分五星" 時(shí),會(huì)引用某項(xiàng)基準(zhǔn)。機(jī)器學(xué)習(xí) (ML) 和 AI 技術(shù)領(lǐng)域已經(jīng)存在標(biāo)準(zhǔn)基準(zhǔn):例如,MLCommons Association 運(yùn)用 MLPerf 基準(zhǔn),來(lái)衡量如 Google 的 TPU 等尖端 AI 硬件的速度。然而,盡管?chē)@ AI 安全已經(jīng)做了大量工作,目前仍然沒(méi)有類(lèi)似的 AI 安全標(biāo)準(zhǔn)基準(zhǔn)。
MLCommons
https://mlcommons.org/en/
MLPerf
https://mlcommons.org/en/news/mlperf-inference-storage-q323/
AI 安全
https://blog.google/technology/ai/our-responsible-approach-to-building-guardrails-for-generative-ai/
我們很高興能夠?yàn)榉菭I(yíng)利組織 MLCommons Association 開(kāi)展標(biāo)準(zhǔn) AI 安全基準(zhǔn)制定的工作提供支持。制定有效且值得信賴(lài)的基準(zhǔn),不僅要有先進(jìn)的 AI 安全測(cè)試技術(shù),還需要綜合廣泛的觀點(diǎn)。MLCommons 的工作旨在匯集學(xué)術(shù)界和業(yè)界的專(zhuān)家研究人員來(lái)制定衡量 AI 系統(tǒng)安全性的標(biāo)準(zhǔn)基準(zhǔn),并以每個(gè)人都能理解的分?jǐn)?shù)呈現(xiàn)。我們鼓勵(lì)社區(qū)的所有成員 (從 AI 研究人員到政策專(zhuān)家)加入我們,為這項(xiàng)工作奉獻(xiàn)自己的力量。
加入我們
https://mlcommons.org/ai-safety
改善健康診斷 https://blog.google/technology/health/how-ai-can-improve-health-for-everyone-everywhere/ 能源使用情況 https://blog.google/outreach-initiatives/sustainability/google-transportation-energy-emissions-reduction/
在計(jì)算機(jī)硬件領(lǐng)域,基準(zhǔn) (如 SPEC、TPC) 現(xiàn)已展現(xiàn)出驚人的能力,讓整個(gè)行業(yè)能夠在追求進(jìn)步的過(guò)程中,保持研究、工程甚至營(yíng)銷(xiāo)部門(mén)的步調(diào)一致。我們相信,標(biāo)準(zhǔn) AI 安全基準(zhǔn)有助于在這一重要領(lǐng)域?qū)崿F(xiàn)同樣的目標(biāo)。
SPEC https://en.wikipedia.org/wiki/Standard_Performance_Evaluation_Corporation TPC https://en.wikipedia.org/wiki/Transaction_Processing_Performance_Council
在學(xué)術(shù)研究和企業(yè)工作中,人們開(kāi)展了一系列 AI 安全測(cè)試 (如 RealToxicityPrompts、Stanford HELM 公平性、偏差、毒性測(cè)量以及 Google 的生成式 AI 指引)。但是,大多數(shù)測(cè)試都側(cè)重于為 AI 系統(tǒng)提供提示,并對(duì)輸出進(jìn)行算法評(píng)分,雖然這是一個(gè)有用的開(kāi)端,但僅限于測(cè)試提示的范圍。此外,他們通常使用開(kāi)放數(shù)據(jù)集進(jìn)行提示和響應(yīng),而這些提示和響應(yīng)可能已被 (通常是無(wú)意中) 納入訓(xùn)練數(shù)據(jù)中。
RealToxicityPrompts https://arxiv.org/abs/2009.11462 Stanford HELM https://crfm.stanford.edu/2022/11/17/helm.html Google 的生成式 AI 指引 https://blog.google/technology/ai/our-responsible-approach-to-building-guardrails-for-generative-ai/
負(fù)責(zé)任的 AI 開(kāi)發(fā)者使用多種安全措施,包括自動(dòng)測(cè)試、手動(dòng)測(cè)試、紅隊(duì)測(cè)試 (red teaming,其中人類(lèi)測(cè)試人員試圖產(chǎn)生對(duì)抗性結(jié)果)、軟件方面的限制、數(shù)據(jù)和模型最佳實(shí)踐以及審計(jì)。但是,確定是否已采取足夠的預(yù)防措施可能具有挑戰(zhàn)性,尤其是在開(kāi)發(fā) AI 系統(tǒng)的公司群體不斷發(fā)展且具有多元化特點(diǎn)的情況下。標(biāo)準(zhǔn) AI 基準(zhǔn)能夠提供強(qiáng)大的工具,幫助供應(yīng)商和用戶(hù)衡量 AI 安全性,以及鼓勵(lì)資源生態(tài)系統(tǒng)和專(zhuān)注于提高 AI 安全性的專(zhuān)業(yè)提供商,推進(jìn)社區(qū)以負(fù)責(zé)任的方式發(fā)展。
同時(shí),如果沒(méi)有社區(qū)參與,就無(wú)法制定成熟、有效且值得信賴(lài)的 AI 安全基準(zhǔn)。這項(xiàng)工作需要研究人員和工程師齊心協(xié)力,為安全測(cè)試技術(shù)提供創(chuàng)新且實(shí)用的改進(jìn),使測(cè)試更加嚴(yán)格高效。同樣,企業(yè)也需要團(tuán)結(jié)一致,提供測(cè)試數(shù)據(jù)、工程支持和經(jīng)濟(jì)支持。AI 安全的某些方面可能具有主觀性,要建立得到廣泛共識(shí)支持的可信基準(zhǔn)需要考慮多方觀點(diǎn),包括公眾代言人、政策制定者、學(xué)者、工程師、數(shù)據(jù)工作者、商界領(lǐng)袖和企業(yè)家的觀點(diǎn)。
Google 以 2018 年宣布的 AI 準(zhǔn)則為基礎(chǔ),致力于以安全、可靠和值得信賴(lài)的特定標(biāo)準(zhǔn)開(kāi)發(fā)和使用 AI (您可以參閱我們 2019 年、2020 年、2021 年、2022 年的更新)。我們還在關(guān)鍵承諾方面取得了重大進(jìn)展,這將幫助您大膽且負(fù)責(zé)任地開(kāi)發(fā) AI,從而造福所有人。
宣布 https://blog.google/technology/ai/ai-principles/ AI 準(zhǔn)則 https://ai.google/responsibility/principles/ 2019 年 https://ai.google/static/documents/ai-principles-2019-progress-update.pdf 2020 年 https://ai.google/static/documents/ai-principles-2020-progress-update.pdf 2021 年 https://ai.google/static/documents/ai-principles-2021-progress-update.pdf 2022 年 https://ai.google/static/documents/ai-principles-2022-progress-update.pdf 進(jìn)展 https://static.googleusercontent.com/media/publicpolicy.google/en//resources/whcommitments.pdf
Google 正在以多種方式支持 MLCommons Association 在制定 AI 安全基準(zhǔn)方面所作的工作。
測(cè)試平臺(tái):我們聯(lián)合其他公司提供資金,支持測(cè)試平臺(tái)的開(kāi)發(fā)。 技術(shù)專(zhuān)長(zhǎng)和資源:我們不斷提供技術(shù)專(zhuān)長(zhǎng)和資源,例如 Monk 膚色示例數(shù)據(jù)集,以幫助確保基準(zhǔn)設(shè)計(jì)優(yōu)良且有效。 數(shù)據(jù)集:我們正在為多語(yǔ)言表征偏差以及針對(duì)刻板印象危害 (如 SeeGULL 和 SPICE) 的外部測(cè)試提供內(nèi)部數(shù)據(jù)集。此外,我們還共享以負(fù)責(zé)任和包容性的方式收集人工注釋為重點(diǎn)的數(shù)據(jù)集,如 DICES 和 SRP。
Monk 膚色量表示例數(shù)據(jù)集 https://skintone.google/mste-dataset SPICE https://github.com/google-research-datasets/SPICE/tree/main DICES https://arxiv.org/abs/2306.11247 SRP https://www.kaggle.com/datasets/google/jigsaw-specialized-rater-pools-dataset
我們相信,這些基準(zhǔn)有助于推進(jìn) AI 安全研究,確保以負(fù)責(zé)任的方式開(kāi)發(fā)和部署 AI 系統(tǒng)。AI 安全屬于集體行動(dòng)問(wèn)題。前沿模型論壇 (Frontier Model Forum) 和 AI 伙伴關(guān)系 (Partnership on AI) 等團(tuán)體也在重要的標(biāo)準(zhǔn)化舉措方面發(fā)揮著領(lǐng)導(dǎo)作用。我們很高興從一開(kāi)始便與這些團(tuán)體和 MLCommons 一起開(kāi)展這項(xiàng)工作,也期待通過(guò)更多的共同努力,來(lái)促進(jìn)以負(fù)責(zé)任的方式開(kāi)發(fā)新的生成式 AI 工具。歡迎您持續(xù)關(guān)注我們,及時(shí)獲悉更多資訊。
集體行動(dòng)問(wèn)題 https://blog.google/technology/ai/a-shared-agenda-for-responsible-ai-progress/ 前沿模型論壇 https://blog.google/outreach-initiatives/public-policy/google-microsoft-openai-anthropic-frontier-model-forum/ AI 伙伴關(guān)系 https://partnershiponai.org/
原文標(biāo)題:攜手 MLCommons,制定有效且值得信賴(lài)的 AI 安全基準(zhǔn)
文章出處:【微信公眾號(hào):谷歌開(kāi)發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
-
谷歌
+關(guān)注
關(guān)注
27文章
6192瀏覽量
105817
原文標(biāo)題:攜手 MLCommons,制定有效且值得信賴(lài)的 AI 安全基準(zhǔn)
文章出處:【微信號(hào):Google_Developers,微信公眾號(hào):谷歌開(kāi)發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論