色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

對抗性解耦學習,讓“夏蟲語冰”

DPVg_AI_era ? 來源:lq ? 2019-06-07 15:46 ? 次閱讀

人們常說“夏蟲不可語冰”。如果將這句話視為機器學習任務,可以這樣理解:夏天生死的蟲子只見過液態(tài)的水,但從未見過冰。故而你即便拿給它一張冰的照片,它也認不出來這是另一種形態(tài)的水。而本文要解決的,就是通過遷移學習,讓夏天的蟲子也能認出“冰實際就是水。”

摘要

身份認證旨在確認樣本和人的身份之間的從屬關系。典型的身份認證包含人臉識別(face recognition)、行人重識別(personre-identification),基于移動設備的身份驗證。

近年來數(shù)據(jù)驅(qū)動的身份認證過程可能是有偏的,即,模型經(jīng)常只在一個領域里訓練(例如對于穿著春裝的人),而可能需要在另一個領域里測試(例如這些人換上了夏裝)。

為了解決這個問題,我們提出了一個新穎的兩階段的方法來從領域差異里解耦出類別/身份的特征表示,且我們考慮多種類型的領域差異。在第一階段中,我們采用一個一對多的解耦學習(one-versus-rest disentangle learning , OVRDL)機制來學習解耦的特征表示。

在第二階段中,我們提出一個加性對抗學習(additive adversarial learning, AAL)機制來進一步提升解耦性能。并且我們討論了如何避免由于解耦有因果關系的領域差異而陷入學習困境。實驗結(jié)果充分證明了我們方法的有效性和優(yōu)越性。

相關代碼即將公布,請關注:https://github.com/langlrsw/AAL-unbiased-authentication。

研究目的:數(shù)據(jù)驅(qū)動的身份驗證中的數(shù)據(jù)偏差問題

身份認證考慮學習與驗證數(shù)據(jù)樣本與人的身份之間的匹配關系。近年來,身份驗證技術(shù)取得了巨大進展,包括指紋驗證、人臉驗證、聲紋/虹膜驗證、行人重識別等。然而,數(shù)據(jù)驅(qū)動的身份認證過程經(jīng)常會面臨數(shù)據(jù)中的偏差,例如領域差異,即一個模型在一個領域中訓練卻在另一個領域中進行驗證。例如在行人重識別領域中,當季節(jié)導致人們穿衣變化時或者人與攝像機的相對角度發(fā)生變化時,驗證都可能受到影響。

特別地,隨著智能終端的不斷普及,基于智能終端的身份驗證技術(shù)也飛速發(fā)展。而上述情況在基于智能終端的身份驗證上也會發(fā)生。比如,某個具體用戶(由一個虛擬賬號關聯(lián))的設備類型(由硬件特性或軟件編碼決定)可能會每一年變化一次,但是用來訓練身份驗證模型的數(shù)據(jù)可能每月采集一次。那么當用戶對應的設備類型改變時,如果我們依然用舊的設備類型上訓練的模型來進行身份認證,就可能輸出錯誤的認證結(jié)果。

面臨上述的訓練和測試數(shù)據(jù)之間的領域差異的問題,簡單地應用數(shù)據(jù)驅(qū)動的模型可能導致模型聚焦于每個領域的偏差,即便訓練數(shù)據(jù)是充足的。為了避免該問題,本文研究了無偏身份驗證的學習任務。

簡單起見,我們把身份認證視為一個識別問題,即每個身份對應于一個類。我們考慮多種類型的領域差異,每種領域差異有多種領域。例如,對于行人重識別而言,季節(jié)和拍攝角度是兩種類型的領域差異,其中季節(jié)包括四種不同的領域:春、夏、秋、冬,而拍攝角度包含的領域可以有:正面、側(cè)面、背面等。

表1 問題假設的范例

為了更好地理解我們的問題,我們展示了一個簡單的例子,其中只有一種類型的領域差異,見表 1。在訓練階段,對于每個類別組,我們只有它們一個領域上的數(shù)據(jù)。換言之,不同的領域不會共享類別。在測試階段,我們需要識別的數(shù)據(jù)對應于訓練階段沒有見過的<類別,領域>的組合。

在數(shù)學上,該問題與領域自適應相關,但是二者也有顯著區(qū)別:

其一,領域自適應允許源域和目標域共享類別;其二,領域自適應不提供目標域的標簽。領域自適應在遷移學習領域中已經(jīng)被廣泛研究。而我們的問題可以被轉(zhuǎn)化為一個領域自適應問題,如果測試領域的數(shù)據(jù)允許用于訓練,且不提供對應的標簽的話。因此,我們把該問題稱之為一個廣義的跨領域識別(generalized cross-domain recognition, GCDR)問題。類似的問題在面向公平的機器學習(fairness-oriented machine learning, FML)領域中被研究過。該領域考慮的偏差主要來自于人口統(tǒng)計學群體的差別,例如膚色、性別等。在這種設定下,F(xiàn)ML方法通常也是應用遷移學習方法來進行解決。

在本文中,我們同樣考慮應用遷移學習方法來學習無偏的表示。具體地,我們假設領域的差別對于數(shù)據(jù)的影響是未知的,且我們考慮應用對稱、同質(zhì)的遷移學習方法,即,對所有域?qū)W出一個共同的特征空間,且假設所有域的原始特征空間都相同或者至少維數(shù)相同。

圖 1 解耦學習方法詳細網(wǎng)絡架構(gòu)圖

在本文中,我們提出了一個新穎的識別方法來學習解耦的特征表示,用于解決領域差異,最終實現(xiàn)無偏的識別。如表1中所示,對于一個具體的類別組,類別是不同的,但是領域是相同的。所以,學習一個無偏的模型來進行類別識別是可能的。對于一個數(shù)據(jù)樣本,其類別標簽和領域標簽都被視為其屬性。我們的模型就是通過解耦這些屬性來學習無偏的表示。我們方法的詳細架構(gòu)見圖 1,其包含兩個階段。

在第一個階段中,我們提出一對多的解耦學習(one-versus-restdisentangle learning , OVRDL)機制來將每個樣本映射到多個隱層空間。在每個隱層空間里,我們將一個屬性與其他屬性解耦。在第二階段中,由于訓練數(shù)據(jù)中僅見過有限的屬性值的組合,我們采用了一種數(shù)據(jù)增廣的方法來隨機組合屬性標簽,以及拼接其對應的隱層特征向量來作為一個新的數(shù)據(jù)樣本。

基于隨機拼接的特征,我們提出一個加性對抗學習(additive adversarial learning, AAL)機制來進一步提升階段1的解耦性能。

簡單來講,我們通過最小化負面的副作用來消除偏差。我們將討論擴展到如何避免由于解耦有因果關系的屬性而陷入學習困境。在基準數(shù)據(jù)集和真實數(shù)據(jù)集上的實驗證明了我們方法的有效性和優(yōu)越性。我們同時進行了消融實驗來展示我們框架的每一種成分的貢獻。

接下來,我們將具體介紹本文提出的方法的每一個具體技術(shù)和思路。

第一步: 更直接地解耦:揚湯止沸,不如釜底抽薪。

通過多任務學習,可以將多屬性解耦學習的框架簡單地以圖 2的形式來構(gòu)建。其中不同任務對應的特征變換網(wǎng)絡的輸出特征是假設相互獨立的。

圖 2:“假設獨立”的學習框架。G網(wǎng)絡均為特征變換網(wǎng)絡。身份識別、是否有胡子、是否戴眼鏡為三個屬性,分別建模為三個任務進行學習。不同G網(wǎng)絡輸出的特征假設相互獨立。

但是這種假設只是假設,三個網(wǎng)絡輸出的特征的獨立性是無法保證的。

本文中我們提出通過對抗學習來進行直接解耦,直接逼近“獨立”的假設目標。如圖 3所示。

假設屬性數(shù)量圖中,D網(wǎng)絡分為兩類:對于

(1)所有的是用于學習第i個屬性的特征,所有的

(2)所有的Dii的學習是用標準的監(jiān)督學習,

對于,一個簡單的對抗學習流程可以視為如下兩個交替進行的步驟:

步驟1:固定所有,優(yōu)化來使得輸出逼近與之對應的獨熱編碼的標簽;

步驟2:固定所有

該對抗學習的最終目標是使得所有可以提取與之對應的第i個屬性的特征,而不能提取與之對應的其他屬性的特征。如此,第i個屬性就可以和其他屬性解耦。

圖 3 “直接解耦實現(xiàn)獨立”的學習框架。其中綠色的D網(wǎng)絡通過對抗學習實現(xiàn)與藍色D網(wǎng)絡目標的解耦,最終實現(xiàn)多個任務的相互獨立。

這一步驟中,我們的思路簡單可以概括為:假設獨立,不如直接解耦令之獨立。正如:揚湯止沸,不如釜底抽薪。

第二步:數(shù)據(jù)增廣。張冠李戴,屬性隨機組合。

由于訓練集中不同屬性的組合類型比較有限,我們將不同屬性對應的隱層特征隨機組合。該機制模仿了人類通過想象未見過的屬性組合來進行解耦學習的行為。

如圖4所示,假設我們只見過棕色的馬和白色的兔子,那么我們隨機組合馬和白色,組合出白色的馬,模仿人想象沒見過的白色的馬。

圖 4 屬性隨機組合示例

不過,這一步驟本身并不進行解耦學習,只是為之后我們提出的加性對抗解耦學習做準備。其他遷移學習方法也有隨機生成,不過是在數(shù)據(jù)原空間生成,可能會引入新的誤差。而我們的方法相當于在隱層空間生成新樣本,引入的誤差較少。

第三步,深入解耦,加性對抗學習。

知白馬是馬而更識白,知白馬是白而更識馬。

這一步驟的思路是這樣的:當認識到白馬也是馬,就會知道“白”這個概念中并沒有“不是馬”的概念,從而能更好地認知“白”這個概念。反過來說,當認識到白馬也是白色的,就會知道“馬”這個概念中,并沒有“不是白色”的概念,從而能更好地認知“馬”這個概念。

圖 5 加性對抗網(wǎng)絡的優(yōu)化機制。紅色的曲線箭頭表示loss進行BP回傳的方向。對于左右兩張圖,最左邊的3個隱層特性向量都是由上一步的隨機組合得到的。

加性對抗網(wǎng)絡的優(yōu)化機制如圖 5所示。假設前兩個屬性分別為:物體類別和顏色類別。加性對抗網(wǎng)絡的前兩條支路依次對應于這兩個屬性的學習。這里的第一路作為輸入的隱層向量是代表物體類別的特征向量,第二路作為輸入的隱層向量是代表顏色類別的特征向量。

首先,假設對于見過的屬性組合已經(jīng)學好了,例如,一匹棕色的馬可以被精確地識別為物體“馬”和顏色“棕”。之后,對于沒見過的屬性組合,一匹棕色的馬和一只白色的兔子,我們要讓網(wǎng)絡輸出物體“馬”和顏色“白”。

在假設見過的組合已經(jīng)學好的前提下,如果現(xiàn)在輸出的顏色不是“白”,那么我們有理由相信,誤差是來自于網(wǎng)絡第一條支路中的“棕色”的信息。那么我們將第二支路輸出產(chǎn)生的顏色誤差回傳至第一條支路來消除其中的顏色信息。這樣一來,在第一支路中的顏色信息產(chǎn)生的域差異就被消除了。同理,第二路中的物體信息產(chǎn)生的域差異也可以類似地被消除。

這種加性對抗網(wǎng)絡有很好的性質(zhì):可以使得經(jīng)過T網(wǎng)絡學習的s向量空間是加性空間,且對于多個特征向量,每一維的含義都相同。最終導致s向量空間中,所有維度的特征被劃分為若干組,每一組對應于一個屬性。這樣一來就有很好的可解釋性。同時可以進一步利用稀疏方法進行優(yōu)化。

這一步驟的idea可以概括為:通過組合概念的加性混合交叉學習而消除概念之間的耦合關系。知白馬是馬而更識白,知白馬是白而更識馬。

第四步:拓展討論。避免因果關系造成的學習困境:皮之不存,毛將焉附。

之前的解耦方式是對每一個屬性,都選擇所有其他屬性進行解耦,但這樣可能會將本來有關系的兩個屬性強制解耦,偏離真實情況。最極端的例子是,如果兩個屬性本身完全相同,那么在同一個特征空間里,不可能一個屬性可以識別而另一個無法識別。

故而,直觀上講,我們不應該將相關的屬性解耦。但是,“相關”是一個非常寬泛、不精確的概念。如果但凡有兩個屬性有關系,我們就放棄對它們解耦,又可能會導致解耦不充分,每種屬性還是學不好。

所以,我們考慮一種特殊的相關關系:因果關系。我們在定理2中證明,對于任意的屬性A,如果另一個屬性B是A的因,那么學習識別A的特征且讓該特征無法識別B會有損于對A的識別。這是因為如果該特征與B獨立,那么由于屬性B是A的因,該特征與A的相關也就很有限了。

如圖6所示,以階段1的學習為例。

在圖像上,由于劉海會遮擋眼鏡,故而“是否有劉海”會影響“是否有眼鏡”的判斷;但是反過來,“是否有眼鏡”不會影響“是否有劉海”的判斷。故而如果G3輸出的特征無法區(qū)分是否有劉海,那么區(qū)分是否有眼鏡也很難保證,故而我們學習“是否戴眼鏡”的時候放棄了對于“是否有劉海”的解耦學習。綜上,如果有關于屬性間因果關系的先驗信息的話,我們應該停止某些解耦過程來避免上述的學習困境。

這一步驟中,我們的思路可以簡單概括為:因不可解耦。因為,因不可辨則果亦難辨,正如:皮之不存,毛將焉附。

圖 6 基于因果關系有選擇地解耦學習示例

實驗方法

階段1 對抗學習的優(yōu)化問題如下:

首先是屬性學習的優(yōu)化問題:

其中是屬性學習的損失函數(shù),是第j個屬性的權(quán)重,是屬性標簽的one-hot向量。

其次是域差異的判別學習:

其中是對抗學習的損失函數(shù),?是(j, j’)屬性對的權(quán)重。

第三步是消除域差異:

其中

在第三步中,我們也會同時強化屬性學習:

判別網(wǎng)絡的最后一層的激活函數(shù)是softmax,是交叉熵損失,是平均平方誤差損失。上述4個優(yōu)化問題循環(huán)依次進行。其中,每個循環(huán)中,前兩個優(yōu)化問題優(yōu)化1步,后兩個優(yōu)化問題優(yōu)化5步。

在階段2中,對于每個,我們隨機采樣訓練樣本,然后取其第j個屬性向量。采樣得到的第i個樣本的第j個屬性的屬性向量表示為,其中。則對于每個我們將組合為一個新的隱層樣本。對于每個屬性,每個類別值的采樣概率是相同的。我們采用了ABS-Net中剔除低預測概率對應的樣本。

定義如下兩個下標集合:

如圖1所示,在階段2中,隨機組合的屬性向量被m個加性空間轉(zhuǎn)換網(wǎng)絡

對于訓練中見過的屬性組合的樣本,損失回傳至每個屬性自己對應的網(wǎng)絡,不傳至其他屬性對應的網(wǎng)絡。即對于每個

對于訓練中沒見過的屬性組合的樣本,損失回傳至其他屬性對應的網(wǎng)絡,不傳至自己屬性對應的網(wǎng)絡。即對于每個,我們優(yōu)化如下的優(yōu)化問題:

所有識別網(wǎng)絡(R網(wǎng)絡)的最后一層激活函數(shù)也是softmax函數(shù)。是交叉熵損失函數(shù)。

根據(jù)我們對于有因果關系的屬性的討論,我們采用一個元素值為{0,1}的矩陣,否則即令。對于階段1,我們可以將乘在上,對于階段2,我們可以刪掉中以j為因的屬性。

實驗結(jié)果:多個數(shù)據(jù)集上性能優(yōu)于對比方法

數(shù)據(jù)集方面,我們分別基于C-MNIST的數(shù)字識別數(shù)據(jù)集、CelebA的身份識別數(shù)據(jù)集、手機傳感器數(shù)據(jù)的身份識別數(shù)據(jù)集構(gòu)造了我們關注的身份類別由于領域差異而分組的數(shù)據(jù)集。我們主要參考aAUC、(aFAR+aFRR)/2、ACC@1作為衡量指標。

在C-MNIST數(shù)據(jù)集上,我們比較了多種遷移學習方法的性能。其中除了SE-GZSL方法,我們的方法達到了最優(yōu)性能。而SE-GZSL在后面兩個真實數(shù)據(jù)集上表現(xiàn)不佳。

表2 C-MNIST數(shù)據(jù)集上的性能對比

在CelebA數(shù)據(jù)集、移動手機數(shù)據(jù)集上,我們的aAUC和(aFAR+aFRR)/2指標都顯著優(yōu)于對比方法。

表3 CelebA數(shù)據(jù)集上性能對比

表4 移動手機數(shù)據(jù)集上的性能對比

表 5消融實驗結(jié)果

此外,我們還提供了充分的消融實驗證明我們方法中每個技術(shù)是有效的,見表5。特別地,我們驗證了我們提出的加性對抗學習對階段1網(wǎng)絡有顯著的提升效果,見圖7。

圖 7 加性對抗學習的提升效果。橫軸每個值代表階段1的模型在每個迭代步數(shù)時停下來輸出模型給階段2。紅色代表階段1模型的性能,藍色代表經(jīng)過加性對抗網(wǎng)絡提升后的模型性能。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)集

    關注

    4

    文章

    1209

    瀏覽量

    24793
  • 解耦
    +關注

    關注

    0

    文章

    40

    瀏覽量

    11918
  • 遷移學習
    +關注

    關注

    0

    文章

    74

    瀏覽量

    5576

原文標題:加性對抗學習新模型,消滅身份識別偏差 | CVPR 2019

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    人工智能深度學習發(fā)展迅速,智能科技公司都已經(jīng)涉足人工智能產(chǎn)品的研發(fā)!

    深度學習(Deep Learning)核心技術(shù)開發(fā)與應用1,Deep Learning—循環(huán)神經(jīng)網(wǎng)絡2,Deep Learning—CNN應用案例3,Deep Learning—對抗性生成網(wǎng)絡4
    發(fā)表于 09-05 10:22

    深度學習DeepLearning實戰(zhàn)

    內(nèi)容2:課程一: Tensorflow入門到熟練:課程二:圖像分類:課程三:物體檢測:課程四:人臉識別:課程五:算法實現(xiàn):1、卷積神經(jīng)網(wǎng)絡CNN2、循環(huán)神經(jīng)網(wǎng)絡RNN3、強化學習DRL4、對抗性生成
    發(fā)表于 01-09 17:01

    常用的設計方法

    在采用傳統(tǒng)無動態(tài)控制時,uqu_quq?和udu_dud?的指令值存在耦合項。上一個學習筆記中設計的設計方法是將其忽略,因此在最后設計的效果并不太好。目前,常用的
    發(fā)表于 08-27 07:29

    多變量控制實驗

    多變量控制4.0 實驗設備PC計算機1臺(要求P4-1.8G以上)、MATLAB6.X軟件1套。4.1 實驗目的①學習多變量控制方法
    發(fā)表于 05-15 00:51 ?0次下載

    先進PID多變量控制

    先進PID多變量控制 通過PID控制,可實現(xiàn)對多變量系統(tǒng)的控制
    發(fā)表于 05-04 16:01 ?40次下載

    對抗性神經(jīng)網(wǎng)絡是什么?為何入選MIT2018十大突破性技術(shù)

    什么是對抗性神經(jīng)網(wǎng)絡?為什么它能入選MIT十大突破性技術(shù)?它的發(fā)展脈絡如何?與我們此前耳熟能詳?shù)纳窠?jīng)網(wǎng)絡有什么區(qū)別?能夠應用在人工智能的哪些場景?還有哪些關鍵問題有待攻克?
    發(fā)表于 03-28 10:20 ?1.4w次閱讀

    對抗樣本是如何在不同的媒介上發(fā)揮作用的,為什么保護系統(tǒng)很難對抗它們?

    我們發(fā)現(xiàn),對抗性訓練和防御性精煉都意外地執(zhí)行了一種梯度掩碼。這兩種算法都沒有明確地被設計來執(zhí)行梯度掩碼,但是當算法被訓練來保護自己并且沒有給出具體的指令時,梯度掩碼顯然是一種機器學習算法可以相對容易地發(fā)明出的防御措施。
    的頭像 發(fā)表于 04-16 15:36 ?7719次閱讀

    迫使神經(jīng)網(wǎng)絡完成計劃之外的任務

    谷歌的研究人員在Arxiv.org發(fā)表了一篇題為“神經(jīng)網(wǎng)絡的對抗性重編程”的論文,描述了一種能夠?qū)C器學習系統(tǒng)進行重新編程的對抗性方法。
    的頭像 發(fā)表于 07-13 09:29 ?2700次閱讀

    抗壓縮對抗框架ComReAdv:可讓人臉識別算法失效

    回書說到,現(xiàn)在,對抗攻擊的理念已經(jīng)被應用到隱私保護領域:通過給照片添加肉眼看不出來的對抗性噪聲,來蒙蔽人臉識別AI,達到保護隱私的效果。
    發(fā)表于 08-19 16:50 ?618次閱讀
    抗壓縮<b class='flag-5'>對抗</b>框架ComReAdv:可讓人臉識別算法失效

    電容如何放置

    警告: 請注意電容的位置,尤其是IC芯片的電源與地引腳是斜對角的。 潛在問題: 不合理的位置會導致不充分的。 預防措施: -對于像直插這樣的IC,其電源端子與地是端子成對角放置
    的頭像 發(fā)表于 09-30 09:18 ?4157次閱讀
    電容<b class='flag-5'>解</b><b class='flag-5'>耦</b>如何放置

    PWIL:不依賴對抗性的新型模擬學習

    最前沿的對抗 IL 方法的運作方式與生成對抗網(wǎng)絡 (GAN) 類似:訓練生成器(策略)以最大化判別器(獎勵)的混淆度,以便判別器本身被訓練來區(qū)分智能體的狀態(tài)-動作對和專家的狀態(tài)-動作對。
    的頭像 發(fā)表于 10-13 10:01 ?2225次閱讀
    PWIL:不依賴<b class='flag-5'>對抗性</b>的新型模擬<b class='flag-5'>學習</b>

    一種產(chǎn)生DSN放大攻擊的深度學習技術(shù)

    ,深度學習已證明自己是網(wǎng)絡安全中非常有價值的工具,因為它可以幫助網(wǎng)絡入侵檢測系統(tǒng)對攻擊進行分類并檢測新攻擊。對抗性學習是利用機器學習生成一組受擾動的輸入,然后饋送到神經(jīng)網(wǎng)絡以對其進行錯
    的頭像 發(fā)表于 10-11 09:21 ?1193次閱讀
    一種產(chǎn)生DSN放大攻擊的深度<b class='flag-5'>學習</b>技術(shù)

    永磁同步電機控制之反饋及復矢量

    永磁同步電機反饋及復矢量(無刷直流電機等交流電機同樣適用) 一、永磁同步電機數(shù)學模型 1.永磁同步電機dq坐標系數(shù)學模型 2.永磁同步電機復矢量數(shù)學模型 二、
    發(fā)表于 03-09 10:09 ?2次下載
    永磁同步電機控制之反饋<b class='flag-5'>解</b><b class='flag-5'>耦</b>及復矢量<b class='flag-5'>解</b><b class='flag-5'>耦</b>

    人工智能在實現(xiàn)對抗性后勤方面的作用

    近日,美國人工智能公司SparkCognition的陸軍項目總監(jiān)阿特·塞勒斯在Defensescoop網(wǎng)站上撰文,提出人工智能在實現(xiàn)對抗性后勤方面可以發(fā)揮的四大作用。主要觀點如下: 在現(xiàn)代戰(zhàn)爭的今天
    的頭像 發(fā)表于 07-04 15:34 ?1393次閱讀

    鑒源實驗室·如何通過雷達攻擊自動駕駛汽車-針對點云識別模型的對抗性攻擊的科普

    非常精確,它們也面臨一種新興的威脅——對抗性攻擊。 對抗性攻擊是一種通過微小但精心設計的擾動,旨在欺騙機器學習模型的攻擊方式。對于自動駕駛系統(tǒng)而言,這意味著通過對傳感器輸入的數(shù)據(jù)進行極小的修改,攻擊者可以導致自動駕
    的頭像 發(fā)表于 11-05 15:44 ?343次閱讀
    鑒源實驗室·如何通過雷達攻擊自動駕駛汽車-針對點云識別模型的<b class='flag-5'>對抗性</b>攻擊的科普
    主站蜘蛛池模板: 伊人久久综合成人亚洲 | 无码欧美喷潮福利XXXX | 亚洲无遮挡| 大地影院免费观看视频 | 高h原耽肉汁动漫视频 | 在线观看永久免费网址 | 午夜男女爽爽羞羞影院在线观看 | 在线观看视频一区 | 中国女人逼 | 一本道无码v亚洲 | 亚洲日本欧美日韩高观看 | 欧美一区二区激情视频 | 亚洲野狼综合网站 | 国产女人乱人伦精品一区二区 | 亚洲精品无码国产爽快A片 亚洲精品无码成人AAA片 | 午夜免费无码福利视频麻豆 | 男男高h浪荡受h | 又黄又粗又爽免费观看 | 黑人玩弄极品人妻系列 | 美女拉开腿让男生桶到爽 | 啊好深啊别拔就射在里面 | 我不卡影院手机在线观看 | 国产精品观看视频免费完整版 | 在线免费福利 | JIZZ学生13| 久久欧洲视频 | 一级做a爰片久久毛片一 | 色综合精品无码一区二区三区 | 天天影视香色欲综合网 | 狠日狠干日曰射 | 亚洲qingse中文字幕久久 | 视频一区视频二区在线观看 | 亚洲国产在线精品国偷产拍 | 秋霞电影网午夜一级鲁丝片 | 在线毛片片免费观看 | 哪里能看毛片 | 亚洲免费成人 | 在线视频久久只有精品第一日韩 | 精品国产乱码久久久久久口爆 | 老湿司午夜爽爽影院榴莲视频 | 久久有码中文字幕 |