成人无码视频,亚洲精品久久久久av无码,午夜精品久久久久久毛片,亚洲 中文字幕 日韩 无码

資訊專欄INFORMATION COLUMN

多倫多大學(xué)反人臉識(shí)別,身份欺騙成功率達(dá)99.5%

TalkingData / 1891人閱讀

摘要:現(xiàn)在,人臉識(shí)別的克星反人臉識(shí)別問世了。多倫多大學(xué)教授和研究生的團(tuán)隊(duì)開發(fā)了一種算法,可以動(dòng)態(tài)地破壞人臉識(shí)別系統(tǒng)。因此,成功的攻擊需要同時(shí)欺騙所有對(duì)象方案。算法對(duì)抗生成器訓(xùn)練給定人臉檢測(cè)置信度的對(duì)抗成功率。

論文地址:

https://joeybose.github.io/assets/adversarial-attacks-face.pdf

在一些社交媒體平臺(tái),每次你上傳照片或視頻時(shí),它的人臉識(shí)別系統(tǒng)會(huì)試圖從這些照片和視頻中得到更多信息。比如,這些算法會(huì)提取關(guān)于你是誰、你的位置以及你認(rèn)識(shí)的其他人的數(shù)據(jù),并且,這些算法在不斷改進(jìn)。

現(xiàn)在,人臉識(shí)別的克星——“反人臉識(shí)別”問世了。

多倫多大學(xué)Parham Aarabi教授和研究生Avishek Bose的團(tuán)隊(duì)開發(fā)了一種算法,可以動(dòng)態(tài)地破壞人臉識(shí)別系統(tǒng)。

他們的解決方案利用了一種叫做對(duì)抗訓(xùn)練(adversarial training)的深度學(xué)習(xí)技術(shù),這種技術(shù)讓兩種人工智能算法相互對(duì)抗。

現(xiàn)在,深度神經(jīng)網(wǎng)絡(luò)已經(jīng)被應(yīng)用于各種各樣問題,如自動(dòng)駕駛車輛、癌癥檢測(cè)等,但是我們迫切需要更好地理解這些模型容易受到攻擊的方式。在圖像識(shí)別領(lǐng)域,在圖像中添加小的、往往不可察覺的干擾就可以欺騙一個(gè)典型的分類網(wǎng)絡(luò),使其將圖像錯(cuò)誤地分類。

這種被干擾的圖像被稱為對(duì)抗樣本( adversarial examples),它們可以被用來對(duì)網(wǎng)絡(luò)進(jìn)行對(duì)抗攻擊(adversarial attacks)。在制造對(duì)抗樣本方面已經(jīng)有幾種方法,它們?cè)趶?fù)雜性、計(jì)算成本和被攻擊模型所需的訪問級(jí)別等方面差異很大。

一般來說,對(duì)抗攻擊可以根據(jù)攻擊模型的訪問級(jí)別和對(duì)抗目標(biāo)進(jìn)行分類。白盒攻擊(white-box attacks)可以完全訪問它們正在攻擊的模型的結(jié)構(gòu)和參數(shù);黑盒攻擊(black-box attacks)只能訪問被攻擊模型的輸出。

一種基線方法是快速梯度符號(hào)法(FGSM),它基于輸入圖像的梯度對(duì)分類器的損失進(jìn)行攻擊。FGSM是一種白盒方法,因?yàn)樗枰L問被攻擊分類器的內(nèi)部。攻擊圖像分類的深度神經(jīng)網(wǎng)絡(luò)有幾種強(qiáng)烈的對(duì)抗攻擊方法,如L-BFGS、acobian-based Saliency Map Attack(JSMA)、DeepFool和carlin - wagner等。然而,這些方法都涉及到對(duì)可能的干擾空間進(jìn)行復(fù)雜的優(yōu)化,這使得它們速度慢,計(jì)算成本高。

與攻擊分類模型相比,攻擊目標(biāo)檢測(cè)的pipeline要困難得多。較先進(jìn)的檢測(cè)器,例如Faster R-CNN,使用不同尺度和位置的對(duì)象方案,然后對(duì)它們進(jìn)行分類;其目標(biāo)的數(shù)量比分類模型大幾個(gè)數(shù)量級(jí)。

此外,如果受到攻擊的方案只是總數(shù)的一小部分,那么仍然可以通過不同的方案子集正確地檢測(cè)出受干擾的圖像。因此,成功的攻擊需要同時(shí)欺騙所有對(duì)象方案。

在這個(gè)案例中,研究人員證明了對(duì)較先進(jìn)的人臉檢測(cè)器進(jìn)行快速對(duì)抗攻擊是可能的。

研究人員開發(fā)了一種“隱私濾鏡”,可以干擾人臉識(shí)別算法。該系統(tǒng)依賴于2種AI算法:一種執(zhí)行連續(xù)的人臉檢測(cè),另一種設(shè)計(jì)來破壞前者。

研究人員提出一種針對(duì)基于Faster R-CNN的人臉探測(cè)器的新攻擊方法。該方法通過產(chǎn)生微小的干擾(perturbation),當(dāng)將這些干擾添加到輸入的人臉圖像中時(shí),會(huì)導(dǎo)致預(yù)訓(xùn)練過的人臉探測(cè)器失效。

為了產(chǎn)生對(duì)抗干擾,研究人員提出針對(duì)基于預(yù)訓(xùn)練Faster R-CNN人臉檢測(cè)器訓(xùn)練一個(gè)生成器。給定一個(gè)圖像,生成器將產(chǎn)生一個(gè)小的干擾,可以添加到圖像中以欺騙人臉檢測(cè)器。人臉檢測(cè)器只在未受干擾的圖像上進(jìn)行脫機(jī)訓(xùn)練,因此對(duì)生成器的存在渾然不覺。

隨著時(shí)間的推移,生成器學(xué)會(huì)了產(chǎn)生干擾,這種干擾可以有效地欺騙它所訓(xùn)練的人臉探測(cè)器。生成一個(gè)對(duì)抗樣本相當(dāng)快速而且成本低,甚至比FGSM的成本更低,因?yàn)闉檩斎雱?chuàng)建一個(gè)干擾只需要在生成器經(jīng)過充分的訓(xùn)練后進(jìn)行前向傳遞( forward pass)。

兩個(gè)神經(jīng)網(wǎng)絡(luò)相互對(duì)抗,形成“隱私”濾鏡

研究人員設(shè)計(jì)了兩個(gè)神經(jīng)網(wǎng)絡(luò):第一個(gè)用于識(shí)別人臉,第二個(gè)用于干擾第一個(gè)神經(jīng)網(wǎng)絡(luò)的識(shí)別人臉任務(wù)。這兩個(gè)神經(jīng)網(wǎng)絡(luò)不斷地相互對(duì)抗,并相互學(xué)習(xí)。

其結(jié)果是一個(gè)類似instagram的“隱私”濾鏡,可以應(yīng)用于照片,以保護(hù)隱私。其中的秘訣是他們的算法改變了照片中的一些特定像素,但人眼幾乎察覺不到這些變化。

“干擾性的AI算法不能‘攻擊’用于檢測(cè)人臉的神經(jīng)網(wǎng)絡(luò)正在尋找的東西?!?該項(xiàng)目的主要作者Bose說:“例如,如果檢測(cè)網(wǎng)絡(luò)正在尋找眼角,干擾算法就會(huì)調(diào)整眼角,使得眼角的像素不那么顯眼。算法在照片中造成了非常微小的干擾,但對(duì)于檢測(cè)器來說,這些干擾足以欺騙系統(tǒng)?!?/p>

算法1:對(duì)抗生成器訓(xùn)練

給定人臉檢測(cè)置信度的對(duì)抗成功率。α值是邊界框區(qū)域被分類為人臉之前的confidence threshold,右邊兩列表示600張照片中檢測(cè)到臉部的數(shù)量。

研究人員在300-W人臉數(shù)據(jù)集上測(cè)試了他們的系統(tǒng),該數(shù)據(jù)集包含多種族,不同照明條件和背景環(huán)境的超過600張人臉照片,是一個(gè)業(yè)界的標(biāo)準(zhǔn)庫(kù)。結(jié)果表明,他們的系統(tǒng)可以將原本可檢測(cè)到的人臉比例從接近100%降低到0.5%。

所提出的對(duì)抗攻擊的pineline,其中生成器網(wǎng)絡(luò)G創(chuàng)建圖像條件干擾,以欺騙人臉檢測(cè)器。

Bose說:“這里的關(guān)鍵是訓(xùn)練兩個(gè)神經(jīng)網(wǎng)絡(luò)相互對(duì)抗——一個(gè)創(chuàng)建越來越強(qiáng)大的面部檢測(cè)系統(tǒng),另一個(gè)創(chuàng)建更強(qiáng)大的工具來禁用面部檢測(cè)?!痹搱F(tuán)隊(duì)的研究將于即將舉行的2018年IEEE國(guó)際多媒體信號(hào)處理研討會(huì)上發(fā)表和展示。

將300-W數(shù)據(jù)集的人臉檢測(cè)和相應(yīng)的對(duì)抗樣本進(jìn)行對(duì)比,這些樣本具有生成的干擾,沒有被Faster R-CNN人臉檢測(cè)器檢測(cè)到。被檢測(cè)到的人臉被包圍在具有相應(yīng)置信度值的邊界框中。 為了可視化,干擾被放大了10倍。

除了禁用面部識(shí)別之外,這項(xiàng)新技術(shù)還會(huì)干擾基于圖像的搜索、特征識(shí)別、情感和種族判斷以及其他可以自動(dòng)提取面部屬性。

接下來,該團(tuán)隊(duì)希望通過app或網(wǎng)站公開這個(gè)隱私濾鏡。

“十年前,這些算法必須要由人類定義,但現(xiàn)在是神經(jīng)網(wǎng)絡(luò)自己學(xué)習(xí)——你不需要向它們提供任何東西,除了訓(xùn)練數(shù)據(jù),”Aarabi說。“最終,它們可以做出一些非常了不起的事情,有巨大的潛力。”

原文:

https://www.eurekalert.org/multimedia/pub/171921.php

歡迎加入本站公開興趣群

商業(yè)智能與數(shù)據(jù)分析群

興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉(cāng)庫(kù),數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)

QQ群:81035754

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://m.hztianpu.com/yun/4776.html

相關(guān)文章

  • TP-GAN 讓圖像生成再獲突破,根據(jù)單一側(cè)臉生成正面逼真人臉

    摘要:中科院自動(dòng)化所,中科院大學(xué)和南昌大學(xué)的一項(xiàng)合作研究,提出了雙路徑,通過單一側(cè)面照片合成正面人臉圖像,取得了當(dāng)前較好的結(jié)果。研究人員指出,這些合成的圖像有可能用于人臉分析的任務(wù)?;謴?fù)的圖像的質(zhì)量嚴(yán)重依賴于訓(xùn)練過程中的先驗(yàn)或約束條件。 中科院自動(dòng)化所(CASIA),中科院大學(xué)和南昌大學(xué)的一項(xiàng)合作研究,提出了雙路徑 GAN(TP-GAN),通過單一側(cè)面照片合成正面人臉圖像,取得了當(dāng)前較好的結(jié)果。研...

    gougoujiang 評(píng)論0 收藏0
  • 淺談人臉識(shí)別技術(shù)的方法和應(yīng)用

    摘要:人臉識(shí)別技術(shù)所獨(dú)具的活性判別能力保證了他人無法以非活性的照片木偶蠟像來欺騙識(shí)別系統(tǒng)。人臉識(shí)別技術(shù)所采用的依據(jù)是人臉照片或?qū)崟r(shí)攝取的人臉圖像,因而無疑是最容易獲得的。 人臉識(shí)別是近年來模式識(shí)別、圖像處理、機(jī)器視覺、神經(jīng)網(wǎng)絡(luò)以及認(rèn)知科學(xué)等領(lǐng)域研究的熱點(diǎn)課題之一,被廣泛應(yīng)用于公共安全(罪犯識(shí)別等)...

    Charles 評(píng)論0 收藏0
  • 深度學(xué)習(xí)在人臉識(shí)別中的應(yīng)用 —— 優(yōu)圖祖母模型的「進(jìn)化」

    摘要:本文著重以人臉識(shí)別為例介紹深度學(xué)習(xí)技術(shù)在其中的應(yīng)用,以及優(yōu)圖團(tuán)隊(duì)經(jīng)過近五年的積累對(duì)人臉識(shí)別技術(shù)乃至整個(gè)人工智能領(lǐng)域的一些認(rèn)識(shí)和分享。從年左右,受深度學(xué)習(xí)在整個(gè)機(jī)器視覺領(lǐng)域迅猛發(fā)展的影響,人臉識(shí)別的深時(shí)代正式拉開序幕。 騰訊優(yōu)圖隸屬于騰訊社交網(wǎng)絡(luò)事業(yè)群(SNG),團(tuán)隊(duì)整體立足于騰訊社交網(wǎng)絡(luò)大平臺(tái),專注于圖像處理、模式識(shí)別、機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘、深度學(xué)習(xí)、音頻語(yǔ)音分析等領(lǐng)域開展技術(shù)研發(fā)和業(yè)務(wù)落地。...

    546669204 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

閱讀需要支付1元查看
<