一張貼紙就把AI給騙了!華為破解全球最厲害的人臉識別系統

2019-09-23 11:07:25

來自:開源最前線(ID:OpenSourceTop) 

綜合自:https://arxiv.org/pdf/1908.08705.pdf、新智元、機器之心等


近日,Reddit 上一條帖子火了:我們使用對抗攻擊技術攻破了目前最好的公共 Face ID 系統 ——ArcFace。


攻破Face ID 系統的是莫斯科國立大學和華為莫斯科研究中心的兩位研究人員,他們利用一張貼紙就輕易實現了,他們還公開了 demo,並開源了他們的方法。


就像這樣:



就算把光線調低,AI依然識別不出來



把燈關了、強光照射、側面打光......還是認不出這是個人


下面我們一起看看他們是如何通過一張貼紙在不同拍攝條件下攻破這個Face ID系統,他們這種對抗攻擊為 AdvHat,並總結了AdvHat具有以下優點:
  • 通過一張貼紙就可以攻破世界上最先進的人臉識別系統

  • 攻擊容易復現,只需要一張矩形彩色貼紙

  • 一次攻擊可以在不同拍攝條件下實現

  • 它提出了一種新的投影技術,在攻擊過程保持圖形逼真。



這是一種攻擊人臉識別系統的新方法。帽子上的貼紙顯著降低了與 ground truth 類的相似性。左邊的對中,與 ground truth 的相似度下降了 0.592,右邊對下降了 0.429。



上圖是攻擊的整個流程架構。首先你需要將貼紙塑造成一個真實的形態。其次,將它投射到面部圖像上,第三,使用不同的參數將圖像轉換為ArcFace輸入模板,最後,我們將模板輸入弧面,評估餘弦相似度和 TV loss,用於修改貼紙圖像



此外,根據此前的研究,眉毛是人類識別人臉的最重要特徵,因此,團隊在貼紙上做了一個揚起的眉毛,從而生成一個更為成功的對抗圖像。


最後,團隊還請了4女6男進行測試,得出的結果如下:



藍色,是一個人戴上普通帽子前後,AI判斷的類別相似度,在70%上下。(判斷類別一致)

橙色,是一個人貼上對抗符前後,AI判斷的類別相似度,降到了20%以下。(判斷類別不一致。)


在Reddit上,許多網友都對這項研究讚不絕口,看完後你有什麼感想呢?最後附上演示視頻:


論文地址:https://arxiv.org/pdf/1908.08705.pdf

開源地址:https://github.com/papermsucode/advhat


●編號883,輸入編號直達本文

●輸入m獲取文章目錄

推薦↓↓↓

開源最前線

已同步到看一看
在看



熱點新聞