自動化所在生成對抗網絡研究掉包本身人臉識別

文章来源:文迪 时间:2018-12-26

  自動化所在生成對抗網絡研究掉包本身人臉識別領域獲進展

 

  近日,自動化研讨所智能感知與計算研讨中心在生成對抗網絡基礎上提出高保真度的姿態不變模型(High Fidelity Pose Invariant Model,HF-PIM)來战胜人臉識別任務中最為經典的姿態纷歧致問題 。實驗結果标明,該办法在基準數據集上的表現的視覺效果和定量功能指標都優於当前最好的基於對抗生成網絡的办法 。此外,HF-PIM所撑腰的生成圖像分辨率也在原无方法的基礎上提升瞭一倍 。該論文被神經信息處理系統大會(NIPS)所收錄。

  生成對抗網絡的提出是繼深度神經網絡之後的一大反动性新進展,已被《麻省理工科技評論》評為2018年“环球十大打破性技術”(10 Breakthrough Technologies 2018)。回看過去幾年的上榜技術,越來越多的人工智能相關技術入選榜單,其中包括:2008年機器學習、2009年的Siri、2013年的深度學習、2014年的神經形態芯片、2016年的語音接口與知識分享型機器人,以及2017年的自動駕駛卡車與強化學習。在往年,最具打破性的人工智能技術是對抗性神經網絡(Dueling Neural Networks)/對抗式生成網絡(GAN)——通過兩個AI系統的競爭對抗,極大化减速機器學習的過程,進而賦予機器智能過去從未企及的想像力 。

  近年來,自動化所孫哲南、赫然研讨組在生成對抗網絡的原理和應用的研讨上获得瞭一系列的结果,先前已在IEEE國際計算機視覺與形式識別會議(CVPR)、國際計算機視覺大會(ICCV)上發表瞭一系列關於生成對抗網絡和正面人臉圖像分解的研讨任务,当前在國際上處於領先身分。

  在該論文中,作者總結瞭先前任务中存在的一些限制(例如,過於依賴低維信息約束,不克很好地坚持原圖的語義信息等)。為瞭解決這些問題,作者對其具體做法進行總結如下:1、引入瞭一種能反映三維人臉模型和二維的人臉圖像之間點到點的關聯稀疏關聯場,讓網絡能夠在二維圖像的指導下學習到隱含的三維人臉信息。2、設計瞭一種全新的紋理歪曲(warping)過程,能够无效地把人臉紋理映射到圖像域,同時又能够最大水平地坚持輸入的語義信息 。3、提出瞭一種對抗殘差字典學習過程,從而能够在不依賴三維數據的情況下更无效地學習人臉紋理特征。4、實驗标明,該办法不僅在定量和定性指標上明顯地超過瞭已无方法,並且把生成圖像的分辨率进步瞭一倍。

  

  

高保真度的姿態不變模型表示圖

  

  在CelebA數據庫的HQ子集上的可視化結果,第一行為輸入圖像,第二行為通過該模型進行人臉正面化後的結果。HF-PIM是首個撑腰生成256*256可視化結果的模型  。

  

  在IJBA數據庫上的可視化結果,第一行為輸入圖像,第二行為通過該模型進行人臉正面化後的結果。

  

  在LFW(左圖)數據庫和IJB-A(右圖)數據庫上和已无方法的對比結果 。ACC: 準確率 。AUC:ROC曲線上面積。FAR:錯誤接收率。Rank-1:第一次命中識別率。

  

  

在Multi-PIE數據庫上在差别的視角下對第一次命中識別率的對比。