<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          面部識(shí)別必看!5篇頂級(jí)論文了解如何實(shí)現(xiàn)人臉?lè)雌墼p、跨姿勢(shì)識(shí)別等

          共 2765字,需瀏覽 6分鐘

           ·

          2019-11-01 09:16


          91ed7fa7d3cfe323f238e712dff53c56.webp


          ??新智元報(bào)道??

          來(lái)源:lionbridge

          編輯:鵬飛

          【新智元導(dǎo)讀】?面部識(shí)別或面部識(shí)別是計(jì)算機(jī)視覺(jué)中最大的研究領(lǐng)域之一。許多公司都投資于面部識(shí)別技術(shù)的研究和開(kāi)發(fā)。本文篩選了5篇非常重量級(jí)的有關(guān)人臉識(shí)別的機(jī)器學(xué)習(xí)論文,并提煉出論文最關(guān)鍵的信息。來(lái)新智元 AI 朋友圈與AI大咖一起討論吧~



          面部識(shí)別是計(jì)算機(jī)視覺(jué)中最大的研究領(lǐng)域之一。現(xiàn)在,我們可以使用面部識(shí)別來(lái)解鎖手機(jī),在安全門上驗(yàn)證身份,并在某些國(guó)家/地區(qū)進(jìn)行刷臉支付。許多公司都投資于面部識(shí)別技術(shù)的研究和開(kāi)發(fā),本文將重點(diǎn)介紹其中的一些研究,并介紹五篇有關(guān)人臉識(shí)別的機(jī)器學(xué)習(xí)論文。


          1. 大規(guī)模多模式人臉?lè)雌墼p的數(shù)據(jù)集和基準(zhǔn)


          ce6cec476475e2e8d83ced6e23ade78f.webp
          隨著大量實(shí)際應(yīng)用,人臉識(shí)別技術(shù)變得越來(lái)越重要。從智能手機(jī)解鎖到人臉驗(yàn)證付款方式,人臉識(shí)別可以在許多方面提高安全性和監(jiān)視能力。
          d9ce5c7dbf0db9e59a67da9a6c8db45b.webp
          但是,該技術(shù)也帶來(lái)一些風(fēng)險(xiǎn)。可以使用多種面部欺詐方法來(lái)欺詐這些系統(tǒng)。因此,面部防欺詐對(duì)于防止安全漏洞至關(guān)重要。


          為了支持面部反欺詐研究,本文的作者介紹了一種名為CASIASURF的多模式面部反欺詐數(shù)據(jù)集。截止本文撰寫之日,它是最大的面部反欺詐開(kāi)放數(shù)據(jù)集。


          具體來(lái)說(shuō),該數(shù)據(jù)集包括以RGB,深度和IR方式從1000個(gè)主題中拍攝的21000個(gè)視頻。除了數(shù)據(jù)集外,作者還提出了一種新穎的多模式融合模型,作為面部反欺詐的基準(zhǔn)。


          發(fā)布/最近更新– 2019年4月1日


          作者和投稿人–Shifeng Zhang (NLPR, CASIA, UCAS, China) , Xiaobo Wang (JD AI Research), Ajian Liu (MUST, Macau, China), Chenxu Zhao (JD AI Research), Jun Wan (NLPR, CASIA, UCAS, China), Sergio Escalera (University of Barcelona), Hailin Shi (JD AI Research), Zezheng Wang (JD Finance), Stan Z. Li (NLPR, CASIA, UCAS, China).。


          https://arxiv.org/pdf/1812.00408v3.pdf


          2. FaceNet:人臉識(shí)別和聚類的統(tǒng)一嵌入

          a54d75a6451300288904df923b9262ed.webp

          ?
          在本文中,作者提出了一種稱為FaceNet的面部識(shí)別系統(tǒng)。?


          該系統(tǒng)使用深度卷積神經(jīng)網(wǎng)絡(luò)優(yōu)化嵌入,而不是使用中間瓶頸層。作者指出,該方法最重要的方面是系統(tǒng)的端到端學(xué)習(xí)。


          該團(tuán)隊(duì)在CPU集群上訓(xùn)練了卷積神經(jīng)網(wǎng)絡(luò)1000到2000小時(shí)。然后,他們?cè)谒膫€(gè)數(shù)據(jù)集上評(píng)估了他們的方法。?


          值得注意的是,F(xiàn)aceNet在著名的野外標(biāo)記人臉(LFW)數(shù)據(jù)集上的準(zhǔn)確性達(dá)到99.63%,在Youtube Faces數(shù)據(jù)庫(kù)上達(dá)到95.12%。


          發(fā)布/最近更新– 2015年6月17日


          作者和撰稿人– Florian Schroff, Dmitry Kalenichenko, and James Philbin, from Google Inc.


          https://arxiv.org/pdf/1503.03832v3.pdf


          3. 概率臉部嵌入442f495119ceb4f9ae27f36afad5355a.webp用于面部識(shí)別的當(dāng)前嵌入方法,能夠在受控設(shè)置中實(shí)現(xiàn)高性能。這些方法通過(guò)拍攝一張臉部圖像并將有關(guān)該臉部的數(shù)據(jù)存儲(chǔ)在潛在的語(yǔ)義空間中而起作用。


          但是,當(dāng)在完全不受控制的設(shè)置下進(jìn)行測(cè)試時(shí),當(dāng)前方法無(wú)法正常執(zhí)行。這是由于在圖像中缺少面部特征或模棱兩可的情況。這種情況的一個(gè)例子是監(jiān)視視頻中的人臉識(shí)別,其中視頻的質(zhì)量可能很低。


          為了幫助解決這個(gè)問(wèn)題,本文的作者提出了概率面孔嵌入(PFE)。作者提出了一種將現(xiàn)有確定性嵌入轉(zhuǎn)換為PFE的方法。最重要的是,作者指出,這種方法有效地提高了人臉識(shí)別模型的性能。


          發(fā)布/最新更新– 2019年8月7日


          作者和貢獻(xiàn)者–Yichun Shi and Anil K. Jain, from Michigan State University.


          https://arxiv.org/pdf/1904.09658.pdf


          4. 人臉識(shí)別的魔鬼在噪音中
          41f46f202dc01bfe8a85df051bc944d9.webp商湯研究院,加利福尼亞大學(xué)圣地亞哥分校和南洋理工大學(xué)的研究人員研究了大規(guī)模面部圖像數(shù)據(jù)集中的噪聲影響。


          由于它們的規(guī)模和成本效益,許多大型數(shù)據(jù)集都容易產(chǎn)生標(biāo)簽噪聲。本文旨在提供有關(guān)標(biāo)簽噪聲源及其在人臉識(shí)別模型中的后果的知識(shí)。此外,他們的目標(biāo)是建立并發(fā)布一個(gè)名為IMDb-Face的干凈人臉識(shí)別數(shù)據(jù)集。


          該研究的兩個(gè)主要目標(biāo)是發(fā)現(xiàn)噪聲對(duì)最終性能的影響,并確定注釋臉部身份的最佳策略。為此,該團(tuán)隊(duì)手動(dòng)清理了兩個(gè)流行的張開(kāi)面部圖像數(shù)據(jù)集,MegaFace和MS-Celeb-1M。他們的實(shí)驗(yàn)表明,僅在其清理的MegaFace數(shù)據(jù)集的32%和MS-Celeb-1M清理的數(shù)據(jù)集的20%上訓(xùn)練的模型與在整個(gè)原始未清理的數(shù)據(jù)集上訓(xùn)練的模型具有相似的性能。


          發(fā)布/最新更新– 2018年7月31日


          作者和貢獻(xiàn)者–Fei Wang (SenseTime), Liren Chen (University of California San Diego), Cheng Li (SenseTime), Shiyao Huang (SenseTime), Yanjie Chen (SenseTime), Chen Qian (SenseTime), and Chen Change Loy (Nanyang Technological University).?


          https://arxiv.org/pdf/1807.11649v1.pdf


          5. VGGFace2:用于識(shí)別跨姿勢(shì)和年齡的人臉的數(shù)據(jù)集

          c18bd36aefb7831d231bec3f4af14b07.webp


          關(guān)于深度卷積神經(jīng)網(wǎng)絡(luò)的面部識(shí)別已經(jīng)進(jìn)行了許多研究。 反過(guò)來(lái),已經(jīng)創(chuàng)建了許多大規(guī)模的面部圖像數(shù)據(jù)集來(lái)訓(xùn)練那些模型。 但是,本文的作者指出,先前發(fā)布的數(shù)據(jù)集并未包含有關(guān)面部姿勢(shì)和年齡變化的大量數(shù)據(jù)。


          在本文中,牛津大學(xué)的研究人員介紹了VGGFace2數(shù)據(jù)集。 該數(shù)據(jù)集包含年齡,種族,照明和姿勢(shì)變化范圍廣泛的圖像。 數(shù)據(jù)集總共包含331萬(wàn)張圖像和9,131個(gè)對(duì)象。


          發(fā)布/最新更新– 2018年5月13日


          作者和撰稿人–Qiong Cao, Li Shen, Weidi Xie, Omkar M. Parkhi, and Andrew Zisserman, from the Visual Geometry Group at the University of Oxford.?


          https://arxiv.org/pdf/1710.08092v2.pdf


          希望上面有關(guān)人臉識(shí)別的機(jī)器學(xué)習(xí)論文有助于加深您對(duì)該領(lǐng)域工作的了解。


          瀏覽 75
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  亚洲综合成人视频 | 老熟女乱伦视频 | 五月丁香啪啪综合网 | 国精产品一区一区三区有限是什么 | 97精品欧美91久久久久久久 |