當(dāng)前,計算機視覺的已經(jīng)成為了一個跨學(xué)科的領(lǐng)域,計算機視覺源于1980年左右的神經(jīng)網(wǎng)絡(luò)技術(shù),但是直到近幾年才真正實現(xiàn)了大規(guī)模商業(yè)化落地。大規(guī)模的資金進入,促使更多專注于計算機視覺的企業(yè)不斷出現(xiàn),這些企業(yè)在不同的領(lǐng)域通過計算機視覺技術(shù)不斷的改造升級著原有的商業(yè)模式。作為一個靈感來自人類視覺大腦皮層的技術(shù),我們現(xiàn)在是否已經(jīng)處在機器物體探測或分類能力與人類視覺相當(dāng),甚至更強的階段了呢?
曠視科技:AI鼻紋識別
近期,曠視科技推出AI鼻紋識別解決方案,這項解決方案先應(yīng)用于犬只身份認(rèn)證。專用于寵物識別。有別于瞳孔、臉型等其他犬只認(rèn)證方式,曠視選擇鼻紋作為識別的關(guān)鍵特征。與人類指紋類似,犬類鼻紋具有性與穩(wěn)定不變性,即不存在鼻紋完全相同的兩只犬、同一只犬的鼻紋亦不會隨著成長而改變。主人只需對準(zhǔn)犬鼻進行簡單的抓拍或者視頻錄像,系統(tǒng)通過犬鼻檢測,定位出鼻紋關(guān)鍵點,將提取到的鼻紋深度圖信息匯入后臺數(shù)據(jù)庫,更可為犬只生成一張專屬的身份證。目前,曠視鼻紋識別技術(shù)能達(dá)到犬只的1:1比對,在誤識率為萬分之一的情況下,試點場景中準(zhǔn)確率95%;
極鏈科技:視頻識別
目前視頻人臉識別還有很多的困難與挑戰(zhàn),如視頻圖像質(zhì)量差、人臉圖像小燈問題,極鏈科技提出了以四模塊對場景中的人臉進行識別。
1.視頻結(jié)構(gòu)化,將視頻用鏡頭分割。通常采用全局特征和局部特征相結(jié)合的方法。全局特征檢測全局顏色的分布突變,然后借用局部特征獲得的人臉識別的跟蹤結(jié)果、跟蹤軌跡的斷續(xù)來判斷視頻是否具有鏡頭切換。跟蹤來判斷鏡頭切換有一個很大的優(yōu)點,因為后續(xù)的步驟也會采用相似的算法,所以這一步驟所需的算法是可以重復(fù)使用的。
2.人臉軌跡提取。完成了鏡頭分割以后,就可以分割好的單一鏡頭里進行人臉軌跡提取。在軌跡提取的算法上,同樣要考慮準(zhǔn)確率和速度的指標(biāo)。要實現(xiàn)速度和準(zhǔn)確率的平衡,可以有以下兩種途徑:一是間隔采樣or逐幀處理,二是檢測&跟蹤的配合。
3.人臉識別。有了人臉軌跡之后,就可以開始進行人臉的識別了。但是在將人臉數(shù)據(jù)輸入深度網(wǎng)絡(luò)之前,還需要對其進行必要的變換和處理。其中一部分變換在針對人臉這一部分非常重要,尤其是在消費級視頻里,那就是人臉的對齊。人臉對齊是利用人臉的特征點檢測定位,將各種姿勢的人臉圖像還原矯正為正臉的過程。在算法框架中,需要加入人臉質(zhì)量評估的算法,以過濾低質(zhì)量的人臉圖片,保證人臉數(shù)據(jù)的準(zhǔn)確率。在樣本足夠的前提下,可以利用訓(xùn)練得到的模型對人臉樣本進行特征提取。測試的時候,在視頻中檢測得的人臉后,將其輸入到生成的特征向量里,與人臉互動的特征向量進行匹配,從而找到在特征空間中接近的一個樣本。
4.識別結(jié)果融合。以上提到的人臉識別都是針對單幀識別的圖片而言的,之前說到的系統(tǒng)識別結(jié)果都是針對整個人臉軌跡而言。因此,后需要將人臉識別的結(jié)果與整條人臉軌跡融合起來,得到整個軌跡的識別結(jié)果。
商湯科技:面部圖片處理
近日,來自商湯科技,香港中文大學(xué)以及香港大學(xué)的研究團隊提出了一種稱為MaskGAN的新型框架,可實現(xiàn)多樣化和交互式的面部操作。其主要觀點是語義掩模作為靈活的面部操作的適當(dāng)中間表示,使其具有保真度。MaskGAN有兩個主要組成部分:
1.密集映射
2.編輯行為模擬訓(xùn)練
具體而言,密集映射網(wǎng)絡(luò)學(xué)習(xí)自由形式的用戶修改掩碼和目標(biāo)圖像之間的樣式映射,從而實現(xiàn)不同的生成結(jié)果。
以色列魏茨曼科學(xué)研究院:圖像分離
本月,以色列魏茨曼科學(xué)研究所的研究人員開發(fā)出了一項名為Double-DIP的新技術(shù),該技術(shù)能讓系統(tǒng)在沒有大量訓(xùn)練數(shù)據(jù)的情況下,通過深度學(xué)習(xí)來對圖像進行編輯,分離人們在圖片中想要的和不想要的部分。該研究基于一項名為DIP(Deep Image Prior)的混合圖像恢復(fù)技術(shù),因此研究人員將他們開發(fā)的新分離圖像方法稱為Double-DIP。DIP技術(shù)的研究成果已于美國時間2018年7月18日提交在arxiv上,名為《圖像恢復(fù)的混合稀疏先驗學(xué)習(xí):深度學(xué)習(xí)與稀疏編碼的結(jié)合(Learning Hybrid Sparsity Prior for Image Restoration: Where Deep Learning Meets Sparse Coding)》。
呂貝克大學(xué):醫(yī)學(xué)圖像生成新方法
當(dāng)前,GAN應(yīng)用于醫(yī)學(xué)研究還面臨一項重大挑戰(zhàn)。深度學(xué)習(xí)算法需要對高分辨率圖像進行訓(xùn)練,才能產(chǎn)生佳預(yù)測,然而合成這樣的高分辨率圖像,尤其是3D圖像,需要大量的計算能力。來自呂貝克大學(xué)醫(yī)學(xué)信息學(xué)研究所的研究人員提出了一種新方法,可以大大降低硬件的配置要求。研究人員把圖像生成的過程分解為幾個階段:首先利用GAN生成低分辨率圖像,然后在正確的分辨率下每次生成一小部分的細(xì)節(jié)圖像。通過實驗,研究人員發(fā)現(xiàn)這種方法不僅生成了逼真的高分辨率2D和3D圖像,而且無論圖像大小,支出費用都保持不變。
小結(jié):
在深度學(xué)習(xí)技術(shù)出現(xiàn)之前,很多應(yīng)用都遇到了瓶頸,進步很慢,每年只有大概的性提升。但隨著深度學(xué)習(xí)的進步,計算機視覺的發(fā)展經(jīng)歷了一個巨大的飛躍,技術(shù)的不斷升級也催生出了一系列跨行業(yè)的應(yīng)用。隨著主流的科技巨頭入場,計算機視覺領(lǐng)域已經(jīng)熱鬧非凡,但如果想要開創(chuàng)出一些新的應(yīng)用獲獎應(yīng)用能力再進行提升,恐怕還有不短的路需要走。
版權(quán)與免責(zé)聲明:
凡本站注明“來源:智能制造網(wǎng)”的所有作品,均為浙江興旺寶明通網(wǎng)絡(luò)有限公司-智能制造網(wǎng)合法擁有版權(quán)或有權(quán)使用的作品,未經(jīng)本站授權(quán)不得轉(zhuǎn)載、摘編或利用其它方式使用上述作品。已經(jīng)本網(wǎng)授權(quán)使用作品的,應(yīng)在授權(quán)范圍內(nèi)使用,并注明“來源:智能制造網(wǎng)”。違反上述聲明者,本站將追究其相關(guān)法律責(zé)任。
本站轉(zhuǎn)載并注明自其它來源(非智能制造網(wǎng))的作品,目的在于傳遞更多信息,并不代表本站贊同其觀點或和對其真實性負(fù)責(zé),不承擔(dān)此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。如其他媒體、平臺或個人從本站轉(zhuǎn)載時,必須保留本站注明的作品第一來源,并自負(fù)版權(quán)等法律責(zé)任。如擅自篡改為“稿件來源:智能制造網(wǎng)”,本站將依法追究責(zé)任。
鑒于本站稿件來源廣泛、數(shù)量較多,如涉及作品內(nèi)容、版權(quán)等問題,請與本站聯(lián)系并提供相關(guān)證明材料:聯(lián)系電話:0571-89719789;郵箱:1271141964@qq.com。