免费看aⅴ,天天插天天干天天射,呦女网,入逼逼

正在閱讀:計算機視覺邁進新征程 “玩家”找出哪些新玩法?

計算機視覺邁進新征程 “玩家”找出哪些新玩法?

2019-08-09 08:49:05來源:AiChinaTech 關(guān)鍵詞:計算機視覺閱讀量:24158

導(dǎo)讀:當(dāng)前,計算機視覺的已經(jīng)成為了一個跨學(xué)科的領(lǐng)域,計算機視覺源于1980年左右的神經(jīng)網(wǎng)絡(luò)技術(shù),但是直到近幾年才真正實現(xiàn)了大規(guī)模商業(yè)化落地。
  當(dāng)前,計算機視覺的已經(jīng)成為了一個跨學(xué)科的領(lǐng)域,計算機視覺源于1980年左右的神經(jīng)網(wǎng)絡(luò)技術(shù),但是直到近幾年才真正實現(xiàn)了大規(guī)模商業(yè)化落地。大規(guī)模的資金進入,促使更多專注于計算機視覺的企業(yè)不斷出現(xiàn),這些企業(yè)在不同的領(lǐng)域通過計算機視覺技術(shù)不斷的改造升級著原有的商業(yè)模式。作為一個靈感來自人類視覺大腦皮層的技術(shù),我們現(xiàn)在是否已經(jīng)處在機器物體探測或分類能力與人類視覺相當(dāng),甚至更強的階段了呢?
 
  曠視科技:AI鼻紋識別
 
  近期,曠視科技推出AI鼻紋識別解決方案,這項解決方案先應(yīng)用于犬只身份認(rèn)證。專用于寵物識別。有別于瞳孔、臉型等其他犬只認(rèn)證方式,曠視選擇鼻紋作為識別的關(guān)鍵特征。與人類指紋類似,犬類鼻紋具有性與穩(wěn)定不變性,即不存在鼻紋完全相同的兩只犬、同一只犬的鼻紋亦不會隨著成長而改變。主人只需對準(zhǔn)犬鼻進行簡單的抓拍或者視頻錄像,系統(tǒng)通過犬鼻檢測,定位出鼻紋關(guān)鍵點,將提取到的鼻紋深度圖信息匯入后臺數(shù)據(jù)庫,更可為犬只生成一張專屬的身份證。目前,曠視鼻紋識別技術(shù)能達(dá)到犬只的1:1比對,在誤識率為萬分之一的情況下,試點場景中準(zhǔn)確率95%;
 
  極鏈科技:視頻識別
 
  目前視頻人臉識別還有很多的困難與挑戰(zhàn),如視頻圖像質(zhì)量差、人臉圖像小燈問題,極鏈科技提出了以四模塊對場景中的人臉進行識別。
 
  1.視頻結(jié)構(gòu)化,將視頻用鏡頭分割。通常采用全局特征和局部特征相結(jié)合的方法。全局特征檢測全局顏色的分布突變,然后借用局部特征獲得的人臉識別的跟蹤結(jié)果、跟蹤軌跡的斷續(xù)來判斷視頻是否具有鏡頭切換。跟蹤來判斷鏡頭切換有一個很大的優(yōu)點,因為后續(xù)的步驟也會采用相似的算法,所以這一步驟所需的算法是可以重復(fù)使用的。
 
  2.人臉軌跡提取。完成了鏡頭分割以后,就可以分割好的單一鏡頭里進行人臉軌跡提取。在軌跡提取的算法上,同樣要考慮準(zhǔn)確率和速度的指標(biāo)。要實現(xiàn)速度和準(zhǔn)確率的平衡,可以有以下兩種途徑:一是間隔采樣or逐幀處理,二是檢測&跟蹤的配合。
 
  3.人臉識別。有了人臉軌跡之后,就可以開始進行人臉的識別了。但是在將人臉數(shù)據(jù)輸入深度網(wǎng)絡(luò)之前,還需要對其進行必要的變換和處理。其中一部分變換在針對人臉這一部分非常重要,尤其是在消費級視頻里,那就是人臉的對齊。人臉對齊是利用人臉的特征點檢測定位,將各種姿勢的人臉圖像還原矯正為正臉的過程。在算法框架中,需要加入人臉質(zhì)量評估的算法,以過濾低質(zhì)量的人臉圖片,保證人臉數(shù)據(jù)的準(zhǔn)確率。在樣本足夠的前提下,可以利用訓(xùn)練得到的模型對人臉樣本進行特征提取。測試的時候,在視頻中檢測得的人臉后,將其輸入到生成的特征向量里,與人臉互動的特征向量進行匹配,從而找到在特征空間中接近的一個樣本。
 
  4.識別結(jié)果融合。以上提到的人臉識別都是針對單幀識別的圖片而言的,之前說到的系統(tǒng)識別結(jié)果都是針對整個人臉軌跡而言。因此,后需要將人臉識別的結(jié)果與整條人臉軌跡融合起來,得到整個軌跡的識別結(jié)果。
 
  商湯科技:面部圖片處理
 
  近日,來自商湯科技,香港中文大學(xué)以及香港大學(xué)的研究團隊提出了一種稱為MaskGAN的新型框架,可實現(xiàn)多樣化和交互式的面部操作。其主要觀點是語義掩模作為靈活的面部操作的適當(dāng)中間表示,使其具有保真度。MaskGAN有兩個主要組成部分:
 
  1.密集映射
 
  2.編輯行為模擬訓(xùn)練
 
  具體而言,密集映射網(wǎng)絡(luò)學(xué)習(xí)自由形式的用戶修改掩碼和目標(biāo)圖像之間的樣式映射,從而實現(xiàn)不同的生成結(jié)果。
 
  以色列魏茨曼科學(xué)研究院:圖像分離
 
  本月,以色列魏茨曼科學(xué)研究所的研究人員開發(fā)出了一項名為Double-DIP的新技術(shù),該技術(shù)能讓系統(tǒng)在沒有大量訓(xùn)練數(shù)據(jù)的情況下,通過深度學(xué)習(xí)來對圖像進行編輯,分離人們在圖片中想要的和不想要的部分。該研究基于一項名為DIP(Deep Image Prior)的混合圖像恢復(fù)技術(shù),因此研究人員將他們開發(fā)的新分離圖像方法稱為Double-DIP。DIP技術(shù)的研究成果已于美國時間2018年7月18日提交在arxiv上,名為《圖像恢復(fù)的混合稀疏先驗學(xué)習(xí):深度學(xué)習(xí)與稀疏編碼的結(jié)合(Learning Hybrid Sparsity Prior for Image Restoration: Where Deep Learning Meets Sparse Coding)》。
 
  呂貝克大學(xué):醫(yī)學(xué)圖像生成新方法
 
  當(dāng)前,GAN應(yīng)用于醫(yī)學(xué)研究還面臨一項重大挑戰(zhàn)。深度學(xué)習(xí)算法需要對高分辨率圖像進行訓(xùn)練,才能產(chǎn)生佳預(yù)測,然而合成這樣的高分辨率圖像,尤其是3D圖像,需要大量的計算能力。來自呂貝克大學(xué)醫(yī)學(xué)信息學(xué)研究所的研究人員提出了一種新方法,可以大大降低硬件的配置要求。研究人員把圖像生成的過程分解為幾個階段:首先利用GAN生成低分辨率圖像,然后在正確的分辨率下每次生成一小部分的細(xì)節(jié)圖像。通過實驗,研究人員發(fā)現(xiàn)這種方法不僅生成了逼真的高分辨率2D和3D圖像,而且無論圖像大小,支出費用都保持不變。
 
  小結(jié):
 
  在深度學(xué)習(xí)技術(shù)出現(xiàn)之前,很多應(yīng)用都遇到了瓶頸,進步很慢,每年只有大概的性提升。但隨著深度學(xué)習(xí)的進步,計算機視覺的發(fā)展經(jīng)歷了一個巨大的飛躍,技術(shù)的不斷升級也催生出了一系列跨行業(yè)的應(yīng)用。隨著主流的科技巨頭入場,計算機視覺領(lǐng)域已經(jīng)熱鬧非凡,但如果想要開創(chuàng)出一些新的應(yīng)用獲獎應(yīng)用能力再進行提升,恐怕還有不短的路需要走。
我要評論
文明上網(wǎng),理性發(fā)言。(您還可以輸入200個字符)

所有評論僅代表網(wǎng)友意見,與本站立場無關(guān)。

版權(quán)與免責(zé)聲明:

凡本站注明“來源:智能制造網(wǎng)”的所有作品,均為浙江興旺寶明通網(wǎng)絡(luò)有限公司-智能制造網(wǎng)合法擁有版權(quán)或有權(quán)使用的作品,未經(jīng)本站授權(quán)不得轉(zhuǎn)載、摘編或利用其它方式使用上述作品。已經(jīng)本網(wǎng)授權(quán)使用作品的,應(yīng)在授權(quán)范圍內(nèi)使用,并注明“來源:智能制造網(wǎng)”。違反上述聲明者,本站將追究其相關(guān)法律責(zé)任。

本站轉(zhuǎn)載并注明自其它來源(非智能制造網(wǎng))的作品,目的在于傳遞更多信息,并不代表本站贊同其觀點或和對其真實性負(fù)責(zé),不承擔(dān)此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。如其他媒體、平臺或個人從本站轉(zhuǎn)載時,必須保留本站注明的作品第一來源,并自負(fù)版權(quán)等法律責(zé)任。如擅自篡改為“稿件來源:智能制造網(wǎng)”,本站將依法追究責(zé)任。

鑒于本站稿件來源廣泛、數(shù)量較多,如涉及作品內(nèi)容、版權(quán)等問題,請與本站聯(lián)系并提供相關(guān)證明材料:聯(lián)系電話:0571-89719789;郵箱:1271141964@qq.com。

不想錯過行業(yè)資訊?

訂閱 智能制造網(wǎng)APP

一鍵篩選來訂閱

信息更豐富

推薦產(chǎn)品/PRODUCT 更多
智造商城:

PLC工控機嵌入式系統(tǒng)工業(yè)以太網(wǎng)工業(yè)軟件金屬加工機械包裝機械工程機械倉儲物流環(huán)保設(shè)備化工設(shè)備分析儀器工業(yè)機器人3D打印設(shè)備生物識別傳感器電機電線電纜輸配電設(shè)備電子元器件更多

我要投稿
  • 投稿請發(fā)送郵件至:(郵件標(biāo)題請備注“投稿”)1271141964.qq.com
  • 聯(lián)系電話0571-89719789
工業(yè)4.0時代智能制造領(lǐng)域“互聯(lián)網(wǎng)+”服務(wù)平臺
智能制造網(wǎng)APP

功能豐富 實時交流

智能制造網(wǎng)小程序

訂閱獲取更多服務(wù)

微信公眾號

關(guān)注我們

抖音

智能制造網(wǎng)

抖音號:gkzhan

打開抖音 搜索頁掃一掃

視頻號

智能制造網(wǎng)

公眾號:智能制造網(wǎng)

打開微信掃碼關(guān)注視頻號

快手

智能制造網(wǎng)

快手ID:gkzhan2006

打開快手 掃一掃關(guān)注
意見反饋
我要投稿
我知道了