• <s id="aiiqm"></s>
  • 
    
    • <sup id="aiiqm"></sup>
    • <sup id="aiiqm"></sup>
       

      enet網絡學院科普 ENet是一種用于實時語義分割的深度神經架構-焦點熱文

      發布時間:2023-03-10 17:20:24  |  來源:互聯網  

      在生活中,很多人都不知道enet網絡學院_enet硅谷動力學院是什么意思,其實他的意思是非常簡單的,下面就是小編搜索到的enet網絡學院_enet硅谷動力學院相關的一些知識,我們一起來學習下吧!


      (資料圖片)

      Enet *** 學院(enet硅谷動力學院)雷鋒網2019-02-26 10:14:15

      本文是為AI研究所整理的技術博客,原題:

      ENet——一種用于實時語義分割的深度神經架構

      作者|阿魯納瓦

      翻譯| callofduty890

      校對|范姜梨評|皮塔整理|鯉魚網

      原始鏈接:

      https://towardsdatascience . com/enet-a-deep-neural-architecture-for-real-time-semantic-segmentation-2 baa 59 cf 97 e 9

      圖一。一個語義分段的家伙和一個卡通之間的對話

      這是論文的摘要:

      ENet:用于實時語義分割的深度神經 *** 架構

      作者亞當·帕茲克

      論文:https://arxiv.org/abs/1606.02147

      介紹

      ENet(高效神經 *** )提供了實時按像素進行語義分割的能力。ENet的速度提高了18倍,FLOP要求降低了75倍,參數降低了79倍,并為現有模型提供了類似或更好的精度。在CamVid、CityScapes和SUN數據集上進行了測試。

      方法:

      圖3。ENet架構

      以上是完整的 *** 架構。

      它分為幾個階段,由表中的水平線和每個塊名稱后的之一個數字突出顯示。輸出尺寸為輸入圖像分辨率的512 * 512。

      圖4。ENET的每個模塊都有詳細的解釋。

      視覺表現:

      -初始模塊是(a)中所示的模塊-瓶頸模塊顯示在(b)中

      每個瓶頸模塊包括:

      -1x1投影,減少尺寸。

      -主卷積層(conv)(-常規、擴展或完整)(3x3)

      -1x1擴展

      并且它們在所有卷積層之間放置批標準化和預露。

      如果瓶頸模塊正在縮減采樣,則將更大池層添加到主分支。此外,之一個1x1投影被替換為2x2卷積,跨距= 2。

      他們將激活無填充以匹配要素地圖的數量。

      Conv有時是非對稱卷積,即5 * 1和1 * 5卷積的序列。

      對于正則項,他們使用空間落差:

      瓶頸2.0之前,p = 0.01

      -完成后p = 0.1

      所以,

      階段1,2,3-編碼器-由5個瓶頸模塊組成(除了階段3沒有下采樣)。

      階段4,5-解碼器-階段4包含三個瓶頸,階段5包含兩個瓶頸模塊。

      接下來是一個fullconv,它輸出最終輸出-C * 512 * 512大小,其中C是濾波器的數量。

      有一些事實:

      -他們在任何預測中都沒有使用偏見術語

      -在每個卷積層和激活層之間,它們使用批量歸一化

      -在解碼器中,MaxPooling被MaxUnpooling代替。

      -在解碼器中,填充被無偏差的空間卷積代替。

      -在最后一個(5.0)上采樣模塊中沒有使用池索引。

      - *** 的最后一個模塊是裸完全卷積,占用了解碼器的大部分處理時間。

      -每個側支丟失一個空,之一級p = 0.01,然后是后級p = 0.1。

      結果

      通過benchmark測試了ENet的性能。

      -CamVid(道路場景)

      -城市景觀(道路場景)

      -太陽RGB-D(室內場景)

      SegNet [2]被用作基線,因為它是最快的分段模型之一。使用cuDNN后端使用Torch7庫。

      使用英偉達Titan X GPU和英偉達TX1嵌入式系統模塊記錄推理速度。輸入圖像大小為640x360,速度超過10fps。

      圖5。以SegNet為基線的兩種不同GPU推理時間的比較

      圖6。Segnet和ENet的硬件要求

      基準

      亞當。ENet用于快速融合。每個數據集上使用4個Titan X GPU,訓練只需要3-6個小時。

      它分兩個階段進行:

      -首先,他們訓練編碼器對輸入圖像的下采樣區域進行分類。

      然后附加一個解碼器,訓練 *** 進行上采樣和像素分類。

      學習率-5e-4

      L2的重量衰減為2e-4。

      批量為10件。

      自定義類別權重方案定義為

      圖7顯示了。自定義類別權重方案的公式

      其中c = 1.02,類別權重限制在[1.50]的區間內

      圖8。Cityscapes數據集的性能

      圖9。Camvid數據集的性能

      參考:

      A.Paszke、A. Chaurasia、S. Kim和E. Culurciello。Enet:用于實時語義分割的深度神經 *** 架構。arXiv預印本arXiv:1606.02147,2016。

      動詞 (verb的縮寫)Badrinarayanan,A. Kendall和R. Cipolla,“Segnet:用于圖像分割的深度卷積編碼器-解碼器架構”,arXiv預印本arXiv:1511.00561,2015年。

      我最近也轉載了這篇論文,可以在這里找到:

      https://github . com/iArunava/ENet-實時-語義-分段

      想繼續查看本文相關鏈接和參考文獻?

      點擊【enet——實時語義分割的深度神經架構】或長按地址訪問:

      https://ai.yanxishe.com/page/TextTranslation/1468

      艾所今日推薦:雷鋒網雷鋒網雷鋒網

      卡耐基梅隆大學2019年春季的“神經 *** 自然語言處理”是CMU語言技術學院和計算機學院的聯合課程。其主要內容是教學生如何利用神經 *** 做自然語言處理。神經 *** 可以被認為是為語言建模任務提供了一個強有力的新工具。同時,神經 *** 可以在許多任務中改進最新技術,使過去不易解決的問題變得容易和簡單。

      加入群免費看視頻:https://ai.yanxishe.com/page/groupDetail/33

      收集3條評論。

      關鍵詞: 硅谷動力

       

      關于我們 - 聯系我們 - 版權聲明 - 招聘信息 - 友鏈交換

      2014-2020  電腦商網 版權所有. All Rights Reserved.

      備案號:京ICP備2022022245號-1 未經過本站允許,請勿將本站內容傳播或復制.

      聯系我們:435 226 40@qq.com

      国内精品一区视频在线播放,嫩草影视在线观看,天天久久狠狠伊人第一麻豆,波多野结衣视频免费看
    • <s id="aiiqm"></s>
    • 
      
      • <sup id="aiiqm"></sup>
      • <sup id="aiiqm"></sup>
        主站蜘蛛池模板: 高级别墅贵妇交换俱乐部小说| 亚洲a级在线观看| 亚洲欧美日韩天堂一区二区| 乱人伦人妻中文字幕无码久久网| 44luba爱你啪| 毛片免费视频在线观看| 日本三级s电影| 国产大片线上免费看| 亚洲综合激情另类小说区| 久久久久亚洲AV无码麻豆| 91丨九色丨首页| 欧美日韩亚洲国产精品一区二区| 我的初次内射欧美成人影视| 国产精品久久影院| 免费少妇a级毛片| 久久国产加勒比精品无码| 麻豆精品传媒视频观看| 欧美成人免费全部网站| 国产精品无码电影在线观看| 免费观看的黄色网址| xxxwww欧美性| 色偷偷www8888| 村上里沙在线播放| 国产欧美久久一区二区| 久久精品免视看国产成人| h视频在线观看免费完整版| 果冻传媒91制片厂211| 国产大学生粉嫩无套流白浆| 久久天天躁狠狠躁夜夜躁2014| 1000部拍拍拍18勿入免费视频软件| 窝窝社区在线观看www| 日本vs黑人hd| 又粗又长又爽又大硬又黄| 一个人看的www免费在线视频| 男人的好在线观看免费视频| 成av免费大片黄在线观看| 免费人成在线观看播放国产| 中文字幕在线看片成人 | 伊人影院综合网| 中文无码AV一区二区三区| 91免费播放人人爽人人快乐|