• <s id="aiiqm"></s>
  • 
    
    • <sup id="aiiqm"></sup>
    • <sup id="aiiqm"></sup>
       

      enet網絡學院科普 ENet是一種用于實時語義分割的深度神經架構-焦點熱文

      發布時間:2023-03-10 17:20:24  |  來源:互聯網  

      在生活中,很多人都不知道enet網絡學院_enet硅谷動力學院是什么意思,其實他的意思是非常簡單的,下面就是小編搜索到的enet網絡學院_enet硅谷動力學院相關的一些知識,我們一起來學習下吧!


      (資料圖片)

      Enet *** 學院(enet硅谷動力學院)雷鋒網2019-02-26 10:14:15

      本文是為AI研究所整理的技術博客,原題:

      ENet——一種用于實時語義分割的深度神經架構

      作者|阿魯納瓦

      翻譯| callofduty890

      校對|范姜梨評|皮塔整理|鯉魚網

      原始鏈接:

      https://towardsdatascience . com/enet-a-deep-neural-architecture-for-real-time-semantic-segmentation-2 baa 59 cf 97 e 9

      圖一。一個語義分段的家伙和一個卡通之間的對話

      這是論文的摘要:

      ENet:用于實時語義分割的深度神經 *** 架構

      作者亞當·帕茲克

      論文:https://arxiv.org/abs/1606.02147

      介紹

      ENet(高效神經 *** )提供了實時按像素進行語義分割的能力。ENet的速度提高了18倍,FLOP要求降低了75倍,參數降低了79倍,并為現有模型提供了類似或更好的精度。在CamVid、CityScapes和SUN數據集上進行了測試。

      方法:

      圖3。ENet架構

      以上是完整的 *** 架構。

      它分為幾個階段,由表中的水平線和每個塊名稱后的之一個數字突出顯示。輸出尺寸為輸入圖像分辨率的512 * 512。

      圖4。ENET的每個模塊都有詳細的解釋。

      視覺表現:

      -初始模塊是(a)中所示的模塊-瓶頸模塊顯示在(b)中

      每個瓶頸模塊包括:

      -1x1投影,減少尺寸。

      -主卷積層(conv)(-常規、擴展或完整)(3x3)

      -1x1擴展

      并且它們在所有卷積層之間放置批標準化和預露。

      如果瓶頸模塊正在縮減采樣,則將更大池層添加到主分支。此外,之一個1x1投影被替換為2x2卷積,跨距= 2。

      他們將激活無填充以匹配要素地圖的數量。

      Conv有時是非對稱卷積,即5 * 1和1 * 5卷積的序列。

      對于正則項,他們使用空間落差:

      瓶頸2.0之前,p = 0.01

      -完成后p = 0.1

      所以,

      階段1,2,3-編碼器-由5個瓶頸模塊組成(除了階段3沒有下采樣)。

      階段4,5-解碼器-階段4包含三個瓶頸,階段5包含兩個瓶頸模塊。

      接下來是一個fullconv,它輸出最終輸出-C * 512 * 512大小,其中C是濾波器的數量。

      有一些事實:

      -他們在任何預測中都沒有使用偏見術語

      -在每個卷積層和激活層之間,它們使用批量歸一化

      -在解碼器中,MaxPooling被MaxUnpooling代替。

      -在解碼器中,填充被無偏差的空間卷積代替。

      -在最后一個(5.0)上采樣模塊中沒有使用池索引。

      - *** 的最后一個模塊是裸完全卷積,占用了解碼器的大部分處理時間。

      -每個側支丟失一個空,之一級p = 0.01,然后是后級p = 0.1。

      結果

      通過benchmark測試了ENet的性能。

      -CamVid(道路場景)

      -城市景觀(道路場景)

      -太陽RGB-D(室內場景)

      SegNet [2]被用作基線,因為它是最快的分段模型之一。使用cuDNN后端使用Torch7庫。

      使用英偉達Titan X GPU和英偉達TX1嵌入式系統模塊記錄推理速度。輸入圖像大小為640x360,速度超過10fps。

      圖5。以SegNet為基線的兩種不同GPU推理時間的比較

      圖6。Segnet和ENet的硬件要求

      基準

      亞當。ENet用于快速融合。每個數據集上使用4個Titan X GPU,訓練只需要3-6個小時。

      它分兩個階段進行:

      -首先,他們訓練編碼器對輸入圖像的下采樣區域進行分類。

      然后附加一個解碼器,訓練 *** 進行上采樣和像素分類。

      學習率-5e-4

      L2的重量衰減為2e-4。

      批量為10件。

      自定義類別權重方案定義為

      圖7顯示了。自定義類別權重方案的公式

      其中c = 1.02,類別權重限制在[1.50]的區間內

      圖8。Cityscapes數據集的性能

      圖9。Camvid數據集的性能

      參考:

      A.Paszke、A. Chaurasia、S. Kim和E. Culurciello。Enet:用于實時語義分割的深度神經 *** 架構。arXiv預印本arXiv:1606.02147,2016。

      動詞 (verb的縮寫)Badrinarayanan,A. Kendall和R. Cipolla,“Segnet:用于圖像分割的深度卷積編碼器-解碼器架構”,arXiv預印本arXiv:1511.00561,2015年。

      我最近也轉載了這篇論文,可以在這里找到:

      https://github . com/iArunava/ENet-實時-語義-分段

      想繼續查看本文相關鏈接和參考文獻?

      點擊【enet——實時語義分割的深度神經架構】或長按地址訪問:

      https://ai.yanxishe.com/page/TextTranslation/1468

      艾所今日推薦:雷鋒網雷鋒網雷鋒網

      卡耐基梅隆大學2019年春季的“神經 *** 自然語言處理”是CMU語言技術學院和計算機學院的聯合課程。其主要內容是教學生如何利用神經 *** 做自然語言處理。神經 *** 可以被認為是為語言建模任務提供了一個強有力的新工具。同時,神經 *** 可以在許多任務中改進最新技術,使過去不易解決的問題變得容易和簡單。

      加入群免費看視頻:https://ai.yanxishe.com/page/groupDetail/33

      收集3條評論。

      關鍵詞: 硅谷動力

       

      關于我們 - 聯系我們 - 版權聲明 - 招聘信息 - 友鏈交換

      2014-2020  電腦商網 版權所有. All Rights Reserved.

      備案號:京ICP備2022022245號-1 未經過本站允許,請勿將本站內容傳播或復制.

      聯系我們:435 226 40@qq.com

      国内精品一区视频在线播放,嫩草影视在线观看,天天久久狠狠伊人第一麻豆,波多野结衣视频免费看
    • <s id="aiiqm"></s>
    • 
      
      • <sup id="aiiqm"></sup>
      • <sup id="aiiqm"></sup>
        主站蜘蛛池模板: 免费夜色污私人影院在线观看| 在线亚洲小视频| 国产SUV精品一区二区88L| 久久国产精品免费视频| 中文字幕激情视频| 欧男同同性videos免费| 波少野结衣色在线| 天堂а√中文最新版地址 | 挺进白嫩老师下面视频| 国产人妖cd网站| 久久久久久网站| 老司机福利在线观看| 成人综合久久综合| 国产欧美日韩三级| 亚洲AV日韩精品久久久久久A| 色综合色综合色综合色综合网| 极品人体西西44f大尺度| 国产成人精品午夜福利在线播放| 久久青青草原亚洲av无码| 高high肉文| 新木乃伊电影免费观看完整版| 向日葵视频下载app网站进入ios下载安装| 亚洲区精品久久一区二区三区| h视频在线免费看| 日韩精品免费在线视频| 国产又大又粗又硬又长免费 | 国产1区2区3区4区| 一本大道香蕉中文在线高清| 精品一区二区三区在线观看| 在线视频一区二区三区在线播放| 亚洲欧洲精品成人久久曰影片| 毛片手机在线观看| 日本成人在线网址| 出轨的女人2电影| 久久99精品波多结衣一区| 抽搐一进一出gif免费视频| 日韩欧美国产精品| 向日葵app下载观看免费| 99精品国产在热久久无码| 欧美性大战久久久久久久| 国产小呦泬泬99精品|