第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請及時(shí)綁定郵箱和手機(jī)立即綁定

簡要回顧 —— 重塑的DenseNets:超越ResNets和ViTs的新范式

此标题通俗易懂地反映了文章内容,同时使用了符合中文口语习惯的表达方式。

焕新的DenseNet (RDNet),超越了Swin Transformer,ConvNeXt,和DeiT-III,匹敌MogaNet

DenseNets 重生版:超越ResNets和ViTs的范式转变
RDNet,由NAVER Cloud AI和NAVER AI Lab开发
2024 ECCV (Sik-Ho Tsang @ Medium)

图像分类(1989 … 2023)
[Vision Permutator (ViP)] [ConvMixer] [CrossFormer++] [FastViT] [EfficientFormerV2] [MobileViTv2] [ConvNeXt V2] [SwiftFormer] [OpenCLIP] 2024[FasterViT] [CAS-ViT] [TinySaver]
更多相关阅读请参见

  • DenseNet 重新审视,进行了架构调整模块重新设计,以及改进的训练方案,以增加模型的宽度并提高内存效率。
  • 最终,形成了RDNet,并最终超过了Swin TransformerConvNeXtDeiT-III,并与MogaNet
概要
  1. RDNet
  2. 成果
1. RDNet (一个网络平台)
1.1. 现代训练安排
  • (在阅读这个故事之前,最好先了解一下[DenseNet]。)

1.1.1. 更宽泛更浅显地说来:
  • 通过增加生长率(GR)来扩大网络的结构,同时减少其深度,以实现这一目标。具体来说,这里将GR从32大幅提升至120。
  • 每阶段的块数进行了调整,从(6, 12, 48, 32)减少到一个更小的(3, 3, 12, 3),以进行深度调整。
  • 训练速度和内存分别大约减少了35%和18%。GFLOPs显著增加至11.1,后续元素会对此进行相应的调整。
1.1.2. 升级的功能混合器
  • 使用层归一化(LN)而不是批次归一化(BN);采用后激活;使用深度卷积;减少归一化和激活的次数;并且使用卷积核大小为7。
  • 这种设计显著提高了准确率(+0.9%),同时略微增加了计算成本。
1.1.3. 更大的中间通道尺寸
  • 较大的输入维度对于深度卷积至关重要。* 块内的中间张量尺寸被扩展,超过了输入维度,(例如,扩展比ER被调整为6)。
  • GR可以减少到一半,例如:从120到60。
  • 这样不仅实现了21%的更快训练速度,还实现了0.4%p的准确率提升
1.1.4. 更多过渡部分
  • 过渡层不仅在每个阶段之后使用,而是在每三个步长为1的块之后使用。
  • 这些过渡层更注重维度减少而非下采样。
  • 这种变化通常能提高准确性。
1.1.5. 补丁化模块
  • 使用图像块作为模型初始层的输入。采用的设置是补丁大小为4、步幅为4。
  • 这使得计算速度显著加快,而没有牺牲精度。
1.1.6. 精细过渡层
  • 移除平均池化层,并通过调整卷积核的大小和步长来替代卷积BNLN 取代了)。
1.1.7. 通道重新调整
  • 由于拼接特征的多样性,需要对通道进行重新缩放
  • 它带来了微小的+0.2%的提升。
1.2. 重新激活的密集网络 (RDNet)

增强型密集网络(RDNet)

  • 一个RDNet家族成员是由不同的GR和Block(B)组合构建的,如上所示。
2. 结果如下
2.1. ImageNet

ImageNet(一个计算机视觉领域的著名图像数据集)

ImageNet(一个图像识别数据集)

RDNets在准确率上略逊一筹,但在速度上则有显著提升。

  • 例如,RDNet-S 可以与较轻量的模型如 SMT-S 或 MogaNet-S 匹配使用。值得注意的是,RDNets 并不像 RDNet 那样占用大量内存,而是实现了更高的效率和更好的性能。

ImageNet

RDNets 凭借高精度、合理的内存使用和更快的运行速度,超越了竞争对手。

2.2. 零样本图像识别

Imagenet零样本分类 (Zero-Shot)

按照ConvNeXtOpenCLIP的训练协议进行训练CLIP模型。RDNet的表现更佳。

2.3. 后续任务

ADE20K

RDNet表现出色的性能,这表明它在密集预测任务上的出色表现。

可可

RDNet在COCO上具有强劲的性能。

  • 还有好多没提到的实验,可以直接看论文原文哦。
點(diǎn)擊查看更多內(nèi)容
TA 點(diǎn)贊

若覺得本文不錯(cuò),就分享一下吧!

評論

作者其他優(yōu)質(zhì)文章

正在加載中
  • 推薦
  • 評論
  • 收藏
  • 共同學(xué)習(xí),寫下你的評論
感謝您的支持,我會(huì)繼續(xù)努力的~
掃碼打賞,你說多少就多少
贊賞金額會(huì)直接到老師賬戶
支付方式
打開微信掃一掃,即可進(jìn)行掃碼打賞哦
今天注冊有機(jī)會(huì)得

100積分直接送

付費(fèi)專欄免費(fèi)學(xué)

大額優(yōu)惠券免費(fèi)領(lǐng)

立即參與 放棄機(jī)會(huì)
微信客服

購課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)

舉報(bào)

0/150
提交
取消