第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時綁定郵箱和手機(jī)立即綁定

大規(guī)模自監(jiān)督模型在半監(jiān)督學(xué)習(xí)中的強(qiáng)大表現(xiàn)——論文研讀日志第一天第二篇

一个回顾

在本文中,我们将讨论论文《大型自监督模型作为强大的半监督学习者的作用》(它被称为SimCLRv2,是SimCLR的一个改进版本)的主要贡献。

SimCLR 的重大更新

  1. Larger ResNet models:在SimCLR中使用的最大模型是ResNet50(x4)。在SimCLRv2中,作者使用了带有和不带选择性核卷积层的ResNet152(x3)进行预训练。
  2. Increase capacity of Projection layer:非线性网络g(·)(也称为投影头网络)的容量也增加了,通过增加其深度。此外,与SimCLR中完全丢弃g(·)不同,作者在预训练后从中间层开始微调。这一小改动对于线性评估和仅使用少量标注样本进行的微调都有显著改进。
  3. Memory Bank:作者还引入了MoCo中的内存机制,即设置一个内存网络(使用权重的移动平均值来稳定模型),其输出将作为负样本进行缓存。然而,这一增加对线性评估性能的提升不大(约1%)。

主要结果

  1. 更大的自监督模型更节省标签:实验证据表明,在通过利用不依赖特定任务的未标注数据进行半监督学习中,标签越少,越有可能从更大的模型中获益。更大的自监督模型更节省标签,在仅用少量标注样本进行微调时表现更好,尽管它们有可能过拟合。
  2. 多余的容量不一定必要:虽然大模型对于学习通用(视觉)表示很重要,但在特定任务上使用未标注数据时,多余的容量可能并不必要。因此,通过特定任务上的未标注数据使用,模型的预测性能可以进一步提高并转移到更小的网络中。
  3. 更大的/更深的投影头改善表示学习:更深的投影头不仅提高了线性评估中的表示质量,而且在从投影头的中间层进行微调时,也提高了半监督性能。
  4. 使用未标注数据的蒸馏改进半监督学习:使用未标注示例的蒸馏从两个方面改善了微调模型:(1) 当学生模型的架构比教师模型更小时,通过将特定任务的知识传递给学生模型,从而提高了模型效率,(2) 即使学生模型的架构与教师模型相同(排除ResNet编码器后的投影头),自蒸馏仍然可以显著提高半监督学习性能。为了获得更小的ResNet的最佳性能,大的模型会先进行自蒸馏,然后再蒸馏到更小的模型中,从而在半监督学习性能上获得显著提升。

实验的发现

一些GitHub开源项目的实现示例:

张量流:

第二点:Keras

链接如下:https://github.com/travishsu/keras-simCLRv2

3. PyTorch:

请在评论中指出,如果读者认为遗漏了任何要点。

點擊查看更多內(nèi)容
TA 點贊

若覺得本文不錯,就分享一下吧!

評論

作者其他優(yōu)質(zhì)文章

正在加載中
  • 推薦
  • 評論
  • 收藏
  • 共同學(xué)習(xí),寫下你的評論
感謝您的支持,我會繼續(xù)努力的~
掃碼打賞,你說多少就多少
贊賞金額會直接到老師賬戶
支付方式
打開微信掃一掃,即可進(jìn)行掃碼打賞哦
今天注冊有機(jī)會得

100積分直接送

付費(fèi)專欄免費(fèi)學(xué)

大額優(yōu)惠券免費(fèi)領(lǐng)

立即參與 放棄機(jī)會
微信客服

購課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動學(xué)習(xí)伙伴

公眾號

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號

舉報

0/150
提交
取消