自监督

自监督自监督学习的方法主要可以分为3类:1.基于上下文(Contextbased)基于数据本身的上下文信息,我们其实可以构造很多任务,比如在NLP领域中最重要的算法Word2vec。Word2vec主要是利用语句的顺序,例如CBOW通过前后的词来预测中间的词,而Skip-Gram

大家好,欢迎来到IT知识分享网。

自监督学习的方法主要可以分为 3 类:

1.基于上下文(Context based)

基于数据本身的上下文信息,我们其实可以构造很多任务,比如在 NLP 领域中最重要的算法 Word2vec 。Word2vec 主要是利用语句的顺序,例如 CBOW 通过前后的词来预测中间的词,而 Skip-Gram 通过中间的词来预测前后的词。

2.基于时序(Temporal Based)

最能体现时序的数据类型就是视频了(video)。

3.基于对比(Contrastive Based)

 

当前自监督学习可以被大致分为两类:

    1. Generative Methods
    2. Contrastive Methods
 

Generative Methods(生成式方法)这类方法以自编码器为代表,主要关注pixel label的loss。举例来说,在自编码器中对数据样本编码成特征再解码重构,这里认为重构的效果比较好则说明模型学到了比较好的特征表达,而重构的效果通过pixel label的loss来衡量。

Contrastive Methods(对比式方法)这类方法则是通过将数据分别与正例样本和负例样本在特征空间进行对比,来学习样本的特征表示。Contrastive Methods主要的难点在于如何构造正负样本。

自监督

 

相比起Generative Methods需要对像素细节进行重构来学习到样本特征,Contrastive Methods只需要在特征空间上学习到区分性。因此Contrastive Methods不会过分关注像素细节,而能够关注抽象的语义信息,并且相比于像素级别的重构,优化也变得更加简单。

 

对比学习中的损失函数常用的是infoNCE loss(sim是两个向量的余弦值)

自监督

 

自监督

 

 

 

 

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/31817.html

(0)

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

关注微信