半监督模型_同级监督 “ ”[通俗易懂]

半监督模型_同级监督 “ ”[通俗易懂]1.监督需要人工标记的数据2.无监督不需要任何标记的数据,不依赖任何标签值,通过对数据内在特征的挖掘,找到样本间的关系,比如聚类3.半监督学习利用少量有标签的数据和大量无标签的数据来训练网络一、半监督学习可以分为:直推半监督学习、归纳半监督学习(1)直推半监督学习直推半监督学习(Semi-

大家好,欢迎来到IT知识分享网。

1.监督需要人工标记的数据

2.无监督不需要任何标记的数据,不依赖任何标签值,通过对数据内在特征的挖掘,找到样本间的关系,比如聚类

3.半监督学习利用少量有标签的数据和大量无标签的数据来训练网络

 

一、半监督学习可以分为:直推半监督学习、归纳半监督学习

(1)直推半监督学习

直推半监督学习(Semi-supervised Learning)只处理样本空间内给定的训练数据,利用训练数据中有类标签的样本和无类标签的样例进行训练,预测训练数据中无类标签的样例的类标签
(2)归纳半监督学习
归纳半监督学习(Semi-supervised Learning)处理整个样本空间中所有给定和未知的样例,同时利用训练数据中有类标签的样本和无类标签的样例,以及未知的测试样例一起进行训练,不仅预测训练数据中无类标签的样例的类标签,更主要的是预测未知的测试样例的类标签。(?)

 

归纳半监督学习假定训练数据中的未标记样本并非待测的数据,而直推半监督学习则假定学习过程中所考虑的未标记样本恰是待预测数据,

学习的目的就是在这些未标记样本上获得最优泛化性能。

 

二、在半监督学习中有三个常用的基本假设来建立预测样例和学习目标之间的关系,有以下三个:

(1)平滑假设(Smoothness Assumption):位于稠密数据区域的两个距离很近的样例的类标签相似,也就是说,当两个样例被稠密数据区域中的边连接时,它们在很大的概率下有相同的类标签;相反地,当两个样例被稀疏数据区域分开时,它们的类标签趋于不同。

(2)聚类假设(Cluster Assumption):当两个样例位于同一聚类簇时,它们在很大的概率下有相同的类标签。这个假设的等价定义为低密度分离假设(Low Sensity Separation Assumption),即分类决策边界应该穿过稀疏数据区域,而避免将稠密数据区域的样例分到决策边界两侧。

(3)流形假设(Manifold Assumption):将高维数据嵌入到低维流形中,当两个样例位于低维流形中的一个小局部邻域内时,它们具有相似的类标签。

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/29846.html

(0)

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

关注微信