定量变量和定性变量的转换(Transform of Quantitative & Qualitative Variables)

定量变量和定性变量的转换(Transform of Quantitative & Qualitative Variables)定量变量(QuantitativeVariables):也称为数值型变量(NumericalVariables),可以用连续值或离散值表示。比如:气温(连续值),学生人数(离散值)。为什么要对定量变量进行转换?大多数情况下,我们可以直接使用定量变量。但是有时候,特征和目标之间不呈线性关系。比如

大家好,欢迎来到IT知识分享网。

定量变量(Quantitative Variables):也称为数值型变量(Numerical Variables),可以用连续值离散值表示。比如:气温(连续值),学生人数(离散值)。

 

为什么要对定量变量进行转换?大多数情况下,我们可以直接使用定量变量。但是有时候,特征和目标之间不呈线性关系。比如说年龄和收入之间的关系,当人年轻时,收入通常会稳步上升,但到了一定年纪之后,收入便开始降低。我们当然可以用非线性模型来拟合数据,但是这样会把模型弄得很复杂。因此比较好的做法是在数据准备的阶段就对定量变量做分箱处理(Binning,也称为分区间)。在对定量变量分箱处理之后,还要再将其转换为虚拟变量或对其进行WOE转换(参见:https://zhuanlan.zhihu.com/p/30026040)。

 

将定量变量转换为定性变量的方法为:分区间(Binning),包括等宽分区间以及自适应分区间。

 

1. 等宽分区间(Fixed-Width Binning):可以用pandas的cut()方法自己设定区间范围。等宽分区间的缺点是:落在某个区间中的数据点的数目不一定是均匀的,因此可能会得到不规则的区间。一些区间中的数据可能会非常的密集,一些区间则会非常稀疏甚至是空的。因此,自适应分区间方法是一个更安全的策略。

 

2. 自适应分区间(Adptive Binning):使用数据的四分位数来确定区间范围,这样确保每个区间内的数据个数是相同的。

 


 

定性变量(Qualitative Variables):也称为类别型变量(Categorical Variables),通常用文本字符串离散值表示。根据变量之间是否存在次序关系,又可以分为有序型定性变量(Ordinal)无序型定性变量(Nominal)。比如:衣服的尺寸“大中小”(有序型),男女性别(无序型)。

 

为什么要对定性变量进行转换?因为最终我们需要进行数值间的运算,而文本字符串之间无法进行运算。即使将文本字符串转变为离散值表示,比如将衣服的尺寸大中小表示为0:小,1:中,2:大,虽然将次序体现出来了(2>1>0),但还是不合理,因为不管对于有序型定性变量,还是无序型定性变量来说,这样的数值运算都没有意义。比如衣服的尺寸这个例子,如果将大减去中,其结果等于2-1=1,这是表示中号尺寸等于大号尺寸减去中号尺寸吗?这显然是不合理且没有意义的。因此我们需要用其他方式对定性变量进行转换。

 

有两种转换方式:a. 将定性变量转换为虚拟变量,b. 将定性变量转换为定量变量。

 

a. 将定性变量转换为虚拟变量

1. 虚拟编码(Dummy Coding):如果某个特征变量有n个类别,那么虚拟编码会将其转换成n-1个二进制编码。变量的每个类别都被转换成 n-1 维向量。我们将减少的这个类别作为基准,其由全部是0组成的向量表示。转换后的变量称为虚拟变量(Dummy Variables)

0    2-1    1-2    2-3    0-小
Name: 衣服尺寸, dtype: object
col=pd.Series(["2-大","1-中","2-大","0-小"],name="衣服尺寸")
print(pd.get_dummies(col).iloc[:,1:])
   1-中  2-大
0    0    1
1    1    0
2    0    1
3    0    0

我们创建了一个衣服尺寸的Series,由四个样本组成。转换为虚拟变量后,可以看到变量由二进制组成的向量表示:大-[0,1],中-[1,0],小-[0,0]。其中把“小”作为基准,从特征中删去,因为“大”和“中”这两个特征足以表示所有的信息(不是大和中,便是小)。

 

2. 独热编码(One Hot Encoding):如果某个特征变量有n个类别,那么独热编码会将其转换成n个二进制编码。变量的每个类别都被转换成 n 维向量,其中只有某一维的值为 1(表示激活状态)。

col=pd.Series(["2-大","1-中","2-大","0-小"],name="衣服尺寸")
print(pd.get_dummies(col))
   0-小  1-中  2-大
0    0    0    1
1    0    1    0
2    0    0    1
3    1    0    0

还是用上面衣服尺寸这个例子,转换为独热编码后,变量由二进制组成的向量表示为:大-[0,0,1],中-[0,1,0],小-[1,0,0]。

 

3. 效果编码(Effect Coding):和虚拟编码类似,只不过作为基准的特征全由-1组成的向量表示。那么既然已经有了虚拟编码,为何还要用效果编码呢?因为虚拟编码的回归系数表示的是某类别和基准类别之间的平均差异,而效果编码可以有效估计出各类别和总体平均水平之间的平均差异(根据回归系数),方便进行各类别之间的比较。因此如果各类别之间有关联,那么使用效果编码更好。(参见:https://wenku.baidu.com/view/4c6918c7581b6bd97e19ea57.html)

col=pd.Series(["2-大","1-中","2-大","0-小"],name="衣服尺寸")
dummy=pd.get_dummies(col).iloc[:,1:]
dummy=dummy.astype(np.int8)
dummy.loc[np.all(dummy==0,axis=1)]=-1
print(dummy)
   1-中  2-大
0    0    1
1    1    0
2    0    1
3   -1   -1

还是用上面衣服尺寸这个例子,转换为效果编码后,变量由二进制组成的向量表示为:大-[0,1],中-[1,0],小-[-1,-1]。

 

4. 区间计数(Bin Counting):对于有m个类别的某个特征,经过上述转换后,将会变成m个新的特征。因此,当任意特征的类别数量变得很大的时候,很可能会造成维度灾难。我们需要针对那些可能具有非常多类别的特征(如 IP 地址),研究其它的转换方法 。区间计数使用基于概率的统计信息和在建模过程中所要预测的实际目标进行编码,而不是使用实际的标签值。这个方案需要历史数据作为先决条件,并且要求数据非常详尽。

 

5. 特征哈希(Feature Hashing):哈希函数通常与预设的编码特征的数量(作为预定义长度向量)一起使用。哈希方案适用于字符串、数字和其它结构(如向量)。如果我们有一个特征拥有 1000 个不同的类别,我们设置最终的特征向量长度为10,那么最终输出的特征将只有 10 个。特征哈希的缺点是可解释性不强。

 

b. 将定性变量转换为定量变量

对于多个有序的定性变量,如果将其转换为虚拟变量,会损失掉每个定性变量本身的顺序信息和定性变量间的关联信息。为了解决这个问题,常常根据类别的顺序,将定性变量转换为定量变量。转换方法有:Ridit scoring(二分类问题),WOE(weight of evidence)等等。

 

参考:https://www.leiphone.com/news/201801/KTVu68zA6szteVmS.html

           https://www.leiphone.com/news/201801/T9JlyTOAMxFZvWly.html

           https://www.jiqizhixin.com/articles/2018-07-09-19

           https://segmentfault.com/a/1190000019860050

 

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/27769.html

(0)

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注微信