特征工程中的trick
取值很多的类别特征
比如现在有一维城市特征,取值1000多个,常用的处理方法大概可分为四种1:
- $one\ hot$ 编码,优点是简单,缺点是维度高了,太稀疏。
- 对分类变量做特征工程,汇总分组啊之类的,降维。
- 把特征转换为数值变量,例如把不同城市的编码变成对应的经纬度,或是城市人口值,或是Y值,类似于银行信用评级中的$WOE(weight\ of\ Evidence)$等。
- 词向量的思路,做 $embedding$
推荐下肖凯老师的博客:数据科学中的R和Python
Learning with counts can be summarized as aggregating sufficient statistics for conditional probability distributions for various attributes and combinations – or, concretely, utilizing tables of per-class counts for each unique value or combination.
WOE and IV
在机器学习的二分类问题中,WOE(Weight of Evidence)和 Information Value 通常用来对输入变量进行编码及预测能力评估2。
- WOE describes the relationship between a predictive variable and a binary target variable.
- IV measures the strength of that relationship.
我们来细致分析下,讨论离散取值的情况3:
woe 反映的是在自变量每个分组下违约用户对正常用户占比和总体中违约用户对正常用户占比之间的差异,从而可以直观的认为 woe 蕴含了自变量取值对于目标变量(违约概率)的影响。
IV 衡量的是某一个变量的预测能力,从公式来看的话,相当于是自变量 woe 值的一个加权求和,其值的大小决定了自变量对于目标变量的影响程度。一般来说,$\text{IV} < 0.05$,说明变量的预测能力非常低。