资讯专栏INFORMATION COLUMN

机器学习中为什么要做归一化normalization

Pocher / 845人阅读

摘要:我们处理的时候往往先要,使用可以很容易做其中就是做,上面的程序输入如下可以看到之后的结果是。这样做的好处是什么呢下面图片转自知乎

我们处理feature的时候往往先要normalize encoding,使用python可以很容易做:

from sklearn import preprocessing
from scipy.stats import rankdata

x = [[1], [3], [34], [21], [10], [12]]
std_x = preprocessing.StandardScaler().fit_transform(x)
norm_x= preprocessing.MinMaxScaler().fit_transform(x)
norm_x2= preprocessing.LabelEncoder().fit_transform(x)

print("std_x=
", std_x)
print("norm_x=
", norm_x)
print("norm_2=
", norm_x2)

print("oringial order =", rankdata(x))
print("stand order    =", rankdata(std_x))
print("normalize order=", rankdata(norm_x))

其中preprocessing.LabelEncoder().fit_transform(x)就是做normalize encoding,上面的程序输入如下:

std_x=
 [[-1.1124854 ]
 [-0.93448773]
 [ 1.82447605]
 [ 0.66749124]
 [-0.31149591]
 [-0.13349825]]
norm_x=
 [[0.        ]
 [0.06060606]
 [1.        ]
 [0.60606061]
 [0.27272727]
 [0.33333333]]
norm_2=
 [0 1 5 4 2 3]
oringial order = [1. 2. 6. 5. 3. 4.]
stand order    = [1. 2. 6. 5. 3. 4.]
normalize order= [1. 2. 6. 5. 3. 4.]

可以看到normailize之后的结果是 [0 1 5 4 2 3]。这样做的好处是什么呢?

下面图片转自知乎(https://www.zhihu.com/questio...)

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/18410.html

相关文章

  • 全面解读Group Normalization-(吴育昕-何恺明 )

    摘要:但是其仍然存在一些问题,而新提出的解决了式归一化对依赖的影响。上面三节分别介绍了的问题,以及的工作方式,本节将介绍的原因。作者基于此,提出了组归一化的方式,且效果表明,显著优于等。 前言Face book AI research(FAIR)吴育昕-何恺明联合推出重磅新作Group Normalization(GN),提出使用Group Normalization 替代深度学习里程碑式的工作B...

    smallStone 评论0 收藏0
  • openCVmeanshift算法查找目标

    摘要:因此,在方法中使用参数屏蔽掉饱和度低于此阈值的像素,不把它们统计进直方图中。 一、简介 图像直方图的反向投影是一个概率分布图,表示一个指定图像片段出现在特定位置的概率。当我们已知图像中某个物体的大体位置时,可以通过概率分布图找到物体在另一张图像中的准确位置。我们可以设定一个初始位置,在其周围...

    vpants 评论0 收藏0
  • 「自一化神经网络」提出新型激活函数SELU

    摘要:循环神经网络令语音和自然语言处理达到了新阶段。自归一化神经网络对于扰动是具有鲁棒性的,它在训练误差上并没有高方差见图。构建自归一化神经网络我们通过调整函数的属性以构建自归一化神经网络。 近日,arXiv 上公开的一篇 NIPS 投稿论文《Self-Normalizing Neural Networks》引起了圈内极大的关注,它提出了缩放指数型线性单元(SELU)而引进了自归一化属性,该单元主...

    马忠志 评论0 收藏0
  • 机器学习 面试常见问题&答案 ①

    摘要:解决模型退化问题避免了过渡训练后,导致模型准确率反而降低的情况。经过实验后发现确实能解决这个问题。本人对于这个问题的确切原因并不清楚,但是猜测这个原因很可能是由于梯度消失以及众多其他原因所造成的。 给定卷积神经网络输入,卷积核大小,padding,步长,求输出的shape?showImg(https://segmentfault.com/img/remote/146000001781...

    Tangpj 评论0 收藏0
  • 机器学习 面试常见问题&答案 ①

    摘要:解决模型退化问题避免了过渡训练后,导致模型准确率反而降低的情况。经过实验后发现确实能解决这个问题。本人对于这个问题的确切原因并不清楚,但是猜测这个原因很可能是由于梯度消失以及众多其他原因所造成的。 给定卷积神经网络输入,卷积核大小,padding,步长,求输出的shape?showImg(https://segmentfault.com/img/remote/146000001781...

    summerpxy 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<