导语
机器学习是如今人工智能时代背景下一个重要的领域,它应用广泛,如推荐系统,文本分析,图像识别,语言翻译等等。要想学通这个大的领域不是一件容易的事情,所以我打算集大家之长,开通一个“Python快速实战机器学习”系列,用Python代码实践机器学习里面的算法,旨在理论和实践同时进行,快速掌握知识。
前面课程:
本文概要
1、学会用pandas导入数据;
2、学会用matplotlib可视化数据;
3、学会用sklearn给标签编码。
4、学会用sklearn划分数据集。
5、学会用sklearn进行特征缩放。
01
导入数据
import pandas as pd
df = pd.read_csv('https://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data',header=None)
df.tail()
我们使用pandas读取数据,然后通过pandas中的tail方法输出最后五行数据,看一下Iris数据集格式:
这是一个来自叫做“UCI Machine Learning Repository”数据集。UCI Machine Learning Repository:它是网络中最古老的数据集源之一,是寻找各种有趣数据集的第一选择。在这里,尽管数据集都是用户自行贡献的,但清洁程度仍然很高。此外,你可以直接从 UCI Machine Learning Repository 上下载数据,无需注册。
这个数据集是关于鸢尾花分类的问题,一个150个数据,第一列是编号,第二列到第五列是鸢尾花的各种参数,也叫做“特征(features)”是我们判断鸢尾花属于哪种的依据。最后一列就是鸢尾花的种类。
02
数据可视化
import
numpy
as
np
import matplotlib.pyplot as plt
Y = df.iloc[0:100,4].values
X = df.iloc[0:100,[0,2]].values
plt.scatter(X[:50,0], X[:50,1], color='red', marker = 'o', label = 'setosa')
plt.scatter(X[50:100,0], X[50:100,1], color='blue', marker = 'x', label = 'versicolor')
plt.xlabel('petal length')
plt.ylabel('sepal length')
plt.legend(loc='upper left')
plt.show()
我们抽取出前100条样本,这正好是Setosa(前五十个数据)和Versicolor(后五十个数据)对应的样本,我们将Versicolor对应的数据作为类别1,Setosa对应的作为-1。对于特征,我们抽取出sepal length和petal length两维度特征,然后用散点图对数据进行可视化:
03
标签编码
from sklearn.preprocessing import LabelEncoder
labelencoder_Y = LabelEncoder()
Y = labelencoder_Y.fit_transform(Y)
我们使用sklearn中的preprocessing模块中LabelEncoder函数给鸢尾花的种类Y编码,因为在编码之前,Y存储的是鸢尾花的名字,也就是字符串变量。我们无法用字符串变量进行数值计算,因此我们需要把它变成0,1,2这种格式的数据。大家可以打印编码后的Y来查看编码的效果。
04
划分数据
from sklearn.model_selection import train_test_split
X_train, X_test, Y_train, Y_test = train_test_split( X , Y , test_size
= 0.2
, random_state = 0
)
print (X_train.shape)
print (X_test.shape)
我们使用sklearn中的切分数据集的模块,model_selection来完成训练集和测试集的划分。一般而言我们随机从整个数据集中找到80%的数据作为训练集,另外20%的数据作为测试集。一个更加严谨的办法是将整个数据集随机划分成五份,然后依次用其中的一份作为测试集,另外四份合并作为训练集,对算法运行五次,最后取五次的平均值作为最终的结果。这里我们只用一次,作为演示。大家可以看到我们打印了训练集和数据集的形状,的确按照八二分。
05
特征缩放
from sklearn.preprocessing import StandardScaler
sc_X = StandardScaler()
X_train = sc_X.fit_transform(X_train)
X_test = sc_X.fit_transform(X_test)
由于我们的特征不止一个维度,每个维度之间没有同一个刻度,会导致两个维度之间的数据差距特别大。可能一个维度的数据是0.1,0.2这种小于1的数字;而另一个维度是1000,2000这种非常大的数字。因此,我们需要给特征缩放,让他们都在同一个尺度,方便后面进行模型计算。
如果你喜欢本文,请分享到朋友圈,想要获得更多信息,请关注我。
本文分享自微信公众号 - Python学会(gh_39aead19f756)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。