简述题
1 costfunction形式:
J(\mathscr o)=\frac{1}{2}\sum_{0}^{N}(h_\mathscr o (x^i)-y^i)^2
2
3.KNN算法大体过程是:
- 1.计算出样本数据和待分类数据的距离;
- 选择K个与其距离最小的样本
- 统计出K个样本中大多数样本所属的类,这个类即为待分类数据所属的类
K:K值的选择一般选取1,3,5,7等较小的奇数。因为如果选择的K值过于大的话会造成分类的偏差大,如果选择偶数则会发生在一个区域内对于样本的投票相同的场景所以选择较小的奇数
8.随机梯度下降
编程题
1
from sklearn import neighbors
from sklearn import datasets
knn = neighbors.KNeighborsClassifier()
iris = datasets.load_iris()
knn.fit(iris.data, iris.target)
predictedLabel = knn.predict([[3.5, 0.4, 2.3, 2.5]])
print(predictedLabel)
2
import numpy as np
a=np.array([[0,1,2,3],[0,1,2,3],[0,1,2,3],[0,1,2,3]])
#print(a)
def transform(a):
for i in range(len(a)-1):
for j in range(len(a[i])):
if j>i:
temp=a[i][j];
a[i][j]=a[j][i]
a[j][i]=temp
print(a)
transform(a)