Linear regression with multiple variables

Linear-Regression - Shuai-Xie -Github

多变量线性回归 预测房价

ex1data2.txt(房屋尺寸,卧室数量,房屋价格)

2104,3,399900
1600,3,329900
2400,3,369000
1416,2,232000
3000,4,539900
1985,4,299900
……

Part 1: Feature Normalization

对于多维特征,要使用特征缩放保证其具有相近尺度,这样梯度下降算法会更快收敛。这个例子中,房屋尺寸是卧室数量接近1000倍。

%% ================ Part 1: Feature Normalization ================
fprintf('Loading data ...\n');

data = load('ex1data2.txt');
X = data(:, 1:2); % 房屋特征2个 (m*2)
y = data(:, 3); % 价格 (m*1)

m = length(y); % 样本数量

% 输出10个样本点
fprintf('First 10 examples from the dataset: \n');

% X 2个特征,y 1个价格
% 因为fprintf按列输出矩阵,所以要将矩阵先转置,使得每一列对应一个实例
fprintf(' x = [%.0f %.0f], y = %.0f \n', [X(1:10,:) y(1:10,:)]');
% fprintf(' x = [%.0f %.0f], y = %.0f \n', data(1:10, :)'); % 也可以

fprintf('Program paused. Press enter to continue.\n');
pause;

% 特征缩放
fprintf('Normalizing Features ...\n');
% X是特征缩放后的特征矩阵,mu是平均值矩阵,sigma是方差矩阵
[X, mu, sigma] = featureNormalize(X);
X = [ones(m, 1), X]; % X 补充 theta0

% 格式化输出特征缩放后的矩阵
fprintf(' x = [%.6f %.6f %.6f], y = %.0f \n', [X(1:10,:) y(1:10,:)]');
fprintf('Program paused. Press enter to continue.\n');
pause;
Loading data ...
First 10 examples from the dataset: 
 x = [2104 3], y = 399900 
 x = [1600 3], y = 329900 
 x = [2400 3], y = 369000 
 x = [1416 2], y = 232000 
 x = [3000 4], y = 539900 
 x = [1985 4], y = 299900 
 x = [1534 3], y = 314900 
 x = [1427 3], y = 198999 
 x = [1380 3], y = 212000 
 x = [1494 3], y = 242500 
Program paused. Press enter to continue.
Normalizing Features ...
 x = [1.000000 0.130010 -0.223675], y = 399900 
 x = [1.000000 -0.504190 -0.223675], y = 329900 
 x = [1.000000 0.502476 -0.223675], y = 369000 
 x = [1.000000 -0.735723 -1.537767], y = 232000 
 x = [1.000000 1.257476 1.090417], y = 539900 
 x = [1.000000 -0.019732 1.090417], y = 299900 
 x = [1.000000 -0.587240 -0.223675], y = 314900 
 x = [1.000000 -0.721881 -0.223675], y = 198999 
 x = [1.000000 -0.781023 -0.223675], y = 212000 
 x = [1.000000 -0.637573 -0.223675], y = 242500 
Program paused. Press enter to continue.

featureNormalize 函数

function [X_norm, mu, sigma] = featureNormalize(X)
% 标准化 X 的特征到[0,1]之间

% 初始化
X_norm = X; % X(47*2)

% 利用matlab自带函数mean,std求平均值和标准差
mu = mean(X); % mu(1*2) a row vector containing the mean value of each column. 
sigma = std(X); % sigma(1*2) 

% size(X, 1) 获得 X 矩阵的行数,即样本数 = 47
% size(X, 2) 获得 X 矩阵的列数,即特征数 = 2
m = size(X, 1);

% 缩放 X 的 2 个特征
for i = 1:m
    X_norm(i, 1) = ( X_norm(i, 1) - mu(1) ) / sigma(1);
    X_norm(i, 2) = ( X_norm(i, 2) - mu(2) ) / sigma(2);
end

end
特征缩放

Part 2: Gradient Descent

%% ================ Part 2: Gradient Descent ================
fprintf('Running gradient descent ...\n');

% Choose some alpha value 3个学习率
alpha = 0.01; % 学习率
alpha1 = 0.03;
alpha2 = 0.1;
num_iters = 400; % 迭代次数

% Init Theta and Run Gradient Descent
theta = zeros(3, 1); % 3个特征
theta1 = zeros(3, 1);
theta2 = zeros(3, 1);
[theta, J_history] = gradientDescentMulti(X, y, theta, alpha, num_iters); % 多变量梯度下降
[theta1, J_history1] = gradientDescentMulti(X, y, theta1, alpha1, num_iters);
[theta2, J_history2] = gradientDescentMulti(X, y, theta2, alpha2, num_iters);

% Plot the convergence graph
figure;
plot(1:numel(J_history), J_history, '-b', 'LineWidth', 2);
hold on; % 继续画图
plot(1:numel(J_history1), J_history1, '-r', 'LineWidth', 2);
plot(1:numel(J_history2), J_history2, '-k', 'LineWidth', 2);
% numel: number of elements 返回元素个数,作为x轴迭代次数
xlabel('Number of iterations');
ylabel('Cost J');
legend('alpha = 0.01', 'alpha = 0.03', 'alpha = 0.1'); % 图例

% 显示theta值
fprintf('Theta computed from gradient descent: \n');
fprintf(' %f \n', theta); % 3*1

% 估计房屋价格 1650 sq-ft, 3 br house
% x1不需要特征缩放为1,将后面的x2,x3特征缩放
% price = 0; % You should change this
price = [1, (1650 - mu(1,1)) / sigma(1,1), (3 - mu(1,2)) / sigma(1,2)] * theta;

fprintf(['Predicted price of a 1650 sq-ft, 3 br house ' ...
    '(using gradient descent): $%f\n'], price);

fprintf('Program paused. Press enter to continue.\n');
pause;
Running gradient descent ...
Theta computed from gradient descent: 
 334302.063993 
 100087.116006 
 3673.548451 
Predicted price of a 1650 sq-ft, 3 br house (using gradient descent): $289314.620338
Program paused. Press enter to continue.
不同学习率下的收敛曲线

gradientDescentMulti 函数

function [theta, J_history] = gradientDescentMulti(X, y, theta, alpha, num_iters)

% Initialize some useful values
J_history = zeros(num_iters, 1);
m = length(y);

% 迭代
for iter = 1:num_iters
    
    tmp = (X' * ( X * theta - y )); % 向量运算 求和项 (3*m)*(m*1)=(3*1)
    theta = theta - alpha / m * tmp;
    
    % Save the cost J in every iteration
    J_history(iter) = computeCostMulti(X, y, theta); % 根据theta求J
    
end

computeCostMulti 函数

function J = computeCostMulti(X, y, theta)

% Initialize some useful values
m = length(y); % number of training examples

E = X * theta - y; % 偏差矩阵(m*1)
J = (E' * E) / (2 * m); % (E'*E) 方差和

end

Part 3: Normal Equations

正规方程求 θ

%% ================ Part 3: Normal Equations ================
fprintf('Solving with normal equations...\n');

% Load Data
data = csvread('ex1data2.txt'); % load也可以
X = data(:, 1:2);
y = data(:, 3);
m = length(y);

% Add intercept term to X
X = [ones(m, 1) X];

% Calculate the parameters from the normal equation
theta = normalEqn(X, y);

% Display normal equation result
fprintf('Theta computed from the normal equations: \n');
fprintf(' %f \n', theta);

% Estimate the price of a 1650 sq-ft, 3 br house
% 不需要特征缩放
price = [1, 1650, 3] * theta;

fprintf(['Predicted price of a 1650 sq-ft, 3 br house ' ...
    '(using normal equations): $%f\n'], price);

预测结果与梯度下降法有出入,正规预测的是准确值,梯度下降是递进值。

Solving with normal equations...
Theta computed from the normal equations: 
 89597.909544 
 139.210674 
 -8738.019113 
Predicted price of a 1650 sq-ft, 3 br house (using normal equations): $293081.464335

normalEqn 函数

function [theta] = normalEqn(X, y)

theta = pinv(X' * X) * X' * y; % 调用方程

end
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,193评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,306评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,130评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,110评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,118评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,085评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,007评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,844评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,283评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,508评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,667评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,395评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,985评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,630评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,797评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,653评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,553评论 2 352

推荐阅读更多精彩内容