読者です 読者をやめる 読者になる 読者になる

Linear Regression 線形回帰

R Linear Regression (線形回帰) (3) 最小自乗法の補足

最小自乗法において、y(目的変数)とy^(予測値)の差の2乗の和を最小化する意味について: 差の絶対値を最小化する考え方もある(手計算の場合はこちらの方が次数が低く楽である) 各観測点から、回帰直線に垂線を下ろし、その長さを「誤差」と考える考え方も…

R Linear Regression (線形回帰) (2) 予測モデルの作成と評価

分析の題材はこのデータ: #SPC:Sales per customer,顧客単価(JPY) #OpenH:Hours open,営業時間 #NOHWT:Number of households within trade area,商圏内世帯数(世帯) #NOPWT:Number of people with in trade area,商圏内人口(人) #IPH:Income per households…

R Linear Regression (線形回帰)

#線形回帰 yi = b0 + b1xi +εiにおいて、誤差項εiの仮定は次の4つ。 #1.εiの期待値は0である(i=1,2,…,n) #2.εiの各分散はすべて等しい(i=1,2,…,n) #3.εi,εuは無相関である(i≠u; i,u=1,…,n) #4.εiは正規分布にしたがう(i=1,…,n) #最小自乗法による推定の良さ…