R Linear Regression (線形回帰)

#線形回帰 yi = b0 + b1xi +εiにおいて、誤差項εiの仮定は次の4つ。
#1.εiの期待値は0である(i=1,2,…,n)
#2.εiの各分散はすべて等しい(i=1,2,…,n)
#3.εi,εuは無相関である(i≠u; i,u=1,…,n)
#4.εiは正規分布にしたがう(i=1,…,n)

#最小自乗法による推定の良さを保証するためには、
#上述の仮定が必要。
#データに対して回帰モデルを当てはめる際には、
#モデルに対する基本的な仮定を満足していることの確認が必要
#最も有効な方法は残差の分析。
#残差の検討を行う場合は、標準化した残差を用いるのが有用。
#標準化した残差分散のことを標準誤差という(標準誤差はhttp://nakhirot.hatenablog.com/entry/20130613/1371050816)に説明あり


####UC Irvine Machine Learning Repositoryのatsデータで実験####
ats <- read.table("http://archive.ics.uci.edu/ml/machine-learning-databases/auto-mpg/auto-mpg.data",header=F)
names(ats) <- c("mpg","cylinders","displacement","horsepower",                
                "weight","acceleration","ModelYear","origin",                
                "CarName")

ats.s <- subset(ats,ats$displacement<190)
attach(ats.s) #オブジェクト内の変数を分離

reg.ats <- lm(weight ~ displacement)
summary(reg.ats)
plot(displacement,weight)
abline(reg.ats) 

#残作業
#多重共線性への対処方法、LASSO回帰