回帰分析

統計学

HAC標準誤差によるt検定

HAC標準誤差によるt検定 回帰分析における最小2乗法の推定量は、誤差項が次の過程を満たす時に最小分散線形不偏量推定(BLUE)になる。 \(E = 0\) \(V = \sigma^2\) \(Cov = 0\) H...
統計学

不均一分散一致標準誤差(HC Standard Error)によるt検定

回帰分析のロバストなt検定 線形回帰分析では、誤差項が均一分散であることが仮定されている。 誤差項が不均一分散であるとき、標準誤差に誤りが生じる。 誤差項が不均一分散の線形回帰分析では、誤った標準誤差から、回帰係数のt値を求めるこ...
統計学

Breusch-Pagan(BP)検定[不均一分散の検定]

Heteroskedasticityの検定-Breusch-Pagan(BP)検定 Heteroskedasticity(不均一分散性)は、線形回帰分析の誤差項において、度々問題が生じる。 この不均一分散性を評価するときに、不均一分...
統計学

勾配降下法で重回帰分析してみた

勾配降下法で重回帰分析してみた Pythonで勾配降下法では、単回帰(回帰直線)で実験しました。 今回は、単回帰含め、重回帰分析まで広げてみます。 使うデータセットは、skleanのボストン住宅価格です。 モデルの説明 ...
機械学習

Pythonで勾配降下法

Pythonで勾配降下法 勾配降下法の更新 $$ \omega _ { i } = \omega _ { i } - \alpha \frac { \partial E } { \partial \omega _ { i } } ...
統計学

F値の求め方|重回帰分析

統計学

平方和の分解|重回帰分析

統計学

てこ比|重回帰分析

統計学

回帰分析のt値の求め方:Pythonで実装

t検定とt値とは t値は、モデルの説明変数のそれぞれについて、計算されます。 このt値が「2」以上なら、その説明変数は、「統計学的に、モデルに組み込むのは良い」または、「統計学的に支持される」ことを意味する。 逆に、t値が「1」未満な...
統計学

多重共線性を回避する:メモ書き

統計学

部分的最小2乗法(PLS)のメモ

部分的最小2乗法:PLS 部分的最小2乗法(Partial Least Squares Regression)は、PLSと略されます。 または、PLSRやPLS回帰とも呼ばれます。 ここでは、PLSと呼びます。 PLSは...
統計学

主成分回帰(PCR)Python

統計学

Excelで回帰分析する方法

統計学

回帰分析の比較 in Python

使用するデータ ボストンの住宅価格を使用する。 変数説明 CRIM人口1人当たりの犯罪発生数 ZN25000平方フィート以上の住居区間の占める割合 INDUS小売業以外の商業が占める面積...
統計学

VIFを利用した減少法による変数選択法in Python

機械学習

ボストン住宅価格を分析・予測

統計学

VIF統計量をPythonで計算

統計学

Pythonでelastic net回帰

統計学

Pythonで機械学習-LASSO-

LASSO こんにちは、βshortです。 今回は、機械学習の回帰分析問題のLASSOについて扱います。 ここでは、Pythonで、LASSO回帰をしていきます。 それでは、プログラムしていきましょう。 Lasso...
統計学

Pythonで機械学習-Ridge回帰-

Ridge回帰 Ridge回帰は、過剰適合を防ぐための正則化で、モデルを制約する。 Ridge回帰で使用される正則化は、L2正則化である。 リッジ回帰は、ぴったり0に縮小することが出来ないことに注意が必要です。 合わせて、以...
データサイエンス

重回帰分析をPythonで実装する

重回帰分析とは 回帰係数が2つ以上で従属変数も2つ以上 下の式で表せる回帰を重回帰と言う。 $$y = \beta_0 + \beta_1 x_1 + \beta_2 x_2+\cdots + \beta_n x_n$$ 計算式...
統計学

多重共線性とVIF統計量の求め方

多重共線性 説明変数間の関係に、線形従属の関係が成り立つとき、これを「完全な多重共線性がある」という。 説明変数間に高い関連性がある時、多重共線性があるという。 完全な多重共線性でなくても、高い関連性が認められたときは、多重共...
タイトルとURLをコピーしました