回帰分析

機械学習

勾配降下法で重回帰分析してみた

勾配降下法で重回帰分析してみた Pythonで勾配降下法では、単回帰(回帰直線)で実験しました。 今回は、単回帰含め、重回帰分析まで広げてみます。 使うデータセットは、skleanのボストン住宅価格です。 モデルの説明 ...
機械学習

Pythonで勾配降下法

Pythonで勾配降下法 勾配降下法の更新 $$ \omega _ { i } = \omega _ { i } - \alpha \frac { \partial E } { \partial \omega _ { i } } ...
統計学

P値(有意確率)

統計学

F値の求め方|重回帰分析

統計学

平方和の分解|重回帰分析

回帰分析

てこ比|重回帰分析

回帰分析

回帰分析のt値の求め方:Pythonで実装

t検定とt値とは t値は、モデルの説明変数のそれぞれについて、計算されます。 このt値が「2」以上なら、その説明変数は、「統計学的に、モデルに組み込むのは良い」または、「統計学的に支持される」ことを意味する。 逆に、t値が「1」未満な...
回帰分析

多重共線性を回避する:メモ書き

回帰分析

部分的最小2乗法(PLS)のメモ

部分的最小2乗法:PLS 部分的最小2乗法(Partial Least Squares Regression)は、PLSと略されます。 または、PLSRやPLS回帰とも呼ばれます。 ここでは、PLSと呼びます。 PLSは...
回帰分析

主成分回帰(PCR)Python

回帰分析

Excelで回帰分析する方法

機械学習

ボストン住宅価格を分析・予測

回帰分析

VIF統計量をPythonで計算

回帰分析

重回帰分析をPythonで実装する

重回帰分析とは 回帰係数が2つ以上で従属変数も2つ以上 下の式で表せる回帰を重回帰と言う。 $$y = \beta_0 + \beta_1 x_1 + \beta_2 x_2+\cdots + \beta_n x_n$$ 計算式...
統計学

多重共線性とVIF統計量の求め方

多重共線性 説明変数間の関係に、線形従属の関係が成り立つとき、これを「完全な多重共線性がある」という。 説明変数間に高い関連性がある時、多重共線性があるという。 完全な多重共線性でなくても、高い関連性が認められたときは、多重共...