重回帰分析の説明2 公開日:2020年1月19日 Python =ラベルの予測において、2次元以上の特徴量がそれぞれ、どの程度、影響を与えているかを測定する手法のこと。 単回帰分析は、特徴量は1次元で、特徴量とラベルの間に「直線的な関係(線形)」が前提となっている。 重回帰分析のように特徴量が2次元となってもこの前提は変わらない。 説明変数が2つの場合、平面となる。 最適の場所を探すため、コスト(残差)の二乗和を最小化することは、特徴量が何次元になっても同じである。 関連記事 k近傍法(k-NN) 分類法分類モデルの評価ランダムフォレスト 分類法多項式次元削減モデルの評価 投稿ナビゲーション 重回帰分析の説明1モデルの評価