サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
Switch 2
qiita.com/892noske
前回記事 前回まで ペンギンデータセットを使って、最小二乗法とRidge回帰の2種類の方法で線形回帰を実行するコードを書きました。 今回は確率的勾配降下法による線形回帰を実践していきます。 確率的勾配降下法 確率的勾配降下法(Stochastic Gradient Descent; SGD)は線形回帰①で学んだ通り、パラメータを一度に求めるのではなく勾配を計算し繰り返しパラメータを更新していく方法でした。scikit-learnでは確率的勾配降下法で線形回帰を行うためのモジュールとしてsklearn.linear_model.SGDRegressorがあります。前回同様ペンギンデータセットを用いて実際のコードを書いていきます。 import seaborn as sns import pandas as pd import numpy as np import matplotlib.pyp
このページを最初にブックマークしてみませんか?
『qiita.com』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く