注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
前回の前編では「最小二乗法」を紹介する中で、機械学習は数多くのことを仮定して、その中で一番良い答... 前回の前編では「最小二乗法」を紹介する中で、機械学習は数多くのことを仮定して、その中で一番良い答えを見つけるものだということを見てもらいました。 特に「最小二乗法」でデータ点から直線を推定する場合、次の3つのことを仮定していたことを学びました。 変数間の関係を関数で表す 関数のモデルは直線(1次式)を考える パラメータを選ぶ指標として二乗誤差を用いる 今回はこれらの仮定を振り返りながら、一般化された、より柔軟な機械学習の手法を紹介しましょう。 戻らないけど「回帰」 先ほどの仮定の1番目、「変数間の関係を関数で表す」ことを機械学習では「回帰」と呼びます。つまり機械学習の世界で「回帰問題を解く」といった場合は、この仮定をしていることになります。 「回帰」という言葉の由来 「どうして関数を求めることを『回帰』と呼ぶの? 何か戻るの?」と思うかもしれません。この名前は、もともと「平均回帰」という
2016/01/28 リンク