共有
  • 記事へのコメント98

    • 注目コメント
    • 新着コメント
    その他
    sawat
    sawat 人間、与えられた文章に理解できる部分と理解できない部分があると、無意識に理解できる部分だけに注目して残りは無視する傾向があると思う。「深い関数」が理解されてないならそこは無視される

    2019/02/22 リンク

    その他
    yas-mal
    yas-mal 一般的なニューラルネットワークの説明としては間違ってないけど、GANとか強化学習まで含めると微妙な気がする。「AIの限界」みたいな話をするなら特に。

    2019/02/21 リンク

    その他
    karaage
    karaage 明日、もう一度来て下さい、本当のディープラーニングを教えてあげますよ

    2019/02/21 リンク

    その他
    k-takahashi
    k-takahashi 『「深い関数を使った」という説明がいつも抜け落ちてしまうと嘆く』 「ディープ」ラーニングなのにね

    2019/02/21 リンク

    その他
    takamints
    takamints 「脳または脳細胞をシミュレートしている」では伝わらないのかな。脳細胞の論理的な動きは単純だと説明できる。で「学習=(シナプスの)結合係数の調整」。それがディープにつながったものだという説明でも無理?

    2019/02/21 リンク

    その他
    aya_momo
    aya_momo AIとか言ってるよりマシなのでは?

    2019/02/21 リンク

    その他
    khtokage
    khtokage 「つまりAはBの超絶凄いやつ!」って説明したら「あー、A≒Bね、完全に理解した(キリッ」ってなるやつあるあるwww

    2019/02/21 リンク

    その他
    dekaino
    dekaino 発言の方には特に誤解の余地はなかったと思う。雑だけど総論として的確な表現だ。誤解する読み手は勝手に「深い関数」を読み落として誤解してるんだよね。単なる不注意。

    2019/02/21 リンク

    その他
    cartman0
    cartman0 まあでも非線形変換の役割を担う活性化関数なんて決まってるやつしか使わんよね

    2019/02/21 リンク

    その他
    master-0717
    master-0717 深いっていうのは y = FuncA(FuncB(FunC(FuncD(FuncE(FuncF(x)))))) ってことでは

    2019/02/21 リンク

    その他
    kazoo_oo
    kazoo_oo 東芝のえらい人のコメントのやつか。

    2019/02/21 リンク

    その他
    tettekete37564
    tettekete37564 実験系の実習で習ったような習ってないような > “最小二乗法” あとで調べよ

    2019/02/21 リンク

    その他
    nekoruri
    nekoruri 比喩表現の難しさ

    2019/02/21 リンク

    その他
    securecat
    securecat 深い関数もわからんけど浅い関数もわからん。なんなら、香ばしい関数とかのほうが気持ちが伝わってくる

    2019/02/21 リンク

    その他
    cent16
    cent16 丁度、回転した座標から近似円を作ろうとして最小二乗法を調べていたら引っかかった。

    2019/02/21 リンク

    その他
    altar
    altar ネットワーク全体は単なる関数だし、ネットワークは深いし、各ノードの学習過程はまあだいたい「最小二乗法」なのだろうが、理解してる側がこういう感じで納得するタイプの比喩って不適切な場合が多いんだよな。

    2019/02/21 リンク

    その他
    ranobe
    ranobe ディープインパクトまででとまっています

    2019/02/21 リンク

    その他
    satohu20xx
    satohu20xx あっているケースと間違っているケースがありそうな。入力を大量に食わせて正解を出すタイプはタイトルのとおりなのかもしれないが、AlphaGoみたいに試行錯誤を大量に行わせるタイプは違いそう。

    2019/02/21 リンク

    その他
    dlive1
    dlive1 「ディープラーニングは、原理的には単純な最小二乗法にすぎない」「従来のマシンラーニングは(階層的に)『浅い』関数を使っていたが、ディープラーニングは『深い』関数を使っている」

    2019/02/21 リンク

    その他
    lyiase
    lyiase その通り「深い関数」こそ深層学習の本質。三次関数も最小二乗法もそれだけでは全く本質を突いてないと思う。理解できなかったのだから「沢山重ねて」って表現すべきだったとは思う。理解してたのなら抜いた罪は重い

    2019/02/21 リンク

    その他
    and_hyphen
    and_hyphen 何も知らない人間だと何を議論しているかすら分からない展開なので勉強するしかない

    2019/02/21 リンク

    その他
    UhoNiceGuy
    UhoNiceGuy 最小二乗法を二乗和を評価関数とした汎用の最適化手法と捉えるか、線形近似式を得る専用手法と捉えるか。DLは多層パーセプトロンを何らかの最適化手法で解くもの。最小二乗法は近似直線を得るイメージが強すぎるね

    2019/02/21 リンク

    その他
    futonchan
    futonchan これ1年くらい前の話題じゃないっけ

    2019/02/21 リンク

    その他
    n_231
    n_231 「深い」すなわち「deep」。つまりそういうことやぞ。

    2019/02/21 リンク

    その他
    ysync
    ysync 「深く味わい濃く」というキャッチフレーズが降ってきた…。「お化け」の方もハイパー的なものかゴースト的なものか(いい意味か悪い意味か)わかりにくい表現よね…。

    2019/02/21 リンク

    その他
    SigProcRandWalk
    SigProcRandWalk 「上手く情報を取り出す」「無から有は生まれない」「先験情報を利用する」などをフワッと混ぜて限界を意識するようにはしている。でも「最小二乗法」と限定してしまうと伝統的な統計手法との区別がつかないよね…

    2019/02/21 リンク

    その他
    te2u
    te2u 「深い」の説明がないからなんとも。

    2019/02/21 リンク

    その他
    yetch
    yetch 音楽に匂いや手触りがあるような感じ

    2019/02/21 リンク

    その他
    knok
    knok 関数の出力をさらに別の関数に与えての繰り返し、ということなんだろうけと「深い関数」という表現はどうだろうな。ぱっと見ある一つの関数の何かが深い、ような印象を受ける

    2019/02/21 リンク

    その他
    washi-mizok
    washi-mizok 残差の二乗和が描く中華鍋の底あたり

    2019/02/21 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    「ディープラーニングは最小二乗法」で物議 東大・松尾豊氏「深い関数の方が重要」

    「ディープラーニングは、原理的には単純な最小二乗法にすぎない」――2月18日付けで日経済新聞電子版が...

    ブックマークしたユーザー

    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事