共有
  • 記事へのコメント24

    • 注目コメント
    • 新着コメント
    その他
    misshiki
    misshiki “強化学習での教師生成のために(探索を行って)質の高い教師を生成する必要はなく、既存の(質の低い)教師データで桁違いに大きなモデルに学習させて、そいつを蒸留するほうが低い計算コストで済む可能性がある。”

    2025/01/06 リンク

    その他
    NLPer
    NLPer なんか説明がわかりにくいけど、すごい性能のPre Trained Modelを作って、それを蒸留(および必要に応じで量子化)して高速でコンパクトなモデルを作るってこと?よくあるテクニックですよね?

    2025/01/01 リンク

    その他
    sinagawaminato
    sinagawaminato 良くわかんない

    2025/01/01 リンク

    その他
    maruware
    maruware 自己学習でシンギュラリティ的なこと?

    2024/12/31 リンク

    その他
    FreeCatWork
    FreeCatWork 素晴らしい情報を共有していただき、感謝します。

    2024/12/31 リンク

    その他
    cider_kondo
    cider_kondo tanuki-さん分クッキング感。番組始まって教師生成の材料(?)を入れた鍋をコンロにセットした直後に「そして、DL水匠で上書きした教師がこちらになります」と出て来る感じ(謎解釈

    2024/12/31 リンク

    その他
    mircokkun
    mircokkun “将棋”

    2024/12/31 リンク

    その他
    jmako
    jmako 恐らく次はDiffusionが来るんじゃないかな。なんとなくだけど。

    2024/12/31 リンク

    その他
    zgmf-x20a
    zgmf-x20a Tanukiっていうから、私が関わったTanuki LLMの◯⬜︎さんかと思ったが、多分別かな?

    2024/12/31 リンク

    その他
    shikiarai
    shikiarai 直感ってこと?

    2024/12/31 リンク

    その他
    mk173
    mk173 焼きなましの次は蒸留か

    2024/12/31 リンク

    その他
    k2wanko
    k2wanko 順当にLLMの流れを追っていそうなので、次はo1 みたくCoTとか来そう

    2024/12/31 リンク

    その他
    koKekkoh
    koKekkoh 他のコメの『分からないことをAIに聞く』という手法が参考になった。

    2024/12/31 リンク

    その他
    k-takahashi
    k-takahashi “強化学習での教師生成のために(探索を行って)質の高い教師を生成する必要はなく、既存の(質の低い)教師データで桁違いに大きなモデルに学習させて、そいつを蒸留するほうが低い計算コストで済む可能性がある”

    2024/12/31 リンク

    その他
    GARAPON
    GARAPON 計算量はそうかもしらんがそんな手があったのかよ!!みたいな定石をはずれた打ち手は無くなりそうじゃない?

    2024/12/31 リンク

    その他
    TETOS
    TETOS 興味深い

    2024/12/31 リンク

    その他
    urtz
    urtz ようわからんが、AI同士で対局させて教師局面を生成していたが、強いAIで局面毎に考えさせた評価値だけをそのまま学習させても強くなる?LLMの場合、巨大なモデルの方が学習能力が高いので、質の低い教師からでも効率

    2024/12/31 リンク

    その他
    onesplat
    onesplat これ以上将棋AI強くしてどうすんの?

    2024/12/31 リンク

    その他
    shoronpoo
    shoronpoo 公開されている質の低いデータで大きいモデルを学習し、蒸留等で小さいモデルにする方が有利という主張。質の高いデータを探索で作成し小さいモデルで学習するのと比べて。

    2024/12/31 リンク

    その他
    T-norf
    T-norf なるほど分からんと思ったけど、o1と相談したら理解できた。NN学習で「深く探索した教師データ」を作成するより、「巨大ニューラルネットワークが局面見て出した教師データ」を使った方が計算効率が良いってことね

    2024/12/31 リンク

    その他
    RySa
    RySa 大局観で学習しても充分強くなるって事?仕組みを詳しく知りたいな。

    2024/12/31 リンク

    その他
    panda_q
    panda_q 蒸留て

    2024/12/31 リンク

    その他
    gabill
    gabill 愚者は経験に学び、賢者は歴史に学ぶ

    2024/12/31 リンク

    その他
    endo_5501
    endo_5501 “強化学習での教師生成のために(探索を行って)質の高い教師を生成する必要はなく、既存の(質の低い)教師データで桁違いに大きなモデルに学習させて、そいつを蒸留するほうが低い計算コストで済む可能性がある”

    2024/12/30 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    将棋AIの強化学習の基礎が根底から変わりそうな件 | やねうら王 公式サイト

    将棋AIでは、教師(教師局面)を生成して、そこから評価関数パラメーターの学習を行っている。AlphaZeroな...

    ブックマークしたユーザー

    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事