共有
  • 記事へのコメント39

    • 注目コメント
    • 新着コメント
    その他
    l-_-ll
    "これまでのLLMは「無駄に大きすぎ、無駄に学習しすぎていた」という可能性があるということだ。重要なのは学習そのものではなく学習結果の探索の仕方であって、規模を拡大しても無駄に電力とお金を消費するだけだ"

    その他
    yojik
    モデルから得られる次の単語の出現確率から文章に採用する単語を選ぶ(サンプリング)するところで工夫を加えるだけでめちゃめちゃ性能アップという話。シンギュラリティは冗談としてもエッジでの実行に役立ちそう

    その他
    wdoomer
    なんか凄そうなことはわかる。エコなんだね

    その他
    kanibasami77
    不確実性の割合ごとに回答を用意できるってそれ人間ですね。記事の内容が難しいからわかりにくいけど、AIの「なんかへん」な感じがなくなることになる。はじまったな

    その他
    tokyocat
    “「エントロピー」をLLMの推論に応用することで、LLMの推論性能が劇的に上がることが、「すべてのLLMにおいて」観測され始めているのだという” どういうこと??

    その他
    hhungry
    またLLMのAPI料金が1/10とかになるのか。胸熱

    その他
    hobbiel55
    「信じられる?モデルファイルはわずか724MBしかないのだ。」

    その他
    napsucks
    今のLLMの知識は膨大で何でも知ってるのに何にもわかってない回答を返してくる。この手法が大規模モデルに適用されてちゃんと知識を生かした回答ができるようになればもはやASIなのでは。

    その他
    behuckleberry02
    これは面白い。

    その他
    aobon700
    話の枕から本題に入るのを明確にしてほしい

    その他
    blueboy
     → AI とノーベル化学賞  http://openblog.seesaa.net/article/505181817.html

    その他
    LM-7
    LLMの推論においてエントロピーとバレントロピーを尺度とするサンプリング戦略を取ることで、推論精度を大きく向上できる。従来のLLMは無駄に大きすぎ無駄に学習させすぎていた

    その他
    nreleariv
    いきなり確度の高い回答を得ようとするのではなくて、 一旦様々なバリエーション(=高エントロピー)の回答を出させて、 その中で確度の高い回答を出力する、ということと解釈した 事実ならシンギュラリティ来るか?

    その他
    Xray
    Xray 問題をピックしてイケるのはわかったけど、全体的にはどうなんだろう

    2024/10/14 リンク

    その他
    spark7
    spark7 バージョンナンバーだと、9.11の方が9.9より新しいよな。

    2024/10/14 リンク

    その他
    siuye
    これはすごいかもしれん

    その他
    abiruy
    クイックソートが開発されたときみたいな感じなのだろうか

    その他
    nekomikenyan
    大規模学習モデルを小規模学習モデルにしていくのなかなか面白いな。

    その他
    sds-page
    sds-page 物理学者の逆襲!?~俺はわずか3億600万パラメータで結果出しちゃうけど大金かけて1000億パラメータ級を作ってる人たち大丈夫?~

    2024/10/14 リンク

    その他
    zgmf-x20a
    バレントロピー知らなかったのは赤恥?

    その他
    byaa0001
    byaa0001 これについては言われるまでもがなというところであり、より"賢い"探索がコスパを左右していくとは思われる。将棋AIの頃からそう。PONANZAは量子化学計算の保木さんが発よ。各自鎬を削って、素晴らしいLLMを創造してくれ

    2024/10/14 リンク

    その他
    ata00000
    重箱の隅だが ”エントロピーが高いがバレントロピーは低くなる(左上の第一象限)" 左上なら第二象限では?「左上」だけで通じるのだから第◯象限とか言わなければ良かったのに⋯

    その他
    uehaj
    これまでのLLMは「無駄に大きすぎ、無駄に学習しすぎていた」という可能性がある

    その他
    yottsusan
    ちゃんと後で読む

    その他
    anigoka
    パラメーターの数と賢さの相関性が非線形で、探索方式を変えるとそのスイートスポットを利用出来るという話で、確率から推論ベースに移行したという話ではないらしい

    その他
    otologie
    宇宙論ではなくて言語モデルだからな。応用問題はそんなに難しくないと思うけど。

    その他
    Eiichiro
    これはやばい。評価指標にバレントロフイーとエントロピーの概念をいれるだけで、こんなことになるのか。(解釈あってるはず)デジモンへの夢がもうすぐなのかも。

    その他
    T-norf
    微妙についてけない。エントロピーとバレントロピー何を対象に計算してるのだろ。あとLLMの出力器がトークンを決めるとこだけ変えてる? と、smolLMはこの出力機構で学習したモデル?? 天才じゃない人の解説欲しい

    その他
    MIZ
    MIZ “要するにどう言うことかというと、これまでのLLMは「無駄に大きすぎ、無駄に学習しすぎていた」という可能性があるということだ”

    2024/10/13 リンク

    その他
    santo
    これは本格的なビックステップになるのか?今後の動向を注目

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    物理学者の逆襲!?Entropixはわずか3億6000万パラメータで1000億パラメータ級の回答を引き出す!Claude-3でも間違う問題を360Mが正しく解く|shi3z

    物理学者の逆襲!?Entropixはわずか3億6000万パラメータで1000億パラメータ級の回答を引き出す!Claude-3...

    ブックマークしたユーザー

    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事

    いま人気の記事 - 企業メディア

    企業メディアをもっと読む