共有
  • 記事へのコメント5

    • 注目コメント
    • 新着コメント
    その他
    knok
    knok 短いセンテンスを出すならそれぐらいのllmでいけるのか

    2023/12/15 リンク

    その他
    misshiki
    misshiki “Q&A + RAG タスクに特化した LLM を作ってみた。元モデルのLLMとしては、rinna社が公開している、youri7b-instruction を用いている。”

    2023/12/15 リンク

    その他
    sh2
    sh2 これはすごい。GPU用意して試してみたい

    2023/12/15 リンク

    その他
    sifue
    sifue すごい。これは良い知見。

    2023/12/15 リンク

    その他
    ledsun
    ledsun “学習可能なSFTを使い、Q&A + RAG タスクで適切な回答ができるようなファインチューンを7BサイズのローカルLLMに対して行った。結果として、量子化したモデルで速度・精度共にご家庭のマシンでGPT3.5を超える性能を達成”

    2023/12/15 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    Q&A + RAG に特化したLLMをSFTで学習させ4bit量子化モデルを作り、GPT3.5以上の性能を7Bモデルで達成する - A Day in the Life

    なお、評価に使ったコードはこちらの eval_xxx というコードである。 https://github.com/hotchpotch/yo...

    ブックマークしたユーザー

    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事