共有
  • 記事へのコメント1

    • 注目コメント
    • 新着コメント
    その他
    deejayroka
    deejayroka “多言語データで事前学習したモデルから、日本語データのみで追加学習を行うことで、低コストで高性能な日本語LLMの開発を目指しました”

    2023/07/22 リンク

    その他
    sh19910711
    sh19910711 "LLM(MPT-7B)の学習済みモデルに日本語の追加学習 / mC4の日本語サブセット: HuggingFaceのデータセットとして公開 + データ量は830GB / 学習を開始してから約118時間後に学習を停止 + コストはおよそ66万円"

    2023/07/21 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    四畳半のオフィスで70億パラメータのLLMを事前学習した話|Lightblue

    はじめにこんにちは、Lightblueの樋口です。 大規模言語モデル(LLM)は大変注目を集めていますが、日語...

    ブックマークしたユーザー

    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事