注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
国立情報学研究所 (NII) の大規模言語モデル研究開発センター(LLMC)は、2024年12月24日、約1720億パ... 国立情報学研究所 (NII) の大規模言語モデル研究開発センター(LLMC)は、2024年12月24日、約1720億パラメータのLLM「llm-jp-3-172b-instruct3」を一般公開した。「学習データまで含めすべてオープンなモデルとしては世界最大規模」としている。 約1,720億パラメータ(GPT-3級)の大規模言語モデルを2.1兆トークンの学習データを用いてフルスクラッチで学習し、指示チューニングを施したモデルを「llm-jp-3-172b-instruct3」として公開しました。学習データまで含めすべてオープンなモデルとしては世界最大規模です。https://t.co/ebFhmrA8yP — LLM勉強会(LLM-jp) (@llm_jp) December 24, 2024 ●llm-jp-3-172b-instruct3(Hugging Faceにて公開) https
2024/12/26 リンク