エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
TL;DR Llama.cppでCode Llamaが使えるようになったので、VS Codeから使ってみる。copilot的なやつ。 前... TL;DR Llama.cppでCode Llamaが使えるようになったので、VS Codeから使ってみる。copilot的なやつ。 前提 llama.cppはLAN内のサーバで動かす 理由 VSCodeを動かすマシンがやや非力なので、同じマシン内でLLMを動かしたくない GPUオフロードして高速に生成させたい サーバ側スペック CPU: Intel Core i9-13900F メモリ: 96GB GPU: NVIDIA GeForce RTX 4090 24GB モデルはcodellama-34b-instruct.Q4_K_M.ggufを使う cuBLASでGPUオフロード VS Codeは"Continue"プラグインを使う 設定変更でllama.cppを使える