共有
  • 記事へのコメント5

    • 注目コメント
    • 新着コメント
    その他
    hirorock
    llama.cpp

    その他
    yarumato
    “生成AIを用いたプログラミングを一度APIでも良いのでやってみて、それをローカルLLMに置き換えるのがオススメ。例えば超簡易的なチャットCLIツールをまずはOpenAI APIで作ってみて、それをローカルLLMに置き換えたり”

    その他
    kotesaki
    kotesaki やってみたいけどやっぱりGPU無いと非実用的かな?

    2023/11/24 リンク

    その他
    zyzy
    今こんなん出来るんだ

    その他
    cinefuk
    "CPUで推論させることができれば、MacBook等でも動かせるようになります。「量子化」という、推論精度を犠牲にしつつ、推論コストを下げる工程を行います。これによって、本来推論では不利なCPUでも推論ができるように"

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    【令和最新版】何もわからない人向けのローカル LLM 入門

    ちょっと古めのドキュメントになってきたので、環境構築以降はぬこぬこさんの「いちばんやさしいローカ...

    ブックマークしたユーザー

    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事

    いま人気の記事 - 企業メディア

    企業メディアをもっと読む