共有
  • 記事へのコメント15

    • 注目コメント
    • 新着コメント
    その他
    misshiki
    “私のMBPでは32Bモデルの動作も可能でした。 容量は20GB程で、動かすとメモリ48GBフルで使ってしまいます。”

    その他
    tg30yen
    >32Bモデルの動作も可能でした。容量は20GB程で、動かすとメモリ48GBフルで使ってしまいます。動作は軽快でCPUはそれほど使わないようです。

    その他
    ene0kcal
    うちのノートPC(第8世代Intel+nVidia P1000)には128GBメモリ積んでるので試しにやってみた。サイバーエージェントの日本語のやつ32bだけど1クエリ9分かかるので使い物にならない。やっぱGPUが最新のPCが欲しい。

    その他
    nikkie-ftnext
    蒸留された小型モデル(例:DeepSeek-R1-Distill-Qwen-1.5B)をollamaで動かすということみたい

    その他
    zgmf-x20a
    V3とR1では話が違うから、タイトルには記した方がいい。R1だったらみなさん普通にローカルで使ってるのでは?

    その他
    nabinno
    ローカルAIの検証はfreeCodeCampの解説がわかりやすい。こちらも参考まで。 https://x.com/nabinno/status/1884599969912590675

    その他
    hanajibuu
    windowsでLM Studio+DeepSeekで試したら30分後にはチャットできたよ(ほぼダウンロード時間)。

    その他
    makiskyster
    “share”

    その他
    ST0RM
    クロードやジェミニに匹敵するという情報まででてきたらホンモノなのだが、、、!!!

    その他
    l_etranger
    Dify+Ollama+DeepSeekR1の組み合わせで完全ローカルで簡単な処理をするワークフローを作ってtestしてみている。thinkがなかなか優秀。PC的にそんなにスピードが出ないので他の作業する間にやってもらうなど。地味に便利。

    その他
    strawberryhunter
    Web版ではdeep thinkさせると結構いい出力が得られるので、先日買った新PCはミニPCじゃなくGPUをゴリゴリ載せられるのにしておけば良かったと少し後悔している。

    その他
    ebibibi
    それなりの性能のAIをローカルで使い放題にできる環境がかなり整ってきましたね。ガンガン高性能化、低価格化していくと思うとそういう時代に向けた準備が必要ですね。とりあえずアプリは全部AIネイティブ化ですかね

    その他
    T-norf
    せっかく動かしたら、どれくらいの速度がでてるかだけでも書いて貰えると嬉しいな。トークン/sec

    その他
    kei_1010
    俺のR1 32Bちゃんは習近平政権の崩壊について答えてくれた。https://kei-1010.hatenablog.com/entry/2025/02/01/173402

    その他
    poad1010
    この記事をおすすめしました

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    何かと話題のDeepSeekをMacのローカル環境で実行してみた! - Qiita

    これらのモデルは、元のモデルに比べるとかなり小型化されています。 蒸留(ディスティレーション)を通...

    ブックマークしたユーザー

    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事

    いま人気の記事 - 企業メディア

    企業メディアをもっと読む