共有
  • 記事へのコメント37

    • 注目コメント
    • 新着コメント
    その他
    mapk0y
    mapk0y backspace.fm で Command R+ 試してたけど、Web上で数秒で終わる内容が M3 Max つんだ全部盛りの MacBookPro で8分ちょっとかかってた。メモリ90Gぐらい食うけど他のリソースはあまり消費せず熱くもならなかったらしい。メモリバス?

    2024/04/28 リンク

    その他
    dec123456789
    dec123456789 claude haikuやgpt-3.5が高いと言ってるけど、コスト計算するとMac studioを24時間フル稼働させるよりも普通に安いんだが。実際には稼働しない時間もあるからもっと安くなるだろうし。

    2024/04/25 リンク

    その他
    roshi
    roshi Apple幹部も"8GBで十分"と言うよりこういう活用事例を提示して欲しかった。

    2024/04/25 リンク

    その他
    misshiki
    misshiki “Mac Studioはコスパがよく、かつノーメンテナンスでいけるため、いま買うならメモリ96GBか、メモリ192GBのどちらかのMac Studioが最善手です。”

    2024/04/25 リンク

    その他
    rdlf
    rdlf M2 MacBook Airの16GBモデルでもllama3なら実用的な速度で動いたけど、llama3:70Bはダメだ…10分くらい待って数文字しか返ってこない。

    2024/04/25 リンク

    その他
    ebibibi
    ebibibi なるほどー。欲しくなってきた。すぐに買えるは買えるなあ…。

    2024/04/25 リンク

    その他
    stealthinu
    stealthinu うーん。学習には使えないんじゃないの?とか思って。まあ推論だけでいいのかなあ。3090x2+メモリオフロードとかのほうが汎用性ありそうに思ってしまう。

    2024/04/25 リンク

    その他
    youichirou
    youichirou 少々遅くても高コスパでめっちゃくちゃ広大なVRAMとして扱えるの魅力よね。円安でM3/M4 Studioはどうなるんだろう…。

    2024/04/25 リンク

    その他
    buhoho
    buhoho 個人的には好きだけどローカルLLMって仕事になるのか?普通にOpenAIとかAnthropicのAPI叩いたほうが高性能+安いし、仕事で相談されたら絶対にそっちすすめる。

    2024/04/25 リンク

    その他
    pascal256
    pascal256 確かに100万円で192GBのVRAMと考えると安いか

    2024/04/25 リンク

    その他
    KoshianX
    KoshianX APU のメインメモリとビデオメモリの共有というのがLLMではコスト的に有利という話か。Meteor Lake や Ryzen 8040 なんかもそういう点では悪くないかもしれないが、GPU パワーはやっぱ Apple Silicon なのかねえ

    2024/04/25 リンク

    その他
    etah
    etah https://www.reddit.com/r/LocalLLaMA/comments/16m432j/mac_studio_m2_ultra_192gb_seems_pretty_ideal_for/ / 海外でもこの手の話題は盛り上がるみたいね/今年PTA役員やってるからMacStudioM3待ち、でも学割対象になるのかはどうなんすかね?無理かも

    2024/04/25 リンク

    その他
    poad1010
    poad1010 この記事をおすすめしました

    2024/04/25 リンク

    その他
    sentas
    sentas 個人的には開発中はアホな子使うだけで間に合いそう。遊び目的ならLinuxの方が楽しいし。

    2024/04/25 リンク

    その他
    the48
    the48 お手軽カジュアルがRTX4090より遥かに高額なのがMac税か

    2024/04/25 リンク

    その他
    yarimoku
    yarimoku 「自覚してください」的な強い言い回しを好んで使う人をしばしば見かけるけど、なんの影響でそんな文体になるんだろうか。

    2024/04/25 リンク

    その他
    BOUSOUNINJIN
    BOUSOUNINJIN M1 Mac studio 32GBでStableDiffusion使ってみたが、確かにメモリの分だけ3080よりも高画素な画像をクラッシュせず出力できた。ただ速度は3080よりちょい遅い。

    2024/04/25 リンク

    その他
    Surume
    Surume “Apple Silicon Mac は UMA (Unified Memory Architecture)である”

    2024/04/25 リンク

    その他
    shunt_i
    shunt_i LLMがこのままメジャーになればVRAM特化のGPUとか出るのかなと思ってる、ホントに流れが早いから今後どうなるか楽しみ

    2024/04/25 リンク

    その他
    shields-pikes
    shields-pikes まあ、そのローカルLLMでテストや趣味の開発以外に何をするかだよね。LLM連携のシステムを全社に導入したり、顧客向けWebサービスとして運営したりするときに、まだまだAPI連携以外の選択肢はメリットが少ないのでは。

    2024/04/24 リンク

    その他
    puhu208n
    puhu208n M1~M3のGPU性能については、特にWeb系イケイケはAppleのクッソ雑な「エヌビディアーの3070より高速です(※通常デスクトップ版とは言っていない)」グラフで本当に速いと誤解してる場合があるので注意な。3060Tiより遅いはず。

    2024/04/24 リンク

    その他
    dosnaka
    dosnaka 納得しました

    2024/04/24 リンク

    その他
    door-s-dev
    door-s-dev ローカルLLMそんな強くなってるのかー

    2024/04/24 リンク

    その他
    timetrain
    timetrain MACのGPUがそんなに速いんだろうか、とは思うけど、浪漫ではある

    2024/04/24 リンク

    その他
    ykon550
    ykon550 メモリがCPU/GPUで共通なので安く手には入るのだけど、今のMac Studioはファンの掃除がしづらいらしいので敬遠している。GPUをぶん回したら絶対ホコリだらけになると思うしそこ掃除できないと辛いと思っている。

    2024/04/24 リンク

    その他
    Kazumi007
    Kazumi007 Mac Studioが欲しくなる。

    2024/04/24 リンク

    その他
    bakuhate
    bakuhate LLM開発者はまぁ頑張って欲しいけどそんなに未来あるプロダクトじゃないと思うんですよね。集金難しいしレッドオーシャン化がえげつないですわ。

    2024/04/24 リンク

    その他
    agricola
    agricola Ryzen7000/8000シリーズにはNPU載ってるモデルがあるし、何気にAVX-512 VNNIもサポートしてるんで推論に使うと楽しそう/RADEON Instinct APUとかGH200みたいなゴッツイの使いたいわー。

    2024/04/24 リンク

    その他
    forest1040
    forest1040 最近macを追いかけられていないいつの間にかPyTorchがM1対応したらしいし。けど最適化とか考え出すとmetalとか使わないといけないのでは。 知らんけど

    2024/04/24 リンク

    その他
    businessart
    businessart ワイも昨年LLMをローカルでやるかクラウドでやるか迷ったけど、クラウドでやる方が安くて早いという結論に達したよ。今は知らんけど。(StableDiffusion用のマシンだけ新調した)

    2024/04/24 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti

    もしあなたがLLMを使ったプロダクトを何かしら開発している、もしくは興味があるのなら、メモリを大量に...

    ブックマークしたユーザー

    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事