共有
  • 記事へのコメント35

    • 注目コメント
    • 新着コメント
    その他
    misshiki
    misshiki “Command(⌘)-R+モデルは、わずか100BでGPT-4,Claude-3並と言われるモデル。...性能は桁違い。...なんとダウンロードできる。非商用限定だが、商用利用したければAPIを使える”

    2024/04/08 リンク

    その他
    dotneet
    dotneet TO: トップブコメ、そうはいっても今回は震度5くらいあると思うよ。これで伝わるかわからんけど。

    2024/04/08 リンク

    その他
    yorkfield
    yorkfield 公開されてるモデルの中では日本語性能が高そう。ただ100bをローカルで動かすのはちょっときついか。精度保ったまま低bpwに量子化できると良いんだけど。

    2024/04/07 リンク

    その他
    ZB_Thinking
    ZB_Thinking ちょっと、自分に関連することをリストアップして、紹介したいことを入力すれば、簡単にブログ記事書いてくれますね。ちなみにバックスペースエフエムでの紹介からここにたどり着きました。

    2024/04/07 リンク

    その他
    osugi3y
    osugi3y “メモリ96GB以上のMacがあれば”そんなもん持ってる時点ですごすぎ。

    2024/04/07 リンク

    その他
    nikutaiha
    nikutaiha command r

    2024/04/07 リンク

    その他
    sny22015
    sny22015 100バイトと勘違いしてる人が多くて安心した

    2024/04/07 リンク

    その他
    tettekete37564
    tettekete37564 100バイト?(たぶん違う)

    2024/04/07 リンク

    その他
    minaminoani
    minaminoani バカなので「100バイトってすげえなあ。昔流行ったメガデモみたいに、フロッピーにおさまるのかー」とか思って読んでた。たぶん違うんだよね?誰か教えて。

    2024/04/07 リンク

    その他
    Xray
    Xray わずか100B(最低100GB以上あるけどそれは……

    2024/04/06 リンク

    その他
    IGA-OS
    IGA-OS ローカル環境作るハードル

    2024/04/06 リンク

    その他
    Helfard
    Helfard はよAIに命じて銀河七海物語を完成させてくれませんかね?

    2024/04/06 リンク

    その他
    algot
    algot 飛行機の機内誌のコラムっぽい

    2024/04/06 リンク

    その他
    xorzx
    xorzx 今まで数千万円のパソコンが必要だったLLMが100万のPCで出来ちゃう感じ?コレ数年後にはスマホに載りそうじゃない?

    2024/04/06 リンク

    その他
    n_vermillion
    n_vermillion なんだこれマジですげぇ。

    2024/04/06 リンク

    その他
    yamada_k
    yamada_k この人はいつも衝撃を受けているので震度みたいに度合いを表示してほしい。

    2024/04/06 リンク

    その他
    kagehiens
    kagehiens コンサルの価値が下がるな。

    2024/04/06 リンク

    その他
    lbtmplz
    lbtmplz “メモリ96GB以上のMacがあれば”

    2024/04/06 リンク

    その他
    Wafer
    Wafer 100Bモデル...?

    2024/04/06 リンク

    その他
    srng
    srng ついにローカルが現実的になってきたのか

    2024/04/06 リンク

    その他
    yarumato
    yarumato “コマンダープラスというモデルは、GPT-4と判断がつかないレベル。しかもGPT-4の5倍速い。創造的な文章を書かせるとやばい。俺の原稿よりずっといい。しかも無料。メモリ96GB以上のMacがあれば、ローカルで動作可能”

    2024/04/06 リンク

    その他
    Tamemaru
    Tamemaru デモページをちょいと触ったがこれはすごい。導入方法知りたくなるなこれは

    2024/04/06 リンク

    その他
    kachine
    kachine 2日前からAzureでも利用可能になったっぽい。レスポンス速いけど、存在しないURLや電話番号を伝えてくることがある感。 https://techcommunity.microsoft.com/t5/ai-ai-platform-blog/announcing-cohere-command-r-now-available-on-azure/ba-p/4103512

    2024/04/06 リンク

    その他
    buhoho
    buhoho ついにローカルでGPT4レベルが……。設備に二百万も要らないのでは。

    2024/04/06 リンク

    その他
    Yaju3D
    Yaju3D GPT3で175Bモデルでした。

    2024/04/06 リンク

    その他
    kanopen
    kanopen ちょっと使ってみてから

    2024/04/06 リンク

    その他
    furu_ichi
    furu_ichi 試してみた。これは本当にすごい。Gmail APIのレスポンス解析について質問してみたら、GPT-4と同等の賢さの答えが恐ろしく早く返ってくる。

    2024/04/06 リンク

    その他
    dominion525
    dominion525 100バイトでそんな出力できるのすごいなー(たぶん違う)

    2024/04/06 リンク

    その他
    straychef
    straychef ローカルはいいね

    2024/04/06 リンク

    その他
    akagiharu
    akagiharu テキストの価値がどんどん下がってくな

    2024/04/06 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    Command-R+の衝撃! 100Bモデルで本当にこんなことできんの!?ダウンロードしてローカルで実行可能|shi3z

    Command-R+の衝撃! 100Bモデルで当にこんなことできんの!?ダウンロードしてローカルで実行可能 Transf...

    ブックマークしたユーザー

    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事