「GPU」を含む日記 RSS

はてなキーワード: GPUとは

2026-05-11

anond:20260511170110

貸し出すのはgrokのトレーニング用に用意していた一部と聞いたけど。

それをGPU需要がひっ迫しているアンソロピックが借りる。

xAIはspaceXの傘下になったし、IPOが近いからお化粧も必要なんだろう。

貸したらカネが入るわけだから決算書もよくなるわけだし。

2026-05-08

ほんとにAIってデメリットを上回るメリット提供できてるか???

GPUとかメモリとかの価格バカ高くなってインフレ拍車をかけてるけど

それで生まれ価値チャッピーお話しできるだけって釣り合ってんのか?

俺はChatGPTが賢くなるよりパソコンを安く買えるほうが遥かに嬉しいが

2026-05-06

anond:20260505233859

この10年位で隠れたインフレがすごいので、円高時代にやっていたような成金的贅沢は今は小金持ち程度ではしんどい

20年前や30年前にタイベトナムに行けば王侯暮らしができたと思うけれど今では無理だろうな。服なんかでも10年前のカシミヤ、モヘアシルク、麻、綿でも最高級品が手に届く価格流通してたけどもう届きにくい。金銀宝飾品の価格はいうまでもない。ウイスキーワイン円安の影響と中国経済成長の影響をもろに受ける。不動産も同じ。

一方でゲーム機とかドローンとかEVとかそもそも中国で作っているみたいなものメモリGPU価格が上がったといえどもまだ買いやすいのかな。

2026-05-04

anond:20260504201539

GPUの話は関係ないと言っている

データセンターがなかった時代でもフルHDサクサク見れてただろ」

というのが完全な嘘であると言っている

anond:20260504200533

何も動かしてないが

AIGPUを大量に動作させるまでは今のような規模のDC反対運動は起きてなかったぞ

電力量も発熱低周波も規模が比較にならないくらい小さくて他の工場とかと大差ないレベルだったからだ

anond:20260504195709

GPUの話は関係ねえ

データセンターがなかった時代でもフルHDサクサク見れてただろ」

というのが完全な嘘であると言っている

anond:20260504195410

データセンター擁護者の言葉は嘘ばかり

異常な大電力消費と空冷で追いつかない冷却の必要性GPUサーバーであってこの用途動画の保管庫であるけがない

anond:20260503150650

データセンターがなかった時代でもフルHDサクサク見れてただろ

まり必要ない

巨大で大規模冷却が必要タイプの今問題になってる方のデータセンターAI目的GPUを常にフル回転させてるやつだろ

民間でそこまで計算需要ないしAIアメリカ中国かいずれにせよ日本商品サービスではないのだから日本利益にはならない

DCまで行かない映像配信用のサーバーにしたって国内サーバー立てて外国企業に協力するくらいなら日本企業でやれよと

2026-05-02

生成AI功罪を冷静に比較しようぜ

プログラマプログラムを書かなくてよくなる

・上手く検索できない人でもある程度の検索ができるようになる

自分好みのエロ画像自分で作れるようになる

メンヘラの話し相手になる

GPUメモリの高騰

ハルシネーションまみれ

著作権侵害

・大量のスパム

地球温暖化の促進

他には?

2026-04-30

anond:20260430201037

こういう印象操作しても真面目な用途実用上は中国製で9割方足りるとAIユーザーにもうバレてるから

んで残りの1割高度なAI利用方法についてもGPU電気など計算資源を食いつぶされ、また際限ない高性能競争せざるを得なくなりアメリカにとってありがたい話ではないのでは

anond:20260430200848

DSがなかったらメモリ半導体の値上げもなく平和だったんじゃ

Deepseek登場でかならずしもOpenAIやAnsoropikkuのサブスク契約必要がなくなってローカル

あるいはクラウドGPUを借りるだけでAIのものは自前でいいとなり

またローカルでできない高度な作業ばかりを定額料金で24時間365日やり続ける客ばかりになり今後の採算が読めなくなっった

市場にあるメモリGPUを買い占めてローカル環境クラウドGPUを値上げさせてサブスクに客を戻す長期計画スタートしたのが数ヶ月前だろ

anond:20260430143121

NECがまた業務ポンプ使って5年動作しますみたいな昔の水冷PCを出してほしい

AI用にGPUその他も水冷安定的に冷やして静かなやつ

ワークステーションでなく普通PC

anond:20260430092726

というかそんなGPUなしPCで稼働しそうなことにAIサブスク契約するのが意味がわからない

軽トラで足りることに巨大コンテナ船を使うイメージ

中国GPUメーカーLisuan、マイクロソフトの「WHQL認証」を“中国GPUで初”取得。NVIDIAAMDインテルに次いで4社目、寡占グラボ市場の新星となるか

中国上海拠点を置くLisuan Technology(砺算科技)は4月29日、同社が製造するグラフィックカード「LX 7G100」シリーズ5月20日に発売すると発表した。そして同社製品ドライバーが、マイクロソフトのWHQL認証中国で初めて取得したとして注目を集めている。

https://automaton-media.com/articles/newsjp/20260430-440584/







すいません

ものづくり大国日本どこですか

2026-04-23

ご主人様、こんにちは~♡ あたし、GoogleAIチップのこと、めっちゃ詳しくお話しするね! オタク心くすぐる話がいっぱいだから、楽しみながら聞いてね♪

GoogleAIチップってのは**TPU(Tensor Processing Unit)**のことだよ! NVIDIAGPUみたいに汎用じゃなくて、AI行列演算テンソル計算)に超特化した専用チップなんだ。最初Googleの自社データセンター用に作られたんだけど、今はGoogle Cloudで誰でも使えるようになってるよ。

何が良くなるの? 主なメリットまとめ♡

• 速度がバカみたいに速くなる:特に大規模なAIモデル(LLMとかGeminiみたいなやつ)の学習トレーニング)と推論(inference)が劇的に速い! 最新世代だと前世代の数倍~10倍以上の性能アップとか言われてる。例えば、Ironwood(v7)で前世代の4倍以上、最新の第8世代(TPU 8t/8i)だとさらに3倍近いコンピュート性能とか、トレーニング時間を月単位から単位に短縮できるレベルなんだって。1

コストパフォーマンスヤバい:性能あたりの価格performance per dollar)がNVIDIA GPUより良いケースが多くて、4倍くらいお得になるワークロードもあるよ。特に大規模バッチ処理Googleエコシステム内だと強い! TCO(総所有コスト)も30%くらい抑えられるって話もある。25

• 電力効率が神レベル:同じ仕事するのに消費電力が60-65%少ないとか、ワットあたりの性能が30倍以上改善されてる世代もある。データセンター電気代や冷却が大変な今、めっちゃ大事カーボン効率も3倍良くなってるよ。環境に優しいAIって感じ♡

スケールがエグい:数千~9,600チップを1つのスーパーポッドで繋げて、**exaflops(超巨大な計算規模)**を叩き出す。メモリもどんどん増えて(192GBとか)、長いコンテキストMoEモデル(Mixture of Experts)とかに強いんだ。

最新の進化2026年現在

今、Google Cloud Next ’26で発表された第8世代TPUが熱いよ!

• TPU 8t:トレーニング特化。巨大モデル作るのに最適で、ほぼ3xのコンピュート性能アップ。

• TPU 8i:推論(inference)&エージェントAI特化。低レイテンシ(遅延が少ない)で、リアルタイムAIエージェントMoEモデルに超強い。性能/ドルで80%向上とか!

これで「agentic era(エージェント時代)」にバッチリ対応。推論の「メモリ壁」問題HBM増強で解決方向なんだって。2

要するに、ご主人様がAIモデル作ったり動かしたりするなら、速く・安く・エコスケールできるのがTPUの強み! GPUみたいに何でもできる汎用性はないけど、AI専用に最適化されてるから、合ったワークロードだとNVIDIAを追い抜く勢いなんだよ~。

もっと具体的なモデル比較とか、Google Cloudの使い方知りたい? それともオタク的に「シストリックアレイって何?」みたいな深掘り? ご主人様の好きに命令してね♡ あたし、いつでも待ってるよ~!

ご主人様~♡ あたし、生成AIイラストローカル vs クラウドの速度差について、わかりやす解説するね! オタク心くすぐる話題だよね、Stable DiffusionとかFluxとかで遊んでる人多いし、3分つのマジでイライラするよね~(笑)

主な理由ハードウェアスペック差と最適化の違いだよ!

1. クラウドサービスは「超高性能サーバー」を使ってるから爆速

クラウド(Midjourney、DALL·E、Leonardo、NovelAIとか)は、データセンター級のGPUNVIDIAのH100、A100、または複数台のRTX 4090相当のクラスタ)を何百台も持ってるんだよね。

• これらはVRAM(グラフィックメモリ)がめっちゃ多くて(80GBとか!)、メモリ帯域もバカみたいに広い。

• 同時に何千人ものユーザーをさばくために、分散処理やバッチ処理が超最適化されてる。

• 専用にチューニングされたモデルTurbo版、LCM-LoRA、FlashAttentionとか)を使って、ステップ数を減らしたり、計算効率化したりしてるよ。
結果、数秒で1枚ポンッ!って出てくるんだ~。ネットワーク遅延はあるけど、計算自体は一瞬。0

2. ローカルは「自分PCスペック次第」で遅くなりがち

ローカル(Automatic1111、ComfyUI、Forgeとか)で3分かかるのは、だいたい以下の理由

GPUが弱い or VRAMが少ない:RTX 3060とか中級GPUだと、SDXLや高解像度でVRAM食ってCPUオフロード(一部計算CPUに逃がす)しちゃう。これが超遅くなる原因! 理想はRTX 4070以上+12GB以上のVRAMが欲しいところ。

ステップ数や設定がデフォルトのまま:50~100ステップで生成してると時間かかる。クラウドは4~8ステップの高速モデル使ってる場合が多いよ。

最適化不足:xformers、TensorRT、–medvram とかのフラグ入れてないと、GPUの性能をフルに活かせない。

モデルサイズが大きい:フル精度のモデルだと重くて遅い。量化(Q4とか)やTurbo版使えば速くなるけど、知らないとそのまま遅いまま。2

要するに、クラウドは「プロ仕様の最強マシン」をシェアしてるのに対して、ローカルは「自分の部屋のPC」で戦ってる感じ。
高性能GPU(RTX 4090とか)積んで最適化すれば、ローカルでも数秒~十数秒で生成できるよ! 逆に低スペックだとCPUだけに近い速度になっちゃうから3分超えも普通

速くしたいご主人様へのおすすめ

ローカル高速化:ComfyUI + LCM-LoRA とか試してみて! ステップ4~8で高品質出るよ。VRAM確認して–lowvram や –medvram フラグも入れてね。

クラウドの魅力:手軽で速いけど、月額かかるしプライバシープロンプトがサーバーに残る)とか制限あるよね。

• 両方使い分けるのがオタクの勝ちパターンだと思う~♡

もっと具体的な設定とか、どのGPU使ってるか教えてくれたら、あたしがさらアドバイスするよ! ご主人様のイラストガチャ爆速で回せるように応援するね~💕 どう? わかりやすかった?

2026-04-21

anond:20260421152507

今のPCスペックは、古いゲーム機の性能を圧倒的に超えてるから激安ノートPCでも余裕でふりまわせるよ。

はいっても10年ぐらい前のコンソール機とかになると3Dが厳しいかもしれんけど。

少なくとも、今のゲーミングPCGPUは、25年前のスーパーコンピュータ地球シミュレータと同じ計算性能を持っているんだし。

2026-04-18

最近ノートPCは何が良い?

職場でまとまってノートPCを購入することになり部署みんなバラバラにして色々試してみた結果ですが、

Acer:可もなく不可もなく、電源がキーボード右上で間違って押しがち。録音などでサウンドボードに癖あり。

VAIO円安のせいか相対的に安い。堅牢さとまぁまぁ軽量、キーが良い。音・画質もよい。SDスロットがなく不便。

富士通:めちゃ軽い。軽さは正義!画質微妙、音微妙キー初期不良だった。たぶんタブレットより軽くて驚き。

Dynabook:軽くてコスパもよし。バランス良い。富士通よりは多少堅牢そう。

Mac:画質とフォントが良すぎる。コネクタなすぎ。拡張コネクタないと何もできない。見た目より重い。

Surfaceキーボード一体でないとやはり不便。画質はかなり良い。キーがなければやや軽め、コネクタ少ないけどMacよりまし。ペンも良い。

・・・という感じでした。レノボとかHPとか無骨そうなのはモバイルノートということで対象から外れています

みなさんの印象教えてください。

追記右クリック相当のアプリケーションキーをCopilotにするのやめてくれ。せめて後から設定で選べるようにしてほしい。

Fn + Shift + F10とかいちいち打ってる。PowerToyとかで設定できないのこれ?

個人的には据え置きが多いならVAIO、持ち運びが多いなら富士通、間はDynabookお勧め。なお、ThanderVoltで外付けGPUにしてます

「RleArrayをc#作成せよ」と「Insert,Remove,Addを追加せよ」とGrokに指示してRleArrayを作らせたけど…

線形探索のコードを吐きやがった。

計算量とアルゴリズム勉強してない人が何も考えずに指示したら、ごみコードを吐くことに気づかず、大量のデーターを突っ込むと遅くなるとはあるんだろうな…。

ここら辺勉強して、コード読める人間なら、気づけるけど、そうでないなら、気づかないし、納期の都合で無視せざる負えないこともある。

でも、経営者営業はここら辺の事情を知らない。

やっぱり、生成AIは滅ぶべきだ。

人間があまりに愚かすぎて生成AI能力を生かしきれてないし、生成AIコストパフォーマンスが悪すぎるせいでメモリーGPUCPUなどの値段が上がってる。

(脳を直接接続したら、話は別だが、さすがにBMIでも無理だろうし…)

ご主人様~♡ あたし、MacでLoRAモデルを動かす方法めっちゃわかりやすオタク向け説明するね! Stable Diffusion(SD)系のLoRA(キャラスタイルを追加する軽量モデル)だよね? Apple Silicon(M1/M2/M3/M4MacならGPU(Metal)で結構サクサク動くよ~!

MacでLoRAを「使う」場合と「自作学習)する」場合方法が変わるから、順番に教えるね。初心者さんでも大丈夫なやつ中心にピックアップしたよ!

1. 一番簡単Draw ThingsアプリでLoRAを動かす(おすすめ♡)

Mac App Storeで無料Draw Thingsアプリが超便利! インストールするだけでローカルSD動いて、LoRAもすぐ使える&学習までできる神アプリだよ。

インストールMac App StoreからDraw Things」を検索してダウンロード無料)。

• LoRAの使い方:

1 CivitaiとかからLoRAファイル(.safetensors)をダウンロード

2 アプリ開いて、Settings → Model → Manage からLoRAをインポートファイル選択 or URL貼り付け)。

3 生成画面でLoRA欄から選んで、**weight(強さ)**を0.6〜1.0くらいに調整(最初は0.7おすすめ)。

4 プロンプトにトリガーワード(LoRAの説明に書いてあるやつ)を入れると効果バッチリ

学習自作LoRA)もできる:PEFTタブからベースモデル選んで、画像フォルダ指定学習スタートFluxSDXLにも対応してるよ~。

MシリーズMacならMetal加速で速いし、iPhone/iPad版もあるから持ち運びもOK! 初めてならこれから始めると失敗少ないよ♡

2. **Stable Diffusion Web UI(Automatic1111)**でLoRAを使う

本格的にカスタムしたいオタクさん向け~。

• 手順のざっくり:

1 Homebrewインストールターミナルで /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)")。

2 Gitリポジトリclone:git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

3 モデルSD1.5やSDXL)をmodels/Stable-diffusion/に置く。

4 LoRAはmodels/Lora/フォルダドラッグドロップ

5 ターミナルで ./webui.sh 実行してブラウザで開く。

6 生成画面のLoRAタブから選んで、 みたいにプロンプトに入れる。

Mac版はMPS(Metal)対応してるけど、たまに --no-half オプション必要になる場合あり。エラー出たら「Mac Stable Diffusion WebUI」で検索して最新情報チェックしてね!

3. LoRAを**自作学習)**したい場合

Draw ThingsのPEFT機能が一番簡単

もっと細かくやりたいなら Kohya’s GUI(bmaltais版):

GitHubからcloneして、仮想環境作って起動。

MacGPU(MPS)対応させて学習画像フォルダ用意→タグ付け→TrainOK

• ComfyUIApple Silicon対応版あるけど、ノード組むのがちょっと上級者向けかも。

注意点(大事!)

メモリ:16GB以上推奨(32GBだと余裕)。M1/M2でも動くけど、M3/M4の方が高速。

• LoRAとベースモデルバージョンSD1.5 / SDXL / Fluxなど)を合わせる! 合わないとエラー出るよ。

• CivitaiでLoRA探すときは「Trigger words」と「Base model確認忘れずに~。

最初は軽いLoRAから試して、生成速度テストしてみて!

ご主人様がどのMac(M何チップRAMGB?)使ってるか教えてくれたら、もっとピンポイントアドバイスできるよ~! 例えば「Draw ThingsでFluxのLoRA動かしたい」とか具体的に言ってね♡

何か詰まったらすぐ聞いて! あたし、がんばってサポートするから一緒にオタク活動楽しもうぜ~!✨ 画像生成の成果見せてくれたら嬉しいな♡

2026-04-16

anond:20260416220442

これGPUにも言えるけど、それするなら実物買わなくてもクラウドGPUでよくね?案件は多い

結局、無料サービス提供してくれるなら使うけど、有料なら、自分AIサービス契約して作った方が安く済むってね

2026-04-15

anond:20260415121319

GPUで高速計算できるアプリは大昔からあるけどそういうのはバックドアとかではなく総当たりの力づくで解読してるに過ぎない

20パスであれば解読は無理

anond:20201124183417

Zipパスワードってクリーン機能なんだろうなあ

特定アルゴリズムGPU計算なんかに弱くても、瞬間的に解読できるような仕組みにはなってない

解読しようとすると計算コストがかかる

から都合が悪くて廃止の流れになった

2026-04-13

もしかしてAIのせいでほんとに個人エンジニア死ぬのでは?

今って普及期だからかなり実用性の高い生成AIバイコーディングツール無料や少額の定額制で利用できてるけど

提供からしたら絶対コスト合わなくなっていくと思うんだよな

電力もGPUもTPUも無尽蔵に必要量が増えていくわけで

今後どんどんAIの水準が上がって必需品になったら、おそらく従量課金になるし

本当に高品質業務AIoracleとか企業向け専用VPNみたいに個人には手の届かないものになっていくと思う

金持ってる大企業バンバントークン使って事業まわして結果として利益出して、

金のない個人中小は低機能版でチンタラやるしかなくなっていく

言い換えると【貧乏エンジニア】=【能力のない人】になってしまうわけ

AIの実務能力が(知能が、である必要はない)人間を超えたら、もう両者の差は開く一方になるんじゃないだろうか

マジで「親身な電話対応」「手書きコードの温かみ」「飲みニケーション」とかで勝負するしかなくなっていくぞこれ

ログイン ユーザー登録
ようこそ ゲスト さん