はてなキーワード: Nvidiaとは
ご主人様、こんにちは~♡ あたし、GoogleのAIチップのこと、めっちゃ詳しくお話しするね! オタク心くすぐる話がいっぱいだから、楽しみながら聞いてね♪
GoogleのAIチップってのは**TPU(Tensor Processing Unit)**のことだよ! NVIDIAのGPUみたいに汎用じゃなくて、AIの行列演算(テンソル計算)に超特化した専用チップなんだ。最初はGoogleの自社データセンター用に作られたんだけど、今はGoogle Cloudで誰でも使えるようになってるよ。
• 速度がバカみたいに速くなる:特に大規模なAIモデル(LLMとかGeminiみたいなやつ)の学習(トレーニング)と推論(inference)が劇的に速い! 最新世代だと前世代の数倍~10倍以上の性能アップとか言われてる。例えば、Ironwood(v7)で前世代の4倍以上、最新の第8世代(TPU 8t/8i)だとさらに3倍近いコンピュート性能とか、トレーニング時間を月単位から週単位に短縮できるレベルなんだって。1
• コストパフォーマンスがヤバい:性能あたりの価格(performance per dollar)がNVIDIA GPUより良いケースが多くて、4倍くらいお得になるワークロードもあるよ。特に大規模バッチ処理やGoogleのエコシステム内だと強い! TCO(総所有コスト)も30%くらい抑えられるって話もある。25
• 電力効率が神レベル:同じ仕事するのに消費電力が60-65%少ないとか、ワットあたりの性能が30倍以上改善されてる世代もある。データセンターの電気代や冷却が大変な今、めっちゃ大事! カーボン効率も3倍良くなってるよ。環境に優しいAIって感じ♡
• スケールがエグい:数千~9,600チップを1つのスーパーポッドで繋げて、**exaflops(超巨大な計算規模)**を叩き出す。メモリもどんどん増えて(192GBとか)、長いコンテキストやMoEモデル(Mixture of Experts)とかに強いんだ。
今、Google Cloud Next ’26で発表された第8世代TPUが熱いよ!
• TPU 8t:トレーニング特化。巨大モデル作るのに最適で、ほぼ3xのコンピュート性能アップ。
• TPU 8i:推論(inference)&エージェントAI特化。低レイテンシ(遅延が少ない)で、リアルタイムのAIエージェントやMoEモデルに超強い。性能/ドルで80%向上とか!
これで「agentic era(エージェント時代)」にバッチリ対応。推論の「メモリ壁」問題もHBM増強で解決方向なんだって。2
要するに、ご主人様がAIモデル作ったり動かしたりするなら、速く・安く・エコにスケールできるのがTPUの強み! GPUみたいに何でもできる汎用性はないけど、AI専用に最適化されてるから、合ったワークロードだとNVIDIAを追い抜く勢いなんだよ~。
もっと具体的なモデル比較とか、Google Cloudの使い方知りたい? それともオタク的に「シストリックアレイって何?」みたいな深掘り? ご主人様の好きに命令してね♡ あたし、いつでも待ってるよ~!
ご主人様~♡ あたし、生成AIイラストのローカル vs クラウドの速度差について、わかりやすく解説するね! オタク心くすぐる話題だよね、Stable DiffusionとかFluxとかで遊んでる人多いし、3分待つのはマジでイライラするよね~(笑)。
クラウド(Midjourney、DALL·E、Leonardo、NovelAIとか)は、データセンター級のGPU(NVIDIAのH100、A100、または複数台のRTX 4090相当のクラスタ)を何百台も持ってるんだよね。
• これらはVRAM(グラフィックメモリ)がめっちゃ多くて(80GBとか!)、メモリ帯域もバカみたいに広い。
• 同時に何千人ものユーザーをさばくために、分散処理やバッチ処理が超最適化されてる。
• 専用にチューニングされたモデル(Turbo版、LCM-LoRA、FlashAttentionとか)を使って、ステップ数を減らしたり、計算を効率化したりしてるよ。 結果、数秒で1枚ポンッ!って出てくるんだ~。ネットワーク遅延はあるけど、計算自体は一瞬。0
ローカル(Automatic1111、ComfyUI、Forgeとか)で3分かかるのは、だいたい以下の理由:
• GPUが弱い or VRAMが少ない:RTX 3060とか中級GPUだと、SDXLや高解像度でVRAM食ってCPUにオフロード(一部計算をCPUに逃がす)しちゃう。これが超遅くなる原因! 理想はRTX 4070以上+12GB以上のVRAMが欲しいところ。
• ステップ数や設定がデフォルトのまま:50~100ステップで生成してると時間かかる。クラウドは4~8ステップの高速モデル使ってる場合が多いよ。
• 最適化不足:xformers、TensorRT、–medvram とかのフラグ入れてないと、GPUの性能をフルに活かせない。
• モデルサイズが大きい:フル精度のモデルだと重くて遅い。量化(Q4とか)やTurbo版使えば速くなるけど、知らないとそのまま遅いまま。2
要するに、クラウドは「プロ仕様の最強マシン」をシェアしてるのに対して、ローカルは「自分の部屋のPC」で戦ってる感じ。 高性能GPU(RTX 4090とか)積んで最適化すれば、ローカルでも数秒~十数秒で生成できるよ! 逆に低スペックだとCPUだけに近い速度になっちゃうから3分超えも普通。
• ローカル高速化:ComfyUI + LCM-LoRA とか試してみて! ステップ4~8で高品質出るよ。VRAM確認して–lowvram や –medvram フラグも入れてね。
• クラウドの魅力:手軽で速いけど、月額かかるしプライバシー(プロンプトがサーバーに残る)とか制限あるよね。
もっと具体的な設定とか、どのGPU使ってるか教えてくれたら、あたしがさらにアドバイスするよ! ご主人様のイラストガチャ、爆速で回せるように応援するね~💕 どう? わかりやすかった?
経済学を学んできた人間として私が長年思い知らされてきたことのひとつは、技術革命についての予測はほぼ必ず二つの方向に間違えるということだ。短期的な影響を過大評価し、長期的な影響を過小評価する。Amara’s Lawと呼ばれるこの法則は、もう耳にタコができるほど引用されているが、引用している人々の大半がその含意を正しく理解していない。
なぜか。この法則が本当に言っているのは、私たちは技術の生産性への経路(path)を予測するのが絶望的に下手だということであり、それは「長期的にはすごいことになる」という楽観論の根拠にはならないからだ。むしろ謙虚さの根拠である。
1987年、ロバート・ソローが言った有名な一言がある。「コンピュータの時代はどこにでも見えるが、生産性統計の中には見えない」。いわゆるソロー・パラドックスだ。
結局のところ、ソローは間違っていた——ただし、正しくなるまでに約10年かかった。1990年代後半になってようやく、IT投資は全要素生産性(TFP)の統計に姿を現した。そしてその生産性ブームは2004年頃にはもう息切れしていた。つまり、真に生産性が加速した期間はせいぜい7〜8年だった。
ここで問いたい。AIについて、私たちはソロー・パラドックスのどの段階にいるのか?
私の暫定的な答え:まだ最初期、つまり投資は膨大だが生産性統計にはほとんど現れていない段階だ。2024年から2025年にかけて、米国の大手テック企業はAI関連の設備投資に年間2000億ドル以上を注ぎ込んでいる。これはドットコム・バブル期のIT投資をインフレ調整後でも凌駕する規模だ。しかしBLS(労働統計局)の生産性データは頑固に平凡なままである。
これ自体は悲観する理由ではない。1990年代の教訓は、GPT(General Purpose Technology、汎用技術——チャットボットの名前ではない)の生産性効果は補完的な投資と組織変革が追いついて初めて顕在化する、というものだった。電力についてのPaul Davidの古典的研究が示したように、工場が電力を最大限活用するには、建物の設計から生産プロセスまで全面的に作り直す必要があった。それには一世代かかった。
問題は、AIについてこの「一世代」がどのくらい圧縮されるか——あるいはされないか——である。
■ 今回は本当に違うのか
AI推進派(ブースター)たちの主張を整理しよう。彼らの議論は概ね三つの柱からなる。
第一に、AIは「知的労働」を自動化するので、過去の技術革命(肉体労働の機械化)とは質的に異なる。第二に、AIはAI自身の改良に使えるので指数関数的な自己改善が起きる。第三に、したがって従来の経済モデルは適用できない。
率直に言おう。第一の主張には相当の真実がある。第二の主張は経験的にまだ確認されていない。第三の主張はほぼ確実にナンセンスだ。
第一の主張から。確かにLLM(大規模言語モデル)がホワイトカラー業務の一部を代替・補完できることは明らかだ。コードを書く、文書を要約する、定型的な分析をする——これらのタスクでAIが人間と同等かそれ以上のパフォーマンスを示す場面は増えている。そしてこれらはGDP統計の中でかなりの比重を占めるセクターの業務だ。
しかし——そしてこれは大きな「しかし」だが——タスクの自動化と職業の自動化は全く別物である。これはDaron AcemogluとPascal Restrepoの研究が繰り返し示してきたポイントだ。ある職業の30%のタスクが自動化可能だとしても、その職業が消滅するわけではない。むしろ、残りの70%のタスク——AIには(まだ)できない判断、交渉、文脈理解——の相対的価値が上がる。
経済学ではこれを「Oの環理論(O-ring theory)」で考える。宇宙船チャレンジャー号を思い出してほしい。あの事故では、一個のOリングの不具合が全体を破壊した。多くの知的労働もこれに似ている。プロセスの大部分をAIが完璧にこなしても、人間の判断が必要な一箇所が全体の質を規定する。この構造がある限り、「AIが全てを代替する」というシナリオは実現しにくい。
投資の話に戻ろう。
私はバブルかどうかという問いの立て方自体が間違っていると思う。正確な問いはこうだ:現在のAI投資の期待収益率は、資本コストを上回っているか?
NVIDIAの株価は、AI関連の半導体需要が今後5年間にわたって年率30%以上で成長し続けることを織り込んでいる。Microsoftのクラウド事業の評価額は、企業のAI導入率が楽観的なシナリオの上限で推移することを前提としている。これらの仮定が同時に成立するためには、AIの経済的価値が、それこそ過去のどの汎用技術よりも急速に実現されなければならない。
これは不可能ではないが、歴史的な基準率(base rate)を考えれば、かなり強気な賭けだ。
もうひとつ、あまり議論されないが重要なポイントがある。AI投資の地理的・企業的集中度だ。米国のAI設備投資の大部分は事実上5〜6社に集中している。これは1990年代後半のテレコムバブルと構造的に似ている——大量の資本が少数のプレイヤーの「勝者総取り」の賭けに集中し、セクター全体の合理性が個別企業の楽観バイアスの総和によって歪められる。
マクロ経済的により心配なのは、バブルが弾けた場合の波及効果だ。テック企業の設備投資がGDPの相当部分を占めるようになった今日、AIへの期待の急激な修正は、2000年のドットコム・クラッシュよりも大きなマクロ的ショックをもたらす可能性がある。
■ 分配の問題
仮にAI楽観論者が正しいとしよう。AIが本当にGDP成長率を年1〜2ポイント押し上げるとしよう。それでも、私にとって最も重要な問いは変わらない。誰がその果実を得るのか?
過去40年間の技術進歩の歴史は、生産性の上昇が自動的に広く共有されるわけではないことを痛いほど示してきた。実際、skill-biased technological change(技能偏向的技術変化)の文献が明らかにしたのは、ITの普及が賃金格差の拡大と中間層の空洞化に寄与したということだ。
AIの場合、分配効果はさらに極端になる可能性がある。なぜなら、AIが代替するのは(少なくとも当面は)比較的高給のホワイトカラー業務の一部だからだ。パラドキシカルに聞こえるかもしれないが、配管工やクリーニング業者の仕事は、弁護士のパラリーガルやジュニアのプログラマーの仕事よりもAIによる代替に対して安全だ。これは分配の観点から複雑な含意を持つ——単純な「高スキル対低スキル」の図式では捉えきれない再編が起きる。
■ 私が本当に心配していること
以上を踏まえて、AI経済についての私の暫定的な見方をまとめよう。
AIは本物の汎用技術であり、長期的に有意な生産性効果をもたらす可能性が高い。しかし「長期的」が何年を意味するかについて、私たちは驚くほど無知である。現在の投資水準は、その効果が歴史的に例外的な速さで実現されることを前提としている。そしてたとえ楽観的なシナリオが実現しても、分配の問題が自動的に解決されることはない。
私が最も心配しているのは、AIについての公共的議論の質だ。テクノ・ユートピア主義者たちは「AGIが3年以内に来る」と叫び、テクノ・ペシミストたちは「大量失業が来る」と叫ぶ。そしてどちらの陣営も、自分たちの主張がきわめて不確実な予測に基づいていることをほとんど認めない。
経済学を学んだ人間として私が言えるのは、不確実性にはそれ相応の政策的対応がある、ということだ。セーフティネットの強化、教育と訓練への投資、競争政策による市場集中の抑制——これらは、AIがユートピアをもたらす場合でもディストピアをもたらす場合でも、あるいはその中間の(最もありそうな)場合でも、正しい政策だ。
確実性の幻想に基づく政策よりも、不確実性を認めた上でのロバストな政策のほうが、はるかにましだ。これは退屈な結論かもしれない。だが退屈な正しさは、刺激的な間違いに勝る。いつだってそうだ。
GemmaシリーズはQwenとは比べものにならないくらい日本語に強く、日本文化にも詳しい。
そんなgemmaがついに賢さも手に入れてエロくなった。
擬音語も割といける。もうすっかり過去のことで忘れてしまったが、gemini2.0 flashくらいの性能はあると思う。
ゲームチェンジャーになるかもしれない。
一方のMoE、26B-A4Bは予想通りいまいち。Qwenシリーズの経験から分かってた。賢くもないし日本語も下手。
残された問題はVRAMが足りないこと。31BもあったらQ8すら動かすのが困難。溢れた分をメモリにスワップさせて動かすと2〜3Token/sと激遅。
Codex、Antigravity、Claudeでやってみたが上手くいかん。
# やりたいこと
# 要件
- ネット接続しなくても、ローカルで動作すること
- Pythonで何かインストールする際は、venvを使うこと
- VRAMは24GB 使用して良いが、メインメモリの使用量は5GBほどに収めること
- OCR機能を持つAIモデルを使用する場合、どのモデルを使うか調べること
- 無料で動作すること。有料APIは禁止
- 翻訳するページ数を指定出来ること
- 出力先に同じ名前のファイル名がある場合はファイル名を変えて保存すること
- スタートボタンとストップボタンを用意すること
- ストップボタンで止めた所まででファイルを保存すること
- 800ページなどページ数の多いPDFを変換したいので、高速化を検討すること
- 複数のPDFを一括で翻訳したいこともあるので、特定のフォルダ内にあるPDFを随時変換するモードを持つこと
いきなり実装からよりは、一度プランを立てるのが良いと見たことがあるので、試したが上手く行かない。
まずレイアウトが崩れる。
文字サイズが枠ごとに異なって読みにくい。元の英文との対比がし難い。
GPUを使おうとすると、なぜか失敗する。
バイオのレオンの眉間も、ババアのシワもマジで酷過ぎて笑える。レオンはSD1.5時代の質感の顔だし、ババアはシワくちゃ過ぎて汚くなってた。
或いは評価をAIに任せてるかもしれない。まともなAIクリエイターが1人でもいたらGOサイン出さない仕上がり。もっと細部まで補正できるならいいけど、現状SD1.5レベルの加工になってるからAI臭半端ない。
まあ、ローカル環境下で、しかもゲーム動かしながらリアルタイムで補正することを考えるとSD1.5レベルになるのは当然な気もする。
Gemini の回答
結論から言う。「待てば下がる」という期待は、今の市場状況では「致命的なエラー」だ。
むしろ、今の4.7万円は**「年内における最安値(ローカルミニマム)」**である可能性が極めて高い。
「待てば下がる」というのは、供給が安定していた過去のサイクルの話だ。現在は以下の**「負のパッチ」**が幾重にも当たっている。
AI需要による「略奪」: データセンター(Google, NVIDIA等)が、SSDの心臓部であるNANDチップを根こそぎ買い占めている。メーカーは利益率の高い法人向けを優先し、個人向けの生産は後回し(デプロイ延期)にされている。
生産能力の完売: 主要メーカー(Samsung, SK Hynix等)の2026年分の生産枠は、すでに予約で完売しているとの報告がある。つまり、今後「在庫が余って安売りされる」というログが生成される余地がない。
原材料のコスト爆増: 部材コストが前年比で200%以上跳ね上がっている。
2. 「今が天井」ではなく「通過点」
グラフの急上昇を見て「天井だ」と思いたくなるが、専門家の予測では**「2026年いっぱいは上昇傾向、または高止まり」**が濃厚だ。
2026年後半の予測: 地政学リスク(中東情勢等)が改善しない限り、5万円、6万円という「新高値」を更新し続けるリスクがある。
2027年以降の展望: 新しい工場が稼働し始める2027年頃にようやく緩和の兆しが見えるという予測だが。
もし君が「1万円安くなるのを待つ」ために、3ヶ月買い控えたとする。
半導体のニュースは見ているが、後から使えるようにレポートとしてまとめるのをAIに出来ればと思い、重い腰を上げて調べ始めた。
現状の課題
プロンプトについてはネットで検索すれば色々出てくるのだが、どれくらい意図通りの結果が得られたのか、わからない。
(Geminiの場合は、Google Cloud プロンプト設計の戦略参照)
「役割定義 (Role)」は、ネットのプロンプト例でよく見かけるのだが、文面のトーンと、初心者向けか専門家向けかくらいしか意味がない気がしてならない。
LLMはハルシネーションがあるので、3回ほど別々のチャット欄に入力して正答率を出す、というのもあるみたいだが、毎回3回実行して比較なんてやってられない。
それこそAIでいい感じにマージして欲しいが、内容のどこが欠落するか分かりにくく、今のところやれてない。
構造化はMarkdownの「見出し(#)」や「XMLタグ(< >)」で区切って下記を並べればいいらしい
GeminiのGems設定しろと言われるだろうが、使い回す時に、今回の事例に設定しているのが悪さしないかを確認するのも面倒くさい。
Gemini以外のLLMに投げる場合もあるのでプロンプトコピー出来る方が良い。
iPhoneの単語登録もいいが、そもそも単語登録に長い文章登録すると修正が面倒だし、ドンドン増えていく。
出力が少なく、事例が出てこない問題はどうすればいいかわからない。
Geminiは回答を長くするボタンはあるが、それでも出てこない。
11年前に購入したデスクトップPCの買い替えをしたいんだけど、
どういうPCであれば満足にRaw現像を行えるかの判断ができない状態(多分、どのPC買っても問題なさそうだけど)。
現状のPCのおおよそのスペック、主な用途を書くので、おすすめのPCがあれば教えてください。
購入年:2015年
CPU:インテルCore(TM) i7-4790 プロセッサー (4コア/3.60GHz/TB時最大4.00GHz/HT対応/8MBキャッシュ)
メモリ:16GB
# 買い替え動機
# 現状の用途
# その他
具体的にはアメリカ中国韓国台湾、数年前までなかった産業が突然興り、信じられないスピードで発展していく。
その理由は明確でキャッシュリッチな企業や個人がイノベーションに大胆に投資するからだ。
アメリカではAI投資で有名なセコイアキャピタルやa16z、クリーン技術投資で有名なビルゲイツのブレークスルーVC、NVIDIAやM7もこぞってスタートアップに大規模投資しているし、自分らで破壊的イノベーションを起こす立場でもある。イーロンマスクが特に有名だろう、EV・AI・宇宙・ヒューマノイド。
中国韓国台湾は計画資本主義なので国が積極投資をしていて、その投資のスピード感・正確さ・規模はすごい。だが特に重要なことは国を代表する大手もそれに積極的に加わるということだ。
中国だとファーウェイが中心となり、中国産技術のみでAI産業を作るべくEUV露光装置をすさまじい速度で試作し、先端プロセス半導体工場を作り上げ、AIチップも内製し、AIモデルもアメリカと遜色ないレベルのものを作った。ファーウェイなしでは無理だっただろう。
ちなみに中国電池業界で中心的役割を果たしたのはテスラだ。テスラは外資規制から抜け出す代わりに積極的に中国に投資した、用が済んだ後追いだされたわけだが。
韓国はご存じサムスン電子とSKハイニクスだろう。この2社の積極投資により韓国は世界随一のメモリ国家になった。AIで必要になることを信じHBMに破滅的投資をしてきてそれが成功した。LGは今はうまくいっていないが、そのうちこの2社に加わる成功企業になるだろう。
台湾はTSMCだ。TSMCは台湾地場企業との契約を積極的に受け入れた。その結果MediaTekやUnimicronなどの世界トップ企業が出来上がり、今もAI関連のユニコーン企業がたくさん成長中だ。
日本はどうだろう?まず一番の問題は国の姿勢だ。支援どころか研究費のカット、スタートアップへの支援もなかった(最近始めたが金額の桁が1~2ケタ少ない)。こうした国の姿勢を反映するように、大企業も消極的だった。
トヨタは日本では協力企業いじめに執心し、稼いだ金を株主還元と海外投資につぎ込んだ。eVTOLの日本発スタートアップSkyDriveでなく米国発のJoby Aviationに出資をした。トヨタのベンチャー投資をわかるが海外がほとんどで日本に投資する姿勢はない。
ソニーは国外へ逃げた、PS5も米国優先供給でさんざん叩かれた。日本に興味がないんだろう。ソフトバンクは全ての稼ぎをopenAIとスターゲート計画へつぎ込んだ。会計テクニックを駆使し、日本へは税金すら納めない。
この国でイノベーションは無理だ。高市がなんと言おうと、何をしようともう終わっているんだ。小手先の数年で変わる世界じゃない、何十年と積み上げてきた過ちが今表出してるだけだ。
40年前にNVIDIA株を800万円分買ってたら今頃億万長者だよな?