はてなキーワード: ロバストとは
経済学を学んできた人間として私が長年思い知らされてきたことのひとつは、技術革命についての予測はほぼ必ず二つの方向に間違えるということだ。短期的な影響を過大評価し、長期的な影響を過小評価する。Amara’s Lawと呼ばれるこの法則は、もう耳にタコができるほど引用されているが、引用している人々の大半がその含意を正しく理解していない。
なぜか。この法則が本当に言っているのは、私たちは技術の生産性への経路(path)を予測するのが絶望的に下手だということであり、それは「長期的にはすごいことになる」という楽観論の根拠にはならないからだ。むしろ謙虚さの根拠である。
1987年、ロバート・ソローが言った有名な一言がある。「コンピュータの時代はどこにでも見えるが、生産性統計の中には見えない」。いわゆるソロー・パラドックスだ。
結局のところ、ソローは間違っていた——ただし、正しくなるまでに約10年かかった。1990年代後半になってようやく、IT投資は全要素生産性(TFP)の統計に姿を現した。そしてその生産性ブームは2004年頃にはもう息切れしていた。つまり、真に生産性が加速した期間はせいぜい7〜8年だった。
ここで問いたい。AIについて、私たちはソロー・パラドックスのどの段階にいるのか?
私の暫定的な答え:まだ最初期、つまり投資は膨大だが生産性統計にはほとんど現れていない段階だ。2024年から2025年にかけて、米国の大手テック企業はAI関連の設備投資に年間2000億ドル以上を注ぎ込んでいる。これはドットコム・バブル期のIT投資をインフレ調整後でも凌駕する規模だ。しかしBLS(労働統計局)の生産性データは頑固に平凡なままである。
これ自体は悲観する理由ではない。1990年代の教訓は、GPT(General Purpose Technology、汎用技術——チャットボットの名前ではない)の生産性効果は補完的な投資と組織変革が追いついて初めて顕在化する、というものだった。電力についてのPaul Davidの古典的研究が示したように、工場が電力を最大限活用するには、建物の設計から生産プロセスまで全面的に作り直す必要があった。それには一世代かかった。
問題は、AIについてこの「一世代」がどのくらい圧縮されるか——あるいはされないか——である。
■ 今回は本当に違うのか
AI推進派(ブースター)たちの主張を整理しよう。彼らの議論は概ね三つの柱からなる。
第一に、AIは「知的労働」を自動化するので、過去の技術革命(肉体労働の機械化)とは質的に異なる。第二に、AIはAI自身の改良に使えるので指数関数的な自己改善が起きる。第三に、したがって従来の経済モデルは適用できない。
率直に言おう。第一の主張には相当の真実がある。第二の主張は経験的にまだ確認されていない。第三の主張はほぼ確実にナンセンスだ。
第一の主張から。確かにLLM(大規模言語モデル)がホワイトカラー業務の一部を代替・補完できることは明らかだ。コードを書く、文書を要約する、定型的な分析をする——これらのタスクでAIが人間と同等かそれ以上のパフォーマンスを示す場面は増えている。そしてこれらはGDP統計の中でかなりの比重を占めるセクターの業務だ。
しかし——そしてこれは大きな「しかし」だが——タスクの自動化と職業の自動化は全く別物である。これはDaron AcemogluとPascal Restrepoの研究が繰り返し示してきたポイントだ。ある職業の30%のタスクが自動化可能だとしても、その職業が消滅するわけではない。むしろ、残りの70%のタスク——AIには(まだ)できない判断、交渉、文脈理解——の相対的価値が上がる。
経済学ではこれを「Oの環理論(O-ring theory)」で考える。宇宙船チャレンジャー号を思い出してほしい。あの事故では、一個のOリングの不具合が全体を破壊した。多くの知的労働もこれに似ている。プロセスの大部分をAIが完璧にこなしても、人間の判断が必要な一箇所が全体の質を規定する。この構造がある限り、「AIが全てを代替する」というシナリオは実現しにくい。
投資の話に戻ろう。
私はバブルかどうかという問いの立て方自体が間違っていると思う。正確な問いはこうだ:現在のAI投資の期待収益率は、資本コストを上回っているか?
NVIDIAの株価は、AI関連の半導体需要が今後5年間にわたって年率30%以上で成長し続けることを織り込んでいる。Microsoftのクラウド事業の評価額は、企業のAI導入率が楽観的なシナリオの上限で推移することを前提としている。これらの仮定が同時に成立するためには、AIの経済的価値が、それこそ過去のどの汎用技術よりも急速に実現されなければならない。
これは不可能ではないが、歴史的な基準率(base rate)を考えれば、かなり強気な賭けだ。
もうひとつ、あまり議論されないが重要なポイントがある。AI投資の地理的・企業的集中度だ。米国のAI設備投資の大部分は事実上5〜6社に集中している。これは1990年代後半のテレコムバブルと構造的に似ている——大量の資本が少数のプレイヤーの「勝者総取り」の賭けに集中し、セクター全体の合理性が個別企業の楽観バイアスの総和によって歪められる。
マクロ経済的により心配なのは、バブルが弾けた場合の波及効果だ。テック企業の設備投資がGDPの相当部分を占めるようになった今日、AIへの期待の急激な修正は、2000年のドットコム・クラッシュよりも大きなマクロ的ショックをもたらす可能性がある。
■ 分配の問題
仮にAI楽観論者が正しいとしよう。AIが本当にGDP成長率を年1〜2ポイント押し上げるとしよう。それでも、私にとって最も重要な問いは変わらない。誰がその果実を得るのか?
過去40年間の技術進歩の歴史は、生産性の上昇が自動的に広く共有されるわけではないことを痛いほど示してきた。実際、skill-biased technological change(技能偏向的技術変化)の文献が明らかにしたのは、ITの普及が賃金格差の拡大と中間層の空洞化に寄与したということだ。
AIの場合、分配効果はさらに極端になる可能性がある。なぜなら、AIが代替するのは(少なくとも当面は)比較的高給のホワイトカラー業務の一部だからだ。パラドキシカルに聞こえるかもしれないが、配管工やクリーニング業者の仕事は、弁護士のパラリーガルやジュニアのプログラマーの仕事よりもAIによる代替に対して安全だ。これは分配の観点から複雑な含意を持つ——単純な「高スキル対低スキル」の図式では捉えきれない再編が起きる。
■ 私が本当に心配していること
以上を踏まえて、AI経済についての私の暫定的な見方をまとめよう。
AIは本物の汎用技術であり、長期的に有意な生産性効果をもたらす可能性が高い。しかし「長期的」が何年を意味するかについて、私たちは驚くほど無知である。現在の投資水準は、その効果が歴史的に例外的な速さで実現されることを前提としている。そしてたとえ楽観的なシナリオが実現しても、分配の問題が自動的に解決されることはない。
私が最も心配しているのは、AIについての公共的議論の質だ。テクノ・ユートピア主義者たちは「AGIが3年以内に来る」と叫び、テクノ・ペシミストたちは「大量失業が来る」と叫ぶ。そしてどちらの陣営も、自分たちの主張がきわめて不確実な予測に基づいていることをほとんど認めない。
経済学を学んだ人間として私が言えるのは、不確実性にはそれ相応の政策的対応がある、ということだ。セーフティネットの強化、教育と訓練への投資、競争政策による市場集中の抑制——これらは、AIがユートピアをもたらす場合でもディストピアをもたらす場合でも、あるいはその中間の(最もありそうな)場合でも、正しい政策だ。
確実性の幻想に基づく政策よりも、不確実性を認めた上でのロバストな政策のほうが、はるかにましだ。これは退屈な結論かもしれない。だが退屈な正しさは、刺激的な間違いに勝る。いつだってそうだ。
日本の自称成功者界隈を観察していると、奇妙な自己放尿の悪臭が立ち上ってくる。
本人たちは高級な香水を振りかけているつもりだが、実態は自己放尿で床を濡らし、その上にブランドロゴのマットを敷いて「成功」と呼んでいるだけだ。
連中が好んで語る人間関係論は単純で、付き合いの基準は年収、会食の単価、使える金額、紹介できる肩書。
「古い友人は成長を阻害するノイズとして切り捨てろ、昔の縁は生産性が低い」という助言がドヤ顔で流通する。
これは合理性の仮面をかぶった、計測可能なものだけを人間に還元する粗雑な思考であり、思考停止だ。
効率化と選別を履き違え、関係資本を短期の交換価値に圧縮した結果、残るのは同質な人間の集積と、相互に利用し合うだけの乾いたネットワーク。
連中がやっているのは、合理性と拝金主義のダブル放尿で、自分の足元を濡らしながら他人に成功論を説く滑稽な儀式にすぎない。
対照的なのがユダヤ教的な世界観だ。ユダヤ教は成功者選別ゲームを美徳としない。
中心にあるのはコミュニティであり、契約であり、時間を貫く責任だ。
ツェダカーは単なる慈善ではなく正義で、持てる者が持たざる者を切る免罪符ではない。
むしろ共同体の健全性を維持する義務であり、関係を断ち切る自由よりも関係を引き受け続ける重さが重視される。
ピルケー・アヴォートが繰り返すのは、知恵は行為に裏打ちされて初めて価値を持つという一点で、会食単価や肩書で人を測る軽薄さとは真逆の倫理だ。
安息日は生産性を止め、効率を休ませ、人を人として扱う訓練装置である。
ここには「成功者の輪に入れない者は捨てろ」という発想が入り込む余地がない。関係は最適化の対象ではなく、継承される資産だ。
日本の自称成功者が勘違いしているのは、選別が洗練だと思い込んでいる点だ。
だが選別は最も安価な思考で、数字で切れるものしか見ない態度は人間性の劣化を加速させる。
古い友人を切り、弱い縁を捨て、金で測れる関係だけを残す行為は、短期的には摩擦が減って気持ちよく見えるが、長期では信頼の厚みを失い、予期せぬショックに脆弱になる。
それを理解せず、成功者基準で人間関係を再編せよと説く日本の自称成功者は、自己放尿で足元を濡らしながら合理性を語る未熟さを晒しているだけだ。
フェミニズムの分類が多すぎると聞いて
記述集合論(Borel階層, Projective階層, 汎加法族)
モデル理論(型空間, o-極小, NIP, ステーブル理論)
再帰理論/計算可能性(チューリング度, 0′, 相対計算可能性)
構成主義, 直観主義, ユニバース問題, ホモトピー型理論(HoTT)
体論・ガロア理論
表現論
K-理論
初等数論(合同, 既約性判定, 二次剰余)
解析数論(ゼータ/ L-関数, 素数定理, サークル法, 篩法)
p進数論(p進解析, Iwasawa理論, Hodge–Tate)
超越論(リンドマン–ヴァイエルシュトラス, ベーカー理論)
実解析
多変数(Hartogs現象, 凸性, several complex variables)
関数解析
バナッハ/ヒルベルト空間, スペクトル理論, C*代数, von Neumann代数
フーリエ解析, Littlewood–Paley理論, 擬微分作用素
確率解析
マルチンゲール, 伊藤積分, SDE, ギルサノフ, 反射原理
常微分方程式(ODE)
偏微分方程式(PDE)
非線形PDE(Navier–Stokes, NLS, KdV, Allen–Cahn)
幾何解析
リッチ流, 平均曲率流, ヤン–ミルズ, モノポール・インスタントン
エルゴード理論(Birkhoff, Pesin), カオス, シンボリック力学
点集合位相, ホモトピー・ホモロジー, 基本群, スペクトル系列
4次元トポロジー(Donaldson/Seiberg–Witten理論)
複素/ケーラー幾何(Calabi–Yau, Hodge理論)
スキーム, 層・層係数コホモロジー, 変形理論, モジュライ空間
多面体, Helly/Carathéodory, 幾何的極値問題
ランダムグラフ/確率的方法(Erdős–Rényi, nibble法)
加法的組合せ論(Freiman, サムセット, Gowersノルム)
彩色, マッチング, マイナー理論(Robertson–Seymour)
列・順序・格子(部分順序集合, モビウス反転)
測度確率, 極限定理, Lévy過程, Markov過程, 大偏差
統計学
ノンパラメトリック(カーネル法, スプライン, ブーストラップ)
実験計画/サーベイ, 因果推論(IV, PS, DiD, SCM)
時系列(ARIMA, 状態空間, Kalman/粒子フィルタ)
二次計画, 円錐計画(SOCP, SDP), 双対性, KKT
非凸最適化
離散最適化
整数計画, ネットワークフロー, マトロイド, 近似アルゴリズム
Littleの法則, 重み付き遅延, M/M/1, Jackson網
常微分方程式の数値解法(Runge–Kutta, 構造保存)
エントロピー, 符号化(誤り訂正, LDPC, Polar), レート歪み
公開鍵(RSA, 楕円曲線, LWE/格子), 証明可能安全性, MPC/ゼロ知識
計算複雑性
機械学習の数理
量子場の数理
相転移, くりこみ, Ising/Potts, 大偏差
数理生物学
数理神経科学
無裁定, 確率ボラ, リスク測度, 最適ヘッジ, 高頻度データ
データ解析
日経が「デンソーが走行中ワイヤレス給電で約50時間かけ500km達成」と報道した。
https://www.nikkei.com/article/DGKKZO90879320V20C25A8TJK000/
https://finance.yahoo.co.jp/news/detail/26160791d5b00e5619bf133ca6878fb817032097
デンソー公式の距離・時間の一次リリースは未確認だが、真偽は「距離数値は準公式、技術実証自体は整合」扱いが妥当だ。
この技術の優位は「停車充電の削減」「電池小型化」「フリート用途の稼働率向上」にある。
一方で課題は、「インフラ初期費用」「標準・相互運用」「保守耐久」「ビジネスモデル設計」で、とてつもなく大きい。
世界での実証は加速中で、米デトロイトの公道パイロット、伊A35の“Arena del Futuro”、ENRXの高出力実証などがある。
まずはバス、配送、シャトルなど限定ルートでの面展開が現実解だ。
日経のスクープを金融メディア等が伝聞形式で要約。デンソー広報コメントは「実用化に向けた水準引き上げ」程度で、距離の一次公表は見当たらず。よって「走行中給電による長時間連続走行の実証」は整合性が高いが、「500km」の数値は準公式扱いが適切。
世界のパイロット(米・伊・他)やENRXの実測レンジから、長時間連続運転・高効率・高出力は技術的に十分射程内にある。
広域展開の主役。停車は必要だが既存インフラ・標準・課金が整備済み。ピーク電力対策と系統強化がカギ。
ガレージやバス停、信号待ちの「セミダイナミック」に相性が良い。位置合わせ精度が実効効率の鍵。
停車時間は短いが規格統一や在庫・資本コストが重い。限定地域や限定車種に向く。
配車が固定的なフリート(バス・シャトル・配送)で稼働率を最大化。限定ルートへ段階的に敷設し、静止型と組み合わせて面を拡大する戦略が合理的。
都市シャトル、空港・港湾、工場内搬送、BRTや路線バス、定期配送の幹線ルートであろう。これらは「ルート固定・滞在時間制約・回送削減メリット」が大きく、職業ドライバーの稼働を最大化できる。公道パイロットの設計思想は、まず短区間からの段階導入である。
おっしゃる通りです。この主張には重要な洞察が含まれていて、少し噛み砕いて厳密に考えてみると、以下のような構造があります。
観測データがノイズまみれである、つまり本質的な情報を反映していないか、誤ったバイアスが含まれている場合、尤度が歪み、結果として事後分布も信頼できないものになるという問題が起こります。
1. ガーベジイン・ガーベジアウト (GIGO): 情報源がノイズ(スパム、フェイク、誤認識)だと、更新された分布も意味をなさなくなる。正しい事前分布を持っていても、それが壊れてしまう。
2. 過剰フィッティングのリスク: ノイズを「情報」として扱うことで、モデルがノイズに過剰適応する。とくにベイズ推定はすべての不確実性を織り込もうとするので、悪質なノイズでもそれを反映してしまう。
3. 尤度モデルの設計次第で致命的になる: P(x|θ) の設計が雑だと、ノイズの多いデータに対して不適切な形で推論してしまう。実際、ノイズを「説明できる」パラメータを優遇してしまうことがある(過剰確信)。
現実のノイズだらけの状況でベイズ推定をまともに機能させるには
相関係数が低ければ有意にはなりにくいって自分で書いてんじゃん 相関係数がp値に関係するって自分で書いておきながらなんで最後で逆のことを言い出すんだ
いや、たとえば有意水準5%で検定をする、と決めて始めたときに、p値が0.06となるか0.04となるかは大違いだけど、0.04となるか0.01となるかには違いはない。仮説検定というのはそういう通るか通らないかのゼロイチのもので、0.04よりは0.01の方が精度が高いロバストな結果と評価するものじゃないよ。相関係数が低いとp値(2変数でのt検定だとほぼ同義に近い)は高くなり棄却に失敗しやすいが、それが意味を持つのはあくまで事前に設定した有意水準のところより上か下かだけ。だから先程のような書き方(ちゃんと、「有意という結果が出た下では」って書いてあるよね)になったわけだけど。で今回の、論理的思考力の高さと斎藤氏は陥れられたとみなすことに有意な相関が見られたというのに対して、有意と言っても相関係数が低い(p値がギリギリなくらい大きい)から信頼性の無い結果だとか、これがもっと相関係数が高い・p値が小さい結果だったらもっと信頼性が高かったみたいな評価をしてはならないんだよ。p値はそんな風に使えるものではないからね。
あと、どうしてベイズって言うかだって?だってまさにやりたかった、ゼロイチだけではない証拠の強さを表せるものとしてベイズファクターがあるから。ベイズファクターならそういう使い方が出来るけど、p値は無理。相関係数が高ければ高いほど、p値が低ければ低いほど強い証拠が得られたなんて使い方はできないものなの。
もしかしてp値を「帰無仮説が正しい確率」のようなものとして理解している?もしそう誤解していたら、確かに低ければ低いほど帰無仮説が間違っている(つまりその余事象の対立仮説が正しい)確率が高い、信頼性が高いって評価できるように思うかも知れないけど……
それとも、p値が小さければ有意水準5%だけでなく有意水準1%や0.5%でも有意に帰無仮説と異なると言えるぜ、そうなりゃ非常に高い統計学的有意性が得られたぜ、みたいな話?でも、仮説検定では有意水準は事前に決めなければならないものだから、後からより低いもので有意となるp値が得られたとしても意味はない。
もちろん実際には、とても低いp値が得られるような時にはそうでない場合よりもベイズファクターのような証拠の強さを表せる方法での分析を採用していたら強い結果が得られた可能性は高いだろう。逆にギリギリのp値だったら弱い結果となる可能性は高い。でもそれは、仮説検定を行うという研究デザインでやっているものに対して有効な批判にはならないんだよ。まさに筋違いな批判であって。
洗濯は夫、掃除は妻、みたいな家事一つ一つに対してどちらが主に担当するか決めるのではなく、夫も妻も全ての家事育児を基本的にできるようにするのが現実的な解だと思われる。
なぜかというと、役割分担を事前に決めておくのはかなり難しいことだからだ。プレイヤーは2人しかいないのでどちらかが大変な時はすぐ代役の出番になるし、子育てだけでなく育児中の家事はそれまでの家事とは違ってきて、全体的にタスクの負荷やピーク量の予想がしづらい。
なので、役割分担という線引きが良い意味で使われるつまりお互いの自発を引き出すというより、悪い意味で自分の領域ではないから相手が大変でも手伝わない、という働きが強くなる。
一緒にやると効率が悪そうだが、意外とやりやすい。実際に測ったことがないからわからないが、体感的に2人でやると半分以下の時間で済む作業は結構多い。連携することで短縮できるものがある。ただそれ以上に夫婦で同じ時間を共有している、協力しているということが心理的にかなり効いてくる。自分と妻ともに相手が何かしてるのに自分だけゆっくりするのは気が引けるっていう性格だからかもしれないが。
この体制は妻が働いている時も専業の時も同じ体制だった。このやり方は妻が専業の時に自分に負担感が大きいと感じたが、うちの場合妻のメンタルは一家の調子のバロメーターなので、甘んじて受け入れることにした。
第二子が生まれた時に妻が大出血をして3ヶ月ほど調子が出なかったり、妻がノロにかかったり、頻繁に子供が入院したが、この体制は結構ロバスト性を発揮した。有給を消費しまくったが、うまく乗り切ることができた。
「しかいない」ということは無いだろうが、今どき洗練された家系は知能も身長も高い遺伝子持ちだから高身長が多くなるのはあるだろう。低身長でも突然変異的に知能の高い個体が生まれることがあるのでそういうのが東大に集まるだろう。
端的に言うなら、身長は突然変異で高くはなりづらいが、知能は突然変異で高くなりやすいということかなあ(なりやすいと言ってもあくまで相対的にだけど)。知能の方は脳のニューラルネットの微妙な結合バランスとかで大きく揺らいだりするもんなのかもな。カオスの淵みたいな微妙な状態にあるから変動が大きいのではとか思わないでもない。身長はもっと原始的で単純ゆえにロバストな遺伝子型で決まってるのは想像に難くない。
人権がない、と個人の私見を述べただけで、実際に誰かの人権がなくなるわけではない。
なら何故その発言が問題かというと、低身長男性への差別を助長するからである——…
こういう主張をする人を『助長派』とよんでいるんだけど。
助長派に言いたいことがいくつかある。まず、
❶ 本当に助長するのか? 以前に同様の発言が差別を誘引したことがあったのか?
助長を主張して、憲法で保障された表現の自由を毀損するならば、当然そのくらいの証拠は持っているはずだ。よしんば因果関係の科学的証明が困難だとしても、なんらかの説得力のある材料を提示する必要はあるだろう。
❷ 助長したとして、その効果は道徳教育で相殺することができないか?
義務教育における道徳の教育をより充実させて、「身体的特徴を指して差別してはいけない」ということを教え込むことで、助長の効果を打ち消すことができないか。プロゲーマー や ゲーム実況者 がどれほどそういうことを言おうとも、視聴者がロバストなモラル観を持って影響を受けないようにしていれば、全員の表現の自由を抑圧しないで済む。もし相殺ができない理由があるのなら、提示してください。
助長派たちは、なぜ、個人の私見ばかりを狙うのか。なぜ現実に行われてる低身長男性への差別へ関心を寄せず、影響が証明されていない個人の私見ばかりに突っかかってくるのか。
あいまいな線引き・おざなりの理由… コントロール不能な表現への圧力を、特定の人達のお気持ちでやっていたら、放送で自由に表現できる範囲はどんどん狭くなっていくでしょう。個人が創造性を発揮して、それぞれの個性で多様な発言をしてきたからこそ、ライブ放送は楽しいエンターテイメントとして発展してきた。もし社会の圧力で絞られた表現の中で、逆に豊かな表現が育つというのなら、そのエビデンスも提示してください。
批判して、議論して、必要なら反省して発言を改めればいい。助長などという妄想を押しつけてクリエイターの仕事を奪う必要がどこにある? それは実質的な表現規制だ。リスナーとして不快なら、単に Not for me で去ればいい。どうしてそれで済ませられないのか。
今年2月にあったテキサス大停電のことだと思うけど、あのときは歴史上例を見ない-19℃という大寒波の影響で、再エネ風力(タービンの凍結)・LNG火発(パイプラインの凍結)・石炭火発(石炭の凍結)・原発(冷却水の凍結)など、多くの発電設備が止まってしまった。
原因は、風力タービンが欧州や日本で使われているような凍結防止型になってなかったこと、その他の火発・原発が氷点下気温に対応してなかったこと。つまり、テキサスの発電送電網は、再エネと化石エネと原発のすべてが、そもそも世界的に「再エネをやらなきゃいかんぞ」となった理由である気候変動に対して、極めて脆弱な状態のままだった。なおテキサスでは発電電力の2/3が化石燃料+原発由来で、なかでもLNGのシェアが圧倒的に高いため、結果的にはLNGが大停電の主犯だったことになる。このことは、停電発生当初は再エネを苛烈に批判していたグレッグ・アボット知事も後に認めている。
この凍結への準備不足に関して、米連邦政府は昔から凍結対応をせよと警告してたんだけど(1980年代から何度か寒波による電力供給問題が起きていた)、テキサスはエネルギー政策では極めて反連邦的で、アボット知事の州政のもと、そうした連邦レベルの指示・規制を受けないよう、グリッドを切り離して独自の運用をしていた。
本来、電力というのは送電網を使ってどこからでもどこまででも容易に送電できるのが燃料エネルギーに対する長所なわけで、ただ地域内で個別の再エネ設備やLNG火発が止まっただけなら、他地域から送電すればよい。実際、テキサス以外の米本土各州はすべて州間のグリッド接続をしていて、そのほとんどは「東部インターコネクション」と「西部インターコネクション」という2つの送電網に集約されている。ところがテキサスは全米で唯一、連邦政府の規制を避けるために、州間グリッド接続をせず州単位の系統(テキサスインターコネクション)を運用しており、これが命取りになってしまった。電力が不足してもほとんど他州から電力を流せない状態になっていたのだ。
うまく機能する電力取引市場の大前提は、あらゆる発電設備と需要家が相互にグリッド接続されているということだ。だから欧州では地域間どころかEU全体に及ぶレベルで国際連系が形成され、非常に強靱で効率的な電力網が構築されている。テキサスはこういう流れに背を向け続けた結果、地域内の発電設備の一部が停止しただけで大ダメージを受けた。
というわけで、テキサス大停電は、今では再エネの技術的問題などではなく完全な「人災」だった、という評価になっていて、アボット知事は激しい批判に遭い、テキサスインターコネクションを管理するERCOTは訴訟を起こされている。この停電の教訓は、
①これまで以上の気候変動を想定した、よりロバストな発電設備を導入すべき。
②安定した電力供給のためには、広域グリッド接続をしっかりやるべき。
ということ。
ご指摘ありがとうございました。ついLをつけてしまった。仰るとおり、米国で火発に使われているのは液化してないNG(天然ガス)です。上のLNGは全て天然ガスと読み替えてください。
(このエントリは
の続きです)