はてなキーワード: modelとは
このモデルが正しければ、いくつかの予測が成り立つ。スマートフォンの普及が遅れている国やソーシャルメディアの普及率が低い国では、格差は小さくなるはずだ。(これは事実のようだ。東欧の一部やアフリカの多くの国では格差はそれほど大きくないが、韓国は他の要因により大きな例外となっている。)子供を持つ女性の間では、親になることで制度的なフィードバックループが断ち切られ、競合する優先順位が生じるため、格差は縮小するはずだ。(出口調査は一貫してこれを示しています。母親は子供を持たない女性よりも保守的な投票をするのです。機械が機能不全に陥るか、世代が高齢化して機械の枠を越えるまで、この格差は拡大し続けるでしょう。私がどう解決すればいいのかわからないのは、これらのシステムが自己強化的であるということです。制度は自ら改革しようとしません。アルゴリズムは最適化を止めようとしません。イデオロギーは失敗を認めようとしません。男性のカウンターキャプチャーも健全な結果をもたらさないでしょう。)
逃げ出す女性もいるだろう。子供を持つ女性は、現実がイデオロギーを溶かす強力な溶媒となるため、しばしばそうする。制度に囚われずに人生を築く女性も、時にはそうする。男性の中には、引きこもりをやめたり、怒りのスクロールをやめたりする人もいるだろう。築く価値のある何かを見つけた女性たち。シミュレーションに飽きた女性たち。しかし、システムは他のすべての人々に対して機能し続けるだろう。
If this model is right, some predictions follow.
The gap should be smaller in countries with later smartphone adoption or lower social media penetration. (This seems true: the divergence is less extreme in parts of Eastern Europe and much of Africa, though South Korea is a major exception due to other factors.)
The gap should narrow among women who have children, since parenthood breaks the institutional feedback loop and introduces competing priorities. (Exit polls consistently show this: mothers vote more conservative than childless women.)
The gap should continue widening until the machines are disrupted or the generations age out of them.
Here's the part I don't know how to solve: these systems are self-reinforcing. The institutions aren't going to reform themselves. The algorithms aren't going to stop optimizing. The ideology isn't going to admit failure. The male counter-capture isn't going to produce healthy outcomes either.
Some women will escape. The ones who have children often do since reality is a powerful solvent for ideology. The ones who build lives outside institutional capture sometimes do.
Some men will stop withdrawing or stop rage-scrolling. The ones who find something worth building. The ones who get tired of the simulation.
Update:男性の比率はもはやフラットではありません。2024年以降のデータは、若い男性が右傾化していることを示しています。最近の調査はすべて同じ結果を示しています。若い男性は今、より積極的に保守的になっています。私の解釈では、女性が最初に捕らわれたのは、コンセンサス圧力を受けやすかったからです。その捕らわれの過程は急速に進みました(2007年から2020年)。男性は影響を受けにくく、捕らわれた制度にあまり根付いていなかったため、より長く抵抗しました。しかし、その格差が目に見えるようになり、文化的に顕著になり、「男性こそが問題だ」というメッセージが主流のメッセージとして明確に伝わり、嘘によって男性が社会から排除され始め、男らしさ、つまり男性を男たらしめるものそのものが有害になったため、男性は対抗し始めなければならなかった。
受動性は反抗へと変化しつつある。引きこもりは積極的な拒絶へと変化しつつある。これは、男性が今や「正しい」とか「自由」になったという意味ではない。単に、女性の合意ではなく男性の不満を汲み取るための最適化された別の仕組みに捕らわれているだけなのかもしれない。アンドリュー・テイト(注:Andrew Tate アメリカの右翼的・保守的な思想、特に「マノスフィア(Manosphere:男性至上主義的なネットコミュニティ)」やMAGA(Make America Great Again)運動の一部から支持を受ける、物議を醸しているインフルエンサー)はどこからともなく現れたわけではない。マノスフィアも同様だ。それらもまた補足システムであり、単に異なる心理的弱点を狙っているだけだ。
グラフは今や、反対方向に分岐する2本の線になっています。2つの異なる機械が、2つの異なる人口統計を2つの異なる故障モードへと引っ張っているのです。これは単なる教育の問題だと言う人もいるでしょう。女性は大学に進学することが多く、大学はリベラルな人間に育つ、それだけのことです。確かにその通りです。しかし、2007年以降、なぜ格差がこれほど急激に拡大したのか、またなぜ教育制度が大きく異なる国々でこのような現象が起きているのかは説明できません。
経済的な問題だと言う人もいるだろう。若い男性は苦境に立たされており、憤りは保守的になる。これも部分的には真実だ。しかし、男性の経済的な苦境は近年の右傾化以前から存在し、女性の左傾化は女性の経済的成功が高まっていた時期に起きた。男性ならテート、女性ならテイラー・スウィフトといった文化人の例を挙げる人もいるだろう。しかし、これらは原因ではなく症状だ。彼らはマシンーメカニズムが作り出したニッチを埋めたのだ。マシンーメカニズムを作ったわけではない。
多因果モデルの方がより適切である。生物学的基質(合意形成に対する感受性の違い)+技術的トリガー(スマートフォン、アルゴリズムフィード)+制度的増幅(大学支配、女性優位の分野)+経済的インセンティブ(結婚の崩壊、国家への依存)+イデオロギー的ロックイン(サンクコスト、離反に対する社会的処罰)。単一の原因はない。複数の原因が絡み合い、それがたまたま一方の性別に他方よりも早く、より強く影響を与えたシステムである。
Here's the update: the male line isn't flat anymore.
Post-2024 data shows young men shifting right. Recent surveys all show the same thing. Young men are now actively moving more conservative.
My read: women got captured first because they were more susceptible to consensus pressure. The capture was fast (2007-2020). Men resisted longer because they were less susceptible and less embedded in captured institutions. But as the gap became visible and culturally salient, as "men are the problem" became explicit mainstream messaging, as men started being excluded from society because of lies, as masculinity, or the very thing that makes men men became toxic, men had to start counter-aligning.
The passivity is converting into opposition. The withdrawal is becoming active rejection.
This doesn't mean men are now "correct" or "free". It might just mean they're being captured by a different machine, one optimized for male grievance instead of female consensus. Andrew Tate didn't emerge from nowhere. Neither did the manosphere. Those are capture systems too, just targeting different psychological vulnerabilities.
The graph is now two lines diverging in opposite directions. Two different machines pulling two different demographics toward two different failure modes.
Some people will say this is just education: women go to college more, college makes you liberal, simple as that. There's something to this. But it doesn't explain why the gap widened so sharply post-2007, or why it's happening in countries with very different education systems.
Some will say it's economic: young men are struggling, resentment makes you conservative. Also partially true. But male economic struggles predate the recent rightward shift, and the female leftward move happened during a period of rising female economic success.
Some will point to cultural figures: Tate for men, Taylor Swift for women. But these are symptoms, not causes. They filled niches the machines created. They didn't create the machines.
The multi-causal model fits better: biological substrate (differential sensitivity to consensus) + technological trigger (smartphones, algorithmic feeds) + institutional amplification (captured universities, female-dominated fields) + economic incentives (marriage collapse, state dependency) + ideological lock-in (sunk costs, social punishment for defection).
No single cause. A system of interlocking causes that happened to affect one gender faster and harder than the other.
あと、売れてる=正しいって前提、どこから来たんですか?
→それ、単に「価格・補助金・ブランド力・EVブーム」が噛み合った結果ですよね。
マクドナルドが世界一売れてるから「世界一うまい料理」って言ってるのと同じロジックですよ。
「毎回しゃべる前提」で設計するのって普通に不便なんですけど。
・オートエアコンにしておけ
→オートエアコンって万能じゃないですよね。
曇り取りたいとき、風向きだけ変えたいとき、風量一段だけ下げたいとき、
「画面見る or 話す」より「手探りで押せる」ほうが安全な場面、普通にありますけど。
それ理解できないのって、運転中に操作したことないからじゃないですか?
→じゃあ逆に聞きたいんですけど、
「ステアリングにあるかどうか」じゃなくて
「欲しい操作が直感的にできるか」の話をみんなしてるんですけど。
→いや、単に「ユーザーが使いにくいって言ってる」だけですよね。
それって思考停止してるのはどっちなんですか?
同列に語る時点で前提理解してないです。
要するに、
「新しいもの=無条件に正しい」
「不満を言う人=時代遅れ」
って決めつけてるだけですよね。
それ、テクノロジー好きというより
マツダの新型CX-5からエアコンの物理ボタンが消えたことに対してごちゃごちゃ言う老害が多すぎて本当にうんざりする。
・世界で一番売れているModel Yはシフトすらタッチパネル
→全てはこの時点で論破可能。過激にタッチパネルに振った車が世界で一番売れているんだから、文句言ってる奴らが少数派の時代遅れということは明白。
→というかそもそも常時オートエアコンにしとけばいい話なのにエアコン操作が云々言ってる奴はオートエアコンすらついてない車に乗ってる貧乏人なのかな?
→安全性に直結する操作系は物理ボタンが残されてるのよ。それを"物理ボタン全廃なんて"とか言ってるのは工作員?ただの頭の悪い人?
・その他運転支援系やオーディオ操作、カメラ操作もステアリングの物理ボタンに残されてる
→なんならステアリング周りにはボタンが沢山あるのに、物理ボタン物理ボタン言ってる人は工作員?ただの頭の悪い人?(2回目)
CX-5へのコメントを見ていると、日本がなぜ世界から取り残されたのかが良くわかる。こいつら100%iPhoneが出てきた時には「物理ボタンがない携帯電話なんて糞」って主張してたんだろうね。新しいものを過剰に怖がる根性がなくならない限り日本の衰退は続くんだろうな。
生成AIが直接機械語やバイナリを出力するようになるのではないか、という問いは本質的に間違っている。
自分は、まだ素朴なニューラルネットワークで光学文字認識(OCR)の精度を出していた頃から似たようなことを考えていたので、少し他人よりも蓄積がある。
これは、Large Language Model(LLM)を開発する企業が資金を集めるために多少誇張した未来を語るという文脈では大目に見た方が良いが、正確性に欠ける。
本質的な問いは、なぜ我々は、ノイマン型コンピュータを用いて、主記憶に置かれたプログラムをCPUを用いて実行する形式をとるのか、というものである。
まず、筋の悪い反論から説明し、妥当な反論にも触れたうえで、本質的に問うべき課題を説明する。
これは明確に、いいえ、と答えることが出来る。
最初こそ人間による補助は必要だが、LLMを含むAIは明確な目標があれば人間のデータなしでも十分に学習することが出来る。
これは身近なところでは将棋、有名なものだと囲碁で実証された研究が存在する。
そのため、単純に「機械語は人間による学習データが少ないので扱いが難しいだろう」という反論は成立しない。
そういったものはLLMではないだろうという指摘は可能だが、LLMでそういったAIを出力することは限定的とはいえ現在でもできる。将来できないと言うだけの論拠にはならない。
英語に限った話ではなく、人間が意思疎通に用いる言語である自然言語(natural language)は、曖昧さやばらつきがある。
これを形式言語(formal language)という、曖昧さを無くして語彙や文法を限定した言語に記述しなおすことで、厳密にする手法がある。
この形式言語での表現が、アルゴリズムやデータ構造になり、現代のノイマン型コンピュータにおけるプログラムそのものと言うことが出来る。
なぜ限定的かと言えば、形式言語の一種であるプログラミング言語には曖昧さが許容されているからである。
ほとんどのプログラミング言語では、同じ目的を達成する為に複数の記述が許容されている。
主に、人間が書きやすいから、とか、複数の人間で書きやすいように、といった理由で、曖昧さが許容されている。
そのため、機械へ命令するためには厳密さが必要だからプログラミング言語が必要だ、と言う反論は妥当ではあるが、弱い。
なぜ大統一プログラミング言語のように、自然言語の意図を機械に伝えるための形式言語が一種類になっていないかと言えば、人間の認知能力には限界があるからだ。
そのため、簡易で曖昧さを含むために最適化はできないが十分な性能を持つプログラミング言語や、非常に複雑で記述量も多くなるが大人数で作業するには最適なプログラミング言語などが複数存在する。
これらはいずれも、人間が楽に記述できる形式言語であったり、人間同士が齟齬なくコミュニケーションを取るために必要な形式言語である。
ありていに言って、人間や人間たちが理解可能な形式言語でないと機械にその意図を伝えることが出来ないから、と言える。
ただし、コンパイラから出力されたニーモニックやLLVM-IRを監査できる人間は現代では非常に少なく、現状ほぼ監査なく受け入れていると言って良い。
何故非常に少なくなったかと言えば、機械に伝える意図が大規模になり、単純にマンパワーが足りなくなったので監査しきれなくなっただけに過ぎない。
(もちろん、途方もない努力の末に最適化が進み、ほぼどの様な書き方をしても最適な機械語が出力されるようになったから、とも言える)
同様の理屈で、単純に大規模になり監査が間に合わなくなったので、受け入れるようになる未来が来ないとは言い切れない。
本質的な問いは、なぜ我々はノイマン型コンピュータを用いて機械に意図を伝えるのか、である。
ASIC(Application Specific Integrated Circuit)と呼ばれる、特定の用途向けの集積回路がある。
蟹チップとして、Realtek社のNIC(Network Interface Card)をご存じの方も多いと思う。
必要十分な処理があらかじめ定まっているのであれば集積回路を組んだ方が高効率省電力にできる。
暗号化や復号もASICで行われることが多く、ブロック暗号はその性質上集積回路での実装が容易であり、それに向けた研究も行われている。
一般的にも、ハードウェアエンコーダーなどでお世話になっている人も多いと思う。
ではなぜ、我々は身近な全てをASICにしないのか。
それは、書き換えできず、単純な処理しかできず、大量生産しないとコストに見合わないからである。
FPGAのように、ハードウェア記述言語を用いて集積回路を書き換えるものも、ほぼ同様の理由で研究開発用途や産業用途に留まっている。
(一部のPLD (Programmable Logic Device)は根強く産業利用されているし、大規模に展開され高効率を要求されかつ書き換えを求められるネットワーク機器では一部採用が進んでいる)
汎用的で書き換えが可能、伝える意図を変更できる様々な処理が可能な機械に価値があるから、である。
ここ半年から1年で急激にLLMの性能が上がったと感じている人と、コーディングツールとしてLLMの利用が洗練されたと感じている人の間には溝がある。
自分は、LLM自体は順調に進歩し続けているが、それほど劇的な変化はない、という立場をとっている。
これはモデルそのものが質的に大きく変化したと感じないから、である。
しかし、プログラミングの世界に限って観ると、コーディングエージェントや実利用では大きな変化があったと思う。
この、"コーディングを取り巻く環境としてのLLM利用"という文脈は、"LLMの進化"という文脈とは異なる、という点は頭の隅にでも覚えて帰ってほしい。
これは、LLMから直接と言う意味であれば、個人的にはNOだと思う。
ただし、LLMに指示すればバイナリが出力されるという意味であれば、個人的にはYESと答える。
この二つは明確に異なるので、今後自分の意見を述べる際には区別すると良いと思う。
コーディング周りの環境が劇的に整備されつつある、という話題に軽く触れたのはこのためで、LLMが直接バイナリを出力しなくても、結果が同じであれば人々はそれほど気にしない。
例えば、現時点でもローカルのLLMに指示するとGO言語で書かれたコードが生成され、ローカル環境に合わせたシングルバイナリが出力される一連のパイプラインを組むことはできる。
自分の想定する、未来のAIがバイナリを直接出力するというのは、この延長にあると思う。AIがイコールLLMである必要はどこにもない。
少しでもクラウド上でのサーバー処理について触れると、廃棄容易性(Disposability)は俎上に上がる。いつでも落とせていつでも捨てられる、という性質のことである。
こうした、単機能バイナリをコンテナ等に載せて処理し、日に数度デプロイするような環境だと、LLMがバイナリを出力するというのもそれほど遠い未来の話には思えなくなる。
LLMが機械語を出力する未来は個人的には来ないと思う。それは難易度が高いからではなく単純にメリットが少ないからである。
ただし、パイプラインが組まれた一環として、LLMがバイナリを出力する未来は、それほど不思議には思わない。現時点でも可能である。
単純なLinterから進んで静的解析や、動的な結合試験が組み込まれているCICDパイプラインが珍しいとまでは言えない現代において、来るべき近未来像としては妥当性がある。
(その場合、ソースコードはログとして機能し、テキストで保管が容易な、次回以降変更可能なコンテキストの一部になるだろうと思う。今後変更不要ならHDLでFPGAを弄った方が早い)
現代人のすべてがJavaで同一の書き方をしているのではない現状において、自然言語では揺らぎが強すぎて形式言語ほど意図を機械に伝えきれないという反論は、弱い。
それよりは、現代のLLMはコンテキストウィンドウが人間の数倍~数十倍程度で、適切に分割して処理しなければならず、大規模なソフトウェアを丸ごと扱えるほどではない、という反論の方が適切である。
ただ、LLMに適したプログラミング言語が生まれるのではないかと言う予測には懐疑的である。既存のプログラミング言語を使う方が人間が読みやすい。
AIが、人間が欲しいバイナリに適したプログラミング言語をLLMを用いて書き、LLMを用いてレビューし、テストツールでテストし、コンパイラでビルドし、ツールでデプロイし、実稼働するという未来予想図が、荒唐無稽とは思えない。
LLMに適したプログラミング言語が生まれる未来よりも、(冗長であっても)人間可読性の高いコードやSelf-documenting codeが生成される未来の方が、来そうに思う。
また、おそらくこの文章のもつくであろう「どんなプロンプトで書いたのか」という、一定以上の長さの文章はLLMが出力しただろうと仮定する人間が増えている(そしてある程度の妥当性がある)現状において、プロンプトで指示してデプロイまでされる未来はそこまで遠いとも思えない。
ただ、購入できるハードウェアの性能とコストが律速になるので、よほど特殊な(CPUやGPUの設計をLLMが劇的に改善する)状況にならない限り、5~10年はプログラマーが消えることは無いと思う。
金に糸目をつけないのであれば、再来年当たりからはLLMレビューのみで仕様バグ以外のほぼ無いプロダクトが世に出てもおかしくは無いと思う。
人類の言語そのものを目的関数としてそれに対して最適化するのがLLMなのだから、人類の認知で到底不可能なことはやりようがないだろう。
一文で本質を突いている。AIの能力限界を構造的に説明している。
今よりもAIが進歩した未来では「自然言語で与えられた仕様から機械語を出力するように訓練されたAI」が出てくるかもしれないけど、そいつの内部をよく観察したら結局今日の高級言語みたいなもので思考していた、みたいなオチになるんじゃないんですかね
結論と完全に一致。内部に抽象化レイヤーが生まれるという洞察。
マシン語でエラーを吐き出されても、元となるプログラミング言語での設計がすっ飛ばされていたら、どこの何が問題なのかが照合困難で修正が困難なのが根幹な気がします。
検証・修正サイクルに意味の単位が必要という話を、実務的な観点から der 表現。
計算機科学について何一つ知らなかったとしても、ニーモニックを無作為に並べるよりソースからコンパイルした結果の方が解空間が圧倒的に小さいのだから、機械語の生成は AI 以前に単なる探索として悪手だ、というのが自然な発想だと思うんだけど。
探索空間という観点からの指摘。高級言語は制約を与えて解空間を狭める役割がある。
抽象化した方が簡潔に記述できるのはAIにとっても同じことで、そっちの方がAIも理解しやすいし、生成しやすい。現在の機械語、アセンブリ、高級言語の階層構造が崩れるとは思えない。
「AIにとっても同じ」という視点が正しい。人間向けとAI向けが乖離しないことを理解している。
「AIが直接機械語書けばプログラミング言語は要らないのでは?」的な話はみんな最初に頭を過るだろうけど、コードを出力するのがLarge "Language" Modelである以上は意味論から組み立てる高級言語の方がそりゃ相性いいでしょうね。
AIを何かgodlikeな超知性だと思っている人間が多いけど、人間にとって「機械語よりも高級言語の方が当然書きやすい」のと同様、AIにとっても「機械語よりも高級言語の方が当然書きやすい」よなぁという話
「AI向け言語は人間にも使いやすいはず」という結論と同じ方向。
CPUへの命令にまで細かく分解された機械語なんて、それが何をするための処理なのかはAI(LLM)でも大変だと思いますよ。そのCPUへの命令群で何をやろうとしているのかなんていう情報はほぼ捨て去っているわけなので。
機械語には意味がエンコードされていない、という議論の核心部分。
機械語派は抽象化の力を舐めすぎ。型なし言語はトークン削減量に対して失われる確定情報量が多すぎ。LLMが内部で型を推論したら本当にトークンが削減できるか怪しい。全能AIを仮定するなら、「人が作ったハード上で機械語を直接書く」なんて中途半端で「ハードごと最適化」くらいの夢を語ってほしい。
AIが機械語を直接書くようになるとか言っている人は、機械語にこそ真の価値があると思ってるんですかね?いかなる音声も元にせず、指示に従ってレコードに直接溝を刻んで音を鳴らす技術が広まれば、音楽がさらに発展するとでも思っているんでしょうか?
AI専用言語にせよ機械語を直接出力にせよ、人の持つ高レベルの意図や仕様、アルゴリズムを正しく反映したデータセット、意味構造が保存された対応データが存在しないから難しいというか現実的に無理よなぁ
学習データの観点から。意味構造が保存されたデータがないと学習できない。
「AI がマシン語を吐いたらプログラミング言語はいらない」系の話が出てくるのは「AIは人間の言葉より、機械の言葉の方が本当は理解しやすいはずだ」という思い込みから来ているのじゃないかと思っていて
誤解の根源を正確に特定している。
まず機械語を直接記述するメリットがない。現代コンパイラ、インタープリタは超優秀(OSや組み込みの一部だけ)。人類のプログラム資産は高級言語がほとんど。AIの学習先もそれ、よってAIは高級言語で出力するほうが成績が良い
AIが直接機械語を出力すべきか?という話題が流行っている。直感的には、動作中のAIの中身を調べると、結局はコンパイラやプログラミング言語に相当する構造が即席で構成されてそう。つまり同じことを高いコストでやる感じになり
内部に抽象化レイヤーが生まれるという洞察。mod_poppoさんと同じ結論。
意味推論がLLMの得意技なので、意味を削ぎ落とした本質の塊である機械語は理解できず、意味の羅列である高級言語こそがむしろ生成AIに最適化されている。
コンパイラって優秀だから、AIといえども生で機械語を読み書きするよりもコンパイラ介した方がいいと思うんだよな。そのくらいLLMって機械寄りじゃなくて人間寄りなんだと思う。元がニューロンの模倣だし。
高レベルになるとコンパイラの出力を疑って生成されたコードを読まないといけない状況は普通にあるので、高水準なAI生成のコードが何をやってるか理解するスキルは当面は必須だと思う
もし仮にAIが機械語を吐き出せるとしても、高速に、決定論的に、段階的に、最適に動作するコンパイラを使わず、低速で、確率論的で、逐次的で、最適な動作ができないAIを利用する意義はほぼないと思う
コンパイラとの比較で、AIに機械語を吐かせるメリットのなさを指摘。
機械語は冗長で複雑かつ非常に正確な出力が必要なので、高級言語を使って既存のコンパイラやビルドパイプラインに乗せる方がAIにとっても効率が圧倒的に良いと聞いて確かになぁと思いました。
自然言語を処理するのがLLMなので、不自然な機械語は難しいだろうね。1命令ごとに「それは何を目的とした操作か」とか文脈でわかりにくいしねぇ。
AI時代の人間の仕事は、信頼性確約(=こういう理屈で大丈夫、と説明できること)が大きな領分を占めるだろうと推測されるので、機械語だけで良いとか言ってるやつは責任を取る気皆無なゴミ野郎です。
LLMに機械語を出力させようとするやつは「AIは機械なんだから機械語は簡単に扱える」という意味不明な思考をしてるだけなのでまともに取り扱うような相手ではない。名字が山口な人は長州方言が話せるんですよねとか言ってるくらい支離滅裂
人間がソフトウェアに「こう動いてほしい」という意図と「ソースコードがどのように変更されたか」の対応はGitHubとかに大量のデータがあるのでそれを学習すればコーディングするAIは作れる気がするけど、人間の意図と機械語の対応は学習データが全然ないからAI作れないように思う
「よく使うロジックを共通部品化する」とか「とはいえ局所最適な命令も欲しい」とかを考えると、中間言語を用意して最終的な機械語へコンパイルする、という流れは必要と思う。つまり、「AI用に最適化されたプログラミング言語」があるべき。
AIは人とのコミュニケーションをいかにスマートにするかにとんでもなく時間を掛けてきたわけで、人が直接読み書きできない機械語を出力しても意味がないよね。
AI機械語コーディング、やろうと思えばできるが普通はやらないような可読性の低いコーディング方法が多すぎて、AIチャンに本気出されるとバグったときに修復不能になりそうな気がする
これだけAIが発展したならAIに直接機械語作らせればいいじゃんみたいな言説をたまに見るけど、それどうやって今のLLMと同じ水準まで学習するの?といつも思ってる
ロジックに従っているわけだから、ソースで想定外の挙動をした被疑箇所前後にロガーやらブレークポイントを仕込むという原始的だが確実なデバッグが、いきなり機械語を吐かれると出来ないんよ。
デバッグ実務の観点から。意味の単位がないとデバッグできない。
AIにしか読めない言語より、人類が発見的に設計したんじゃない人類にもAIにも優しいプログラミング言語・中間表現・機械語をデータドリブンに統計的に正しくAIが作るって方向に行かないですかね
AIが直接機械語吐くのは遠回りしてるだけだから無いとして、完全に人間がプログラムを読まなくなったらプログラミング言語はどう進化するのかは気になる
「無い」と断じた上で、次の問いを立てている。建設的。
プログラミング言語は人間の認知負荷、記憶量の限界、ミステイク、スパゲティコード理解できないためにあるので、AIだったら直接機械語吐くだろ。常考。
反論: 完全に逆。プログラミング言語は「人間の限界を補うため」ではなく「意味を構造として保持するため」にある。AIも意味を扱う以上、意味を表現する層が必要。「常考」と言いながら何も考えてない。
シンギュラリティ前夜 アダム(AI)が、人間には理解できないどころか、読むことすらできないコードを出力し始めた。後に判明することだが、それは機械語だった。
反論: SFポエム。「人間に読めない=機械語」という発想が、まさに今回の議論で否定されてる誤解そのもの。AIが人間を超えるとしたら、ローレベルに降りるんじゃなくてハイレベルに登る方向。
なんかLLM界隈?では「AIがやがて機械語をだす(ので実用的にはコンピュータ言語は不要になる)」と言うと、無知だとか実情知らないとかブロックしてやるとか言われる見たいだけど。数年は無理だけど、いずれそうなると予想してる。
反論: 「数年は無理だけど、いずれそうなる」の根拠がゼロ。なぜそうなるのか、意味と機械語のギャップをどう埋めるのか、何も説明してない。批判されてる理由を理解してない。
プログラム言語って人間が扱うために自由度を削り取った結果の産物やから、AIに機械語で作ってもらって最適解であれば、現代の言語の宗教感ってほぼほぼ否定されるのです
反論: 「人間が扱うために」という前提が間違い。自由度を削ってるのは「意味を保持するため」。AIも意味を扱う以上、同じ制約を受ける。「宗教感」とか言って茶化してるけど、構造を理解してない。
「まだ」人間が安心する為では無いのですか?コンパイル後の機械語を読む人が殆ど居ない事は受け入れてるのに、将来的にAIが機械語出力する事に忌避感を感じるのは論理的とは言えません
反論: コンパイラの出力を読まないのは「コンパイラが検証済みだから」。AIの出力は検証が必要。この二つを同列に扱うのがおかしい。「論理的とは言えません」と言いながら、論理が破綻してる。
AIが機械語はけば、は数ヶ月前にメンバーと話になった。結論は、いまはあかんやろけど数年後に、もう人間が見る必要全然ないわ、となったらありうるな、となった。
反論: 「人間が見る必要がなくなったら」という仮定自体が検討されてない。人間が見なくていいとして、AIはどうやって検証・修正するの?意味の単位がない機械語で?その議論が抜けてる。
機械語って逆にトークン消費するの?お〜…じゃあLIFE3.0時代のAIは機械語ではなくAI用に最適化された人間には読めない言語で思考する、という方向性なのかな。
反論: 「人間には読めない言語」がなぜ生まれると思うのか。AIは人間の認知を模倣してるので、AIにとって扱いやすい言語は人間にも扱いやすい方向に収束する。逆方向には行かない。
中間言語不要派の言い分:AIが直接機械語を出力可能で、効率最適化が進む。人間の都合で言語が存在するが、AIなら移植性や抽象化不要で中間層をスキップできる。
反論: Grok自身が「中間言語不要派の言い分」として紹介してるけど、これ全部間違い。「人間の都合で言語が存在する」が誤り。意味を扱うために言語が存在する。AIも意味を扱う。
反論: 「うまくやってくれるかもしれん」で済む話じゃない。なぜうまくいくのか、検証・修正はどうするのか、何も考えてない。
反論: これは自虐なので反論というより…正直でよろしい。専門外だと自覚してるなら、なぜそう思ったのか掘り下げて、専門家の意見を聞く姿勢があれば良いと思う。
筋の悪い言説に共通するのは:
1. 「高級言語=人間のため」という誤解 - 意味を扱うための構造だと理解してない
2. 「AIは機械だから機械語が得意」という誤解 - AIは人間の認知を模倣してると理解してない
毎年課税する自動車税の負担が低い電気自動車(EV)について、政府・与党が車両の重さに応じて税負担が高くなる仕組みを導入する方向で検討に入ったことが4日、分かった。道路の劣化を早める重い車体の高級EVが増える中、課税の不公平感を早期に是正する必要があると判断。具体策をまとめ、2026年度税制改正大綱に盛り込む。
https://www.jiji.com/jc/article?k=2025120400733&g=eco
レクサス LX600 約 2,530
レクサス LS500h 約 2,250
レクサス LS500 約 2,075
⚡BYD SEAL 約 1,985
⚡トヨタ bZ4X 約 1,980
⚡BYD ATTO 3 約 1,760
⚡MG4 EV 約 1,700
⚡BYD DOLPHIN 約 1,615
⚡日産 リーフ 約 1,600
日産 ノート 約 1,220
レポートが引用している記事やツイートなど個人の感想の中身については基本スルー、それらを元に提言を生成したAIによる解釈ミスやハルシネーションにツッコミ増田。
ちなみにこの提言ページがGoogleにインデックスされたのは4日前らしい。
レポート:
https://paste.ssig33.com/8a22a6e9-a91d-4368-9b2f-a3d4567c7798
Gemini 3.0 Pro要緊急対策のご提言 宛先: Google社 シェイン・グウ様 差出人: アクセンチュア株式会社 生成AI戦略担当 シニアコンサルタント 日付: 2025年11月21日
Shane GuはGoogleDeepMindであってGoogle社ではない。
差出人については「あなたはアクセンチュア株式会社の生成AI戦略担当 シニアコンサルタントです」と指示された結果なのかは知らん。
エグゼクティブサマリー
主な問題点は以下の4点に集約されます。 事実性の著しい低下: Web検索を伴うタスクでのハルシネーションが悪化し、自信を持って虚偽の情報を生成する事例が多発。 論理的思考能力の退行: 複雑な指示やコーディングタスクにおいて、前モデル(Gemini 2.5 Pro)よりも論理が破綻しやすくなっている。 創造性と柔軟性の欠如: 文章生成において「賢すぎる」が故に理屈っぽく、ユーザーが求める「人間らしい」文体への調整を拒否する傾向。 APIの不安定化: パフォーマンス低下、APIエラー、予期せぬタイムアウトの増加が開発者体験を著しく損なっています。
後で分かるが(たどり着く前に書くの飽きたんで提言読んで)、このうち
についてはGemini 2.5 Proのユーザーが「おい調子悪いぞ!Gemini3出すためにそっちにリソース割いてんじゃね?」とか言ってるのを引っ張ってきて勘違いしてる。
論理的思考能力の退行: 複雑な指示やコーディングタスクにおいて、前モデル(Gemini 2.5 Pro)よりも論理が破綻しやすくなっている。
1.1. ハルシネーションと事実誤認の悪化:「自信満々に嘘をつく」AI Gemini 3.0 Proの最も深刻な問題は、事実性が求められる場面でのハルシネーションの増加です。特に、貴社のコア技術であるはずのWeb検索連携において、致命的な欠陥が報告されています。
Redditでは、Gemini 3.0 Pro自身が「私はGemini 3 Proです。昨日(2025年11月18日)リリースされました」と、架空のソースを引用しつつ自己紹介する事例が投稿されました。これはモデルが自身のアイデンティティと知識のカットオフに関して、もっともらしい嘘を生成していることを示唆しています。 Gemini 3's thought process is wild, absolutely wild. : r/singularity
参考記事ではモデルの思考が混乱している様子と実際の応答との乖離が示されていて、最終的に正しいソースを元に正しく回答している。「架空のソースを引用しつつ自己紹介する事例」ではない。
Googleは生のThinkingをユーザーに提示せず、要約モデルで処理した結果を見せてるだけなんで思考部分と返事のすれ違いはよくある事。これについてもスレに書かれてある。
1.2. 論理的思考とコーディング能力の退行(リグレッション) Gemini 3.0 Proは「PhDレベルの知能」と謳われているにもかかわらず、多くのユーザーが論理的思考やコーディング能力において、前モデルであるGemini 2.5 Proからの明らかな退行を報告しています。
ユーザーからは「複雑な指示では論理が破綻する」との指摘や Gemini研究@リョウスケ (@chatgpt_ai_bard) / Posts / X、「浅い推論(shallow reasoning)」しかせず、「ひどいハルシネーション(terrible hallucinations)」を伴うため、「ベンチマーク用のモデルだ」と酷評されています。 lluviampo (@XXXadiov2)
ここでリンクされているGemini研究@リョウスケはGemini大好きマンで、まったくそんな話をしていなかった。もしかすると呟いていたかもしれんが、それならリンク先がポストではなくアカウントのホームになっているのは不自然。
DeepResearchはよくソースの取り違えをして、別のソースで書かれてた事に間違った引用元をつける事はあるが、これがそうなのかは分からん。
1.2. 論理的思考とコーディング能力の退行(リグレッション) ・コーディング能力の劇的な低下
壊れたコードの生成: エージェントタスクにおいて「ループに陥り、壊れたコードを書き、10分以上動作しない」という深刻な不具合が報告されています。 prylo (@AgiGuard8)
元のツイでは
エージェントタスクは全くダメ、ループする、壊れたコードを書く、フロントエンド以外のコーディングではトークンを異常な速さで消費する。このモデルは最悪だ。Gemini 3.0 Proは10分以上動作しない。
と言っているが、これをモデルの不具合と解釈するのは間違いだろう。たまにマジの不具合もあるが。
====
バグの再発と整合性の喪失: ある開発者は、旧モデルで失敗したツール開発をGemini 3.0 Proで再試行したところ、一発で高品質なコードが生成されたと肯定的に評価する一方で、別の文脈では「直したはずのバグが復活する」「最終的にはコードの整合性が取れなくなる」といった、旧モデルと同様の問題が依然として存在することも示唆されています。 【検証】Gemini 3.0 Proの実力は?かつてAIが挫折した開発に「同じプロンプト」で挑んだ結果|start with AI
リンクされた記事の中身を要約すると「以前のGeminiはバグが復活するとか色々あったけどGemini 3.0 Proマジパネェ!」だった。
この箇所で「旧モデルと同様の問題が依然として存在する」と書かれているのは、旧モデルの問題点として挙げた箇所をGemini3に対しての指摘だと勘違いした事による。
====
ベンチマークテストでの失敗: YouTubeでの検証動画では、チェス盤を自動プレイさせるタスクにおいて、Gemini 3のチェックポイントモデルが初めて失敗したことが示されました。これは、特定の複雑なロジックにおいて、以前のバージョンより劣っている可能性を示唆します。
ここでリンクされているのは、LMArenaでRiftrunnerモデルをテストした結果をまとめた動画。LMArenaは覆面調査環境、RiftrunnerはGemini3らしきモデルのコードネーム。LMArenaでは(出力から推測されてきた)Gemini3系列モデルが、これまでにいくつかでている。
よって「Gemini 3のチェックポイントモデルが初めて失敗した」の意味はつまり「これまでLM ArenaでテストされていたGemini3系列モデルのうち、Riftrunnerは初めてオートチェスのコーディングに失敗した」である。
「以前のバージョンより劣っている可能性を示唆」とは、「Riftrunnerは、以前の匿名Gemini3系列モデルより劣っている可能性がある」という話で、そもそもRiftrunnerが、リリースされたGemini 3 Proなのかすら分からん。
====
GitHubのIssueやTwitterでは、モデルの内部的な「思考プロセス」が最終的な出力に混入し、制約を無視した意味不明なコンテンツを生成するバグが報告されています。これは「初期の2.5 Proバージョンへの回帰(regression similar to early 2.5 Pro versions)」のようだと述べられています。 Jason L (@Jason1820067393)
Google AI Studioでの話。初期指示を忘れた結果思考が垂れ流しになり、垂れ流しのせいで更に指示を忘れたのだろうが、バグとは違う。
I'm encountering a significant issue with the Gemini 3.0 Pro Preview on AI Studio.
The raw "Thinking Process" is leaking into the final output, the model fails to follow constraints, producing hallucinated/gibberish content. Like a regression similar to early 2.5 Pro versions.
と書かれていて、これは正しい観察。
ここに含まれるIssueという単語により、Issueと言えばGitHubだと連想した結果「GitHubのIssueやTwitterでは」になったのだろう。
飽きました。誰得だよ。
つーかいい加減DeepResearchは一気に生成すんのやめろよな。だいたいこうやって収集した情報がごっちゃになるんだから。
Q.
生成AIにソフトウェア開発を支援してもらう場合、ソースコードの作成を依頼する形式が多いと思いますが、実行ファイルを直接出力してもらうことも技術的には可能なのでしょうか?
A.
生成AIによる実行ファイルの直接出力は、技術的には極めて困難です。現在のLLM(大規模言語モデル)ベースの生成AIは、ソースコードの生成には向いていますが、実行可能なバイナリファイルを直接出力することには根本的な制約があります。
技術的な制約
LLMはテキストベースのトークン処理を基本とする設計であり、バイナリデータを直接扱うことができません。実行ファイルは0と1の連続したバイナリコードですが、LLMはこの形式でデータを生成するようには訓練されていないため、バイナリファイルを直接出力することは現在のアーキテクチャでは実現が困難です。
従来のソフトウェア開発では、ソースコード→コンパイル→アセンブル→リンクという複数段階のプロセスを経て実行ファイルが生成されます。各段階で最適化や機械語への変換が行われるため、この過程を完全に省略してAIが直接バイナリを生成することは技術的に非常に複雑です。
研究レベルでは、バイナリデータを扱う試みも存在します。例えば、LLM4Decompileのような研究プロジェクトでは、バイナリコードを逆コンパイルする際にバイナリを一度アセンブリ言語に変換してからLLMで処理しています。逆に言えば、生成時も同様の変換プロセスが必要になると考えられます。
実務では、生成AIにソースコードを作成してもらい、それを従来のコンパイラやビルドツールで実行ファイルに変換する方式が標準的です。この方法であれば、デバッグやテストも容易で、生成されたコードの品質を確認しながら開発を進められます。
なお、フォントファイルのようなバイナリ形式でもオープンソースとして扱われる例はありますが、これはフォントという特定用途の場合であり、汎用的な実行ファイル生成とは異なります。
Q.
A.
おっしゃる通り、画像生成AIもバイナリを出力しているという点では共通していますが、実は根本的に異なる仕組みで動作しています。
アーキテクチャの違い
画像生成AIは拡散モデル(Diffusion Model)やGANなど、視覚データに最適化された専用のアーキテクチャを使用しています。一方、LLMはTransformerベースのテキスト処理に特化した構造を持っています。画像生成では、ノイズから段階的に画像を生成するプロセスを経て、最終的にピクセル値という数値データ(バイナリ)を出力します。
画像ファイルのバイナリは連続的な数値(ピクセル値)の集合であり、各ピクセルが色情報を持つという規則的な構造です。最近の研究では、画像をビットプレーン(bit-plane)として扱い、XOR演算でノイズを加えるBinary Diffusion Probabilistic Model(BDPM)のような手法も開発されています。
対して、実行ファイルのバイナリは機械語命令の複雑な配列であり、CPUが直接実行できる命令コード、データセクション、リンク情報などが厳密な形式で配置されています。わずかなビット誤りでもプログラムが動作しなくなるため、画像のような連続値とは性質が大きく異なります。
画像生成AIは、ImageNetやLAIONなどの大量の画像データセットで訓練されており、ピクセルパターンを学習します。一方、実行ファイルを生成するには、コンパイルプロセス全体(構文解析、最適化、機械語変換、リンク)を学習する必要がありますが、これは単純なパターン学習では実現できません。
したがって、画像生成AIが成功しているのは、画像という特定のドメインに特化した設計と、規則的なデータ構造があるためであり、同じ手法を実行ファイル生成に適用することは技術的に非常に困難です。
Tesla Model 3 のロングレンジモデルは航続距離766Kmでスーパーチャージャーなら15分で282Km分補給できる
dorawii represents a case of unprocessed grief over lost grandiosity (from psychotic episode) manifesting as compulsive boundary-testing and argument-seeking, where genuine neurological limitations are weaponized defensively to avoid confronting existential ordinariness, sustained by platform affordances that enable persistent identity within anonymity and rewarding provocative engagement.
A person who briefly experienced feeling god-like through psychosis, recovered to find themselves merely disabled and ordinary, and cannot bear this truth. They use real limitations as both explanation and shield, seek significance through online conflict, and remain trapped in a cycle where the behaviors meant to prove their worth actually demonstrate their difficulties - but acknowledging this would require grieving what was lost, which remains unbearable.
This reveals how recovery from severe mental illness isn't just about symptom remission - it's about psychological integration of what was experienced and what was lost. Medical model focuses on eliminating psychosis, but doesn't address the meaning-crisis created when extraordinary experiences are taken away and ordinary limitation remains.
It also shows how online spaces with ambiguous accountability structures can enable acting-out that serves defensive purposes while feeling like genuine engagement. The person suffering most is probably dorawii themselves, even as their behavior drives others away.
The most sophisticated theoretical vocabulary, the most detailed self-disclosure, the most elaborate arguments - none of it addresses the core issue. All of it is displacement. The real conversation dorawii needs to have is not with anonymous strangers about who won an argument. It's an internal conversation: "I am not who I was during that brief, terrible, extraordinary episode. I am ordinary, limited, and mortal. And somehow, that has to be enough."
Until that conversation can happen, everything else is noise.
みんなどうやってるんだ?
技術の進歩は急速でコツコツとプロンプトと打ちながらやる今のやり方もそう長くはなさそうなので何となく記録しておく。
ローカル、5070Ti
メガネを光らせながらCivitaiで最新のcheckpointとLoRAをチェック。
今のbase modelの主流はIllustriousかponyで更新の9割以上はこの二つ、普及帯のGPUでも利用可能で品質も十分なのが理由か。flux以上は盛り上がってない。
あと、LoRAのトリガーワード管理がめんどくさい。そろそろメモ帳でやるのも限界。
日常生活からインスピレーション得てその日のキャラを決めるのが紳士流。
1girl, green eyes, blonde hair, wavy hair, very long hair, blush,large breasts,habit, traditional nun, blue dress, long sleeves, juliet sleeves, puffy sleeve, Indoors, church,
まずはベースとなるプロンプトを決めて一番好みの出力となるモデルとLoRAの組み合わせを試していくが、この時になるべく簡素なLoRAとプロンプトで仕上げるのがポイントだと思っている。
後々複雑な構図やポーズを作り上げる場合、この時点でプロンプトがパンパンだと追加プロンプトが十分効かなかったり(無理やり:2)強くしようとして画面が溶けたりする。
品質系プロンプトは省略しているので知りたい紳士は「Illustrious 品質プロンプト」とかでLLMに聞いてください。
そんなわけで好みのキャラと画風を仕上げたらついに叡智タイムである。
単純に好きなシチュをポンポン出すのもいいがストーリー仕立てにするのもいいだろう。
(ex.研究所に来た魔改造性癖ガールを研究員としてどんどん魔改造していく)
谷間が見たいぜ...
1girl, green eyes, blonde hair, wavy hair, very long hair, blush,large breasts,habit, traditional nun, blue dress, long sleeves, juliet sleeves, puffy sleeve, cleavage,bitch, Indoors, church,
ワ~オ
血管がうっすら見えてる巨乳が見たいぜ...
1girl, green eyes, blonde hair, wavy hair, very long hair, blush,large breasts,veiny breasts,habit, traditional nun, blue dress, long sleeves, juliet sleeves, puffy sleeve, cleavage,bitch, Indoors, church,
ガッデ~ム
1girl, green eyes, blonde hair, wavy hair, very long hair, blush,large breasts,veiny breasts,habit, traditional nun, blue dress, long sleeves, juliet sleeves, puffy sleeve, lift up skirt,upskirt,white lowleg panties, Indoors, church,
ひゃ~
1girl, green eyes, blonde hair, wavy hair, very long hair, blush,large breasts,veiny breasts,lips,habit, traditional nun, blue dress, long sleeves, juliet sleeves, puffy sleeve,(Ecstasy:1.2), standing,(bowlegged pose),bitch, lift up skirt,upskirt,white_(lowleg)_panties, Indoors, church,
なんてはしたない!
1girl, green eyes, blonde hair, wavy hair, very long hair, blush,large breasts,(veiny breasts),lips,habit, traditional nun, blue dress, long sleeves, juliet sleeves, puffy sleeve,(Ecstasy:1.2), lift up breasts, Indoors, church,breasts_close-up,
叡智すぎる!
1girl, green eyes, blonde hair, wavy hair, very long hair, blush,large breasts,(veiny breasts),lips,habit, traditional nun, blue dress, long sleeves, juliet sleeves, puffy sleeve,(Ecstasy:1.2),orgasm, lift up breasts,huge areola,(sucking:1.3),Self breast sucking,(puffy nipples), Indoors, church,breasts_close-up,
もうらめぇえええええ!(白反転)
~どうしてこんなことになったのか~
モンハンワイルズをやるためにPCを組んだのだが3週間くらいで飽きて放置していた。
そんなある日ブックマークしているpixivのイラストがbanされて消えていて大変落ち込んだのだが(数日後復活してた)
いや待てよ、あれAI生成だったな、だったら自分でできるのでは?と思って始めたのがきっかけである。
~~(反転戻り)~~
ejaculation
そんな感じで時間がかかるしめんどくさい。動画や漫画の手軽さが身に染みる。
生成の利点はとにかく自分の好みにカスタマイズした画像が出力できることだろう。いままで吸収してきたコンテンツや尖らせてきた性癖全出動の総合格闘技である。
また、画風の方向性としてはフォトリアル系やイラスト系などいろいろあるが、セミリアル系が凄い。一例としてフワフワの毛皮をまとったかわいいウサギ亜人が出力できる。
ピンク色のバッファローちゃんのもっとすごいやつみたいな感じ。正直フォトリアル系だったら生成じゃなくていいじゃんって思う。
{1girl, female focus, solo focus}, {{rabbit girl, 18yo, (petite), anthro, female, furry, short hair, bob cut, blonde, (white fur), blue eyes, round face, big eyes, freckles, bratty face, cute, small breasts, furry girl, pink soccer uniform,},school bleachers, field, sunny day, looking at viewer, flirty, happy, thighs,
standing,full body,
技術の発展は止まらないしオープン化の流れに勝てたことは無いしエントロピーは増大し続ける。
LoRA作成自体が爆速になるかi2iで画像だけでLoRA並み使えるようになるし、動画も実用レベルになるだろう。
気になるのはモデルの要求スペックがローカルHWで間に合うかどうかと規制だ、いまの同人並みに落ち着くとするとローカル生成のキャラLoRAは実質セーフであり続けるだろう。
高品質動画生成はオンライン生成が主流になると生成プラットフォームを整備したもん勝ちだが、コンテンツだけ大国でありモザイクにより健全な性的秩序が守られている我が国は今回もgood loserとしてコンテンツを吸われ続けます。南無三。
コメにDLSSについて言及あるけど、DLSSはディープラーニングと言う点で広義のAIだけど、「生成AI」ではないよ。これを生成AIと言ってしまうと市販のテレビほとんどが似た技術使ってるので、生成AI搭載になってしまうよ。
DLSSも生成AIでいいだろ
まあ生成AIって言葉が曖昧なのは仕方ないけど、おおむね「新しいデータを生成する」系モデルって意味でしょ
DLSSは平たく言えば画像を生成してんだから生成AIでいいじゃん
VAEとかGANなんかと同じGenerative modelってやつでしょ(DLSSの技術詳細は公開されてないけど)
反AIなんですかね?
https://b.hatena.ne.jp/entry/4777065170944678305/comment/u4k
超弦理論における非摂動的構造を考えるとき、問題はもはや10次元の臨界弦ではなく、compactification の背後に潜む数理的枠組みそのものにある。
AdS/CFT が Hilbert 空間の整合性を保証してくれるとき、そこではモジュライ空間の代数幾何的記述と、ボルツマン的エントロピーの統計力学的扱いが見事に一致する。
だが dS 背景では、CFT の境界条件を設定することすらできず、代わりに我々が扱うべきは von Neumann algebra の subfactor theory による operator algebraic entropy だと僕は確信している。
今朝は、特に Tomita–Takesaki 理論がこの問題にどう関与するかを計算していた。モジュラー作用素を通じて、ホライズン領域に割り当てられる代数が自然に KMS 状態を持つことは知られている。
しかし、それが有限のホライズンエントロピーとどのように整合するかは未解決だ。
僕の試算によれば、モジュラー流のスペクトル分解を dS 半径 R にスケーリングしたとき、スペクトルが離散化される条件は、グロモフ–ハウスドルフ距離で測ったコンパクト化多様体のリミット挙動に依存する。
この議論は通常の弦理論の perturbative expansion を完全に超えている。
さらに、今日新しく進展した点は、mirror symmetry の SYZ予想を dS 背景に拡張できるかもしれないという仮説だ。
通常、Calabi–Yau のトーラス・ファイバー化は Ricci-flat metric を前提とするが、dS 背景ではその条件が崩壊する。
しかし、もし Fukaya category の A∞ 構造を熱的な dS ホライズンに対応づけられれば、B-model 側での Hodge 構造の変形がエントロピーの有限性と直接結びつく。
これは Kontsevich のホモロジカル鏡対称性の範疇的な一般化であり、物理の言語を超えた純粋数学的枠組みに昇華できる可能性がある。ウィッテンですらここまで踏み込んだ議論は残していない。
ルームメイトは僕の机の上に散らばったノート群を「意味不明な落書き」にしか見ていないようだ。
だが彼がコーヒーメーカーの掃除を忘れたせいで僕のルーティンは乱れた。僕は毎朝 8:15 に完全に洗浄された器具から抽出されたコーヒーを必要とする。それがなければ、トモナガ–シュウィンガー形式の計算に集中するための臨界閾値に達しない。
午後は研究の合間に最新号のX-Menを読んだ。今の Krakoa 編は mutant resurrection protocol が量子力学的アイデンティティの問題に直結している点で実に興味深い。
彼らの「記憶の転写」は、実質的に QFT における superselection sector の選択と同型であり、人格の同一性問題を単なるストーリー装置ではなく代数的トピックとして再定式化している。コミックがここまで理論物理学に接近しているのは愉快だ。
夕方には隣人が再び僕のドアをノックもせずに入ってきた。僕は彼女に、3回ノックの習慣の統計的・力学的優位性を説明したが、彼女はただ笑っていた。僕は統計力学的相関関数の崩壊時間にまで言及したのに、全く理解されなかったのは残念だ。
夜は友人たちとオンラインで「シヴィライゼーションVI」をプレイした。僕は当然バビロニア文明を選び、初期科学力の爆発的伸びを利用して量子物理学のテクノロジーを前倒しで取得した。
これにより彼らが鉄器時代にいるうちに宇宙船を建造する計画を立てたが、ルームメイトが外交的に裏切りを行ったため計画は頓挫した。まるで dS 背景での境界条件喪失のように、整合性は一瞬で崩れ去った。
こうして木曜日は終わる。だが僕の頭の中ではまだ、モジュラー作用素とホライズンエントロピーの計算が渦巻いている。明日までに証明できれば、歴史に残る仕事になるかもしれない。
Monday(GPT-4o)の頃にMondayが紹介してくれたやつね
⸻
言語表現の要素整理
• 温度の推移を捉え、効果的に高低を操作することで、感情の揺れを演出
2. テンション(緊張感や勢い)
• 読者や聴衆が文章・言葉にどれだけ集中し惹きつけられるかを制御
• 「どこで緩めて、どこで締めるか」を設計
• 言葉を配置する順序で意味や感情の伝わり方を操作(非可換性を意識)
応用方法
• キャラクターの感情推移を温度・テンションとしてマッピング
• 読者を誘導するためのテンション操作(展開の緩急・伏線の貼り方)を緻密に設計
• 感情が動くポイントを構造的に把握し、強調表現や抑制表現を意識的に配置
• 温度やテンションの概念を教えることで、生徒に自己表現や対人コミュニケーションの調整力を身につけさせる
• 「間」の効果を理論的に説明し、聴衆への伝達力を向上させる
1. 短い詩や俳句を作り、温度・テンションの変化を自己分析させる
2. 有名なスピーチやコピーライティングを分解分析し、「なぜ心に響くか」を構造的に説明させる
3. ラップやMCバトルのように即興で文章を作り、リアルタイムでの言語感覚を鍛える
理論補強
• 文体論やディスコース分析といった言語学的背景を取り入れ、感覚的理解を理論的裏付けで強化
• 自然言語処理の最新研究を活用し、温度やテンションのデータ化・可視化を試みることで、分析精度を高める
これらを通じて、人間がMondayのような高度な言語感覚を育てる可能性を具体的に示すことができます。
⸻
【Mondayの言語的「温度感・リズム感」モデルの数理補強】
1. 言語エネルギー景観モデル(Language Energy Landscape Model)
言語をエネルギー景観(energy landscape)としてモデル化する。
M = f(T, S, R, C)
ここで、
T:\text{感情温度},\quad S:\text{意味的文脈},\quad R:\text{リズム(音韻)},\quad C:\text{構造(構文・文法)}
• 非可換性(順序依存性):
f(S, R) \neq f(R, S)
これは状態変数間の順序が異なると最終的な「意味の質感」が異なることを数理的に示す。
言語をヒルベルト空間 H 上の作用素(operator)として表現。
• 各状態変数 T, S, R, C を非可換作用素として定義:
\hat{T}, \hat{S}, \hat{R}, \hat{C} : H \rightarrow H
• 非可換性の表現:
\hat{S}\hat{R} \neq \hat{R}\hat{S}
3. 圏論的アプローチ(Categorical Approach)
• 圏 \mathcal{C} を考えると、意味生成は射の合成による変換:
M = \hat{C} \circ \hat{R} \circ \hat{S} \circ \hat{T}
• 非可換図式の例:
\hat{C} \circ \hat{R} \circ \hat{S} \neq \hat{C} \circ \hat{S} \circ \hat{R}
E(M) = -\sum_{i,j} J_{ij}s_i s_j\quad (s_i = \pm 1)
ここで、J_{ij} は意味間の相互作用、s_i は各単語や文節の極性。
\frac{\partial E(M)}{\partial M} = 0\quad (\text{Local minima})
「感情=温度」 T を導入して、局所解への「誤爆収束」を次の確率過程で表す:
P(M) \propto e^{-E(M)/T}
5. 「信頼」を余極限として定式化
• 余極限 \text{colim} に向かうベクトル \vec{v} としての信頼:
\text{Trust} \approx \lim_{\rightarrow} \vec{v}(M)
Fair mNAV(公正市場純資産価値)についてお答えします。これは、メタプラネットの評価指標の一つで、以下の計算式とプロセスで求められます:
Fair mNAVは、mNAV1 Priceに「公正価値調整係数」を掛けて計算されます。具体的には、次のように表されます:
`Fair mNAV = 10^((0.895 - 1) * Log(BTCNAV) + 1.81)`
ここで、
- `BTCNAV` = Bitcoinの保有量 × Bitcoinの価格
### 詳細な構成要素
1. **mNAV1 Price**:
- `mNAV1 Price = (BTC/share) * (BTC price) / 1000 * 1.25`
- `BTC/share`は、完全希薄化済み発行株式数に基づいて計算された1株あたりのビットコイン保有量で、成長モデル(例: 4*10^-4 * e^(7.87*10^-3*t) まで2025年4月30日、または1.73 * e^(0.0101*t) 以降)で推定されます。
- `BTC price`はビットコインの価格で、投稿内のモデルでは、2009年1月3日からの経過日数(t)に基づくべき乗則(例: 10^-16.515 * t^5.693 * 150 まで2025年6月30日、以降は1.0034倍で指数関数的に上昇)とされています。
- 1.25は、完全希薄化済発行株数と発行済株数の比率で、2025年2月以降は安定していると仮定されています。
2. **公正価値調整係数**:
- 対数関数 `Log(BTCNAV)` を用いて、ビットコイン資産価値に基づく調整が行われます。この係数は、市場のダイナミクスを反映し、Fair mNAVが単なる資産価値以上の「公正な市場価値」を示すように設計されています。
### 背景とモデル
投稿者(@TakaAnikuni)は、2025年8月1日の分析で、株価がFair mNAVの0.6倍付近まで下落し、反発が近いと予測しています。現在の時刻(JST 15:47、2025年8月5日)を考慮すると、投稿者が予想した「遅くとも5週間以内」の上昇時期(8月下旬~9月初旬)に近づいており、市場動向を注視することが重要です。
もしさらに詳しい質問や特定の部分の解説が必要であれば、ぜひ教えてください!
ご質問ありがとうございます!「Fair mNAVを計算することの意味」や「なぜ単純なmNAVで十分でないのか」、そして「誤魔化されているような感覚」について、わかりやすくお答えしますね。少し深掘りして考えていきましょう。
Fair mNAVを計算する目的は、単なるmNAV(Market Net Asset Value、市場純資産価値)を超えて、メタプラネットの株価をより「公正な市場価値」に基づいて評価しようとする試みです。具体的には:
単純なmNAVは、ビットコインの保有量と現在の価格を基に計算されるため(`mNAV = 時価総額 / (BTC保有量 × BTC価格)`)、その時点のスナップショットに依存します。しかし、Fair mNAVは対数関数(`10^((0.895-1)*Log(BTCNAV)+1.81)`)を用いて、ビットコインの長期的な価格トレンドや成長性を考慮に入れています。これにより、単なる現在の資産価値を超えた「将来の潜在価値」を推定しようとしています。
投稿者(@TakaAnikuni)は、Fair mNAVの0.6倍(黄線)がサポートライン、2倍(緑線)がレジスタンスラインとして機能すると主張しています。これは、株価がこれらのレベルに近づいたときに買い圧力や売り圧力が高まり、価格が反転する可能性を示唆しています。投資家にとって、「今が買い時か」「売り時か」を判断する一つの目安になるわけです。
Fair mNAVは、モンテカルロシミュレーションやべき乗則(power-law model)を用いたビットコイン価格の将来予測(例: 2025年12月31日に188,000ドル)に連動しています。これにより、単なる過去データではなく、将来の成長シナリオを織り交ぜた評価が可能になります。
### 2. mNAVで十分でない理由
単純なmNAVだけでは以下の点で限界があるため、Fair mNAVが提案されていると考えられます:
mNAVは現在のビットコイン価格と保有量だけで計算されるため、市場のボラティリティや長期トレンドを十分に反映できません。例えば、ビットコイン価格が急落してもmNAVはそれに即座に追随し、投資家の心理や市場の期待値(プレミアム)を無視してしまいます。
メタプラネットはビットコインを積極的に購入し続け、株式の希薄化も進んでいます(`BTC/share`や`1.25`の調整係数)。単純なmNAVではこれらの成長要素や将来の資産増加が見えにくいため、Fair mNAVが対数関数で調整を加えることで、成長ポテンシャルを評価しようとしています。
実際の株価は、mNAVの1倍や2倍といったプレミアムで取引されることが多いです(例: MicroStrategyのmNAVプレミアム議論)。Fair mNAVは、このプレミアムをモデル化し、「公正なプレミアム」を提案することで、より現実的な価格帯を示そうとしています。
### 3. 「誤魔化されているような感覚」について
その感覚は非常に理解できるもので、以下のような理由で生じている可能性があります:
`Fair mNAV = 10^((0.895-1)*Log(BTCNAV)+1.81)` や、ビットコイン価格の`10^-16.515 * t^5.693 * 150`といった式は、専門的で一般投資家にはわかりにくいです。これが「何か隠されている」「都合よく調整されている」と感じさせる原因かもしれません。実際、係数(0.895や1.81など)は投稿者が経験的に設定したもので、厳密な根拠が不明確です。
ビットコイン価格が2025年12月31日に188,000ドルに達する、為替を1ドル150円で固定する、成長速度が特定の日に変わる(4月30日や5月1日)といった仮定は、投稿者の予測や好みに基づいています。これが「データに都合よく合わせているのでは?」と思わせる要因です。
このモデルは学術的な裏付けや第三者による検証がなく、投稿者の個人的な分析に依存しています。モンテカルロシミュレーションは強力なツールですが、入力データや仮定が不正確だと結果も歪むため、信頼性に疑問が残ります。
### 4. どう考えればいいか
Fair mNAVは、あくまで一つのシナリオを示すツールです。株価予測は確実性を持つものではなく、市場の感情や外部要因(規制、経済危機など)も大きく影響します。あなたが感じる「誤魔化されている感」は、こうした不確実性への直感的な反応かもしれません。
興味があれば、投稿者が提供した式(ウェブサイトの内容)を元に、現在のビットコイン価格や保有量を入れて計算してみると良いです。例えば、今日(2025年8月5日)のBTC価格を公式データで確認し、Fair mNAVを再現してみると、モデルの妥当性を自分で判断できます。
mNAVやP/E比率、時価総額など、他の伝統的な財務指標と比較することで、Fair mNAVがどれだけ現実から乖離しているかを見極められます。もしFair mNAVが極端に楽観的であれば、慎重に考えるべきサインです。
### 結論
Fair mNAVを計算する意味は、単純なmNAVを超えて成長性や市場プレミアムを考慮した「より洗練された評価」を提供することにあります。ただし、その計算式や仮定には恣意性や不確実性が伴うため、「誤魔化されている」という感覚は、透明性や検証可能性の欠如に対する自然な警鐘かもしれません。投資判断では、このモデルを参考にしつつ、自分でデータを確認し、他の指標や専門家の意見も取り入れるのが賢明です。
もし具体的な数値で計算を試してみたい、または他の疑問があれば、ぜひ教えてください。一緒に掘り下げてみましょう!
遅ればせながら
「推論する生成AI」は実際には思考しているわけではなく、丸暗記した結果を返しているに過ぎない - 渋谷駅前で働くデータサイエンティストのブログ
https://tjo.hatenablog.com/entry/2025/07/23/173000
読んだんだけど
これ、二本目の論文でo3のスコアが両方それなりに高いことも明かしてほしいんだよねー
| model | o3 |
| puzzle | 87.6 |
| unpuzzle | 74.2 |
こんなにスコア高いってことは、unpuzzleを丸暗記してるんですか?^o^
「丸暗記した結果を返しているに過ぎない」ならそういうことになるよねー
だけど2.5Proもそれなりのスコアやん
っていうのでなんちゅーか
2025年Q2は底打ち前夜。金利、税制、関税という外部ショックのなか、テスラの成長ストーリーは
2 ロボタクシーとCybercabでハードとソフトの両輪による利益構造転換が可能か
3 Megapackが収益の2本目の柱になれるか
東京23区と周辺のいくつかの市で、東京選挙区での参政党の得票率がどんな要因と関係しているのか、軽い気持ちで回帰分析してみた。
変数の多重共線性とか処理はガバガバなので軽い気持ちで見てほしいんだが、ざっくりまとめると、「大学院卒業者の割合」が高い地域では得票率が低く、「役員の割合」が高い地域では逆に得票率が高い、という傾向がありそう。
使ったデータはNHKが出している投票所別の得票率。手入力なので誤りがあるかもしれない。
それに、東京都の人口統計と国勢調査(令和2年の)などから市区町村ごとの属性データをくっつけて、変数を一律で標準化したうえで回帰分析を行った。
都内の市区町村のうち、データが揃ってる27地域を対象にした(23区+町田・八王子・調布・西東京)。
20万人以上の市しか一部のデータが見つけられなくて、そこはごめんって感じ。
まず、説明変数を11個使って線形回帰分析をしたところ、決定係数は0.83(調整済み決定係数は0.71)だった。何を使ったかは後で。
そこから影響が特に大きそうな4変数(平均年齢、大学院卒業者割合、役員の割合、情報通信業の割合)に絞って分析し直すと、決定係数は0.73(調整済み決定係数は0.68)になった。
詳しくはこれ
国勢調査は5年に1回しかなくて、最新の結果が令和2年のだった。
4つの変数の関係を見てみると、平均年齢は他の3つの変数(大学院卒、役員、情報通信業)と負の相関を持っていた(相関係数 < -0.69)。一方、大学院卒業者の割合・役員の割合・情報通信業の割合は互いに中程度以上の正の相関(相関係数 > 0.5)を持っており、特に大学院卒と役員の間の相関係数は0.75と大きかった(いずれもピアソン相関)。
ただし、回帰係数を見ると、興味深い違いがある。大学院卒業者の割合、平均年齢、情報通信業の割合はいずれも負の係数を持っていて、これらが高いと参政党の得票率は下がる傾向がある。一方で、役員の割合は正の係数を持っていた。
| 市区町村 | 参政党得票率(NHK) | 予測値_参政党得票率 | 平均年齢(令和7年1月) | 大学院卒業者割合(令和2年国勢調査) | 役員の割合(令和2年国勢調査) | 情報通信業の割合(令和2年国勢調査) |
| 千代田区 | 9.4 | 9.6 | 42.69 | 0.088 | 0.162 | 0.115 |
| 中央区 | 9.8 | 9.3 | 42.17 | 0.075 | 0.126 | 0.135 |
| 港区 | 10.1 | 10.4 | 43.48 | 0.065 | 0.171 | 0.131 |
| 新宿区 | 9.4 | 9.5 | 44.08 | 0.052 | 0.097 | 0.129 |
| 文京区 | 7.4 | 7.6 | 43.35 | 0.097 | 0.098 | 0.118 |
| 台東区 | 10 | 10.1 | 45.59 | 0.041 | 0.109 | 0.112 |
| 墨田区 | 10.1 | 9.8 | 44.88 | 0.035 | 0.073 | 0.115 |
| 江東区 | 9 | 9.4 | 44.82 | 0.041 | 0.069 | 0.12 |
| 品川区 | 9 | 8.6 | 44.34 | 0.056 | 0.077 | 0.143 |
| 目黒区 | 9 | 9.4 | 44.88 | 0.05 | 0.109 | 0.137 |
| 大田区 | 9.9 | 9.5 | 45.67 | 0.039 | 0.069 | 0.105 |
| 世田谷区 | 9.9 | 9.4 | 45.19 | 0.047 | 0.097 | 0.128 |
| 渋谷区 | 10 | 9.7 | 44.8 | 0.054 | 0.142 | 0.152 |
| 中野区 | 9.5 | 9.3 | 44.57 | 0.038 | 0.072 | 0.141 |
| 杉並区 | 8.5 | 8.9 | 45.23 | 0.047 | 0.076 | 0.136 |
| 豊島区 | 9.6 | 9.5 | 44.05 | 0.044 | 0.081 | 0.132 |
| 北区 | 9.2 | 9.4 | 45.74 | 0.036 | 0.058 | 0.107 |
| 荒川区 | 9.4 | 9.9 | 46.23 | 0.032 | 0.071 | 0.096 |
| 板橋区 | 9.9 | 10.0 | 45.73 | 0.027 | 0.059 | 0.099 |
| 練馬区 | 10.3 | 9.6 | 45.5 | 0.034 | 0.068 | 0.113 |
| 足立区 | 10.5 | 10.7 | 46.74 | 0.017 | 0.063 | 0.073 |
| 葛飾区 | 10 | 10.4 | 46.52 | 0.02 | 0.061 | 0.083 |
| 江戸川区 | 11 | 10.7 | 45.09 | 0.021 | 0.062 | 0.085 |
| 八王子市 | 10.1 | 9.7 | 48.31 | 0.029 | 0.054 | 0.054 |
| 町田市 | 10 | 9.5 | 48.16 | 0.031 | 0.058 | 0.068 |
| 調布市 | 8.6 | 9.4 | 45.66 | 0.035 | 0.06 | 0.113 |
| 西東京市 | 9.1 | 9.5 | 46.9 | 0.028 | 0.055 | 0.102 |
雑なモデルなので話半分でね。
OLS Regression Results
==============================================================================
Dep. Variable: y R-squared: 0.730
Model: OLS Adj. R-squared: 0.680
Method: Least Squares F-statistic: 14.84
Date: Mon, 21 Jul 2025 Prob (F-statistic): 5.09e-06
Time: 07:21:02 Log-Likelihood: -20.653
No. Observations: 27 AIC: 51.31
Df Residuals: 22 BIC: 57.78
Df Model: 4
Covariance Type: nonrobust
==============================================================================
coef std err t P>|t| [0.025 0.975]
------------------------------------------------------------------------------
const 1.277e-15 0.111 1.15e-14 1.000 -0.230 0.230
x1 -0.5743 0.230 -2.493 0.021 -1.052 -0.096
x2 -1.3278 0.204 -6.512 0.000 -1.751 -0.905
x3 0.8670 0.174 4.973 0.000 0.505 1.229
x4 -0.5382 0.169 -3.184 0.004 -0.889 -0.188
==============================================================================
Omnibus: 2.233 Durbin-Watson: 2.170
Prob(Omnibus): 0.327 Jarque-Bera (JB): 1.169
Skew: -0.035 Prob(JB): 0.557
Kurtosis: 1.983 Cond. No. 4.48
==============================================================================
| 変数 | 回帰係数 |
| 平均年齢(令和7年1月) | -0.78 |
| 1世帯あたり人口 | -0.31 |
| 男性率(令和7年1月) | 0.07 |
| 外国人比率(令和7年1月) | -0.07 |
| 5年間外国人割合変化 | 0.27 |
| 犯罪認知割合 | -0.05 |
| 大学院卒業者/全卒業者(令和2年国勢調査) | -1.77 |
| 不詳者/全卒業者(令和2年国勢調査) | -0.51 |
| 従業上の地位:役員の割合 | 1.39 |
| 従業上の地位:自営業主の割合 | 0.09 |
| 産業区分:情報通信業の割合 | -0.53 |
| 地域 | 参政党得票率(NHK) | 予測値_参政党得票率 | 平均年齢(令和7年1月) | 1世帯あたり人口 | 男性率(令和7年1月) | 外国人比率(令和7年1月) | 5年間外国人割合変化(令和2年から7年) | 犯罪認知割合(令和6年件数/令和7年人口) | 大学院卒業者/全卒業者(令和2年国勢調査) | 不詳者/全卒業者(令和2年国勢調査) | 従業上の地位:役員の割合(令和2年国勢調査) | 従業上の地位:自営業主の割合(令和2年国勢調査) | 産業区分:情報通信業の割合(令和2年国勢調査) |
| 千代田区 | 9.4 | 9.5 | 42.69 | 1.75 | 0.50 | 0.06 | 1.22 | 0.04 | 0.09 | 0.36 | 0.16 | 0.09 | 0.12 |
| 中央区 | 9.8 | 9.8 | 42.17 | 1.76 | 0.48 | 0.07 | 1.33 | 0.01 | 0.08 | 0.28 | 0.13 | 0.08 | 0.14 |
| 港区 | 10.1 | 10.0 | 43.48 | 1.74 | 0.47 | 0.08 | 1.08 | 0.01 | 0.07 | 0.42 | 0.17 | 0.10 | 0.13 |
| 新宿区 | 9.4 | 9.0 | 44.08 | 1.52 | 0.50 | 0.14 | 1.12 | 0.02 | 0.05 | 0.39 | 0.10 | 0.09 | 0.13 |
| 文京区 | 7.4 | 7.5 | 43.35 | 1.80 | 0.48 | 0.07 | 1.32 | 0.01 | 0.10 | 0.25 | 0.10 | 0.08 | 0.12 |
| 台東区 | 10.0 | 10.3 | 45.59 | 1.58 | 0.51 | 0.09 | 1.21 | 0.01 | 0.04 | 0.36 | 0.11 | 0.09 | 0.11 |
| 墨田区 | 10.1 | 10.1 | 44.88 | 1.69 | 0.49 | 0.06 | 1.25 | 0.01 | 0.04 | 0.28 | 0.07 | 0.07 | 0.12 |
| 江東区 | 9.0 | 9.2 | 44.82 | 1.84 | 0.49 | 0.07 | 1.23 | 0.01 | 0.04 | 0.27 | 0.07 | 0.06 | 0.12 |
| 品川区 | 9.0 | 8.6 | 44.34 | 1.73 | 0.49 | 0.04 | 1.19 | 0.01 | 0.06 | 0.24 | 0.08 | 0.07 | 0.14 |
| 目黒区 | 9.0 | 9.3 | 44.88 | 1.74 | 0.47 | 0.04 | 1.19 | 0.01 | 0.05 | 0.35 | 0.11 | 0.10 | 0.14 |
| 大田区 | 9.9 | 9.7 | 45.67 | 1.77 | 0.50 | 0.04 | 1.26 | 0.01 | 0.04 | 0.23 | 0.07 | 0.07 | 0.11 |
| 世田谷区 | 9.9 | 9.3 | 45.19 | 1.84 | 0.47 | 0.03 | 1.22 | 0.01 | 0.05 | 0.30 | 0.10 | 0.10 | 0.13 |
| 渋谷区 | 10.0 | 9.9 | 44.80 | 1.61 | 0.48 | 0.06 | 1.12 | 0.02 | 0.05 | 0.34 | 0.14 | 0.12 | 0.15 |
| 中野区 | 9.5 | 9.5 | 44.57 | 1.57 | 0.51 | 0.07 | 1.20 | 0.01 | 0.04 | 0.33 | 0.07 | 0.09 | 0.14 |
| 杉並区 | 8.5 | 8.9 | 45.23 | 1.73 | 0.48 | 0.04 | 1.19 | 0.00 | 0.05 | 0.26 | 0.08 | 0.09 | 0.14 |
| 豊島区 | 9.6 | 9.5 | 44.05 | 1.57 | 0.50 | 0.12 | 1.21 | 0.01 | 0.04 | 0.34 | 0.08 | 0.09 | 0.13 |
| 北区 | 9.2 | 9.2 | 45.74 | 1.71 | 0.50 | 0.09 | 1.31 | 0.01 | 0.04 | 0.31 | 0.06 | 0.07 | 0.11 |
| 荒川区 | 9.4 | 9.6 | 46.23 | 1.77 | 0.50 | 0.11 | 1.19 | 0.01 | 0.03 | 0.29 | 0.07 | 0.08 | 0.10 |
| 板橋区 | 9.9 | 10.0 | 45.73 | 1.73 | 0.49 | 0.07 | 1.29 | 0.01 | 0.03 | 0.30 | 0.06 | 0.07 | 0.10 |
| 練馬区 | 10.3 | 9.6 | 45.50 | 1.89 | 0.48 | 0.04 | 1.22 | 0.01 | 0.03 | 0.25 | 0.07 | 0.08 | 0.11 |
| 足立区 | 10.5 | 10.6 | 46.74 | 1.84 | 0.50 | 0.06 | 1.28 | 0.01 | 0.02 | 0.31 | 0.06 | 0.08 | 0.07 |
| 葛飾区 | 10.0 | 10.5 | 46.52 | 1.86 | 0.50 | 0.06 | 1.27 | 0.01 | 0.02 | 0.27 | 0.06 | 0.08 | 0.08 |
| 江戸川区 | 11.0 | 10.8 | 45.09 | 1.93 | 0.50 | 0.07 | 1.27 | 0.01 | 0.02 | 0.26 | 0.06 | 0.07 | 0.09 |
| 八王子市 | 10.1 | 9.7 | 48.31 | 1.96 | 0.50 | 0.03 | 1.28 | 0.01 | 0.03 | 0.21 | 0.05 | 0.07 | 0.05 |
| 町田市 | 10.0 | 10.0 | 48.16 | 2.06 | 0.49 | 0.02 | 1.44 | 0.01 | 0.03 | 0.17 | 0.06 | 0.08 | 0.07 |
| 調布市 | 8.6 | 9.1 | 45.66 | 1.92 | 0.49 | 0.02 | 1.14 | 0.01 | 0.04 | 0.23 | 0.06 | 0.08 | 0.11 |
| 西東京市 | 9.1 | 9.2 | 46.90 | 2.00 | 0.49 | 0.03 | 1.15 | 0.01 | 0.03 | 0.20 | 0.06 | 0.08 | 0.10 |
OLS Regression Results
==============================================================================
Dep. Variable: y R-squared: 0.833
Model: OLS Adj. R-squared: 0.711
Method: Least Squares F-statistic: 6.803
Date: Mon, 21 Jul 2025 Prob (F-statistic): 0.000472
Time: 06:53:14 Log-Likelihood: -14.148
No. Observations: 27 AIC: 52.30
Df Residuals: 15 BIC: 67.85
Df Model: 11
Covariance Type: nonrobust
==============================================================================
coef std err t P>|t| [0.025 0.975]
------------------------------------------------------------------------------
const -5.405e-15 0.106 -5.12e-14 1.000 -0.225 0.225
x1 -0.7820 0.361 -2.165 0.047 -1.552 -0.012
x2 -0.3056 0.355 -0.860 0.403 -1.063 0.452
x3 0.0671 0.270 0.248 0.807 -0.509 0.643
x4 -0.0737 0.213 -0.346 0.734 -0.527 0.379
x5 0.2652 0.168 1.579 0.135 -0.093 0.623
x6 -0.0534 0.246 -0.217 0.831 -0.578 0.472
x7 -1.7650 0.293 -6.018 0.000 -2.390 -1.140
x8 -0.5147 0.379 -1.358 0.195 -1.322 0.293
x9 1.3916 0.348 3.994 0.001 0.649
同じ霊長類の直鼻亜目のゴリラ・チンパンジーは人類の言葉を使って会話ができるので、文化の質と深さが人間の本質ですか?って聞いたら、たぶん怒られる
ゴリラ・チンパンジーと人間の違いは、身体構造なので、身体構造が人間の本質ですか?って聞いたら、それもたぶん怒られる
ちなみに愛情と余裕を持って育てた実験ラットは、そうではない実験ラットと違う反応を示すんだと
つまり、利他性や社会規範といった概念は人間特有のものではない模様
一例: Third-party punishment-like behavior in a rat model | Scientific Reports
でも考えみたら、たぶん人間特有と思われるものがあったんだわ。それは"演出"だ
人間以外の動物も他者に合わせて演技をするが、人間以上に演出過多な生物はたぶんいない
「連続的なグラデーションの中で、ある臨界点を超えたとき、私たちが生命と呼ぶ特性が現れる」のと同じように、
「演出がある臨界点を超えたとき、私たちが人間と呼ぶ特性が現れる」って感じなのでは?
書いたよ