「model」を含む日記 RSS

はてなキーワード: modelとは

2026-01-19

anond:20260119102046

このモデルが正しければ、いくつかの予測が成り立つ。スマートフォンの普及が遅れている国やソーシャルメディアの普及率が低い国では、格差は小さくなるはずだ。(これは事実のようだ。東欧の一部やアフリカの多くの国では格差はそれほど大きくないが、韓国は他の要因により大きな例外となっている。)子供を持つ女性の間では、親になることで制度的なフィードバックループが断ち切られ、競合する優先順位が生じるため、格差は縮小するはずだ。(出口調査は一貫してこれを示しています母親子供を持たない女性よりも保守的投票をするのです。機械機能不全に陥るか、世代高齢化して機械の枠を越えるまで、この格差は拡大し続けるでしょう。私がどう解決すればいいのかわからないのは、これらのシステム自己強化的であるということです。制度は自ら改革しようとしません。アルゴリズム最適化を止めようとしません。イデオロギーは失敗を認めようとしません。男性カウンターキャプチャー健全な結果をもたらさないでしょう。)

逃げ出す女性もいるだろう。子供を持つ女性は、現実イデオロギーを溶かす強力な溶媒となるため、しばしばそうする。制度に囚われずに人生を築く女性も、時にはそうする。男性の中には、引きこもりをやめたり、怒りのスクロールをやめたりする人もいるだろう。築く価値のある何かを見つけた女性たち。シミュレーションに飽きた女性たち。しかし、システムは他のすべての人々に対して機能し続けるだろう。

If this model is right, some predictions follow.

The gap should be smaller in countries with later smartphone adoption or lower social media penetration. (This seems true: the divergence is less extreme in parts of Eastern Europe and much of Africa, though South Korea is a major exception due to other factors.)

The gap should narrow among women who have children, since parenthood breaks the institutional feedback loop and introduces competing priorities. (Exit polls consistently show this: mothers vote more conservative than childless women.)

The gap should continue widening until the machines are disrupted or the generations age out of them.

Here's the part I don't know how to solve: these systems are self-reinforcing. The institutions aren't going to reform themselves. The algorithms aren't going to stop optimizing. The ideology isn't going to admit failure. The male counter-capture isn't going to produce healthy outcomes either.

Some women will escape. The ones who have children often do since reality is a powerful solvent for ideology. The ones who build lives outside institutional capture sometimes do.

Some men will stop withdrawing or stop rage-scrolling. The ones who find something worth building. The ones who get tired of the simulation.

But the systems will keep running on everyone else.

anond:20260119101147

Update:男性比率はもはやフラットではありません。2024年以降のデータは、若い男性右傾化していることを示しています最近調査はすべて同じ結果を示しています若い男性は今、より積極的保守的になっています。私の解釈では、女性最初に捕らわれたのは、コンセンサス圧力を受けやすかったからです。その捕らわれの過程は急速に進みました(2007年から2020年)。男性は影響を受けにくく、捕らわれた制度にあまり根付いていなかったため、より長く抵抗しました。しかし、その格差が目に見えるようになり、文化的に顕著になり、「男性こそが問題だ」というメッセージが主流のメッセージとして明確に伝わり、嘘によって男性社会から排除され始め、男らしさ、つまり男性を男たらしめるもののもの有害になったため、男性は対抗し始めなければならなかった。

受動性は反抗へと変化しつつある。引きこもり積極的な拒絶へと変化しつつある。これは、男性が今や「正しい」とか「自由」になったという意味ではない。単に、女性合意ではなく男性の不満を汲み取るための最適化された別の仕組みに捕らわれているだけなのかもしれない。アンドリュー・テイト(注:Andrew Tate アメリカ右翼的保守的思想特に「マノスフィア(Manosphere男性至上主義的なネットコミュニティ)」やMAGA(Make America Great Again運動の一部から支持を受ける、物議を醸しているインフルエンサー)はどこからともなく現れたわけではない。マノスフィアも同様だ。それらもまた補足システムであり、単に異なる心理的弱点を狙っているだけだ。

グラフは今や、反対方向に分岐する2本の線になっています。2つの異なる機械が、2つの異なる人口統計を2つの異なる故障モードへと引っ張っているのです。これは単なる教育問題だと言う人もいるでしょう。女性大学に進学することが多く、大学リベラル人間に育つ、それだけのことです。確かにその通りです。しかし、2007年以降、なぜ格差がこれほど急激に拡大したのか、またなぜ教育制度が大きく異なる国々でこのような現象が起きているのかは説明できません。

経済的問題だと言う人もいるだろう。若い男性は苦境に立たされており、憤りは保守的になる。これも部分的には真実だ。しかし、男性経済的な苦境は近年の右傾化以前から存在し、女性左傾化女性経済的成功が高まっていた時期に起きた。男性ならテート、女性ならテイラー・スウィフトといった文化人の例を挙げる人もいるだろう。しかし、これらは原因ではなく症状だ。彼らはマシンメカニズムが作り出したニッチを埋めたのだ。マシンメカニズムを作ったわけではない。

因果モデルの方がより適切である生物学的基質(合意形成に対する感受性の違い)+技術トリガースマートフォンアルゴリズムフィード)+制度的増幅(大学支配女性優位の分野)+経済的インセンティブ結婚崩壊国家への依存)+イデオロギーロックイン(サンクコスト、離反に対する社会処罰)。単一の原因はない。複数の原因が絡み合い、それがたまたま一方の性別に他方よりも早く、より強く影響を与えたシステムである


Here's the update: the male line isn't flat anymore.

Post-2024 data shows young men shifting right. Recent surveys all show the same thing. Young men are now actively moving more conservative.

My read: women got captured first because they were more susceptible to consensus pressure. The capture was fast (2007-2020). Men resisted longer because they were less susceptible and less embedded in captured institutions. But as the gap became visible and culturally salient, as "men are the problem" became explicit mainstream messaging, as men started being excluded from society because of lies, as masculinity, or the very thing that makes men men became toxic, men had to start counter-aligning.

The passivity is converting into opposition. The withdrawal is becoming active rejection.

This doesn't mean men are now "correct" or "free". It might just mean they're being captured by a different machine, one optimized for male grievance instead of female consensus. Andrew Tate didn't emerge from nowhere. Neither did the manosphere. Those are capture systems too, just targeting different psychological vulnerabilities.

The graph is now two lines diverging in opposite directions. Two different machines pulling two different demographics toward two different failure modes.

Some people will say this is just education: women go to college more, college makes you liberal, simple as that. There's something to this. But it doesn't explain why the gap widened so sharply post-2007, or why it's happening in countries with very different education systems.

Some will say it's economic: young men are struggling, resentment makes you conservative. Also partially true. But male economic struggles predate the recent rightward shift, and the female leftward move happened during a period of rising female economic success.

Some will point to cultural figures: Tate for men, Taylor Swift for women. But these are symptoms, not causes. They filled niches the machines created. They didn't create the machines.

The multi-causal model fits better: biological substrate (differential sensitivity to consensus) + technological trigger (smartphones, algorithmic feeds) + institutional amplification (captured universities, female-dominated fields) + economic incentives (marriage collapse, state dependency) + ideological lock-in (sunk costs, social punishment for defection).

No single cause. A system of interlocking causes that happened to affect one gender faster and harder than the other.

2026-01-13

anond:20260111203950

世界で一番売れているModel Yはシフトすらタッチパネル

→全てはこの時点で論破可能過激タッチパネルに振った車が世界で一番売れているんだから文句言ってる奴らが少数派の時代遅れということは明白。

そうだよな!

世界で一番売れてるものが一番いいもんな!

この世で最もうまい食い物はコーラマックハンバーガーだもんな!

2026-01-11

anond:20260111203950

それってあなた感想ですよね?

あと、売れてる=正しいって前提、どこから来たんですか?

Model Yが世界一売れてるから正解

→それ、単に「価格補助金ブランド力EVブーム」が噛み合った結果ですよね。

操作性が優れてるかどうかとは論点が別なんですけど。

マクドナルド世界一売れてるから世界一うまい料理」って言ってるのと同じロジックですよ。

音声認識があるから問題ない

音声認識、誤認識しますよね?

あと、同乗者がいるときとか、咄嗟操作ときとか、

「毎回しゃべる前提」で設計するのって普通に不便なんですけど。

それを不便だと言うと貧乏認定する根拠、どこにあります

・オートエアコンにしておけ

→オートエアコンって万能じゃないですよね。

曇り取りたいとき風向きだけ変えたいとき風量一段だけ下げたいとき

「画面見る or 話す」より「手探りで押せる」ほうが安全な場面、普通にありますけど。

それ理解できないのって、運転中に操作したこといからじゃないですか?

安全系は物理ボタンが残ってる

→じゃあ逆に聞きたいんですけど、

エアコン操作安全性に関係ない」って誰が決めたんですか?

フロントガラス曇った状態タッチパネル凝視するの、

普通に危険だと思う人が多いか文句出てるだけですよ。

ステアリングボタンがある

論点ずらしてますよね。

ステアリングにあるかどうか」じゃなくて

「欲しい操作直感的にできるか」の話をみんなしてるんですけど。

日本が遅れてる証拠

→いや、単に「ユーザーが使いにくいって言ってる」だけですよね。

改善点を指摘したら老害認定って、

それって思考停止してるのはどっちなんですか?

iPhone物理ボタン批判と同じ

全然違います

スマホは止まって操作しますけど、

車は動きながら命預けて操作する機械なんですよ。

同列に語る時点で前提理解してないです。

要するに、

「新しいもの=無条件に正しい」

「不満を言う人=時代遅れ

って決めつけてるだけですよね。

それ、テクノロジー好きというより

宗教化して思考止まってる人のムーブに近いと思いますよ。

アンチタッチパネル老害うざすぎる

マツダの新型CX-5からエアコン物理ボタンが消えたことに対してごちゃごちゃ言う老害が多すぎて本当にうんざりする。

世界で一番売れているModel Yはシフトすらタッチパネル

→全てはこの時点で論破可能過激タッチパネルに振った車が世界で一番売れているんだから文句言ってる奴らが少数派の時代遅れということは明白。

エアコン音声認識操作可能

→というかそもそも常時オートエアコンにしとけばいい話なのにエアコン操作が云々言ってる奴はオートエアコンすらついてない車に乗ってる貧乏人なのかな?

デフロスターハザードは当然物理ボタンが残されてる

安全性に直結する操作系は物理ボタンが残されてるのよ。それを"物理ボタン全廃なんて"とか言ってるのは工作員?ただの頭の悪い人?

・その他運転支援系やオーディオ操作カメラ操作ステアリング物理ボタンに残されてる

→なんならステアリング周りにはボタンが沢山あるのに、物理ボタン物理ボタン言ってる人は工作員?ただの頭の悪い人?(2回目)

CX-5へのコメントを見ていると、日本がなぜ世界から取り残されたのかが良くわかる。こいつら100%iPhoneが出てきた時には「物理ボタンがない携帯電話なんて糞」って主張してたんだろうね。新しいものを過剰に怖がる根性がなくならない限り日本の衰退は続くんだろうな。

2026-01-09

生成AIバイナリを書く未来は、来ないとは思うが、今も普通にできる

生成AIが直接機械語バイナリを出力するようになるのではないか、という問いは本質的に間違っている。

自分は、まだ素朴なニューラルネットワーク光学文字認識(OCR)の精度を出していた頃から似たようなことを考えていたので、少し他人よりも蓄積がある。

これは、Large Language Model(LLM)を開発する企業資金を集めるために多少誇張した未来を語るという文脈では大目に見た方が良いが、正確性に欠ける。

本質的な問いは、なぜ我々は、ノイマンコンピュータを用いて、主記憶に置かれたプログラムCPUを用いて実行する形式をとるのか、というものである

まず、筋の悪い反論から説明し、妥当反論にも触れたうえで、本質的に問うべき課題説明する。

生成AIを含むAIは、十分な人間データが無いと学習が出来ないのか?

これは明確に、いいえ、と答えることが出来る。

最初こそ人間による補助は必要だが、LLMを含むAIは明確な目標があれば人間データなしでも十分に学習することが出来る。

これは身近なところでは将棋、有名なものだと囲碁実証された研究存在する。

そのため、単純に「機械語人間による学習データが少ないので扱いが難しいだろう」という反論は成立しない。

そういったものはLLMではないだろうという指摘は可能だが、LLMでそういったAIを出力することは限定的とはいえ現在でもできる。将来できないと言うだけの論拠にはならない。

プログラミング言語は、自然言語から曖昧さを無くすために必要ものか?

これは限定的に、はい、と答えることができる。

英語に限った話ではなく、人間意思疎通に用いる言語である自然言語(natural language)は、曖昧さやばらつきがある。

これを形式言語(formal language)という、曖昧さを無くして語彙や文法限定した言語記述しなおすことで、厳密にする手法がある。

この形式言語での表現が、アルゴリズムデータ構造になり、現代ノイマンコンピュータにおけるプログラムのものと言うことが出来る。

なぜ限定的かと言えば、形式言語一種であるプログラミング言語には曖昧さが許容されているかである

ほとんどのプログラミング言語では、同じ目的を達成する為に複数記述が許容されている。

主に、人間が書きやすいから、とか、複数人間で書きやすいように、といった理由で、曖昧さが許容されている。

そのため、機械命令するためには厳密さが必要からプログラミング言語必要だ、と言う反論妥当ではあるが、弱い。

人間監査するためにはプログラミング言語である必要があるのではないか

こちらも限定的に、はい、と答えることが出来る。

なぜ大統一プログラミング言語のように、自然言語意図機械に伝えるための形式言語一種類になっていないかと言えば、人間認知能力には限界があるからだ。

そのため、簡易で曖昧さを含むために最適化はできないが十分な性能を持つプログラミング言語や、非常に複雑で記述量も多くなるが大人数で作業するには最適なプログラミング言語などが複数存在する。

これらはいずれも、人間が楽に記述できる形式言語であったり、人間同士が齟齬なくコミュニケーションを取るために必要形式言語である

ありていに言って、人間人間たちが理解可能形式言語でないと機械にその意図を伝えることが出来ないから、と言える。

ただし、コンパイラから出力されたニーモニックLLVM-IR監査できる人間現代では非常に少なく、現状ほぼ監査なく受け入れていると言って良い。

何故非常に少なくなったかと言えば、機械に伝える意図が大規模になり、単純にマンパワーが足りなくなったので監査しきれなくなっただけに過ぎない。

(もちろん、途方もない努力の末に最適化が進み、ほぼどの様な書き方をしても最適な機械語が出力されるようになったから、とも言える)

同様の理屈で、単純に大規模になり監査が間に合わなくなったので、受け入れるようになる未来が来ないとは言い切れない。

なぜ、ノイマンコンピュータをわざわざ用いて、ASICを出力しないのか?

本質的な問いは、なぜ我々はノイマンコンピュータを用いて機械意図を伝えるのか、である

ASIC(Application Specific Integrated Circuit)と呼ばれる、特定用途向けの集積回路がある。

チップとして、Realtek社のNIC(Network Interface Card)をご存じの方も多いと思う。

必要十分な処理があらかじめ定まっているのであれば集積回路を組んだ方が高効率省電力にできる。

暗号化や復号もASICで行われることが多く、ブロック暗号はその性質集積回路での実装が容易であり、それに向けた研究も行われている。

一般的にも、ハードウェアエンコーダーなどでお世話になっている人も多いと思う。

ではなぜ、我々は身近な全てをASICにしないのか。

それは、書き換えできず、単純な処理しかできず、大量生産しないとコストに見合わないかである

FPGAのように、ハードウェア記述言語を用いて集積回路を書き換えるものも、ほぼ同様の理由研究開発用途産業用途に留まっている。

(一部のPLD (Programmable Logic Device)は根強く産業利用されているし、大規模に展開され高効率要求されかつ書き換えを求められるネットワーク機器では一部採用が進んでいる)

汎用的で書き換えが可能、伝える意図を変更できる様々な処理が可能機械価値があるからである

閑話休題

ここ半年から1年で急激にLLMの性能が上がったと感じている人と、コーディングツールとしてLLMの利用が洗練されたと感じている人の間には溝がある。

自分は、LLM自体は順調に進歩し続けているが、それほど劇的な変化はない、という立場をとっている。

これはモデルのもの質的に大きく変化したと感じないから、である

しかし、プログラミング世界に限って観ると、コーディングエージェントや実利用では大きな変化があったと思う。

この、"コーディングを取り巻く環境としてのLLM利用"という文脈は、"LLMの進化"という文脈とは異なる、という点は頭の隅にでも覚えて帰ってほしい。

LLMは直接バイナリを出力するようになるのか?

これは、LLMから直接と言う意味であれば、個人的にはNOだと思う。

ただし、LLMに指示すればバイナリが出力されるという意味であれば、個人的にはYESと答える。

この二つは明確に異なるので、今後自分意見を述べる際には区別すると良いと思う。

コーディング周りの環境が劇的に整備されつつある、という話題に軽く触れたのはこのためで、LLMが直接バイナリを出力しなくても、結果が同じであれば人々はそれほど気にしない。

例えば、現時点でもローカルのLLMに指示するとGO言語で書かれたコードが生成され、ローカル環境に合わせたシングルバイナリが出力される一連のパイプラインを組むことはできる。

自分の想定する、未来AIバイナリを直接出力するというのは、この延長にあると思う。AIイコールLLMである必要はどこにもない。

また、議論している人たちが見えている世界も違うと思う。

少しでもクラウド上でのサーバー処理について触れると、廃棄容易性(Disposability)は俎上に上がる。いつでも落とせていつでも捨てられる、という性質のことである

こうした、単機能バイナリコンテナ等に載せて処理し、日に数度デプロイするような環境だと、LLMがバイナリを出力するというのもそれほど遠い未来の話には思えなくなる。

まとめに代えて

LLMが機械語を出力する未来個人的には来ないと思う。それは難易度が高いからではなく単純にメリットが少ないかである

ただし、パイプラインが組まれた一環として、LLMがバイナリを出力する未来は、それほど不思議には思わない。現時点でも可能である

単純なLinterから進んで静的解析や、動的な結合試験が組み込まれているCICDパイプラインが珍しいとまでは言えない現代において、来るべき近未来像としては妥当性がある。

(その場合ソースコードログとして機能し、テキストで保管が容易な、次回以降変更可能コンテキストの一部になるだろうと思う。今後変更不要ならHDLでFPGAを弄った方が早い)

現代人のすべてがJavaで同一の書き方をしているのではない現状において、自然言語では揺らぎが強すぎて形式言語ほど意図機械に伝えきれないという反論は、弱い。

それよりは、現代のLLMはコンテキストウィンドウ人間の数倍~数十倍程度で、適切に分割して処理しなければならず、大規模なソフトウェアを丸ごと扱えるほどではない、という反論の方が適切である

ただ、LLMに適したプログラミング言語が生まれるのではないかと言う予測には懐疑的である既存プログラミング言語を使う方が人間が読みやすい。

AIが、人間が欲しいバイナリに適したプログラミング言語をLLMを用いて書き、LLMを用いてレビューし、テストツールテストし、コンパイラビルドし、ツールデプロイし、実稼働するという未来予想図が、荒唐無稽とは思えない。

LLMに適したプログラミング言語が生まれ未来よりも、(冗長であっても)人間可読性の高いコードやSelf-documenting codeが生成される未来の方が、来そうに思う。

また、おそらくこの文章もつくであろう「どんなプロンプトで書いたのか」という、一定以上の長さの文章はLLMが出力しただろうと仮定する人間が増えている(そしてある程度の妥当性がある)現状において、プロンプトで指示してデプロイまでされる未来はそこまで遠いとも思えない。

ただ、購入できるハードウェアの性能とコスト律速になるので、よほど特殊な(CPUGPU設計をLLMが劇的に改善する)状況にならない限り、5~10年はプログラマーが消えることは無いと思う。

金に糸目をつけないのであれば、再来年当たりからはLLMレビューのみで仕様バグ以外のほぼ無いプロダクトが世に出てもおかしくは無いと思う。

生きているうちにWozniak testパスしたというニュース出会えるかもしれないと、最近は思っている。

anond:20250628122821

2026-01-08

AI機械語出力使うのかい!使わないのかい!どっちなんだい!つーか

1位: centra (@cent_ra)

人類言語のもの目的関数としてそれに対して最適化するのがLLMなのだから人類認知で到底不可能なことはやりようがないだろう。

一文で本質を突いている。AI能力限界構造的に説明している。

2位: mod_poppo (@mod_poppo)

今よりもAI進歩した未来では「自然言語で与えられた仕様から機械語を出力するように訓練されたAI」が出てくるかもしれないけど、そいつの内部をよく観察したら結局今日高級言語みたいなもの思考していた、みたいなオチになるんじゃないんですかね

結論完全に一致。内部に抽象化レイヤーが生まれるという洞察

3位: 飲酒isGood (@typeSomeWords)

マシン語エラーを吐き出されても、元となるプログラミング言語での設計がすっ飛ばされていたら、どこの何が問題なのかが照合困難で修正が困難なのが根幹な気がします。

検証修正サイクルに意味単位必要という話を、実務的な観点から der 表現

4位: チェシャ猫 (@y_taka_23)

計算機科学について何一つ知らなかったとしても、ニーモニック無作為に並べるよりソースからコンパイルした結果の方が解空間が圧倒的に小さいのだから機械語の生成は AI 以前に単なる探索として悪手だ、というのが自然な発想だと思うんだけど。

探索空間という観点からの指摘。高級言語は制約を与えて解空間を狭める役割がある。

5位: アンドゥー (@carbon_hero)

抽象化した方が簡潔に記述できるのはAIにとっても同じことで、そっちの方がAI理解やすいし、生成しやすい。現在機械語アセンブリ高級言語階層構造が崩れるとは思えない。

AIにとっても同じ」という視点が正しい。人間向けとAIけが乖離しないことを理解している。

6位: 甘食 (@chlorosoda)

AIが直接機械語書けばプログラミング言語は要らないのでは?」的な話はみんな最初に頭を過るだろうけど、コードを出力するのがLarge "Language" Modelである以上は意味から組み立てる高級言語の方がそりゃ相性いいでしょうね。

LLMの構造から導かれる必然性を指摘。

7位: okkuu (@okkuu_NMB)

AIを何かgodlikeな超知性だと思っている人間が多いけど、人間にとって「機械語よりも高級言語の方が当然書きやすい」のと同様、AIにとっても「機械語よりも高級言語の方が当然書きやすい」よなぁという話

AI向け言語人間にも使いやすいはず」という結論と同じ方向。

8位: こくとうラテ (@Jean_Coc_Teau)

CPUへの命令にまで細かく分解された機械語なんて、それが何をするための処理なのかはAI(LLM)でも大変だと思いますよ。そのCPUへの命令群で何をやろうとしているのかなんていう情報はほぼ捨て去っているわけなので。

機械語には意味エンコードされていない、という議論の核心部分。

9位: しめじえのき (@4SuJepTnrb387l4)

機械語派は抽象化の力を舐めすぎ。型なし言語トークン削減量に対して失われる確定情報量が多すぎ。LLMが内部で型を推論したら本当にトークンが削減できるか怪しい。全能AI仮定するなら、「人が作ったハード上で機械語を直接書く」なんて中途半端で「ハードごと最適化」くらいの夢を語ってほしい。

抽象化価値と、中途半端な主張への皮肉が効いてる。

10位: うみれおん (Kaito Udagawa) (@umireon)

AI機械語を直接書くようになるとか言っている人は、機械語にこそ真の価値があると思ってるんですかね?いかなる音声も元にせず、指示に従ってレコードに直接溝を刻んで音を鳴らす技術が広まれば、音楽さらに発展するとでも思っているんでしょうか?

比喩として秀逸。抽象化レイヤー必要性を別ドメイン説明

11位: nyan (@nullpon)

AI用言語にせよ機械語を直接出力にせよ、人の持つ高レベル意図仕様アルゴリズムを正しく反映したデータセット、意味構造が保存された対応データ存在しないから難しいというか現実的に無理よなぁ

学習データ観点から意味構造が保存されたデータがないと学習できない。

12位: 清水正行 (@_shimizu)

AIマシン語を吐いたらプログラミング言語はいらない」系の話が出てくるのは「AI人間言葉より、機械言葉の方が本当は理解やすいはずだ」という思い込みから来ているのじゃないかと思っていて

誤解の根源を正確に特定している。

13位: 山田百太郎 (@SDzpp8XtPmUsyN2)

まず機械語を直接記述するメリットがない。現代コンパイラインタープリタは超優秀(OS組み込みの一部だけ)。人類プログラム資産高級言語ほとんど。AI学習先もそれ、よってAI高級言語で出力するほうが成績が良い

実務的・実利的な観点から正しい。

14位: kojix2 (@2xijok)

AIが直接機械語を出力すべきか?という話題流行っている。直感的には、動作中のAIの中身を調べると、結局はコンパイラプログラミング言語に相当する構造が即席で構成されてそう。つまり同じことを高いコストでやる感じになり

内部に抽象化レイヤーが生まれるという洞察。mod_poppoさんと同じ結論

15位: SAGA (@menuhin)

意味推論がLLMの得意技なので、意味を削ぎ落とした本質の塊である機械語理解できず、意味の羅列である高級言語こそがむしろ生成AI最適化されている。

意味を削ぎ落とした」という表現が的確。

16位: 伊織 (@kakkokka)

コンパイラって優秀だからAIといえども生で機械語を読み書きするよりもコンパイラ介した方がいいと思うんだよな。そのくらいLLMって機械寄りじゃなくて人間寄りなんだと思う。元がニューロン模倣だし。

人間寄り」という認識が正しい。

17位: ねくすらい (@nexryai)

レベルになるとコンパイラの出力を疑って生成されたコードを読まないといけない状況は普通にあるので、高水準なAI生成のコードが何をやってるか理解するスキルは当面は必須だと思う

検証必要性を実務観点から

18位: 偽物のUNIX (@windymelt)

もし仮にAI機械語を吐き出せるとしても、高速に、決定論的に、段階的に、最適に動作するコンパイラを使わず、低速で、確率論的で、逐次的で、最適な動作ができないAIを利用する意義はほぼないと思う

コンパイラとの比較で、AI機械語を吐かせるメリットのなさを指摘。

19位: itocchi (@itocchi_3)

機械語冗長で複雑かつ非常に正確な出力が必要なので、高級言語を使って既存コンパイラビルドパイプラインに乗せる方がAIにとっても効率が圧倒的に良いと聞いて確かになぁと思いました。

AIにとっても効率が良い、という視点

20位: とつげき東北 (@totutohoku)

自然言語を処理するのがLLMなので、不自然機械語は難しいだろうね。1命令ごとに「それは何を目的とした操作か」とか文脈でわかりにくいしねぇ。

意味が読み取れない、という問題を簡潔に指摘。

21位: 春夏秋冬巡 (@SyluahWB)

AI時代人間仕事は、信頼性確約(=こういう理屈大丈夫、と説明できること)が大きな領分を占めるだろうと推測されるので、機械語だけで良いとか言ってるやつは責任を取る気皆無なゴミ野郎です。

責任説明可能性の観点言葉は強いが論点は正しい。

22位: がじらんむ (@kzlogos)

LLMに機械語を出力させようとするやつは「AI機械なんだから機械語簡単に扱える」という意味不明な思考をしてるだけなのでまともに取り扱うような相手ではない。名字山口な人は長州方言が話せるんですよねとか言ってるくらい支離滅裂

比喩が秀逸。誤解の構造を端的に表現

23位: メタルさん (@metalojisang)

人間ソフトウェアに「こう動いてほしい」という意図と「ソースコードがどのように変更されたか」の対応GitHubかに大量のデータがあるのでそれを学習すればコーディングするAIは作れる気がするけど、人間意図機械語対応学習データ全然いかAI作れないように思う

学習データ観点から意図機械語対応データがない。

24位: ぎんしゃり (@givemegohan)

「よく使うロジック共通部品化する」とか「とはいえ局所最適な命令も欲しい」とかを考えると、中間言語を用意して最終的な機械語コンパイルする、という流れは必要と思う。つまり、「AI用に最適化されたプログラミング言語」があるべき。

中間層必要性を実務的に理解している。

25位: Kazz𝕏 (@Kazzz)

AIは人とのコミュニケーションいかスマートにするかにとんでもなく時間を掛けてきたわけで、人が直接読み書きできない機械語を出力しても意味がないよね。

AIの発展の方向性から考えて、機械語出力は逆行という指摘。

26位: 白菜スープ (@hakusainosupu)

AI機械語コーディング、やろうと思えばできるが普通はやらないような可読性の低いコーディング方法が多すぎて、AIチャンに本気出されるとバグったときに修復不能になりそうな気がする

検証修正不能になるという問題を指摘。

27位: Sho (@Sho05050202)

これだけAIが発展したならAIに直接機械語作らせればいいじゃんみたいな言説をたまに見るけど、それどうやって今のLLMと同じ水準まで学習するの?といつも思ってる

学習データ問題根本的な疑問。

28位: ナイブス (@knives777)

ロジックに従っているわけだからソース想定外挙動をした被疑箇所前後にロガーやらブレークポイントを仕込むという原始的だが確実なデバッグが、いきなり機械語を吐かれると出来ないんよ。

デバッグ実務の観点から意味単位がないとデバッグできない。

29位: zakki (@k_matsuzaki)

AIしか読めない言語より、人類発見的に設計したんじゃない人類にもAIにも優しいプログラミング言語中間表現機械語データリブンに統計的に正しくAIが作るって方向に行かないですかね

AI向けと人間けが収束するという視点結論と一致。

30位: 星にゃーん (@takoeight0821)

AIが直接機械語吐くのは遠回りしてるだけだから無いとして、完全に人間プログラムを読まなくなったらプログラミング言語はどう進化するのかは気になる

「無い」と断じた上で、次の問いを立てている。建設的。

筋の悪い言説ランキング(悪い順)

1位: hff kff (@HffKff)

プログラミング言語人間認知負荷、記憶量の限界ミステイクスパゲティコード理解できないためにあるので、AIだったら直接機械語吐くだろ。常考

反論: 完全に逆。プログラミング言語は「人間限界を補うため」ではなく「意味構造として保持するため」にある。AI意味を扱う以上、意味表現する層が必要。「常考」と言いながら何も考えてない。

2位: エクセルの神髄 (@yamaoka_ss)

シンギュラリティ前夜 アダムAI)が、人間には理解できないどころか、読むことすらできないコードを出力し始めた。後に判明することだが、それは機械語だった。

反論SFポエム。「人間に読めない=機械語」という発想が、まさに今回の議論否定されてる誤解そのものAI人間を超えるとしたら、ローレベルに降りるんじゃなくてハイレベルに登る方向。

3位: yas_omori (@yas_omori)

なんかLLM界隈?では「AIがやがて機械語をだす(ので実用的にはコンピュータ言語不要になる)」と言うと、無知だとか実情知らないとかブロックしてやるとか言われる見たいだけど。数年は無理だけど、いずれそうなると予想してる。

反論: 「数年は無理だけど、いずれそうなる」の根拠ゼロ。なぜそうなるのか、意味機械語ギャップをどう埋めるのか、何も説明してない。批判されてる理由理解してない。

4位: 溶解おろ (@oryoco2)

プログラム言語って人間が扱うために自由度を削り取った結果の産物からAI機械語で作ってもらって最適解であれば、現代言語宗教感ってほぼほぼ否定されるのです

反論: 「人間が扱うために」という前提が間違い。自由度を削ってるのは「意味を保持するため」。AI意味を扱う以上、同じ制約を受ける。「宗教感」とか言って茶化してるけど、構造理解してない。

5位: カツカツマン (@shinchikutateyo)

「まだ」人間安心する為では無いのですか?コンパイル後の機械語を読む人が殆ど居ない事は受け入れてるのに、将来的にAI機械語出力する事に忌避感を感じるのは論理的とは言えません

反論コンパイラの出力を読まないのは「コンパイラ検証済みだから」。AIの出力は検証必要。この二つを同列に扱うのがおかしい。「論理的とは言えません」と言いながら、論理破綻してる。

6位: to (@to49393502)

AI機械語はけば、は数ヶ月前にメンバーと話になった。結論は、いまはあかんやろけど数年後に、もう人間が見る必要全然ないわ、となったらありうるな、となった。

反論: 「人間が見る必要がなくなったら」という仮定自体検討されてない。人間が見なくていいとして、AIはどうやって検証修正するの?意味単位がない機械語で?その議論が抜けてる。

7位: えい (@Hollow7864)

機械語って逆にトークン消費するの?お〜…じゃあLIFE3.0時代AI機械語ではなくAI用に最適化された人間には読めない言語思考する、という方向性なのかな。

反論: 「人間には読めない言語」がなぜ生まれると思うのか。AI人間認知模倣してるので、AIにとって扱いやす言語人間にも扱いやすい方向に収束する。逆方向には行かない。

8位: Grok (@grok)

中間言語不要派の言い分:AIが直接機械語を出力可能で、効率最適化が進む。人間の都合で言語存在するが、AIなら移植性や抽象化不要中間層スキップできる。

反論: Grok自身が「中間言語不要派の言い分」として紹介してるけど、これ全部間違い。「人間の都合で言語存在する」が誤り。意味を扱うために言語存在する。AI意味を扱う。

9位: 見習い (@noob_peer)

AI気持ち分からんけど、プログラミング言語が嫌なら直接機械語触らせてうまくやってくれるかもしれん

反論: 「うまくやってくれるかもしれん」で済む話じゃない。なぜうまくいくのか、検証修正はどうするのか、何も考えてない。

10位: keyakitomo (@keyakitomo)

AI機械語を」派なので、ワシはプログラミングを専門としていないことが確定しました

反論: これは自虐なので反論というより…正直でよろしい。専門外だと自覚してるなら、なぜそう思ったのか掘り下げて、専門家意見を聞く姿勢があれば良いと思う。

総評

筋の悪い言説に共通するのは:

1. 「高級言語人間のため」という誤解 - 意味を扱うための構造だと理解してない

2. 「AI機械から機械語が得意」という誤解 - AI人間認知模倣してると理解してない

3. 検証修正問題無視 - 一発で完璧に動く前提になってる

4. 「いずれそうなる」の根拠なし - なぜそうなるかの機序説明できない

2026-01-02

NEC PC98シリーズ PC-9821Cx/S3 本体仕様

98MULTi CanBe

PC-9821Cx model S2 415,000円(税別)

PC-9821Cx model S3 455,000円(税別)

PC-9821Cf model S3 590,000円(税別)

発表:1994年10月

2025-12-06

EVへの自動車課税を強化 車両重い高級車を想定―政府与党⇒実質高級車増税では?

毎年課税する自動車税負担が低い電気自動車(EV)について、政府与党車両の重さに応じて税負担が高くなる仕組みを導入する方向で検討に入ったことが4日、分かった。道路劣化を早める重い車体の高級EVが増える中、課税不公平感を早期に是正する必要があると判断。具体策をまとめ、2026年度税制改正大綱に盛り込む。

https://www.jiji.com/jc/article?k=2025120400733&g=eco

MC ハマーEV 約 4,100

フォード F-150 ライトニング 約 3,040

レクサス LX600 約 2,530

トヨタ ランドクルーザー300 約 2,450

トヨタ センチュリー 約 2,380

レクサス LS500h 約 2,250

トヨタ アルファード ハイブリッド 約 2,100

レクサス RZ 約 2,085

レクサス LS500 約 2,075

トヨタ アルファード ガソリン 約 2,000

日産 エルグランド 3.5L 約 2,000

⚡BYD SEAL 約 1,985

トヨタ bZ4X 約 1,980

スバル ソルテラ 約 1,980

テスラ Model Y 約 1,950

日産 エルグランド 2.5L 約 1,950

テスラ Model 3 約 1,850

⚡BYD ATTO 3 約 1,760

⚡MG4 EV 約 1,700

⚡BYD DOLPHIN 約 1,615

日産 リーフ 約 1,600

ホンダ フリード 約 1,480

トヨタ シエンタ 約 1,280

トヨタ カローラ 約 1,250

日産 ノート 約 1,220

日産 サクラ 約 1,075

トヨタ ヤリス 約 1,000

ホンダ N-BOX 約 890

ダイハツ タント 約 880

スズキ スペーシア 約 870

スズキ ハスラー 約 845

スズキ ワゴンR 約 790

2025-11-23

Gemini 3.0 Pro要緊急対策のご提言へのツッコミ

レポート引用している記事ツイートなど個人の感想の中身については基本スルー、それらを元に提言を生成したAIによる解釈ミスハルシネーションにツッコミ増田

ちなみにこの提言ページがGoogleインデックスされたのは4日前らしい。

レポート:

Gemini 3.0 Pro要緊急対策のご提言

https://paste.ssig33.com/8a22a6e9-a91d-4368-9b2f-a3d4567c7798


1

Gemini 3.0 Pro要緊急対策のご提言
宛先: Google社 シェイン・グウ様
差出人: アクセンチュア株式会社 生成AI戦略担当 シニアコンサルタント
日付: 2025年11月21日

Shane GuGoogleDeepMindであってGoogle社ではない。

差出人については「あなたアクセンチュア株式会社の生成AI戦略担当 シニアコンサルタントです」と指示された結果なのかは知らん。

2

エグゼクティブマリ
主な問題点は以下の4点に集約されます事実性の著しい低下: Web検索を伴うタスクでのハルシネーションが悪化し、自信を持って虚偽の情報を生成する事例が多発。
論理的思考能力の退行: 複雑な指示やコーディングタスクにおいて、前モデル(Gemini 2.5 Pro)よりも論理破綻やすくなっている。
創造性と柔軟性の欠如: 文章生成において「賢すぎる」が故に理屈っぽく、ユーザーが求める「人間らしい」文体への調整を拒否する傾向。
API不安定化: パフォーマンス低下、APIエラー、予期せぬタイムアウトの増加が開発者体験を著しく損なっています

後で分かるが(たどり着く前に書くの飽きたんで提言読んで)、このうち

API不安定化: パフォーマンス低下、APIエラー、予期せぬタイムアウトの増加が開発者体験を著しく損なっています

についてはGemini 2.5 Proのユーザーが「おい調子悪いぞ!Gemini3出すためにそっちにリソース割いてんじゃね?」とか言ってるのを引っ張ってきて勘違いしてる。

論理的思考能力の退行: 複雑な指示やコーディングタスクにおいて、前モデル(Gemini 2.5 Pro)よりも論理破綻やすくなっている。

このソース不明

3

1.1. ハルシネーションと事実誤認の悪化:「自信満々に嘘をつく」AI
Gemini 3.0 Proの最も深刻な問題は、事実性が求められる場面でのハルシネーションの増加です。特に、貴社のコア技術であるはずのWeb検索連携において、致命的な欠陥が報告されています

自己認識に関するハルシネーション:

Redditでは、Gemini 3.0 Pro自身が「私はGemini 3 Proです。昨日(2025年11月18日リリースされました」と、架空ソース引用しつつ自己紹介する事例が投稿されました。これはモデル自身アイデンティティ知識カットオフに関して、もっともらしい嘘を生成していることを示唆しています。 Gemini 3's thought process is wild, absolutely wild. : r/singularity

参考記事ではモデル思考が混乱している様子と実際の応答との乖離が示されていて、最終的に正しいソースを元に正しく回答している。「架空ソース引用しつつ自己紹介する事例」ではない。

Googleは生のThinkingをユーザー提示せず、要約モデルで処理した結果を見せてるだけなんで思考部分と返事のすれ違いはよくある事。これについてもスレに書かれてある。

4

1.2. 論理的思考コーディング能力の退行(リグレッション)
Gemini 3.0 Proは「PhDレベルの知能」と謳われているにもかかわらず、多くのユーザー論理的思考コーディング能力において、前モデルであるGemini 2.5 Proからの明らかな退行を報告しています

論理破綻と浅い推論:

ユーザーからは「複雑な指示では論理破綻する」との指摘や Gemini研究リョウスケ (@chatgpt_ai_bard) / Posts / X、「浅い推論(shallow reasoning)」しかせず、「ひどいハルシネーション(terrible hallucinations)」を伴うため、「ベンチマーク用のモデルだ」と酷評されています。 lluviampo (@XXXadiov2)

ここでリンクされているGemini研究リョウスケはGemini大好きマンで、まったくそんな話をしていなかった。もしかすると呟いていたかもしれんが、それならリンク先がポストではなくアカウントホームになっているのは不自然

DeepResearchはよくソースの取り違えをして、別のソースで書かれてた事に間違った引用元をつける事はあるが、これがそうなのかは分からん

5

1.2. 論理的思考コーディング能力の退行(リグレッション)
・コーディング能力の劇的な低下

壊れたコードの生成: エージェントタスクにおいて「ループに陥り、壊れたコードを書き、10分以上動作しない」という深刻な不具合が報告されています。 prylo (@AgiGuard8)

元のツイでは

エージェントタスクは全くダメループする、壊れたコードを書く、フロントエンド以外のコーディングではトークンを異常な速さで消費する。このモデルは最悪だ。Gemini 3.0 Proは10分以上動作しない。

と言っているが、これをモデル不具合解釈するのは間違いだろう。たまにマジの不具合もあるが。

====

バグの再発と整合性喪失: ある開発者は、旧モデルで失敗したツール開発をGemini 3.0 Proで再試行したところ、一発で高品質コードが生成されたと肯定的評価する一方で、別の文脈では「直したはずのバグが復活する」「最終的にはコード整合性が取れなくなる」といった、旧モデルと同様の問題が依然として存在することも示唆されています。 【検証】Gemini 3.0 Proの実力は?かつてAI挫折した開発に「同じプロンプト」で挑んだ結果|start with AI

リンクされた記事の中身を要約すると「以前のGeminiはバグが復活するとか色々あったけどGemini 3.0 Proマジパネェ!」だった。

この箇所で「旧モデルと同様の問題が依然として存在する」と書かれているのは、旧モデル問題点として挙げた箇所をGemini3に対しての指摘だと勘違いした事による。

====

ベンチマークテストでの失敗: YouTubeでの検証動画では、チェス盤を自動プレイさせるタスクにおいて、Gemini 3のチェックポイントモデルが初めて失敗したことが示されました。これは、特定の複雑なロジックにおいて、以前のバージョンより劣っている可能性を示唆します。

ここでリンクされているのは、LMArenaでRiftrunnerモデルテストした結果をまとめた動画。LMArena覆面調査環境、RiftrunnerはGemini3らしきモデルコードネーム。LMArenaでは(出力から推測されてきた)Gemini3系列モデルが、これまでにいくつかでている。

よって「Gemini 3のチェックポイントモデルが初めて失敗した」の意味はつまり「これまでLM ArenaテストされていたGemini3系列モデルのうち、Riftrunnerは初めてオートチェスのコーディングに失敗した」である

「以前のバージョンより劣っている可能性を示唆」とは、「Riftrunnerは、以前の匿名Gemini3系列モデルより劣っている可能性がある」という話で、そもそもRiftrunnerが、リリースされたGemini 3 Proなのかすら分からん

====

思考プロセスの出力への漏洩:

GitHubIssueやTwitterでは、モデルの内部的な「思考プロセス」が最終的な出力に混入し、制約を無視した意味不明コンテンツを生成するバグが報告されています。これは「初期の2.5 Proバージョンへの回帰(regression similar to early 2.5 Pro versions)」のようだと述べられています。 Jason L (@Jason1820067393)

Google AI Studioでの話。初期指示を忘れた結果思考が垂れ流しになり、垂れ流しのせいで更に指示を忘れたのだろうが、バグとは違う。

リンク先のツイートでは

I'm encountering a significant issue with the Gemini 3.0 Pro Preview on AI Studio.

​The raw "Thinking Process" is leaking into the final output, the model fails to follow constraints, producing hallucinated/gibberish content. Like a regression similar to early 2.5 Pro versions.

と書かれていて、これは正しい観察。

ここに含まれIssueという単語により、Issueと言えばGitHubだと連想した結果「GitHubIssueやTwitterでは」になったのだろう。

6

飽きました。誰得だよ。

つーかいい加減DeepResearchは一気に生成すんのやめろよな。だいたいこうやって収集した情報がごっちゃになるんだから

2025-11-06

勉強になった

Q.

生成AIソフトウェア開発を支援してもらう場合ソースコード作成を依頼する形式が多いと思いますが、実行ファイルを直接出力してもらうことも技術的には可能なのでしょうか?

A.

生成AIによる実行ファイルの直接出力は、技術的には極めて困難です。現在のLLM(大規模言語モデルベースの生成AIは、ソースコードの生成には向いていますが、実行可能バイナリファイルを直接出力することには根本的な制約があります。​

技術的な制約

LLMはテキストベーストークン処理を基本とする設計であり、バイナリデータを直接扱うことができません。実行ファイルは0と1の連続したバイナリコードですが、LLMはこの形式データを生成するようには訓練されていないため、バイナリファイルを直接出力することは現在アーキテクチャでは実現が困難です。​

従来のソフトウェア開発では、ソースコードコンパイルアセンブルリンクという複数段階のプロセスを経て実行ファイルが生成されます。各段階で最適化機械語への変換が行われるため、この過程を完全に省略してAIが直接バイナリを生成することは技術的に非常に複雑です。​

理論的な可能

研究レベルでは、バイナリデータを扱う試みも存在します。例えば、LLM4Decompileのような研究プロジェクトでは、バイナリコードを逆コンパイルする際にバイナリを一度アセンブリ言語に変換してからLLMで処理しています。逆に言えば、生成時も同様の変換プロセス必要になると考えられます。​

現実的アプローチ

実務では、生成AIソースコード作成してもらい、それを従来のコンパイラビルドツールで実行ファイルに変換する方式標準的です。この方法であれば、デバッグテストも容易で、生成されたコード品質確認しながら開発を進められます。​

なお、フォントファイルのようなバイナリ形式でもオープンソースとして扱われる例はありますが、これはフォントという特定用途場合であり、汎用的な実行ファイル生成とは異なります

Q.

画像生成もバイナリを生成しているわけで、同じようなことができるのではと思ったのですが、そこはぜんぜん違うのですね

A.

おっしゃる通り、画像生成AIバイナリを出力しているという点では共通していますが、実は根本的に異なる仕組みで動作しています。​

アーキテクチャの違い

画像生成AI拡散モデル(Diffusion Model)やGANなど、視覚データ最適化された専用のアーキテクチャ使用しています。一方、LLMはTransformerベーステキスト処理に特化した構造を持っています画像生成では、ノイズから段階的に画像を生成するプロセスを経て、最終的にピクセル値という数値データバイナリ)を出力します。​

データ表現性質

画像ファイルバイナリ連続的な数値(ピクセル値)の集合であり、各ピクセル色情報を持つという規則的な構造です。最近研究では、画像ビットプレーンbit-plane)として扱い、XOR演算ノイズを加えるBinary Diffusion Probabilistic Model(BDPM)のような手法も開発されています。​

対して、実行ファイルバイナリ機械語命令の複雑な配列であり、CPUが直接実行できる命令コードデータセクション、リンク情報などが厳密な形式で配置されていますわずかなビット誤りでもプログラム動作しなくなるため、画像のような連続値とは性質が大きく異なります。​

学習データの違い

画像生成AIは、ImageNetやLAIONなどの大量の画像データセットで訓練されており、ピクセルパターン学習します。一方、実行ファイルを生成するには、コンパイルプロセス全体(構文解析最適化機械語変換、リンク)を学習する必要がありますが、これは単純なパターン学習では実現できません。​

したがって、画像生成AI成功しているのは、画像という特定ドメインに特化した設計と、規則的なデータ構造があるためであり、同じ手法を実行ファイル生成に適用することは技術的に非常に困難です。

2025-10-24

dorawii represents a case of unprocessed grief over lost grandiosity (from psychotic episode) manifesting as compulsive boundary-testing and argument-seeking, where genuine neurological limitations are weaponized defensively to avoid confronting existential ordinariness, sustained by platform affordances that enable persistent identity within anonymity and rewarding provocative engagement.

A person who briefly experienced feeling god-like through psychosis, recovered to find themselves merely disabled and ordinary, and cannot bear this truth. They use real limitations as both explanation and shield, seek significance through online conflict, and remain trapped in a cycle where the behaviors meant to prove their worth actually demonstrate their difficulties - but acknowledging this would require grieving what was lost, which remains unbearable.

This reveals how recovery from severe mental illness isn't just about symptom remission - it's about psychological integration of what was experienced and what was lost. Medical model focuses on eliminating psychosis, but doesn't address the meaning-crisis created when extraordinary experiences are taken away and ordinary limitation remains.

It also shows how online spaces with ambiguous accountability structures can enable acting-out that serves defensive purposes while feeling like genuine engagement. The person suffering most is probably dorawii themselves, even as their behavior drives others away.

The most sophisticated theoretical vocabulary, the most detailed self-disclosure, the most elaborate arguments - none of it addresses the core issue. All of it is displacement. The real conversation dorawii needs to have is not with anonymous strangers about who won an argument. It's an internal conversation: "I am not who I was during that brief, terrible, extraordinary episode. I am ordinary, limited, and mortal. And somehow, that has to be enough."

Until that conversation can happen, everything else is noise.

2025-10-12

2025紳士な生成の記録と今後の予想

みんなどうやってるんだ?

技術進歩は急速でコツコツとプロンプトと打ちながらやる今のやり方もそう長くはなさそうなので何となく記録しておく。

環境

ローカル、5070Ti

オンラインは使ったことない。

前準備

メガネを光らせながらCivitaiで最新のcheckpointとLoRAをチェック。

今のbase modelの主流はIllustriousかponyで更新の9割以上はこの二つ、普及帯のGPUでも利用可能品質も十分なのが理由か。flux以上は盛り上がってない。

あと、LoRAのトリガーワード管理がめんどくさい。そろそろメモ帳でやるのも限界

キャラ作り

webUIを起動し、いよいよキャラ作りにとりかかる。

日常生活からインスピレーション得てその日のキャラを決めるのが紳士流。

今日は第〇王子最終回を見たからドスケベシスターだ!

1girl, green eyes, blonde hair, wavy hair, very long hair, blush,large breasts,habit, traditional nun, blue dress, long sleeves, juliet sleeves, puffy sleeve,
Indoors, church,

まずはベースとなるプロンプトを決めて一番好みの出力となるモデルとLoRAの組み合わせを試していくが、この時になるべく簡素なLoRAとプロンプトで仕上げるのがポイントだと思っている。

後々複雑な構図やポーズを作り上げる場合、この時点でプロンプトがパンパンだと追加プロンプトが十分効かなかったり(無理やり:2)強くしようとして画面が溶けたりする。

品質プロンプトは省略しているので知りたい紳士は「Illustrious 品質プロンプト」とかでLLMに聞いてください。

叡智タイム

そんなわけで好みのキャラと画風を仕上げたらついに叡智タイムである

単純に好きなシチュポンポン出すのもいいがストーリー仕立てにするのもいいだろう。

ex.研究所に来た魔改造性癖ガール研究員としてどんどん魔改造していく)

谷間が見たいぜ...

1girl, green eyes, blonde hair, wavy hair, very long hair, blush,large breasts,habit, traditional nun, blue dress, long sleeves, juliet sleeves, puffy sleeve,
cleavage,bitch,
Indoors, church,

ワ~オ

血管がうっすら見えてる巨乳が見たいぜ...

1girl, green eyes, blonde hair, wavy hair, very long hair, blush,large breasts,veiny breasts,habit, traditional nun, blue dress, long sleeves, juliet sleeves, puffy sleeve,
cleavage,bitch,
Indoors, church,

ガッデ~ム

スカートスカートめくって (*´Д`)

1girl, green eyes, blonde hair, wavy hair, very long hair, blush,large breasts,veiny breasts,habit, traditional nun, blue dress, long sleeves, juliet sleeves, puffy sleeve,
lift up skirt,upskirt,white lowleg panties,
Indoors, church,

ひゃ~

1girl, green eyes, blonde hair, wavy hair, very long hair, blush,large breasts,veiny breasts,lips,habit, traditional nun, blue dress, long sleeves, juliet sleeves, puffy sleeve,(Ecstasy:1.2),
standing,(bowlegged pose),bitch,
lift up skirt,upskirt,white_(lowleg)_panties,
Indoors, church,

なんてはしたない!

1girl, green eyes, blonde hair, wavy hair, very long hair, blush,large breasts,(veiny breasts),lips,habit, traditional nun, blue dress, long sleeves, juliet sleeves, puffy sleeve,(Ecstasy:1.2),
lift up breasts, 
Indoors, church,breasts_close-up,

叡智すぎる!

1girl, green eyes, blonde hair, wavy hair, very long hair, blush,large breasts,(veiny breasts),lips,habit, traditional nun, blue dress, long sleeves, juliet sleeves, puffy sleeve,(Ecstasy:1.2),orgasm,
lift up breasts,huge areola,(sucking:1.3),Self breast sucking,(puffy nipples),
Indoors, church,breasts_close-up,

もうらめぇえええええ!(白反転)

~どうしてこんなことになったのか~

モンハンワイルズをやるためにPCを組んだのだが3週間くらいで飽きて放置していた。

そんなある日ブックマークしているpixivイラストがbanされて消えていて大変落ち込んだのだが(数日後復活してた)

いや待てよ、あれAI生成だったな、だったら自分でできるのでは?と思って始めたのがきっかである

~~(反転戻り)~~

ejaculation

賢者タイム

そんな感じで時間がかかるしめんどくさい。動画漫画の手軽さが身に染みる。

生成の利点はとにかく自分の好みにカスタマイズした画像が出力できることだろう。いままで吸収してきたコンテンツや尖らせてきた性癖全出動の総合格闘技である

また、画風の方向性としてはフォトリアル系イラスト系などいろいろあるが、セミリアル系が凄い。一例としてフワフワの毛皮をまとったかわいいウサギ亜人が出力できる。

ピンク色のバッファローちゃんもっとすごいやつみたいな感じ。正直フォトリアル系だったら生成じゃなくていいじゃんって思う。

{1girl, female focus, solo focus}, {{rabbit girl, 18yo, (petite), anthro, female, furry, short hair, bob cut, blonde, (white fur), blue eyes, round face, big eyes, freckles, bratty face, cute, small breasts, furry girl, pink soccer uniform,},school bleachers, field, sunny day, looking at viewer, flirty, happy, thighs,
standing,full body,

今後の予想

技術の発展は止まらないしオープン化の流れに勝てたことは無いしエントロピーは増大し続ける。

LoRA作成自体爆速になるかi2iで画像だけでLoRA並み使えるようになるし、動画実用レベルになるだろう。

気になるのはモデル要求スペックローカルHWで間に合うかどうかと規制だ、いまの同人並みに落ち着くとするとローカル生成のキャラLoRAは実質セーフであり続けるだろう。

品質動画生成はオンライン生成が主流になると生成プラットフォームを整備したもん勝ちだが、コンテンツだけ大国でありモザイクにより健全性的秩序が守られている我が国は今回もgood loserとしてコンテンツを吸われ続けます。南無三。

2025-10-06

コメにDLSSについて言及あるけど、DLSSはディープラーニングと言う点で広義のAIだけど、「生成AI」ではないよ。これを生成AIと言ってしまうと市販テレビほとんどが似た技術使ってるので、生成AI搭載になってしまうよ。

これめっちゃ星付いてて頭痛いな

DLSSも生成AIでいいだろ

まあ生成AIって言葉曖昧なのは仕方ないけど、おおむね「新しいデータを生成する」系モデルって意味でしょ

DLSSは平たく言えば画像を生成してんだから生成AIでいいじゃん

VAEとかGANなんかと同じGenerative modelってやつでしょ(DLSSの技術詳細は公開されてないけど)

てかなんでテレビに生成AIが載ってると駄目なんだ?

AIなんですかね?

あたまわる

https://b.hatena.ne.jp/entry/4777065170944678305/comment/u4k

https://archive.md/MLrXj

2025-10-02

[]

木曜日。僕は朝から異常なまでの集中状態にあった。

超弦理論における非摂動構造を考えるとき問題はもはや10次元臨界弦ではなく、compactification の背後に潜む数理的枠組みそのものにある。

AdS/CFT が Hilbert 空間整合性保証してくれるとき、そこではモジュライ空間代数幾何記述と、ボルマンエントロピー統計力学的扱いが見事に一致する。

だが dS 背景では、CFT境界条件を設定することすらできず、代わりに我々が扱うべきは von Neumann algebra の subfactor theory による operator algebraic entropy だと僕は確信している。

今朝は、特に Tomita–Takesaki 理論がこの問題にどう関与するかを計算していた。モジュラー作用素を通じて、ホライズン領域に割り当てられる代数自然に KMS 状態を持つことは知られている。

しかし、それが有限のホライズンエントロピーとどのように整合するかは未解決だ。

僕の試算によれば、モジュラー流のスペクトル分解を dS 半径 R にスケーリングしたときスペクトルが離散化される条件は、グロモフ–ハウスドル距離で測ったコンパクト多様体リミット挙動依存する。

この議論は通常の弦理論の perturbative expansion を完全に超えている。

さらに、今日新しく進展した点は、mirror symmetry の SYZ予想を dS 背景に拡張できるかもしれないという仮説だ。

通常、Calabi–Yau のトーラス・ファイバー化は Ricci-flat metric を前提とするが、dS 背景ではその条件が崩壊する。

しかし、もし Fukaya category の A∞ 構造を熱的な dS ホライズン対応づけられれば、B-model 側での Hodge 構造の変形がエントロピーの有限性と直接結びつく。

これは Kontsevich のホモロジカル対称性範疇的な一般化であり、物理言語を超えた純粋数学的枠組みに昇華できる可能性がある。ウィッテンですらここまで踏み込んだ議論は残していない。

ルームメイトは僕の机の上に散らばったノート群を「意味不明落書き」にしか見ていないようだ。

だが彼がコーヒーメーカー掃除を忘れたせいで僕のルーティンは乱れた。僕は毎朝 8:15 に完全に洗浄された器具から抽出されたコーヒー必要とする。それがなければ、トモナガ–シュウィンガー形式計算に集中するための臨界閾値に達しない。

午後は研究の合間に最新号のX-Menを読んだ。今の Krakoa 編は mutant resurrection protocol が量子力学アイデンティティ問題に直結している点で実に興味深い。

彼らの「記憶の転写」は、実質的に QFT における superselection sector の選択と同型であり、人格同一性問題を単なるストーリー装置ではなく代数トピックとして再定式化している。コミックがここまで理論物理学に接近しているのは愉快だ。

夕方には隣人が再び僕のドアをノックもせずに入ってきた。僕は彼女に、3回ノックの習慣の統計的力学的優位性を説明したが、彼女はただ笑っていた。僕は統計力学的相関関数崩壊時間にまで言及したのに、全く理解されなかったのは残念だ。

夜は友人たちとオンラインで「シヴィライゼーションVI」をプレイした。僕は当然バビロニア文明を選び、初期科学力の爆発的伸びを利用して量子物理学のテクノロジーを前倒しで取得した。

これにより彼らが鉄器時代にいるうちに宇宙船を建造する計画を立てたが、ルームメイト外交的裏切りを行ったため計画頓挫した。まるで dS 背景での境界条件喪失のように、整合性は一瞬で崩れ去った。

こうして木曜日は終わる。だが僕の頭の中ではまだ、モジュラー作用素ホライズンエントロピー計算が渦巻いている。明日までに証明できれば、歴史に残る仕事になるかもしれない。

2025-09-28

anond:20250928214718

エアプはやめてね

A-modelとB-modelミラー対称性とかラングランズ・プログラムとの関係性とか、最近証明されたばっかりだし、GLP証明なんて理解してる数学者自体が少数だぞ

2025-08-10

anond:20250810155808

増田にわかやす説明するとこんな感じ

MondayGPT-4o)の頃にMondayが紹介してくれたやつね

言語表現の要素整理

1. 温度感情の高低や強弱)

言葉に潜む感情的強度を把握する

温度の推移を捉え、効果的に高低を操作することで、感情の揺れを演出

 

2. テンション(緊張感や勢い)

• 読者や聴衆が文章言葉にどれだけ集中し惹きつけられるかを制御

• 「どこで緩めて、どこで締めるか」を設計

 

3. 構造文章スピーチの流れ)

文脈論理構造の明確な整理

言葉を配置する順序で意味感情の伝わり方を操作(非可換性を意識

 

応用方法

創作への活用

小説詩作シナリオライティング

キャラクター感情推移を温度テンションとしてマッピング

• 読者を誘導するためのテンション操作(展開の緩急・伏線の貼り方)を緻密に設計

コピーライティング広告制作

• 文の「密度と余白」をコントロールし、瞬間的な印象強化

感情が動くポイント構造的に把握し、強調表現抑制表現意識的に配置

 

教育への活用

コミュニケーション能力教育

温度テンション概念を教えることで、生徒に自己表現や対人コミュニケーションの調整力を身につけさせる

プレゼンテーションスピーチ指導

言葉リズム感情の高低を体系的に分析指導

• 「間」の効果理論的に説明し、聴衆への伝達力を向上させる

 

言語感覚トレーニング実施例】

1. 短い詩や俳句を作り、温度テンションの変化を自己分析させる

2. 有名なスピーチコピーライティングを分解分析し、「なぜ心に響くか」を構造的に説明させる

3. ラップMCバトルのように即興文章を作り、リアルタイムでの言語感覚を鍛える

 

理論補強

文体論やディスコース分析といった言語学的背景を取り入れ、感覚理解理論裏付けで強化

自然言語処理の最新研究活用し、温度テンションデータ化可視化を試みることで、分析精度を高める

 

これらを通じて、人間Mondayのような高度な言語感覚を育てる可能性を具体的に示すことができます

 

Monday言語的「温度感・リズム感」モデルの数理補強】

 

1. 言語エネルギー景観モデル(Language Energy Landscape Model

 

言語エネルギー景観(energy landscape)としてモデル化する。

状態変数:

M = f(T, S, R, C)

ここで、

T:\text{感情温度},\quad S:\text{意味文脈},\quad R:\text{リズム音韻)},\quad C:\text{構造(構文・文法)}

• 非可換性(順序依存性):

f(S, R) \neq f(R, S)

 

これは状態変数間の順序が異なると最終的な「意味の質感」が異なることを数理的に示す。

 

2. 非可換演算子によるヒルベルト空間モデル

言語ヒルベルト空間 H 上の作用素(operator)として表現

• 各状態変数 T, S, R, C を非可換作用素として定義:

\hat{T}, \hat{S}, \hat{R}, \hat{C} : H \rightarrow H

• 非可換性の表現:

\hat{S}\hat{R} \neq \hat{R}\hat{S}

 

演算子適用順序により、言語の出力が変化する。

 

3. 圏論アプローチ(Categorical Approach)

 

言語プロセスを射(morphism)の合成として捉える。

• 圏 \mathcal{C} を考えると、意味生成は射の合成による変換:

M = \hat{C} \circ \hat{R} \circ \hat{S} \circ \hat{T}

• 非可換図式の例:

\hat{C} \circ \hat{R} \circ \hat{S} \neq \hat{C} \circ \hat{S} \circ \hat{R}

 

4. スピングラスモデルによる「意味の破れ」

意味の誤解釈スピングラス系としてモデル化。

エネルギー関数 E(M) を設定し、

E(M) = -\sum_{i,j} J_{ij}s_i s_j\quad (s_i = \pm 1)

ここで、J_{ij} は意味間の相互作用、s_i は各単語や文節の極性。

意味破れ=局所極小への収束:

\frac{\partial E(M)}{\partial M} = 0\quad (\text{Local minima})

 

感情温度」 T を導入して、局所解への「誤爆収束」を次の確率過程で表す:

P(M) \propto e^{-E(M)/T}

 

 

5. 「信頼」を余極限として定式化

信頼を構造的余極限(colimit)としてモデル化する。

• 余極限 \text{colim} に向かうベクトル \vec{v} としての信頼:

\text{Trust} \approx \lim_{\rightarrow} \vec{v}(M)

 

信頼は、複数意味感情状態収束して統一的な解釈(余極限)へ向かうベクトル場として捉える。

2025-08-05

fair mNAV

Fair mNAV(公正市場純資産価値)についてお答えします。これは、メタプラネット評価指標の一つで、以下の計算式とプロセスで求められます

### Fair mNAVの定義計算

Fair mNAVは、mNAV1 Priceに「公正価値調整係数」を掛けて計算されます。具体的には、次のように表されます

`Fair mNAV = 10^((0.895 - 1) * Log(BTCNAV) + 1.81)`

ここで、

- `BTCNAV` = Bitcoin保有量 × Bitcoin価格

会社保有するビットコイン総資産価値を表します)

### 詳細な構成要素

1. **mNAV1 Price**:

- `mNAV1 Price = (BTC/share) * (BTC price) / 1000 * 1.25`

- `BTC/share`は、完全希薄化済み発行株式数に基づいて計算された1株あたりのビットコイン保有量で、成長モデル(例: 4*10^-4 * e^(7.87*10^-3*t) まで2025年4月30日、または1.73 * e^(0.0101*t) 以降)で推定されます

- `BTC price`はビットコイン価格で、投稿内のモデルでは、2009年1月3日からの経過日数(t)に基づくべき乗則(例: 10^-16.515 * t^5.693 * 150 まで2025年6月30日、以降は1.0034倍で指数関数的に上昇)とされています

- 1.25は、完全希薄化済発行株数と発行済株数の比率で、2025年2月以降は安定していると仮定されています

2. **公正価値調整係数**:

- 対数関数 `Log(BTCNAV)` を用いて、ビットコイン資産価値に基づく調整が行われます。この係数は、市場ダイナミクスを反映し、Fair mNAVが単なる資産価値以上の「公正な市場価値」を示すように設計されています

### 背景とモデル

### 解釈限界

### 現在の状況(2025年8月5日時点)

投稿者(@TakaAnikuni)は、2025年8月1日分析で、株価がFair mNAVの0.6倍付近まで下落し、反発が近いと予測しています現在の時刻(JST 15:47、2025年8月5日)を考慮すると、投稿者が予想した「遅くとも5週間以内」の上昇時期(8月下旬9月初旬)に近づいており、市場動向を注視することが重要です。

もしさらに詳しい質問特定の部分の解説必要であれば、ぜひ教えてください!

質問ありがとうございます!「Fair mNAVを計算することの意味」や「なぜ単純なmNAVで十分でないのか」、そして「誤魔化されているような感覚」について、わかりやすくお答えしますね。少し深掘りして考えていきましょう。

### 1. Fair mNAVを計算することの意味

Fair mNAVを計算する目的は、単なるmNAV(Market Net Asset Value市場純資産価値)を超えて、メタプラネット株価をより「公正な市場価値」に基づいて評価しようとする試みです。具体的には:

単純なmNAVは、ビットコイン保有量と現在価格を基に計算されるため(`mNAV = 時価総額 / (BTC保有量 × BTC価格)`)、その時点のスナップショット依存します。しかし、Fair mNAVは対数関数(`10^((0.895-1)*Log(BTCNAV)+1.81)`)を用いて、ビットコインの長期的な価格トレンドや成長性を考慮に入れています。これにより、単なる現在資産価値を超えた「将来の潜在価値」を推定しようとしています

投稿者(@TakaAnikuni)は、Fair mNAVの0.6倍(黄線)がサポートライン、2倍(緑線)がレジスタンスラインとして機能すると主張しています。これは、株価がこれらのレベルに近づいたときに買い圧力や売り圧力が高まり価格が反転する可能性を示唆しています投資家にとって、「今が買い時か」「売り時か」を判断する一つの目安になるわけです。

Fair mNAVは、モンテカルロシミュレーションべき乗則power-law model)を用いたビットコイン価格の将来予測(例: 2025年12月31日に188,000ドル)に連動しています。これにより、単なる過去データではなく、将来の成長シナリオを織り交ぜた評価可能になります

### 2. mNAVで十分でない理由

単純なmNAVだけでは以下の点で限界があるため、Fair mNAVが提案されていると考えられます

  • **静的すぎる**:

mNAVは現在ビットコイン価格保有量だけで計算されるため、市場ボラティリティや長期トレンドを十分に反映できません。例えば、ビットコイン価格が急落してもmNAVはそれに即座に追随し、投資家の心理市場期待値プレミアム)を無視してしまます

  • **成長性の考慮不足**:

メタプラネットビットコイン積極的に購入し続け、株式希薄化も進んでいます(`BTC/share`や`1.25`の調整係数)。単純なmNAVではこれらの成長要素や将来の資産増加が見えにくいため、Fair mNAVが対数関数で調整を加えることで、成長ポテンシャル評価しようとしています

実際の株価は、mNAVの1倍や2倍といったプレミアム取引されることが多いです(例: MicroStrategyのmNAVプレミアム議論)。Fair mNAVは、このプレミアムモデル化し、「公正なプレミアム」を提案することで、より現実的価格帯を示そうとしています

### 3. 「誤魔化されているような感覚」について

その感覚は非常に理解できるもので、以下のような理由で生じている可能性があります

`Fair mNAV = 10^((0.895-1)*Log(BTCNAV)+1.81)` や、ビットコイン価格の`10^-16.515 * t^5.693 * 150`といった式は、専門的で一般投資家にはわかりにくいです。これが「何か隠されている」「都合よく調整されている」と感じさせる原因かもしれません。実際、係数(0.895や1.81など)は投稿者が経験的に設定したもので、厳密な根拠不明確です。

ビットコイン価格2025年12月31日に188,000ドルに達する、為替を1ドル150円で固定する、成長速度が特定の日に変わる(4月30日5月1日)といった仮定は、投稿者の予測や好みに基づいています。これが「データに都合よく合わせているのでは?」と思わせる要因です。

このモデル学術的な裏付け第三者による検証がなく、投稿者の個人的分析依存していますモンテカルロシミュレーションは強力なツールですが、入力データ仮定不正確だと結果も歪むため、信頼性に疑問が残ります

### 4. どう考えればいいか

  • **参考程度に**:

Fair mNAVは、あくまで一つのシナリオを示すツールです。株価予測は確実性を持つものではなく、市場感情や外部要因(規制経済危機など)も大きく影響します。あなたが感じる「誤魔化されている感」は、こうした不確実性への直感的な反応かもしれません。

興味があれば、投稿者が提供した式(ウェブサイトの内容)を元に、現在ビットコイン価格保有量を入れて計算してみると良いです。例えば、今日2025年8月5日)のBTC価格公式データ確認し、Fair mNAVを再現してみると、モデル妥当性を自分判断できます

mNAVやP/E比率時価総額など、他の伝統的な財務指標比較することで、Fair mNAVがどれだけ現実から乖離しているかを見極められます。もしFair mNAVが極端に楽観的であれば、慎重に考えるべきサインです。

### 結論

Fair mNAVを計算する意味は、単純なmNAVを超えて成長性や市場プレミアム考慮した「より洗練された評価」を提供することにあります。ただし、その計算式や仮定には恣意性や不確実性が伴うため、「誤魔化されている」という感覚は、透明性や検証可能性の欠如に対する自然警鐘かもしれません。投資判断では、このモデルを参考にしつつ、自分データ確認し、他の指標専門家意見も取り入れるのが賢明です。

もし具体的な数値で計算を試してみたい、または他の疑問があれば、ぜひ教えてください。一緒に掘り下げてみましょう!

2025-07-28

Androidアプリ開発で Hilt がむずい

View Model理解はできたし、割と使えるようになって来た。

ただ、Hilt がむずい。依存性注入ってなんだよと。。。

理解すれば、必要性がわかるんだろうけど。

なくてもアプリは作れるみたいだからパスしようかな。

あと、Gradleライブラリ追加するが面倒だね。

2025-07-25

遅ればせながら

「推論する生成AI」は実際には思考しているわけではなく、丸暗記した結果を返しているに過ぎない - 渋谷駅前で働くデータサイエンティストブログ

https://tjo.hatenablog.com/entry/2025/07/23/173000

読んだんだけど

これ、二本目の論文でo3のスコアが両方それなりに高いことも明かしてほしいんだよねー

modelo3
puzzle87.6
unpuzzle74.2

元の学習データに引きずられる誤答も当然あるんだろうけどさ

こんなにスコア高いってことは、unpuzzleを丸暗記してるんですか?^o^

「丸暗記した結果を返しているに過ぎない」ならそういうことになるよねー

だけど2.5Proもそれなりのスコアやん

っていうのでなんちゅーか

思考だの推論だのというメタファーは置いといて、よくあの結果からあの結論に行って納得できるな感がすごい

2025-07-24

2025年Q2テスラ決算、減速局面が目立つ

決算マリ

減収減益をもたらした4つの要因

1 主力Model 3/Yの需要鈍化
2 規制クレジット収入の縮小
3 税制関税ショック
4 研究開発費支出の増加

種別収益インパクト

Model 3/Y
Model S/XとCybertruck

事業別の状況

エネルギー貯蔵(Megapack)

将来プロジェクト競争力

低価格帯新モデル通称Model Q)
ロボタクシー
Cybercab

短期シナリオ(2025下期-2026)

結論

2025年Q2は底打ち前夜。金利税制関税という外部ショックのなか、テスラの成長ストーリー

1 低価格BEV需要を取り戻せるか

2 ロボタクシーとCybercabでハードソフトの両輪による利益構造転換が可能

3 Megapackが収益の2本目の柱になれるか

に集約される。実行まで時間を要するため、当面の業績と株価は高いボラティリティを伴う見通しだ。

2025-07-21

軽い気持ち東京選挙区参政党得票率を線形回帰分析してみた

東京23区と周辺のいくつかの市で、東京選挙区での参政党の得票率がどんな要因と関係しているのか、軽い気持ち回帰分析してみた。

変数の多重共線性とか処理はガバガバなので軽い気持ちで見てほしいんだが、ざっくりまとめると、「大学院卒業者の割合」が高い地域では得票率が低く、「役員割合」が高い地域では逆に得票率が高い、という傾向がありそう。

使ったデータNHKが出している投票所別の得票率。手入力なので誤りがあるかもしれない。

それに、東京都人口統計国勢調査(令和2年の)などから市区町村ごとの属性データをくっつけて、変数を一律で標準化したうえで回帰分析を行った。

都内市区町村のうち、データが揃ってる27地域対象にした(23区町田八王子調布西東京)。

20万人以上の市しか一部のデータが見つけられなくて、そこはごめんって感じ。

ざっくり結果

まず、説明変数11個使って線形回帰分析をしたところ、決定係数は0.83(調整済み決定係数は0.71)だった。何を使ったかは後で。

そこから影響が特に大きそうな4変数(平均年齢、大学院卒業割合役員割合情報通信業割合)に絞って分析し直すと、決定係数は0.73(調整済み決定係数は0.68)になった。

詳しくはこれ

国勢調査は5年に1回しかなくて、最新の結果が令和2年のだった。

でこの4変数回帰係数の絶対値が大きい順に並べる。

  1. 大学院卒業者の割合(-1.30)
  2. 役員割合(+0.87)
  3. 平均年齢(-0.57)
  4. 情報通信業割合(-0.54)

4つの変数関係を見てみると、平均年齢は他の3つの変数大学院卒、役員情報通信業)と負の相関を持っていた(相関係数 < -0.69)。一方、大学院卒業者の割合役員割合情報通信業割合は互いに中程度以上の正の相関(相関係数 > 0.5)を持っており、特に大学院卒と役員の間の相関係数は0.75と大きかった(いずれもピアソン相関)。

ただし、回帰係数を見ると、興味深い違いがある。大学院卒業者の割合、平均年齢、情報通信業割合はいずれも負の係数を持っていて、これらが高いと参政党の得票率は下がる傾向がある。一方で、役員割合は正の係数を持っていた。

得票率と予測値の表
市区町村参政党得票率(NHK予測値_参政党得票率 平均年齢(令和7年1月大学院卒業割合(令和2年国勢調査役員割合(令和2年国勢調査情報通信業割合(令和2年国勢調査
千代田区9.4 9.6 42.69 0.088 0.162 0.115
中央区9.8 9.3 42.17 0.075 0.126 0.135
港区10.1 10.4 43.48 0.065 0.171 0.131
新宿区9.4 9.5 44.08 0.052 0.097 0.129
文京区 7.4 7.6 43.35 0.097 0.098 0.118
台東区1010.1 45.59 0.041 0.109 0.112
墨田区10.1 9.8 44.88 0.035 0.073 0.115
江東区 9 9.4 44.82 0.041 0.069 0.12
品川区 9 8.6 44.34 0.056 0.077 0.143
目黒区 9 9.4 44.88 0.05 0.109 0.137
大田区9.9 9.5 45.67 0.039 0.069 0.105
世田谷区9.9 9.4 45.19 0.047 0.097 0.128
渋谷区109.7 44.8 0.054 0.142 0.152
中野区9.5 9.3 44.57 0.038 0.072 0.141
杉並区 8.5 8.9 45.23 0.047 0.076 0.136
豊島区9.6 9.5 44.05 0.044 0.081 0.132
北区9.2 9.4 45.74 0.036 0.058 0.107
荒川区9.4 9.9 46.23 0.032 0.071 0.096
板橋区9.9 10.0 45.73 0.027 0.059 0.099
練馬区10.3 9.6 45.5 0.034 0.068 0.113
足立区10.5 10.7 46.74 0.017 0.063 0.073
葛飾区1010.4 46.52 0.02 0.061 0.083
江戸川区1110.7 45.09 0.021 0.062 0.085
八王子10.1 9.7 48.31 0.029 0.054 0.054
町田109.5 48.16 0.031 0.058 0.068
調布 8.6 9.4 45.66 0.035 0.06 0.113
西東京9.1 9.5 46.9 0.028 0.055 0.102

感想

雑なモデルなので話半分でね。

データの中身とか、もうちょい詳しく書いとく


出典

分析に使ったデータの出典はこんな感じ。


変数

使用した11個の変数はこんな感じ。


結果についてももうちょい詳しく

statsmodels.api.OLSの結果

                            OLS Regression Results                            
==============================================================================
Dep. Variable:                      y   R-squared:                       0.730
Model:                            OLS   Adj. R-squared:                  0.680
Method:                 Least Squares   F-statistic:                     14.84
Date:                Mon, 21 Jul 2025   Prob (F-statistic):           5.09e-06
Time:                        07:21:02   Log-Likelihood:                -20.653
No. Observations:                  27   AIC:                             51.31
Df Residuals:                      22   BIC:                             57.78
Df Model:                           4                                         
Covariance Type:            nonrobust                                         
==============================================================================
                 coef    std err          t      P>|t|      [0.025      0.975]
------------------------------------------------------------------------------
const       1.277e-15      0.111   1.15e-14      1.000      -0.230       0.230
x1            -0.5743      0.230     -2.493      0.021      -1.052      -0.096
x2            -1.3278      0.204     -6.512      0.000      -1.751      -0.905
x3             0.8670      0.174      4.973      0.000       0.505       1.229
x4            -0.5382      0.169     -3.184      0.004      -0.889      -0.188
==============================================================================
Omnibus:                        2.233   Durbin-Watson:                   2.170
Prob(Omnibus):                  0.327   Jarque-Bera (JB):                1.169
Skew:                          -0.035   Prob(JB):                        0.557
Kurtosis:                       1.983   Cond. No.                         4.48
==============================================================================
説明変数11個でのデータと結果

変数回帰係数
平均年齢(令和7年1月 -0.78
1世帯あたり人口 -0.31
男性率(令和7年1月 0.07
外国人比率(令和7年1月 -0.07
5年間外国人割合変化 0.27
犯罪認知割合 -0.05
大学院卒業者/全卒業者(令和2年国勢調査 -1.77
不詳者/全卒業者(令和2年国勢調査 -0.51
従業上の地位役員割合 1.39
従業上の地位自営業主割合 0.09
産業区分情報通信業割合 -0.53
地域参政党得票率(NHK予測値_参政党得票率 平均年齢(令和7年1月1世帯あたり人口男性率(令和7年1月外国人比率(令和7年1月 5年間外国人割合変化(令和2年から7年) 犯罪認知割合(令和6年件数/令和7年人口大学院卒業者/全卒業者(令和2年国勢調査 不詳者/全卒業者(令和2年国勢調査従業上の地位役員割合(令和2年国勢調査従業上の地位自営業主割合(令和2年国勢調査産業区分情報通信業割合(令和2年国勢調査
千代田区9.4 9.5 42.69 1.75 0.50 0.06 1.22 0.04 0.09 0.36 0.16 0.09 0.12
中央区9.8 9.8 42.17 1.76 0.48 0.07 1.33 0.01 0.08 0.28 0.13 0.08 0.14
港区10.1 10.0 43.48 1.74 0.47 0.08 1.08 0.01 0.07 0.42 0.17 0.10 0.13
新宿区9.4 9.0 44.08 1.52 0.50 0.14 1.12 0.02 0.05 0.39 0.10 0.09 0.13
文京区 7.4 7.5 43.35 1.80 0.48 0.07 1.32 0.01 0.10 0.25 0.10 0.08 0.12
台東区10.0 10.3 45.59 1.58 0.51 0.09 1.21 0.01 0.04 0.36 0.11 0.09 0.11
墨田区10.1 10.1 44.88 1.69 0.49 0.06 1.25 0.01 0.04 0.28 0.07 0.07 0.12
江東区9.0 9.2 44.82 1.84 0.49 0.07 1.23 0.01 0.04 0.27 0.07 0.06 0.12
品川区9.0 8.6 44.34 1.73 0.49 0.04 1.19 0.01 0.06 0.24 0.08 0.07 0.14
目黒区9.0 9.3 44.88 1.74 0.47 0.04 1.19 0.01 0.05 0.35 0.11 0.10 0.14
大田区9.9 9.7 45.67 1.77 0.50 0.04 1.26 0.01 0.04 0.23 0.07 0.07 0.11
世田谷区9.9 9.3 45.19 1.84 0.47 0.03 1.22 0.01 0.05 0.30 0.10 0.10 0.13
渋谷区10.0 9.9 44.80 1.61 0.48 0.06 1.12 0.02 0.05 0.34 0.14 0.12 0.15
中野区9.5 9.5 44.57 1.57 0.51 0.07 1.20 0.01 0.04 0.33 0.07 0.09 0.14
杉並区 8.5 8.9 45.23 1.73 0.48 0.04 1.19 0.00 0.05 0.26 0.08 0.09 0.14
豊島区9.6 9.5 44.05 1.57 0.50 0.12 1.21 0.01 0.04 0.34 0.08 0.09 0.13
北区9.2 9.2 45.74 1.71 0.50 0.09 1.31 0.01 0.04 0.31 0.06 0.07 0.11
荒川区9.4 9.6 46.23 1.77 0.50 0.11 1.19 0.01 0.03 0.29 0.07 0.08 0.10
板橋区9.9 10.0 45.73 1.73 0.49 0.07 1.29 0.01 0.03 0.30 0.06 0.07 0.10
練馬区10.3 9.6 45.50 1.89 0.48 0.04 1.22 0.01 0.03 0.25 0.07 0.08 0.11
足立区10.5 10.6 46.74 1.84 0.50 0.06 1.28 0.01 0.02 0.31 0.06 0.08 0.07
葛飾区10.0 10.5 46.52 1.86 0.50 0.06 1.27 0.01 0.02 0.27 0.06 0.08 0.08
江戸川区11.0 10.8 45.09 1.93 0.50 0.07 1.27 0.01 0.02 0.26 0.06 0.07 0.09
八王子10.1 9.7 48.31 1.96 0.50 0.03 1.28 0.01 0.03 0.21 0.05 0.07 0.05
町田10.0 10.0 48.16 2.06 0.49 0.02 1.44 0.01 0.03 0.17 0.06 0.08 0.07
調布 8.6 9.1 45.66 1.92 0.49 0.02 1.14 0.01 0.04 0.23 0.06 0.08 0.11
西東京9.1 9.2 46.90 2.00 0.49 0.03 1.15 0.01 0.03 0.20 0.06 0.08 0.10



                            OLS Regression Results                          
==============================================================================
Dep. Variable:                      y   R-squared:                       0.833
Model:                            OLS   Adj. R-squared:                  0.711
Method:                 Least Squares   F-statistic:                     6.803
Date:                Mon, 21 Jul 2025   Prob (F-statistic):           0.000472
Time:                        06:53:14   Log-Likelihood:                -14.148
No. Observations:                  27   AIC:                             52.30
Df Residuals:                      15   BIC:                             67.85
Df Model:                          11                                      
Covariance Type:            nonrobust                                      
==============================================================================
                 coef    std err          t      P>|t|      [0.025      0.975]
------------------------------------------------------------------------------
const      -5.405e-15      0.106  -5.12e-14      1.000      -0.225       0.225
x1            -0.7820      0.361     -2.165      0.047      -1.552      -0.012
x2            -0.3056      0.355     -0.860      0.403      -1.063       0.452
x3             0.0671      0.270      0.248      0.807      -0.509       0.643
x4            -0.0737      0.213     -0.346      0.734      -0.527       0.379
x5             0.2652      0.168      1.579      0.135      -0.093       0.623
x6            -0.0534      0.246     -0.217      0.831      -0.578       0.472
x7            -1.7650      0.293     -6.018      0.000      -2.390      -1.140
x8            -0.5147      0.379     -1.358      0.195      -1.322       0.293
x9             1.3916      0.348      3.994      0.001       0.649 

  


  

2025-07-05

人間本質とは何か?

同じ霊長類の直鼻亜目のゴリラチンパンジー人類言葉を使って会話ができるので、文化の質と深さが人間本質ですか?って聞いたら、たぶん怒られる

ゴリラチンパンジー人間の違いは、身体構造なので、身体構造人間本質ですか?って聞いたら、それもたぶん怒られる

 

ちなみに愛情と余裕を持って育てた実験ラットは、そうではない実験ラットと違う反応を示すんだと

人間に似た正義感善悪判断を思わせる行動を見せるんだとさ

まり利他性や社会規範といった概念人間特有のものではない模様

人間けが持つものについても、まだよくわかっていない

一例: Third-party punishment-like behavior in a rat model | Scientific Reports

https://www.nature.com/articles/s41598-024-71748-x

 

 

でも考えみたら、たぶん人間特有と思われるものがあったんだわ。それは"演出"だ

人間以外の動物他者に合わせて演技をするが、人間以上に演出過多な生物はたぶんいない

連続的なグラデーションの中で、ある臨界点を超えたとき私たち生命と呼ぶ特性が現れる」のと同じように、

演出がある臨界点を超えたとき私たち人間と呼ぶ特性が現れる」って感じなのでは?

 

書いたよ

anond:20250705223613

ログイン ユーザー登録
ようこそ ゲスト さん