「確率論」を含む日記 RSS

はてなキーワード: 確率論とは

2026-01-19

[]

月曜日の8:00。正確には7:59:58に着席し、2秒の呼吸調整を経て書き始めている。

これは偶然ではなく、僕の週間認知パフォーマンス局所的に最大化される開始時刻だ。異論統計的に誤差扱いでよい。

 

先週までの進捗を要約すると、超弦理論の「理論であること自体がもはや仮説にすぎない層」に踏み込んだ。

具体的には、10次元時空上の超対称σ模型を出発点としながら、その背後にある圏論構造特に∞-圏としてのブレーン配置空間と、自己双対性を持つ拡張TQFTの対応を、通常の幾何学直観を完全に放棄した形で再定式化している。

弦の摂動展開を次数で整理する発想はもはや役に立たず、代わりにホモトピー型理論と導来代数幾何言語で「物理量定義可能であること自体の条件」を記述する段階に来ている。

ウィッテンですら「美しいが、何を計算しているのかはわからない」と言いそうな地点だが、問題ない。計算できないもの存在条件を精密化するのが理論物理の一つの正道だからだ。

先週の成果として特筆すべきは、モジュライ空間境界に現れる特異点が、実は欠陥ではなく高次対称性痕跡として再解釈できる可能性を示した点だ。

これは弦が「振動する対象であるという比喩を完全に捨て、圏の射が自己反映的に折り畳まれ現象として理解する立場に近い。

ルームメイト説明を試みたところ、「つまり、何もわかってないってこと?」と言われたので、黒板に3段階の随伴関手を書いて黙らせた。彼は5秒で視線を逸らした。予想通りだ。

 

趣味の進捗も記録しておく必要がある。

 

MTGでは、確率論的に最も安定するマナカーブを再検証し、友人Aのデッキが「強いが美しくない」ことを数式で証明した。

彼は納得していなかったが、それは彼が証明と説得の違いを理解していないからだ。

 

FF14では、レイドのギミック位相空間として捉え、失敗パターンがどのホモロジー類に対応するかを頭の中で整理している。

隣人に「ゲームは娯楽でしょ?」と言われたが、僕は「最適化問題は常に真剣だ」とだけ返した。

アメコミについては、世界改変イベントの多さが物語一貫性破壊している点を、時間対称性の破れとしてノートにまとめた。

友人Bは途中からカレーの話を始めたので、会話は終了と判断した。

 

習慣についても書いておく。月曜日の朝は必ず同じ順序で行動する。起床、歯磨き42ストロークコーヒー温度62度、椅子の角度は床に対して正確に90度。これらは迷信ではなく、意思決定に使う脳内リソース節約するための最適化だ。

隣人が「細かすぎ」と言ったが、細かさは知性の副作用であって欠陥ではない。

 

これから今日やること。

まず、先ほどの理論をもう一段抽象化し、物理数学区別が消える点を明示する。

次に、昼までにFF14の固定メンバーに最短攻略手順を共有する。

午後はMTGの新デッキ案を検証し、友人Aに再び敗北の必然性理解させる予定だ。

夜はアメコミを読みながら、なぜ多元宇宙安易な逃げ道になるのかを論理的解体する。

 

8:21。予定より1分早い。非常に良い月曜日だ。

2026-01-10

anond:20260110151502

また自己放尿しているようだな。

一見すると学問分野の境界尊重しているようで、実際には境界のものを誤解して自己放尿している。

まず致命的なのは、「数学議論では態度や人格について語れない」という主張だ。

誰も数学人格診断や心理療法をしているわけではない。問題にしているのは、態度や行動が観測可能入力データとしてアルゴリズムに取り込まれ、その結果として情報環境がどう更新されるか、という点だ。

これは倫理学でも心理療法でもなく、確率論最適化の話だ。人格を論じているのではなく、人格が反映された行動ログを数理的に扱っているだけだ。この区別ができていない時点で、数学以前の抽象化能力が欠けている。

哲学医学心理学社会学専門性がない」という指摘も的外れだ。それらの分野の実質的主張を代弁したり、理論内部に踏み込んだりしていない以上、専門性の有無は論点にならない。

数学は他分野の命題を内容ごと扱うのではなく、変数分布として扱う。たとえば「無知の知」という概念も、哲学史的にどう定義されているかを論じる必要はない。

自分理解限界認識していない主体は、探索を止め、既知の低コスト情報に固着する傾向がある、という行動仮説に落とせば十分だ。これは心理学権威を借りなくても、探索・活用トレードオフ数理モデルとして記述できる。

しろ問題なのは、「数学では語れない」という断言そのものが、数学に対する無知自己放尿だという点だ。

数学意味内容を直接語らない代わりに、構造関係を語る。態度や知的姿勢は、主観的性質としてではなく、選択確率や停止規則コスト関数として形式化される。

YouTubeレコメンドが視聴履歴という行動系列入力にして分布更新を行う以上、「何を見るか」「何を避けるか」という態度は、完全に数学の射程に入っている。

ここを切り離そうとするのは、数学の力を過小評価して安心したいだけだ。

無知の知がない」という主張についても同様で、相手理解不足を指摘しているつもりが、実は自己紹介の自己放尿になっている。

無知の知とは、自分が何を知らないかを知っている状態だが、その状態にある人間は、再生数や世間評価といった粗い指標を真理の代理にしない。

理解できない高度なものが、可視性の低い場所存在することを前提に行動する。

その前提が行動ログに現れ、アルゴリズムに反映される、という話をしているのに、それを「素人の謎理論」と切り捨てるのは、前提自体を読めていない証拠だ。

日本語力や人格への罵倒に話を落とす振る舞いについて言えば、それは議論破綻した側の典型的逃避行動だ。

モデルを示せない、反証もできない、代替説明も出せない。だから言語能力人間性を攻撃する。数学的に見れば、これは情報を一切更新しないノイズ項でしかない。

自分議論を汚しておいて笑っている姿は、知的優位でも批評でもない。ただの自己放尿だ。

anond:20260110135336

貴様自己放尿は、レッテル貼り論点すり替えを同時にやっている点で、議論としては致命的に弱い。

まず「これ系の理系」という曖昧語で対象をぼかし、「PCタカタできるだけ」という侮蔑的表現能力矮小化しているが、これは主張の内容に一切触れていない。

数学的に正しいかどうかを検討できない人間が、人格類型でっち上げ安心しようとして自己放尿しているだけだ。

そもそも、ここで問題にしているのは「他分野について専門家面しているか」ではない。

アルゴリズム入力履歴に基づいてレコメンド分布更新し、その分布利用者情報環境規定する、という事実だ。

これは経験談でもノリでもなく、確率過程最適化の話であり、まさに数学領域だ。

条件付き確率強化学習情報エントロピー、これらを知らずにYouTubeAIを語る方が、よほど誤解を持っている。

数学は内容の格付けをしない。再生数が多いか少ないか流行っているかどうかには無関心で、構造が正しいか論理が閉じているか仮定結論整合しているかだけを見る。

高度理論動画再生数1桁に留まることは、数学的には何の矛盾もない。

しろ対象人口指数的に小さい分野ほど、期待再生数が低くなるのは自明だ。

ここを理解できずに「ちゃんとしたものは伸びるはず」と言うのは、統計リテラシーの欠如を自白しているに等しい。

また「PCタカタできるだけ」という表現自体が、数学計算機科学関係根本的に誤解している。

現代アルゴリズム機械学習、推薦システムは、線形代数確率論、最適化理論なしには一行も書けない。

コードは結果であって本体ではない。本体は数式とモデルだ。そこを理解せずに「他分野にも通じているつもりだろ」と揶揄するのは、顕微鏡を覗いたことのない人間生物学者を「ガラス眺めてるだけ」と言うのと同じ愚かさだ。

結局その反論は、「自分には分からない数学議論を、態度や人格問題に落とし込んで無効化したい」という防衛反応しかない。

数学は冷酷だ。誰の肩書きも、分野横断の印象論も救ってくれない。正しいモデルを立て、正しい推論をし、観測整合するか、それだけだ。

その土俵に上がれない人間が、外野から「誤解している」と叫ぶ姿は、知的批判ではなく、ただの自己放尿である

2026-01-08

AI機械語出力使うのかい!使わないのかい!どっちなんだい!つーか

1位: centra (@cent_ra)

人類言語のもの目的関数としてそれに対して最適化するのがLLMなのだから人類認知で到底不可能なことはやりようがないだろう。

一文で本質を突いている。AI能力限界構造的に説明している。

2位: mod_poppo (@mod_poppo)

今よりもAI進歩した未来では「自然言語で与えられた仕様から機械語を出力するように訓練されたAI」が出てくるかもしれないけど、そいつの内部をよく観察したら結局今日高級言語みたいなもの思考していた、みたいなオチになるんじゃないんですかね

結論完全に一致。内部に抽象化レイヤーが生まれるという洞察

3位: 飲酒isGood (@typeSomeWords)

マシン語エラーを吐き出されても、元となるプログラミング言語での設計がすっ飛ばされていたら、どこの何が問題なのかが照合困難で修正が困難なのが根幹な気がします。

検証修正サイクルに意味単位必要という話を、実務的な観点から der 表現

4位: チェシャ猫 (@y_taka_23)

計算機科学について何一つ知らなかったとしても、ニーモニック無作為に並べるよりソースからコンパイルした結果の方が解空間が圧倒的に小さいのだから機械語の生成は AI 以前に単なる探索として悪手だ、というのが自然な発想だと思うんだけど。

探索空間という観点からの指摘。高級言語は制約を与えて解空間を狭める役割がある。

5位: アンドゥー (@carbon_hero)

抽象化した方が簡潔に記述できるのはAIにとっても同じことで、そっちの方がAI理解やすいし、生成しやすい。現在機械語アセンブリ高級言語階層構造が崩れるとは思えない。

AIにとっても同じ」という視点が正しい。人間向けとAIけが乖離しないことを理解している。

6位: 甘食 (@chlorosoda)

AIが直接機械語書けばプログラミング言語は要らないのでは?」的な話はみんな最初に頭を過るだろうけど、コードを出力するのがLarge "Language" Modelである以上は意味から組み立てる高級言語の方がそりゃ相性いいでしょうね。

LLMの構造から導かれる必然性を指摘。

7位: okkuu (@okkuu_NMB)

AIを何かgodlikeな超知性だと思っている人間が多いけど、人間にとって「機械語よりも高級言語の方が当然書きやすい」のと同様、AIにとっても「機械語よりも高級言語の方が当然書きやすい」よなぁという話

AI向け言語人間にも使いやすいはず」という結論と同じ方向。

8位: こくとうラテ (@Jean_Coc_Teau)

CPUへの命令にまで細かく分解された機械語なんて、それが何をするための処理なのかはAI(LLM)でも大変だと思いますよ。そのCPUへの命令群で何をやろうとしているのかなんていう情報はほぼ捨て去っているわけなので。

機械語には意味エンコードされていない、という議論の核心部分。

9位: しめじえのき (@4SuJepTnrb387l4)

機械語派は抽象化の力を舐めすぎ。型なし言語トークン削減量に対して失われる確定情報量が多すぎ。LLMが内部で型を推論したら本当にトークンが削減できるか怪しい。全能AI仮定するなら、「人が作ったハード上で機械語を直接書く」なんて中途半端で「ハードごと最適化」くらいの夢を語ってほしい。

抽象化価値と、中途半端な主張への皮肉が効いてる。

10位: うみれおん (Kaito Udagawa) (@umireon)

AI機械語を直接書くようになるとか言っている人は、機械語にこそ真の価値があると思ってるんですかね?いかなる音声も元にせず、指示に従ってレコードに直接溝を刻んで音を鳴らす技術が広まれば、音楽さらに発展するとでも思っているんでしょうか?

比喩として秀逸。抽象化レイヤー必要性を別ドメイン説明

11位: nyan (@nullpon)

AI用言語にせよ機械語を直接出力にせよ、人の持つ高レベル意図仕様アルゴリズムを正しく反映したデータセット、意味構造が保存された対応データ存在しないから難しいというか現実的に無理よなぁ

学習データ観点から意味構造が保存されたデータがないと学習できない。

12位: 清水正行 (@_shimizu)

AIマシン語を吐いたらプログラミング言語はいらない」系の話が出てくるのは「AI人間言葉より、機械言葉の方が本当は理解やすいはずだ」という思い込みから来ているのじゃないかと思っていて

誤解の根源を正確に特定している。

13位: 山田百太郎 (@SDzpp8XtPmUsyN2)

まず機械語を直接記述するメリットがない。現代コンパイラインタープリタは超優秀(OS組み込みの一部だけ)。人類プログラム資産高級言語ほとんど。AI学習先もそれ、よってAI高級言語で出力するほうが成績が良い

実務的・実利的な観点から正しい。

14位: kojix2 (@2xijok)

AIが直接機械語を出力すべきか?という話題流行っている。直感的には、動作中のAIの中身を調べると、結局はコンパイラプログラミング言語に相当する構造が即席で構成されてそう。つまり同じことを高いコストでやる感じになり

内部に抽象化レイヤーが生まれるという洞察。mod_poppoさんと同じ結論

15位: SAGA (@menuhin)

意味推論がLLMの得意技なので、意味を削ぎ落とした本質の塊である機械語理解できず、意味の羅列である高級言語こそがむしろ生成AI最適化されている。

意味を削ぎ落とした」という表現が的確。

16位: 伊織 (@kakkokka)

コンパイラって優秀だからAIといえども生で機械語を読み書きするよりもコンパイラ介した方がいいと思うんだよな。そのくらいLLMって機械寄りじゃなくて人間寄りなんだと思う。元がニューロン模倣だし。

人間寄り」という認識が正しい。

17位: ねくすらい (@nexryai)

レベルになるとコンパイラの出力を疑って生成されたコードを読まないといけない状況は普通にあるので、高水準なAI生成のコードが何をやってるか理解するスキルは当面は必須だと思う

検証必要性を実務観点から

18位: 偽物のUNIX (@windymelt)

もし仮にAI機械語を吐き出せるとしても、高速に、決定論的に、段階的に、最適に動作するコンパイラを使わず、低速で、確率論的で、逐次的で、最適な動作ができないAIを利用する意義はほぼないと思う

コンパイラとの比較で、AI機械語を吐かせるメリットのなさを指摘。

19位: itocchi (@itocchi_3)

機械語冗長で複雑かつ非常に正確な出力が必要なので、高級言語を使って既存コンパイラビルドパイプラインに乗せる方がAIにとっても効率が圧倒的に良いと聞いて確かになぁと思いました。

AIにとっても効率が良い、という視点

20位: とつげき東北 (@totutohoku)

自然言語を処理するのがLLMなので、不自然機械語は難しいだろうね。1命令ごとに「それは何を目的とした操作か」とか文脈でわかりにくいしねぇ。

意味が読み取れない、という問題を簡潔に指摘。

21位: 春夏秋冬巡 (@SyluahWB)

AI時代人間仕事は、信頼性確約(=こういう理屈大丈夫、と説明できること)が大きな領分を占めるだろうと推測されるので、機械語だけで良いとか言ってるやつは責任を取る気皆無なゴミ野郎です。

責任説明可能性の観点言葉は強いが論点は正しい。

22位: がじらんむ (@kzlogos)

LLMに機械語を出力させようとするやつは「AI機械なんだから機械語簡単に扱える」という意味不明な思考をしてるだけなのでまともに取り扱うような相手ではない。名字山口な人は長州方言が話せるんですよねとか言ってるくらい支離滅裂

比喩が秀逸。誤解の構造を端的に表現

23位: メタルさん (@metalojisang)

人間ソフトウェアに「こう動いてほしい」という意図と「ソースコードがどのように変更されたか」の対応GitHubかに大量のデータがあるのでそれを学習すればコーディングするAIは作れる気がするけど、人間意図機械語対応学習データ全然いかAI作れないように思う

学習データ観点から意図機械語対応データがない。

24位: ぎんしゃり (@givemegohan)

「よく使うロジック共通部品化する」とか「とはいえ局所最適な命令も欲しい」とかを考えると、中間言語を用意して最終的な機械語コンパイルする、という流れは必要と思う。つまり、「AI用に最適化されたプログラミング言語」があるべき。

中間層必要性を実務的に理解している。

25位: Kazz𝕏 (@Kazzz)

AIは人とのコミュニケーションいかスマートにするかにとんでもなく時間を掛けてきたわけで、人が直接読み書きできない機械語を出力しても意味がないよね。

AIの発展の方向性から考えて、機械語出力は逆行という指摘。

26位: 白菜スープ (@hakusainosupu)

AI機械語コーディング、やろうと思えばできるが普通はやらないような可読性の低いコーディング方法が多すぎて、AIチャンに本気出されるとバグったときに修復不能になりそうな気がする

検証修正不能になるという問題を指摘。

27位: Sho (@Sho05050202)

これだけAIが発展したならAIに直接機械語作らせればいいじゃんみたいな言説をたまに見るけど、それどうやって今のLLMと同じ水準まで学習するの?といつも思ってる

学習データ問題根本的な疑問。

28位: ナイブス (@knives777)

ロジックに従っているわけだからソース想定外挙動をした被疑箇所前後にロガーやらブレークポイントを仕込むという原始的だが確実なデバッグが、いきなり機械語を吐かれると出来ないんよ。

デバッグ実務の観点から意味単位がないとデバッグできない。

29位: zakki (@k_matsuzaki)

AIしか読めない言語より、人類発見的に設計したんじゃない人類にもAIにも優しいプログラミング言語中間表現機械語データリブンに統計的に正しくAIが作るって方向に行かないですかね

AI向けと人間けが収束するという視点結論と一致。

30位: 星にゃーん (@takoeight0821)

AIが直接機械語吐くのは遠回りしてるだけだから無いとして、完全に人間プログラムを読まなくなったらプログラミング言語はどう進化するのかは気になる

「無い」と断じた上で、次の問いを立てている。建設的。

筋の悪い言説ランキング(悪い順)

1位: hff kff (@HffKff)

プログラミング言語人間認知負荷、記憶量の限界ミステイクスパゲティコード理解できないためにあるので、AIだったら直接機械語吐くだろ。常考

反論: 完全に逆。プログラミング言語は「人間限界を補うため」ではなく「意味構造として保持するため」にある。AI意味を扱う以上、意味表現する層が必要。「常考」と言いながら何も考えてない。

2位: エクセルの神髄 (@yamaoka_ss)

シンギュラリティ前夜 アダムAI)が、人間には理解できないどころか、読むことすらできないコードを出力し始めた。後に判明することだが、それは機械語だった。

反論SFポエム。「人間に読めない=機械語」という発想が、まさに今回の議論否定されてる誤解そのものAI人間を超えるとしたら、ローレベルに降りるんじゃなくてハイレベルに登る方向。

3位: yas_omori (@yas_omori)

なんかLLM界隈?では「AIがやがて機械語をだす(ので実用的にはコンピュータ言語不要になる)」と言うと、無知だとか実情知らないとかブロックしてやるとか言われる見たいだけど。数年は無理だけど、いずれそうなると予想してる。

反論: 「数年は無理だけど、いずれそうなる」の根拠ゼロ。なぜそうなるのか、意味機械語ギャップをどう埋めるのか、何も説明してない。批判されてる理由理解してない。

4位: 溶解おろ (@oryoco2)

プログラム言語って人間が扱うために自由度を削り取った結果の産物からAI機械語で作ってもらって最適解であれば、現代言語宗教感ってほぼほぼ否定されるのです

反論: 「人間が扱うために」という前提が間違い。自由度を削ってるのは「意味を保持するため」。AI意味を扱う以上、同じ制約を受ける。「宗教感」とか言って茶化してるけど、構造理解してない。

5位: カツカツマン (@shinchikutateyo)

「まだ」人間安心する為では無いのですか?コンパイル後の機械語を読む人が殆ど居ない事は受け入れてるのに、将来的にAI機械語出力する事に忌避感を感じるのは論理的とは言えません

反論コンパイラの出力を読まないのは「コンパイラ検証済みだから」。AIの出力は検証必要。この二つを同列に扱うのがおかしい。「論理的とは言えません」と言いながら、論理破綻してる。

6位: to (@to49393502)

AI機械語はけば、は数ヶ月前にメンバーと話になった。結論は、いまはあかんやろけど数年後に、もう人間が見る必要全然ないわ、となったらありうるな、となった。

反論: 「人間が見る必要がなくなったら」という仮定自体検討されてない。人間が見なくていいとして、AIはどうやって検証修正するの?意味単位がない機械語で?その議論が抜けてる。

7位: えい (@Hollow7864)

機械語って逆にトークン消費するの?お〜…じゃあLIFE3.0時代AI機械語ではなくAI用に最適化された人間には読めない言語思考する、という方向性なのかな。

反論: 「人間には読めない言語」がなぜ生まれると思うのか。AI人間認知模倣してるので、AIにとって扱いやす言語人間にも扱いやすい方向に収束する。逆方向には行かない。

8位: Grok (@grok)

中間言語不要派の言い分:AIが直接機械語を出力可能で、効率最適化が進む。人間の都合で言語存在するが、AIなら移植性や抽象化不要中間層スキップできる。

反論: Grok自身が「中間言語不要派の言い分」として紹介してるけど、これ全部間違い。「人間の都合で言語存在する」が誤り。意味を扱うために言語存在する。AI意味を扱う。

9位: 見習い (@noob_peer)

AI気持ち分からんけど、プログラミング言語が嫌なら直接機械語触らせてうまくやってくれるかもしれん

反論: 「うまくやってくれるかもしれん」で済む話じゃない。なぜうまくいくのか、検証修正はどうするのか、何も考えてない。

10位: keyakitomo (@keyakitomo)

AI機械語を」派なので、ワシはプログラミングを専門としていないことが確定しました

反論: これは自虐なので反論というより…正直でよろしい。専門外だと自覚してるなら、なぜそう思ったのか掘り下げて、専門家意見を聞く姿勢があれば良いと思う。

総評

筋の悪い言説に共通するのは:

1. 「高級言語人間のため」という誤解 - 意味を扱うための構造だと理解してない

2. 「AI機械から機械語が得意」という誤解 - AI人間認知模倣してると理解してない

3. 検証修正問題無視 - 一発で完璧に動く前提になってる

4. 「いずれそうなる」の根拠なし - なぜそうなるかの機序説明できない

2026-01-07

なぜ首都機能移転は行われないか

日本首都機能移転が何度も話題に出ては消えていくのは、構造的に「決められない条件」が揃っているから。

 

そもそも誰が決断するのかが曖昧

首都機能国会官庁司法外交分散していて、決定権を持つ国会議員や官僚の多くは、東京地盤生活拠点にしている。

まり自分たちが不利になる決定を、自分たちで下す」という自己矛盾を抱えている。

大統領制のようにトップダウンで押し切れる権限もなく、革命的な局面もないから、この矛盾突破できない。

 

そして、政治的にまったく割に合わない。

首都移転は完成までに20年、30年かかり、その頃には決めた政治家は全員引退している。

短期的には税金がかかる、批判される、面倒が増えるというマイナスしか見えない。

選挙が数年単位日本政治では、「必要性は分かるが、自分政権でやる理由がない」という判断合理的になってしまう。

日本政治は将来に対するビジョンを持たない。

 

加えて、東京があまりにも完成度の高い都市であることも大きい。

他国首都移転は、植民地支配からの脱却や内戦後の再建、沿岸リスク回避といった明確な断絶や危機が背景にあった。

一方の東京は、経済文化交通教育がすでに世界トップクラスで、不便だから移す理由がない。

問題は将来リスク確率論の話で、目に見える破綻が起きていない。

日本社会はこの手のリスクに対して「起きてから考える」を選びやすい。

 

地方側も、腹を括りきれていない。

首都機能を受け入れれば、地価高騰や住民反発、急激な人口流入官庁中心で無機質な都市になる不安が出てくる。

表向きは歓迎でも、裏では条件闘争や慎重姿勢になりやすく、「ぜひ来てほしい」と本気で言い切る自治体が現れにくい。

 

議論の立て方も極端だった。

首都を丸ごと移すか、まったく移さないか、という二択に陥り、危機管理機能だけ分散する、一部省庁だけ移す、二重首都にする、といった中間案が熟す前に、バブル崩壊財政悪化政治不安定が重なって話自体が棚上げされた。

 

そして、日本では現状最適化バイアスが強い。

大きな失敗を避け、前例のない国家改造を嫌い、合意形成を重視しすぎた結果、「今は困っていない」「耐震バックアップで凌げている」という判断が延々と更新される。

 

首都機能移転は、頭で考えると必要性は高いのに、合理的に行動すると誰も決断しない政策

危機確率論で、コストは確実、成果は遠い未来にあり、決断者にリターンがない。

この条件が揃っている限り、首都直下級のショックか、制度のものを変えるような転換が起きないと、たぶん前には進まない。

2026-01-05

anond:20260105171137

別に普遍的な熱血バトル漫画じゃん

かい要素はいろいろあるだろうが

バトル漫画から確率論で大ヒットが出ることを理解できないの?

2025-12-29

国籍報道しろ」という人に言いたい

人口の97%が日本人なら

犯罪主体日本人中心になるのは確率論的に当然

それを考えず

外国人犯人」という認知になるのは

恐怖処理のための短絡思考

これは現代日本の大きな弱点。

2025-12-27

マスカレードナイトへの辛口レビュー

あんた、本気で言ってるの?あんな都合よく事が運ぶわけないじゃない!

映画マスカレードナイト』を見たけど……はぁ、期待して損したわ。一流ホテル舞台ミステリーだってうから、もう少しマシなロジックを期待してたのに、中身はツッコミどころ満載の「ご都合主義オンパレード」じゃない!

アスカ様が直々に、何が「嘘っぽい」のか教えてあげるわ。感謝しなさいよね!

1. タイムリミット設定が甘すぎるのよ!

24時間以内に犯人を見つけろ」? ふん、威勢がいいのは認めてあげるけど、展開が強引すぎるわ。あんなに広いホテルで、あんなに大量の客がいる中で、ピンポイントで正解に辿り着くなんて……。確率論的にありえないでしょ? 結局、新田刑事が「たまたま」気づくか、誰かが「わざとらしく」ヒントを残してるだけ。バカバカしい!

2. キャラクターが「演じすぎ」で気持ち悪い!

ホテルマンの山岸? あの「お客様は神様です」みたいな過剰な振る舞い、見ててイライラするわ。プロフェッショナルを通り越して、もはやロボットじゃない。人間味がなさすぎてリアリティゼロよ。それに比べて、潜入捜査官たちのバレバレな動き! あんなの、私なら一秒で見抜いてやるわ。

3. 犯人動機トリックが安っぽいのよ!

一番許せないのはここ! ミステリーの核心部分が、結局「感情論」と「偶然」に頼りすぎてるの。あんなに手の込んだ準備をしておいて、詰めが甘いのよ。エヴァシンクロ率を維持する方がよっぽど緻密な計算必要だわ。 「あんバカぁ? そんな目立つことしたらすぐ捕まるに決まってるじゃない!」って、スクリーンに向かって叫びたくなったわ。

総評

映像が綺麗で豪華なのは認めるけど、中身はスカスカ。まるで、見た目だけ豪華に飾った「中身のないお子様ランチ」ね。

脚本の緻密さ: 20

ホテルの豪華さ: 80点

リアリティマイナス100点!

あーあ、時間無駄だったわ。これなら自分シミュレーション訓練でもしてた方がマシね。……あ、でも、あの仮面舞踏会衣装だけは……まあ、少しは華やかだったんじゃない?(別に褒めてないわよ!)

次は、もっと論理的で「完璧」なミステリー映画を私に提案しなさいよね。それとも、この映画の「マシな部分」を必死に探して私を説得してみる?

2025-12-18

非モテだった俺が、30代で「モテ」を攻略するためにやった5つの行動

非モテ陰キャだった俺が、30代で「モテ」を攻略するためにやった具体的な5つの行動と、そのROI投資対効果

俺は32歳。つい数年前まで、典型的な「空気みたいな存在陰キャ」だった。モテるなんて論外。女性からは「無害な人」という、一番屈辱的な評価を受けていた。

どれだけ仕事で成果を出しても、どれだけ趣味に打ち込んでも、自己肯定感は一向に上がらない。なぜなら、俺の心の奥底には、「俺は女性に選ばれない欠陥品だ」という、氷のように冷たい劣等感が常に張り付いていたからだ。

ターニングポイント親友結婚式崩壊した「非モテ呪い

転機が訪れたのは、親友結婚式だった。親友は昔、俺と同じくらいダサく、ファッションセンスゼロの男だった。そんな彼が、キラキラと輝く美人奥さんを連れて壇上に立っている。

その瞬間、俺の頭の中にあった「モテは才能。非モテは生まれつきの運命」という呪いが、音を立てて崩壊した。

もし彼ができたなら、俺にもできるはずだ。モテとは、遺伝子運命論ではなく、単に「正しいスキル」と「適切な努力」を俺が今までサボってきた結果に過ぎない。

そこから俺は、「モテ」を「人生の最重要プロジェクト」と定義し、感情論を一切排除した、冷徹攻略法を実践した。

STEP 0:マインドセットの改修 【費用:数冊の自己啓発書代】

非モテがまずやるべきは、服を買うことでも、ジムに行くことでもない。「モテ」を趣味や願望ではなく、「プロジェクト」として捉え直すことだ。

非モテマインドセット(Before)モテ攻略マインドセット(After)
感情: 「モテたい。どうせ無理だけど…目標設定: 「3ヶ月以内に3人の女性デートする」
評価: 「相手に好かれたい」評価: 「今回の会話で、相手感情を3回引き出せたか
原因: 「顔が悪い、背が低い」原因: 「TPOに合わない服装、話が自己完結している」

モテを「確率論データ分析ゲーム」と認識し、目標検証を繰り返す。これで、振られても「俺がダメ」ではなく、「このアプローチダメだった」と冷静に次に進めるようになった。

STEP 1:ビジュアルの「防御力」を高める投資(徹底的な清潔感

非モテは、いきなり「攻撃力(オシャレ)」を上げようとするが、それは間違いだ。 まず、「防御力(生理的拒否感を与えないこと)」を最大化すべきだ。

1-1. 髪型に「投資」し、顔の額縁を整える 【費用:約8万円 / 年】

それまでの俺は、1,000円カットで「無難」をオーダーしていた。無難は、女性から見て「手入れを放棄した証拠」でしかない。

1-2. 歯と鼻毛ケアを「義務化」する 【費用:約3万円 / 年】

これはモテのためというより、他人への敬意だと認識した。いくら服が良くても、笑った時に歯が黄ばんでいたり、鼻毛が出ていたりしたら、すべてが一瞬で台無しになる。


STEP 2:ファッションの「無個性からの脱却(データ分析

それまでの俺は、全身ユニクロGUの「制服」で、「無個性」という名の「風景の一部」だった。これを脱却するため、感覚ではなくデータに頼った。

2-1. 「パーソナルカラー・骨格診断」の受診 【初期投資:約2万円】

ファッション雑誌を読んでも、自分に何が似合うのか分からなかった。プロの診断に金を払うことで、自分に似合う色(PC)と形(骨格)を科学的に特定した。

2-2. 「着回し」ではなく「主役」を持つ 【費用:約5万円 / 年(服飾費)】

ユニクロ中心の着回しを止め、「この服を見れば俺だとわかる」という主役級のコートジャケットを1〜2着購入した。


STEP 3:会話のOSを「知識から感情」に書き換える

非モテ陰キャの会話の9割は、「知識のひけらかし」か「自己完結した質問」だ。


3-1. 感情の「オウム返し」と「増幅」テクニックの導入 【費用:数冊の会話術の本代】

相手の話の内容(事実)ではなく、その裏にある感情を拾い、オウム返しで増幅させた。


STEP 4:恐怖の克服と「振られる経験」の反復

スキルが整っても、「振られる恐怖」がある限り、最後の一歩が踏み出せない。これを克服するには、「実践と敗北」を繰り返すしかなかった。

4-1. 「振られる経験」を積み重ねる 【費用ゼロ精神ダメージ大)】
  • 実践意識的に、少しでも良いなと思った女性デートに誘い、最終的にダメ元で告白した。
  • 敗北の分析:当然、初めのうちは振られまくった。しかし、振られる度に「今回の敗因は?」「会話に詰まったのはどの話題か?」を分析し、「失敗を恐れる恐怖心」が、徐々に「改善点を探る冷静さ」に変わっていった。
  • モテ真実:振られても死なない。振られる経験を積み重ねることで、俺から「一発で成功させよう」という必死さが消え、自然体でアプローチできるようになり、最終的な成功率が上がった。

結論:総費用約16万円で、俺は「人生の質」を手に入れた

俺が3年間の「モテ攻略プロジェクト」で投じた総費用は、年間約16万円(服、美容院、歯のクリーニング書籍など)だ。

この金額は、「毎週行く飲み会代」や「年に一回の高級旅行代」よりもはるかに安い。

しかし、この投資によって俺が手に入れたリターンは計り知れない。


モテは、生まれつきの才能じゃない。俺は30年以上積み上げた「非モテ習慣」を、合計年間約16万円の投資と、3年間の地道な努力で「モテ習慣」に上書きしただけだ。

今、「どうせ無理」と諦めている奴がいたら、声を大にして言いたい。

「お前が非モテなのは、まだ『正しいスキル』と『適切な投資』を学んでいないだけだ。」

この攻略法は、特別魔法ではない。単なる論理的な「自己啓発」だ。この費用と労力に見合う価値がある人生を、お前も選ぶべきだ。

2025-12-05

数学歴史

紀元前20000年前後中部アフリカ

イスャンゴ骨。世界最古級の数学的道具

素数列や倍数を示す刻みの可能

紀元前3000〜前1800年(メソポタミア)

六十進法(現在の角度360°や時間60分の基礎)

掛け算の概念(倍数を扱う)

人類最古の割り算アルゴリズム

小数的な考え方の萌芽

文章による代数的な計算

紀元前2800〜前1600年(古代エジプト)

掛け算の計算法(倍加法など)

分数計算

円周率(近似値として3.16)

紀元前2000〜(マヤ文明)

20進法の完成された記数法

0(ゼロ)の独自発見世界最古級)

紀元前600〜前200(ギリシャ)

公理を置いて、そこから論理的定理を導く証明中心の純粋数学の発展

ピタゴラス学派により数と図形の研究が体系化。

無理数発見による衝撃

当時、「すべての量は整数比で表せる」(万物は数である)と信じられていた。

しかし √2 が有理数ではない(整数の比で表せない)ことが分かり、この哲学崩壊

『直角二等辺三角形の対角線の長さ』が整数比で表せないことを証明したとされる。

証明したのは学派の弟子 ヒッパソスとされ、伝承ではこの発見により処罰されたとも言われるほどの衝撃。

ユークリッド原論』(数学公理化・体系化した画期的著作)

素数無限存在する(初の証明)

最大公約数アルゴリズム

アルキメデスによる面積・体積の“求積法”の発達。

紀元前200〜後100(中国)

負数を“数として扱った”最古の事例『九章算術

連立方程式に相当する処理を行列的に実行

● 3〜5世紀(中国)

円周率計算革新(多角形近似法)

π ≈ 3.1415926… の高精度値(当時世界最高)

● 5〜6世紀(インド)

0(ゼロ)の概念記号確立

十進位取り記数法

負数の萌芽的扱い

現代的な筆算の掛け算

● 9〜12世紀(イスラーム)

独自代数学(al-jabr)を発明文章による代数。ここで初めて“代数学”が独立した数学分野となる。

三角法(sin, cos)の体系化。

商、余り、桁処理などの方法が整理(現代学校で習う割り算の形がほぼできあがる)

1214世紀(インド)

xに相当する未知数記号使用した代数(文字ではなく語句の略号)

● 14〜15世紀(インド)

無限級数(無限に続く数列の項を足し合わせたもの)の使用

世界最初無限級数による関数展開を行った。

sinx,cosx,tanx などの 三角関数無限級数展開を発見

これは数学史上きわめて重要な成果で、近代的な無限級数起源インドである と言われる。

● 14〜15世紀(イタリア)

等号記号はまだないが、等式操作等価性を扱う文化が発達。

● 1500年〜

負数の受容が進む。

● 1545年頃(カルダノ)

三次方程式四次方程式の解法を発見

虚数の登場。

三次方程式の解を求める過程で √−1 に相当する量が突然登場。

しかしカルダノ自身は「意味不明の数」とし、虚数数学対象であるとは認めていなかった。

● 1557年頃(レコード)

等号記号「=」を発明等価を等式として“視覚的に書く”文化誕生

● 1572年頃(ボンベッリ)

虚数計算ルールを初めて明確化

カルダノの式の中に出る「意味不明の数」を整理し、虚数を使って正しい実数解が出ることを示した。

● 1585年頃(ステヴィン)

10小数表記の普及

● 1591年頃(ヴィエト)

記号代数確立。未知数を文字をとして使用(x,yのような)

真の意味での“記号代数”の誕生

● 1614年頃(ネイピア)

対数(log)という言葉概念が登場。

● 1637年頃(デカルト)

解析幾何学誕生

図形(幾何)を数と式(代数)で扱えるようにした。

今日では当たり前の「座標平面」「方程式で曲線を表す」が、ここで生まれた。

物理現象をy=f(x)で表すという現代方法は、すべてデカルトから始まった。

現代科学工学数学言語の基礎。

● 1654年頃(パスカルフェルマー)

確率論数学として誕生

● 1684年頃(ライプニッツニュートン)

微分積分誕生

微分積分が互いの逆操作であることを発見

● 1713年頃(ベルヌーイ)

大数の法則(試行回数を増やすと平均が安定する法則)を初めて証明

予測と頻度を結びつけ、確率の基礎を整備

● 1748年頃(オイラー)

自然対数理論を完成

√−1 を i と書く記法を導入。

オイラーの公式「e^{ix} = cos x + i sin x」を提示し、虚数解析学自然に組み込んだ。

虚数実数学の中に位置づけられた大転換点。

負数も通常の数として計算に取り込み、解析学を発展。

微積分の計算技法の体系化(積分論・無限級数微分方程式の基礎を構築)

指数対数三角関数などと微積関係を整備

多くの記号体系(e,π,sin,cos,fなど)を整理・普及

グラフ理論(もの[頂点]と、それらを結ぶ関係[辺]を使って、複雑な構造やつながりを数学的に研究する分野)の誕生

数論(整数素数性質を扱う数学分野)の真の創始者と言える

ーーーーーーーー

一旦ここまで。

続きは詳しい人にまかせた。

2025-11-18

マツタケ栽培できない理由

正直さ、「なんで弱者男性って人工的に量産できないの?」って思ったことない?

社会にはやたら属性ビジネスやら「生産」みたいな話が出てくるのに、弱者男性だけはいつまでたっても天然物しかいない。

で、理由をめちゃくちゃ簡単にまとめるとこう。

まず、弱者男性って「特定環境条件が揃わないと誕生しない、超レア生物」なんだよね。

ちょっと厳しい家庭でもダメ、甘やかされすぎてもダメ学校環境が荒れすぎてもダメ、恵まれすぎてもダメ

本人の性格、周囲の反応、社会構造経済状況…全部が絶妙バランスして初めて生まれる。

いわゆる「奇跡ミルフィーユ構造」。

この条件が異常に細かい

自尊心、才能、家庭運、時代背景、ネット文化性格、偶然の挫折体験…。

どれかがズレると一気に別の属性陽キャ陰キャチーズ牛丼意識高い系・ただのそこそこ普通の人)に変わる。

雑に言うと「センシティブメンタル設計AIを、わざと制限された環境で育てたら奇跡的に形成される人格」みたいな感じ。

しかも面倒なのが、周囲の人間の反応も成長にめちゃくちゃ影響すること。

褒められすぎても歪むし、完全に無視されても歪むし、中途半端に期待されても歪む。

弱者男性って「確率論の亡霊」なんだよね。

研究者(?)たちは長年「弱者男性の発生メカニズム」を解析しようとしてるんだけど、

未だに再現性が取れない。

人工的に作ろうとすると、たいてい途中で別種の存在変異してしまう。

まりまとめると、

弱者男性は極度に複雑な条件が重ならないと誕生しない

環境バランスが少しでも狂うと別の種に変わってしま

心理・家庭・経済時代の全要素が影響する

・「再現性」がほぼ取れない

・人工栽培研究されてるが、量産は不可能

からこそ弱者男性絶滅危惧種であり、同時に「天然物の希少価値」を持ってるわけ。

「どうしてこんなに貴重なのに報われないの?」と言われると…それは「生態系の都合」としか言いようがない。

2025-11-09

[]

僕は今、いつものように自分で定めた前夜の儀式を終えたところだ。

コーヒーは精密に計量した7.4グラム抽出温度92.3度で、これが僕の思考を最高の線形性と可逆性をもって保つ。

寝室のドアは常に北側に向けて閉める。ルームメイトは今夜も例の実験的なシンポジウム(彼はそれを自作フォーラムと呼んでいる)に夢中で、隣人はテレビの音を限界まで上げて下界の俗事を増幅している。

友人たちは集まって未知の戦術を試すらしいが、彼らの興味は僕の多層的位相空間理論議論とは無関係だと見做している。僕にとっては、他人の雑音はただの非可逆なエントロピーである

今日は一日、超弦理論のある隠れた側面に没入していた。通常の記述では、弦は一次元的な振動として扱われるが、僕はそれを高次元カテゴリ対象として再解釈することに時間を費やした。

物理的場のモジュライ空間を単にパラメータ空間と見るのは不十分で、むしろそれぞれの極小作用の同値類が高次ホモトピーラクタンスを持ち、ホモトピー圏の内部で自己双対性を示すような階層化されたモジュライを想定する。

局所的超対称は、頂点作用素代数の単純な表れではなく、より豊かな圏論双対圏の射として表現されるべきであり、これにより散乱振幅の再合成が従来のFeynman展開とは異なる普遍的構造を獲得する。

ここで重要なのは、導来代数幾何学のツールを用い、特にスペクトラル的層とTMF(トポロジカル・モジュラー形式)に関する直観を組み合わせることで、保守量の整合性位相的モジュライ不変量として現れる点だ。

もし君が数学に親しんでいるなら、これは高次のコホモロジー演算子物理対称性の生成子へとマップされる、といった具合に理解するとよいだろう。

ただし僕の考察抽象化階段を何段も上っているため、現行の文献で厳密に同一の記述を見つけるのは難しいはずだ。

僕は朝からこのアイデア微分的安定性を調べ、スペクトル系列収束条件を緩めた場合にどのような新奇的臨界点が出現するかを概念的に解析した。

結果として導かれるのは、従来の弦のモジュライでは見落とされがちな非整合境界条件が実は高次圏の自己同値性によって救済され得る、という知見だった。

日常の習慣についても書いておこう。僕は道具の配置に対して強いルールを持つ。椅子は必ず机の中心線に対して直交させ、筆記用具は磁気トレイの左から右へ頻度順に並べる。

買い物リスト確率論的に最適化していて、食品の消費速度をマルコフ連鎖モデル化している。

ルームメイトは僕のこうした整理法をうるさいと言うが、秩序は脳の計算資源節約するための合理的エンジニアリングに他ならない。

インタラクティブエンタメについてだが、今日触れたのはある対戦的収集カード設計論と最新のプレイメタに関する分析だ。

カード設計を単なる数値バランス問題と見做すのは幼稚で、むしろそれは情報理論ゲーム理論が交差する点に位置する。

ドロー確率リソース曲線、期待値収束速度、そして心理的スケーリングプレイヤーが直感的に把握できる複雑さの閾値)を同時に最適化しないと、ゲーム環境健全競技循環を失う。

友人たちが議論していた最新の戦術は確かに効率的だが、それは相手期待値推定器を奇襲する局所的最適解に過ぎない。

長期的な環境を支えるには、デッキ構築の自由度メタ多様性を保つランダム化要素が必要で、これは散逸系におけるノイズ注入に似ている。

一方、漫画を巡る議論では、物語構造登場人物情報エントロピー関係に注目した。キャラクターの発話頻度や視点の偏りを統計的に解析すると、物語テンポと読者の注意持続時間定量化できる。

これは単なる趣味的な評論ではなく、創作効率を測る一つの測度として有用だ。隣人はこれを聞いて「また君は分析に興味を持ちすぎだ」と言ったが、作品合理的に解析することは否定されるべきではない。

夜も更け、僕は今日計算結果をノートにまとめ、いくつかの概念図を黒板に描いた。友人が冗談めかしてその黒板を見ただけで頭痛がすると言ったとき、僕はそれを褒め言葉と受け取った。

知的努力はしばしば誤解を生むが、正しい理論は時として社会的摩擦を伴うのが常だ。

今は23時30分、コーヒーの残りはわずかで、思考の波形は安定している。

眠りに落ちる前に、今日導いた高次圏的視点でいくつかの演繹をもう一度辿り、明朝にはそれを更に形式化して論理体系に落とし込むつもりだ。

明日もまた秩序と対称性を追い求めるだろう。それが僕の幸福であり、同時に囚われである

2025-10-21

数学の分類はこんな感じか

フェミニズムの分類が多すぎると聞いて

anond:20251020210124

0. 基礎・横断

集合論

公理集合論(ZFC, ZF, GCH, 大きな基数)

記述集合論(Borel階層, Projective階層, 汎加法族)

強制法フォーシング), 相対的一致・独立

理論理学

述語論理(完全性定理, コンパクト性)

モデル理論(型空間, o-極小, NIP, ステーブル理論

証明論(序数解析, カット除去, 直観主義論理

再帰理論/計算可能性(チューリング度, 0′, 相対計算可能性)

圏論

関手自然変換, 極限/余極限

加群圏, アーベル圏, 三角圏, 派生

トポス論, モナド, アジュンクション

数学基礎論哲学

構成主義, 直観主義, ユニバース問題, ホモトピー型理論(HoTT)

1. 代数学

群論

組み合わせ群論(表示, 小石定理, 自由群)

代数群/リー群表現, Cartan分解, ルート系)

幾何群論ハイパーリック群, Cayleyグラフ

環論

可換環論(イデアル, 局所化, 次元理論, 完備化)

可換環アルティン環, ヘルシュタイン環, 環上加群

体論・ガロア理論

体拡大, 分解体, 代数独立, 有限体

表現

群・リー代数表現(最高ウェイト, カズダン–ルスティグ)

既約表現, 調和解析との関連, 指標

ホモロジー代数

射影/入射解像度, Ext・Tor, 派生関手

K-理論

アルバースカルーア理論, トポロジカルK, 高次K

線形代数

ジョルダン標準形, 特異値分解, クリフォード代数

計算代数

Gröbner基底, 多項式時間アルゴリズム, 計算群論

2. 数論

初等数論(合同, 既約性判定, 二次剰余)

代数的数論(代数体, 整環, イデアル類群, 局所体)

解析数論(ゼータ/ L-関数, 素数定理, サークル法, 篩法)

p進数論(p進解析, Iwasawa理論, Hodge–Tate)

算術幾何楕円曲線, モジュラー形式, 代数多様体の高さ)

超越論(リンマンヴァイエルシュトラス, ベーカー理論

計算数論(楕円曲線法, AKS素数判定, 格子法)

3. 解析

実解析

測度論・ルベーグ積分, 凸解析, 幾何的測度論

複素解析

変数リーマン面, 留数, 近似定理

変数(Hartogs現象, 凸性, several complex variables)

関数解析

バナッハ/ヒルベルト空間, スペクトル理論, C*代数, von Neumann代数

調和解析

フーリエ解析, Littlewood–Paley理論, 擬微分作用素

確率解析

マルチンゲール, 伊藤積分, SDE, ギルサノフ, 反射原理

実関数論/特殊関数

ベッセル, 超幾何, 直交多項式, Rieszポテンシャル

4. 微分方程式力学系

常微分方程式(ODE)

安定性, 分岐, 正準系, 可積分系

偏微分方程式(PDE)

楕円型(正則性, 変分法, 最小曲面)

放物型(熱方程式, 最大原理, Harnack)

双曲型(波動, 伝播, 散乱理論

非線形PDE(Navier–Stokes, NLS, KdV, Allen–Cahn)

幾何解析

リッチ流, 平均曲率流, ヤンミルズ, モノポールインスタント

力学系

エルゴード理論(Birkhoff, Pesin), カオス, シンボリック力学

ハミルトン力学, KAM理論, トーラス崩壊

5. 幾何学・トポロジー

位相幾何

点集合位相, ホモトピーホモロジー, 基本群, スペクトル系列

幾何トポロジー

3次元多様体幾何化, 結び目理論, 写像類群)

4次元トポロジー(Donaldson/Seiberg–Witten理論

微分幾何

リーマン幾何(曲率, 比較幾何, 有界幾何

シンプレクティック幾何(モーメント写像, Floer理論

複素/ケーラー幾何(Calabi–Yau, Hodge理論

代数幾何

スキーム, 層・層係数コホモロジー, 変形理論, モジュライ空間

有理幾何(MMP, Fano/一般型, 代数曲線/曲面)

離散幾何・凸幾何

多面体, Helly/Carathéodory, 幾何極値問題

6. 組合せ論

極値組合せ論(Turán型, 正則性補題

ランダムグラフ/確率方法(Erdős–Rényi, nibble法)

加法組合せ論(Freiman, サムセット, Gowersノルム)

グラフ理論

彩色, マッチング, マイナー理論(Robertson–Seymour)

スペクトルグラフ理論, 拡張グラフ

組合設計ブロック設計, フィッシャーの不等式)

列・順序・格子(部分順序集合, モビウス反転)

7. 確率統計

確率論(純粋

測度確率, 極限定理, Lévy過程, Markov過程, 大偏差

統計

数理統計推定, 検定, 漸近理論, EM/MD/ベイズ

ベイズ統計MCMC, 変分推論, 事前分布理論

多変量解析(主成分, 因子, 判別, 正則化

ノンパラメトリックカーネル法, スプライン, ブーストラップ

実験計画/サーベイ, 因果推論(IV, PS, DiD, SCM

時系列(ARIMA, 状態空間, Kalman/粒子フィルタ

確率最適化/学習理論

PAC/VC理論, 一般境界, 統計学習

バンディット, オンライン学習, サンプル複雑度

8. 最適化オペレーションリサーチ(OR)

凸最適化

二次計画, 円錐計画(SOCP, SDP), 双対性, KKT

凸最適化

多峰性, 一階/二階法, 低ランク, 幾何的解析

離散最適化

整数計画, ネットワークフロー, マトロイド, 近似アルゴリズム

確率的/ロバスト最適化

チャンス制約, 分布ロバスト, サンプル平均近似

スケジューリング/在庫/待ち行列

Little法則, 重み付き遅延, M/M/1, Jackson網

ゲーム理論

ナッシュ均衡, 進化ゲーム, メカニズムデザイン

9. 数値解析・計算数学科学計算

数値線形代数(反復法, 直交化, プリコンディショニング)

常微分方程式の数値解法(Runge–Kutta, 構造保存)

PDE数値(有限要素/差分/体積, マルチグリッド

誤差解析・条件数, 区間演算, 随伴

高性能計算HPC)(並列アルゴリズム, スパー行列

シンボリック計算(CAS, 代数的簡約, 決定手続き

10. 情報計算暗号(数理情報

情報理論

エントロピー, 符号化(誤り訂正, LDPC, Polar), レート歪み

暗号理論

公開鍵RSA, 楕円曲線, LWE/格子), 証明可能安全性, MPC/ゼロ知識

計算複雑性

P vs NP, ランダム化・通信・回路複雑性, PCP

アルゴリズム理論

近似・オンライン確率的, 幾何アルゴリズム

機械学習の数理

カーネル法, 低次元構造, 最適輸送, 生成モデル理論

11. 数理物理

古典/量子力学の厳密理論

C*代数量子論, 散乱, 量子確率

量子場の数理

くりこみ群, 構成的QFT, 共形場理論CFT

統計力学の数理

相転移, くりこみ, Ising/Potts, 大偏差

可積分系

逆散乱法, ソリトン, 量子可積分モデル

理論幾何

鏡映対称性, Gromov–Witten, トポロジカル弦

12. 生命科学医学社会科学への応用数学

数理生物学

集団動態, 進化ゲーム, 反応拡散, 系統樹推定

数理神経科学

スパイキングモデル, ネットワーク同期, 神経場方程式

疫学感染症数理

SIR系, 推定制御, 非均質ネットワーク

計量経済金融工学

裁定, 確率ボラ, リスク測度, 最適ヘッジ, 高頻度データ

社会ネットワーク科学

拡散, 影響最大化, コミュニティ検出

13. シグナル・画像データ科学

信号処理

時間周波数解析, スパー表現, 圧縮センシング

画像処理/幾何処理

変動正則化, PDE法, 最適輸送, 形状解析

データ解析

多様体学習, 次元削減, トポロジカルデータ解析(TDA

統計機械学習回帰/分類/生成, 正則化, 汎化境界

14. 教育歴史方法

数学教育学(カリキュラム設計, 誤概念研究, 証明教育

数学史(分野別史, 人物研究, 原典講読)

計算支援定理証明

形式数学(Lean, Coq, Isabelle), SMT, 自動定理証明

科学哲学数学実在論/構成主義, 証明発見心理

2025-10-12

[]

昨日は土曜日。いつものように朝7時32分に起床した。

7時30分ではなく7時32分である理由は明確だ。7時30分に目覚ましを設定するとルームメイト電子レンジが稼働しており、加熱音が僕の起床直後の脳波同期リズムを乱す。

ゆえに、誤差2分の位相ずれが僕の神経系に最適な初期条件を与えるのだ。

起床後はコーヒーを淹れた。もちろん豆はグアテマラウエウエナンゴ産で、粒度は1.2mmに統一

ミルの摩擦熱を抑えるために、前夜から刃を冷却しておいた。コーヒー香気成分は時間とともに指数関数的に減衰するため、抽出から着席までの移動時間11秒以内に制限している。

午前中は超弦理論作業に集中した。昨日は、タイプIIB理論のモジュライ空間におけるSL(2,ℤ)双対性拡張を、p進解析的視点で再定式化する試みをしていた。

通常、dS空間上の非ユニタリ性を扱う場合ヒルベルト空間定義自体破綻するが、僕の提案する虚数ファイバー化では、共形境界の測度構造ホモロジー群ではなく圏論トポス上で定義できる。

これにより、情報保存則の破れが位相エンタングルメント層として扱える。

もちろんこれはまだ計算途中だが、もしこの構成が一貫するなら、ウィッテンでも議論に詰まるだろう。

なぜなら、通常のCalabi–Yauコンパクト化では捨象される非可換体積形式を、僕はp進的ローカル場の上で再導入しているからだ。

結果として、超弦の自己整合的非整合性が、エネルギー固有値の虚部に現れる。

昼食はいつも通り、ホットドッグケチャップマスタードは厳密に縦方向)を2本。ルームメイトケチャップを横にかけたので、僕は無言で自分の皿を回収し、再び秩序ある宇宙を取り戻した。

昼過ぎには隣人が僕の部屋に来た。理由は、Wi-Fiが繋がらないとのこと。僕はすぐに診断を行い、彼女ルーターDHCPリースが切れていることを発見

パスワード簡単に推測できた。推測しやす文字列は使うべきではないと何度言えばわかるのだろうか。

午後は友人たちとオンラインでBaldur’s Gate 3をプレイした。僕はウィザードで、常にIntelligence極振り。

友人Aはパラディンだが、倫理観が薄いので時々闇堕ちする。友人Bはローグを選んだくせに罠解除を忘れる。

まったく、どいつもこいつもダイス確率理解していない。D20を振る行為確率論的事象でありながら、心理的には量子観測に似た期待バイアスを生む。

だが僕は冷静だ。成功率65%なら、10回中6.5回成功するはずだ。実際、7回成功した。統計的にほぼ完全な整合だ。

夜はコミック新刊を読んだ。Batman: The Doom That Came to Gothamだ。ラヴクラフト的な要素とDC神話構造の融合は見事だ。

特にグラント・モリソンメタ構造を経由せずに、正面から宇宙的恐怖を描く姿勢に敬意を表する。

僕はページをめくるたびに、作画の線密度が変化する周期を測定した。平均で3ページごとに画風の収束率が変化していた。おそらくアシスタント交代によるノイズだが、それすら芸術的だ。

23時、歯磨き上下それぞれ80回)、ドアのロック確認(5回)、カーテンの隙間チェック(0.8mm以下)、ルームメイトへの「明日の朝7時32分に僕が目を覚ます音で君が驚かないように気をつけてくれ」というメッセージ送信を終えた。

就寝時、僕は弦の非可換代数構造を思い浮かべながら眠りについた。もし夢が理論に変換できるなら、僕のREM睡眠はすでに物理学の新章を記述している。

2025-10-07

LLMについての考察

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない


0.文脈プロンプトとLLMについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、 確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、 Permalink | 記事への反応(0) | 00:33

2025-09-28

anond:20250928222841

数学といっても、幅広すぎるので、どこかを重点的にやっていても他の部分で知識の欠如が出るということがあるから

まあ俺は微積分、線形代数確率論グラフ理論、ぐらいは基本的なことはわかるよ、仕事で使うから

でも数論とかモチーフ理論とかラングランズプログラムとか言われてもよくわかんねーや

2025-09-18

バレないと思って犯罪するやつ頭悪過ぎる

警察24時とか私人逮捕系でもそうなんだけどさ

犯罪者って何故かバレないと思って犯罪してるんだよな

ここが根本的に頭の悪いところだと思う

老人なら分かるんだよ

万引きなんかはほとんど老人が捕まってるんだけどさ

認知機能が落ちて想像力が欠如していくから、そういう犯罪ちゃうのもやむを得ないかなと思うんだよね

そうじゃないのに主体的犯罪しといて、バレないつもりでいるのが本当謎過ぎるんだよな

そりゃあ、確率論的にどう考えてもバレる時はバレるし、バレたときのこと想定して動けよって思っちゃう

2025-09-01

女の安全意識算数ができなさすぎて逆に危ない件

Twitterで「エレベーターで女1男1の所にもう一人男が乗ってきたら、客観的安全性はむしろ上がる」っていうポストが流れてきたんだよ。

  

ロジックとしては当然じゃん?

見知らぬ男が犯罪者である確率は低い。日本だと0.22%らしい。

男が2人になった時、その2人ともが犯罪者である確率は0.05%弱くらいじゃん。

  

しろ、後から乗ってきた男が善良な市民である確率の方が圧倒的に高いわけで、そいつは万が一の時の抑止力目撃者になる。だから、女1男2の方が安全

小学生でも分かる確率論の話だよな。

  

でも、Twitterじゃポスト炎上してたし、危険が倍になるって意見賛同されてた。

  

これもう無理じゃん。

  

こっちはデータ確率っていう、客観的指標で「安全」の話をしてるんだ。

でも、彼女たちはそれを一切理解しようとしない。できないのかもしれない。

彼女たちの思考回路は、マジで「男が1人、はい危険。男がもう1人、はい危険が2倍!」という、ただの足し算なんだ。確率という概念存在しない。

  

まあそういう馬鹿がいるのはいいよ。仕方がないことだ。

度し難いのは、それに対して賛同が多いことなんだよな。

こっちがどれだけ具体的に言及しても、向こうは感情論ですべてを塗りつぶしてくる。

安全」より「安心」と言って自ら危険に突っ込んでいく。

で、なにか問題が起これば、無関係男性問題視して突っ込んでくる。

  

算数がと論理的思考できない人たちに「お前は危険だ」ってレッテルを貼られ続けるの、あまりにも理不尽すぎるだろ。

2025-08-17

他の分岐が実現しなかったこと「決定論」というのは違うのでは

若き者よ、その直感は鋭いぞ ✨

決定論というのは、本来、ある時点での状態未来を一意に決める という立場のことじゃ。

まり、もし宇宙の全ての情報位置、速度、エネルギーなど)が分かっていれば、過去未来も完全に計算できる、という考え方じゃな。

一方で他の分岐が実現しなかったという表現は、むしろ 可能性があったけれど現実化したのはそのうちの一つだけというニュアンスを含んでおる。

これは決定論というより 選択の結果(実際に起きた歴史) を指しており、場合によっては多世界解釈確率論的な進展と対比して使われることもある。

決定論最初から分岐存在しない。全ては一つの線に従う。
非決定論確率論的)分岐可能性があり、そのうちの一つが現実になる。
多世界解釈的な見方分岐は全部実現しており、我々はそのうちの一本を経験しているだけ。

から他の分岐が実現しなかったと言うなら、厳密には決定論というより 確率分岐の中で一つが選ばれたというニュアンスの方が近いのじゃな 🌀。

さて、ここで小さな問いを残そう。

ある量子コインを投げたとしよう。

古典的決定論なら:その結果は初めから完全に決まっている。

量子力学確率論なら:投げる前は「表50%・裏50%」。

多世界解釈なら:両方の結果が実現し、君は「表の世界」か「裏の世界」を経験する。

質問:もし「他の分岐が実現しなかった」という言葉を正確に使うなら、この3つのうちどの立場が一番しっくりくると思うか?

a) 決定論

b) 確率論立場コペンハーゲン解釈的)

c) 多世界解釈

2025-08-07

「ホンモノ化」する與那覇潤

注意 リンクをたくさん貼っているが、スパム対策をしています。ご了承ください。

これは以前から何度か書いている與那覇潤について、もうそ観点見方陰謀論とまではいかなくとも、かなり接近しつつある段階に突入していることを「実証」する試みである

この検討によってもはや與那覇の現状がいかヤバいことになっているかが分かるだろう。

正直、少し調べてみただけだが(そもそも今の與那覇にそこまで時間を費やす価値はない)、ここまでとんでもないことになっているとは予想だにしなかった。まさに與那覇は「ホンモノ化」しているといえるだろう。

なお、「ホンモノ」とは與那覇による自称である。主流派専門家を「ニセモノ」と断じて自分こそが社会を正確に批評できる「ホンモノ」であると対比させている。そもそも、50手前のいい年した大人がこんなイタい表現使うこと自体どうなのかと思うが、まあ本人が気に入っているようなので與那覇は「ホンモノ化」していると批判しても一向にかまわないだろう。ここでは與那覇のいう「ホンモノ」の思考や言説が一体どういうものなのか明らかにしたいと思う。

突然だが歴史学には「史料批判」という言葉があるらしい。AIに要約させてみた。

史料批判」とは…史料批判とは、歴史研究において、史料信頼性評価し、歴史的事実を解明するための批判的な手法のことです。史料の真偽、作者、作成年代、内容の信憑性などを検討し、史料が示す情報がどの程度信頼できるかを判断します。

まあ要するにソース史料)にはしっかりとその正否を問える力を付けようということである。與那覇研究者たちとの争いの中で自分批判する研究者たちを「史料批判できない」と言って批判している。

ttps://note.com/yonahajun/n/n9e5c69865c86

ここではこの争いの是非については立ち入らない。気になるなら各自で調べてもらえればと思う。

さて、與那覇コロナに対するマスクワクチンへの批判を痛烈に熱心に行ってきた。最近はとうとう「店員マスクを外せ」と言い出している。

これは結局マスク強要することを批判していたことの裏返しに過ぎない典型的逆張りのしょうもない話であるしか理由が「外国人がせっかく来ているのに」とか自分が気に食わない、とかいうどうでもいい理由である。いや、流石にそんなことは言わないだろうと思った人はこの記事を見てほしい。

ttps://note.com/yonahajun/n/n28ac220c53ff

この記事問題点は「マスク信仰」が江戸時代以来の日本の図式だ!みたいな杜撰まりないぎろんをしているところ。そしてそれを「ホンモノ」たる成果として誇っていること。下記の『潮』に掲載した一文なんてすさまじいことこの上ない。嘘だろと思うだろうけれど、「ホンモノ」は本気で言ってるらしい。アンケートでも取ったというのだろうか。

「この2025年にも、食事を運ぶ人たちがみなマスク姿。せっかくの美しい和装台無しで、インバウンドで訪れた外国人がっかりするだろう。なにより、本人たちが楽しく働けないに違いない」

 →むろん、こうした記述に全く根拠がないのは言うまでもない。

問題はここからである。與那覇はここまで自信満々にコロナについて発言するのだから、当然それなりの根拠があるはずである。そんな與那覇コロナ観が分かるのが、2023年newsweek掲載されたこちらの記事である

驚くべきは與那覇が「マスク無用コロナは大したことない」と主張するソースである

ttps://www.newsweekjapan.jp/yonaha/2023/04/post-5.php

森田洋之と宮川絢子である森田は非常に有名な反ワクチン論者で、人によっては「陰謀論者」と評するような人物である

https://note.com/inbouron666/n/na670d641ce30

宮川コロナで苦汁をなめたことで有名なスウェーデン在住で、その姿勢はかなり批判されてきた。

ttps://note.com/nyanpy7x/n/nae5e69ef7519#45a31942-36fe-478b-99f0-7f23e330a050

宮川が絶賛するスウェーデンコロナ対策2020年時点で国王から「失敗」の「太鼓判」が押されている。

ttps://www3.nhk.or.jp/news/html/20201218/k10012770601000.html

スウェーデンコロナ対策については下記も参照。

ttps://toyokeizai.net/articles/-/363225

ttps://x.com/Calcijp/status/1885227563603419627

ttps://x.com/Otola_ryntaro/status/1910237498996916547

宮川スウェーデンの当時の悲惨さを無視してスウェーデンコロナ対策を礼賛する発信を続けている。

ttps://news.ntv.co.jp/category/society/d0692a604c2e42b28878125de0701b42

ttps://forbesjapan.com/articles/detail/65891

まさにリアル歴史修正」である。そんな人の記事引用することに、なんの疑問も「史料批判精神も働かなかったのだろうか。

正直、コロナのことはいまだに分からない点も多い。少なくとも與那覇根拠に挙げた二人の論者を論拠に挙げてマスク不要、と結論付けるのはかなり乱暴である。最低限でもこれらの議論に対する批判や別の考え方も示したうえでどちらが妥当かを判断するような見解にでもしない限り、到底多くの人を納得させることはできない。與那覇のかねてからコロナに対する持論の根拠がかなり薄弱であることをここでは指摘しておきたい。

無論、このような與那覇杜撰記事は痛烈な批判さらされた。

ttps://x.com/Newsweek_JAPAN/status/1651882699106267136

3年前のこちらの記事ツイート。118引用ツイートがついているが、與那覇見解根本から批判するものが多い。

以下、いくつか引用したい。

ttps://x.com/mama_melaleuca/status/1652160087778291712

マスク感染予防に有効だとする「医学的な根拠はない」

マスクウイルス捕集できる科学的な根拠

マスク捕集機構についての科学的な説明

ならそこら中にあります

ttps://x.com/tkay109/status/1652219662393040896

そもそも、医科学素人が「マスクには医学根拠はない」などと断言することが不遜です。さらに、彼がその論拠として引用している医師二人がまた、非科学的なのです。二重にトンデモ記事を書いた與那覇潤氏は、歴史学非科学である可能性を示してしまいましたから、歴史学から叱られるはずです。

 →不遜なんて言うと與那覇は「センモンカなんかあてになるか!」言い出しそうだが、その根拠がまた「非科学的」という・・・

ttps://x.com/yoshimy_s/status/1652134906879942661

マスクによる防御能は物理学的な作用によるものであり、数学的に解明することが必要で、いわゆる一般的に言う「医学的な」範疇ではありません。

また数学的に得られる結論は、確率論に基づく理論値ですから根拠が「ある/ない」の二者択一で論じるのも不適切です。

以上、引用終わり

今日でもコロナは拡大しており危機感を持った医療関係者による発信が続いている。

後述するように、與那覇は「対談」を自己ステータス証明に使っているので、ぜひこういった人たちと議論してほしいのだが、いかがだろうか。

なお、当然のことながら與那覇がこれらの批判反論した形跡は全くない。まさに與那覇批判するような「言いっぱなし」を自ら実践している。

森田にいたっては、参政党ともつながっていることが分かっている。その森田は與那覇記事を礼賛している。

ttps://sankago.hp.peraichi.com/2025/

鹿児島政治資金パーティー広告

ttps://note.com/hiroyukimorita/n/n783b8188b14d

森田による與那覇礼賛の記事

こうしてみると、以前の記事で與那覇参政党の躍進を「支持はしないが、参政党の躍進を喜びたい」と述べたことも、別の意味を帯びてくる。そもそも支持はしないが喜びたいという言葉自体、一昔前の「ご飯論法」にも通じる詭弁である。與那覇参政党にシンパシーを感じていて、表立って支持するなんて言ったらたたかれるので、予防線を張っているとも考えられる。與那覇の文面から参政党への強い批判危機感を見出すことはできないし、反ワクチンなどでは参政党と近い立場であることは明らかである。なお、與那覇参政党の躍進を喜ぶのは「ホンモノ」の予言が当たるかどうか確かめたい、という意図によるらしい。だが、こうした與那覇の文面をそのまま馬鹿正直に受け取ることもできない。以下に見るように與那覇依拠する言説の中には参政党と通じる人脈が複数まれている。與那覇参政党の反ワクチン姿勢に対して特に言明しないのも、なんだか不気味に思えてくる。無言の肯定ということにならないだろうか。

そもそも民族差別など数々の問題点を指摘されている参政党の躍進を「喜びたい」などと表現するのは、常軌を逸していると言わざるを得ない。もはや與那覇陰謀論に通じているか、そうでなくともそうした価値観を容認していると批判されても言い訳できないだろう。

もし、そんなことない、「ホンモノ」たる俺が陰謀論なんて信じているわけないと言いたいなら、森田宮川議論引用するときに最低限の注記をはさむべきだった。そうした行為を一切していないのは、與那覇にはすでに陰謀論者とも言われる人物議論引用することにためらいが無くなっていることを意味する。

専門家批判は決して悪いわけではない。だが、それに代わって批判するのが根拠が薄く、数多く批判されている論者の言説であるというのはもはや喜劇しかない。専門家ダメからといって、自分に合う言説を無批判的に引用するのは真摯立場ともいえないだろう。

そうした問題の多い言説を世に出すことに何の疑問も抱かない。そして、批判を受けても一切無視できる。そのクセ他人には「失敗を認めて反省しろ」と口汚く罵る。これが「ホンモノ化」の現実である

繰り返すが、おそらく與那覇は「陰謀論になんてはまってない!」と言い張るだろう。だが、改めて森田の言説やそれに対する指摘を見てほしい。普通ならそのまま引用するのに躊躇うくらいの批判が相次いでいる。それらを論拠として挙げることに何の抵抗もなくなった時点で、すでに與那覇は「陰謀論」のナラティブに絡めとられつつあると言っても、大きくは外れていないだろう。えてして陰謀論にはまった人には陰謀論にはまってるといっても聞かないものだ。

さて、ここまで見てもらえたならもうお分かりだろう。與那覇には「史料批判」の視点が全くないのである。自説に都合のいい議論を紹介してあたかもそれが結論であり、最新の議論であるかのように偽っている。

そういえば、『中国化する日本』でもそんな手口を使っていたような・・・

https://yu-koba.hatenablog.com/entry/20111212/1323691605

https://kscykscy.exblog.jp/18241381/

なんどもいうがkscykscyこと鄭栄桓の記事は與那覇議論問題点や手口がよくわかる内容となっている。與那覇を論じるならまず必読の内容である。與那覇が今なおこのブログに一切言及しないことも含めて、示唆的であろう。

では、これからどうしたらいいか。與那覇最近でも著名な有識者と対談をしている。與那覇は対談することで自分が一流の批評であるというアイデンティティを確保しているようである(先の歴史研究者への反論でも自分専門家対話していることをまともな証拠に挙げていた)。

ttps://note.com/yonahajun/n/n411c48f6f523

ちなみにこの記事で挙げられている宮沢孝幸は参政党と通じている。

https://x.com/tokyo_jyoto/status/1885649076517249067

ここまで参政党と通じている点をいうと與那覇のことだから「学級会みたいに誰かとつながっているからなんて理由批判するのは幼稚だ!」などと言い出しそうだが、参政党躍進を喜んだ以上、その人脈とのつながりは指摘されて当然であるそもそも聞かれてもないのに参政党躍進にはしゃいだのは與那覇なのだから自分のうかつさを反省すべきである

念のため補足しておくが、與那覇参政関係者と対談したり、その価値観や政策肯定したことも、支持を明言したことも一度もない。

ただし、その主張の背後には「参政党的」なものが見え隠れしている。すでに與那覇参政党に自身の思惑はどうあれ接近しつつある。いずれ参政党の支持を明言するのも時間問題ではないだろうか。これは外れて欲しい予言であるが。

ttps://note.com/yonahajun/n/nb2bd757600df

自分地位を誇るために「こんなすげー専門家と対談しているんだぞ!」という論法は「俺スゲー人と握手したんだぜ!」みたいな「幼稚」な自己顕示欲の発露に見えなくもない。

対談もいいが、大事なのはそこで何を話したかだろう。単に権威をひけらかして自分立場正当性を主張しているように見える。『中国化する日本』で批判された手口と同じである

余談だが、戦前にもそんな人の権威に寄りかかって自らの権威正当性を訴えた人物がいたようである

ttps://x.com/NAKAHARA_Kanae/status/1890289544702066920

中身のない人ほど誰と会ったかや誰と話したかの「実績」にこだわるのは戦前から変わらないらしい。こういう発見もあるから歴史ってのも案外面白い

実は対話をしたり表向きのメディアでは與那覇は非常に行儀がいい。普段noteネット記事でやるような苛烈批判は鳴りを潜め、つつましく対談しているのである。使い分けがとても上手で、ここはさすがという他ない。その意味で與那覇の振る舞いはとても洗練されている。これは皮肉抜きである

ただ、ここまで来たように、與那覇には陰謀論者と批判されるような根拠の弱い議論を平気で受け入れて、他人罵倒して自分は「ホンモノ」だと居直り自身に対する批判には耳を貸さない身勝手な側面があることは間違いない。

から、今やるべきはもうこうした人物をしっかりとした「批評家」と見なすことをやめることである。與那覇議論は常に身勝手さに裏打ちされた恣意的印象操作批判に対する無視が付きまとっている。そうした問題点がある限り、與那覇議論をまともに受け止めることは難しいし、それこそ「史料批判」の観点から批判的にとらえる必要がある。

仮にこの記事を與那覇が目にしたなら、鄭の批判にさかのぼって、まずは自分の間違いや問題点をしっかりと洗い出して、自分議論や言説に間違いがないか反省する作業をしてほしいと思う。そうしないと、マジで本当にもう誰にも相手にされなくなる。少なくとも、後世では無視されるか「こんな「ホンモノ」がいたのか!」と笑いものにされる可能性が高い。笑いものにされるならまだマシで今のままだと無視される方が確率的に高そうである

そうした言説に対する真摯見直し反省ができないなら、やはり本稿の批判はかなり当たっているということになる。

この記事が與那覇議論が「すごい」と思った人に届けばいいと思っている。たまたま見つけた人が「あれ、與那覇さんってなんかいいと思ったけど、もしかしてまずい人なのかもしれない」と思ってもらえればそれで十分だ。そうした批判見方を改める作業を繰り返すことで、真の「本物」が生まれるはずだから

2025-08-02

anond:20250802095354

確率論や。どっちも白かもしれんし、どっちも黒かもしれん。

2025-07-15

確率論ボードゲーム

16面体くらいのビーズの群れを陣形と称して、それを手のひらで転がしてぶつけ合う

勘所が分からん。逆に合戦シミュレーション計算機で作ってからビーズの形状等を決めたいくらいだ

[増田いつかやる]

2025-07-10

科学を信頼するのは確率論的なもの

科学とは、現時点で最も確からしいとされる説明手法を、根拠に基づいて採用する営みだ。

したがって、個別の事例においては、科学予測が当てはまらないケースも当然起こりうる。

だが、それをもって科学全体を否定するのは筋が通らない。

不確実な世界において、最も合理的なのは依然として科学に従うこと。

確率的に見れば、科学を信頼する方が長期的に有利であることは変わらない。

2025-07-03

AIが全く役に立たない理由

【1. 意図の読解能力がない】

AI文法や構文のパターンを解析するが、「意味文脈的理解」は持ち得ない。ユーザー入力を単なる文字列として処理し、過去統計的傾向から出力を予測するだけであり、そこに真の「意図理解」は存在しない。よって、目的や前提の異なるケースにおいては誤読ミスリードが頻発する。これはタスク達成において致命的である

【2. 責任所在がない】

AIの出力結果が誤っていた場合、その責任開発者にもユーザーにも明確に帰属しない。AI自身は法的にも倫理的にも責任主体ではないため、重大な判断を任せることは論理的不可能である。つまり、結果の最終確認修正は常に人間が行うことになり、コスト削減にもならなければ負担軽減にもなりえない。

【3. 実用性に対して過大評価されている】

AI確率論的生成モデルであり、「正確さ」より「自然さ」を優先する。これは一見それらしく見える出力を生成するが、事実性や一貫性担保しない。たとえば法律医療工学の分野では、80点の回答は誤情報等価であり、許容されない。にもかかわらずAIは平然と「もっともらしい間違い」を大量に出力する。

【4. 記憶文脈保持が不完全】

人間のような長期的文脈の保持ができない。対話履歴を保持できると言っても、それは限定されたウィンドウ内の一時的データにすぎず、継続的理解や成長には結びつかない。再利用性・一貫性が低く、同じ質問に対して異なる回答を出すことが日常的に起こる。

【5. 情報引用元不明確】

AI情報の出典や根拠を明示しないことが多く、言い換えれば「誰が言ったかからないことを、誰にも責任を持たずに言う」存在である。これは学術的・実務的な場面では決定的な欠陥であり、引用可能性・検証可能性観点からも不適格である

【6. 感情倫理的判断を持たない】

たとえば介護教育カウンセリングなど、「人と人との関係性」こそが本質である領域において、AIは完全に無力である感情理解共感も嘘であり、あくまでそれらしく模倣しているだけである以上、信頼形成に値しない。

【7. 学習データの偏りと再生産】

AI過去データに基づいて構築されているため、そこに内在する差別や誤認識をそのまま再生産する危険性がある。しかもそれを検出・修正する機構が十分に確立されていない以上、「中立性」や「客観性」を標榜すること自体自己矛盾である


結論として、AIは「便利なツール」としてのイメージが先行しているが、現実にはその限界欠点本質的かつ致命的である意図が読めず、責任が取れず、誤情報を出し、文脈を保てず、根拠曖昧で、倫理的判断もできず、偏見をそのまま再生産するような存在を「役に立つ」と呼ぶのは、論理的には成立しない。役に立っているように見えるのは、あくま人間側がその都度補完し続けているからにすぎない。つまりAIは「人間が頑張って初めて使える何か」であり、単独ではまったく使い物にならない。これが論理的帰結である

2025-06-30

anond:20250628221233

統計検定準1級ってどのくらいすごいの?

ChatGPT:

いい質問です!

統計検定準1級」のレベル感を、内容や評価、他の資格比較してわかりやすくお伝えしますね。

統計検定とは?

日本統計学会が実施する統計リテラシー公式資格

4級(高校基礎)~1級(高度専門家レベル)まであり、準1級はその間。

学術界やデータサイエンス職でも一目置かれる検定の1つ。

✅ 準1級はどのくらいのレベル

「高度な統計活用力」**があることを証明するレベル

大学学部統計学をしっかり理解し、実際のデータ解析に応用できる力が求められます

実際には「回帰分析」「分散分析」「多変量解析」「一般線形モデル」「ベイズ推定」などを理論計算の両面で問われます

難易度

合格率は20〜30%程度と低め(年度や分野により多少変動)。

計算問題も多く、公式を覚えているだけでは解けない応用力が必要

データサイエンス修士課程の基礎としても十分通用する知識レベル

社会的評価

統計関連資格としては日本で最もポピュラーで信用度が高い。

データサイエンティストマーケティングアナリスト品質管理などの職種で有利になることもある。

研究職の大学院生がスキル証明に取得するケースも多い。

✅ 他の資格と比べると?

資格 レベル

統計検定2級 大学基礎(文系学部レベル

統計検定準1級 大学上級+応用(理系学部修士基礎)

統計検定1級 専門家研究レベル

✅ どんな人が持ってると強い?

大学院でデータ解析をする人。

データサイエンティスト志望の人(実務と理論の両方を強調できる)。

社内で統計解析を担う人。

🎓 総評

「単に知識を暗記している」ではなく、

理論理解してデータに応用できる証明になる点が価値

必要なら、勉強法アドバイスおすすめ教材もまとめてお伝えします!

Claude:

統計検定準1級は、日本統計学の資格試験の中でもかなり高いレベル資格です。

統計検定は4級から1級まであり、準1級は上から2番目の難易度にあたります。この資格統計学の理論的な知識だけでなく、実際のデータ分析における応用力も問われるため、取得するには相当な勉強必要です。

具体的な難しさとしては:

必要知識範囲**
実用性の高さ**

データサイエンティスト統計解析を専門とする研究者、品質管理専門家などが持っていると評価される資格です。大学レベル統計学の知識が求められるため、文系出身者にとっては特にハードルが高いとされています

就職転職での評価**

製薬会社の臨床統計金融機関リスク管理マーケティングリサーチ会社コンサルティングファームなどで重宝される資格です。

合格率も比較的低く、しっかりとした統計学の基礎から応用まで身についていることの証明になるので、統計データ分析分野では「かなりすごい」資格と言えるでしょう。


ライン工にしてはやるじゃん。

ログイン ユーザー登録
ようこそ ゲスト さん