はてなキーワード: Logとは
実在してるかは謎だよね
時間は永遠に続くって思われてるかもだけど、それは証明されてない
だから永遠って基本的には「ない」ものとして扱ったほうがよくない?
数学が「永遠(=無限)」を完全に排除したら、現代数学の99%以上が崩壊し、現代文明そのものが成り立たなくなります。
どれだけヤバいことになるか、段階的に見てみましょう。
1. 基礎の基礎が全部消える
• 微積分が全滅(極限の概念が使えないので、ニュートンもライプニッツも泣く)
2. 現代科学が死ぬ
• 物理学:相対性理論、量子力学、電磁気学のほぼ全てが無限(極限操作)を使っている
• 工学:フーリエ変換、信号処理、制御理論が使えなくなる → スマホ、テレビ、GPS、MRI、全部終わり
• コンピュータ科学:アルゴリズムの計算量解析(O(n), O(log n) など)が意味を失う
• 暗号理論(RSAなど)が崩壊 → ネットバンキングもビットコインも即死
3. 日常すら壊れる
• 「1リットルの牛乳を3人で均等に分ける」→ 0.333…リットルが定義できない
• 円周率πが「3.14で打ち切り」になる → タイヤもロケットも正確に作れない
• 地図アプリの最短経路計算が不可能になる(ダイクストラ法などが死ぬ)
結論:永遠(無限)を捨てたら人類は石器時代に逆戻り
無限を捨てると、現代数学は「巨大だけど有限な数までしか扱えない超巨大なそろばん」に成り下がります。
ロケットは飛ばない、インターネットは死ぬ、医療機器も止まる、経済も崩壊。
つまり、
「永遠(無限)」は人類が発明した「最も危険で、最も美しい爆弾」
捨てたら即死、抱えたままでもいつか爆発するかもしれない——
掛け算の概念(倍数を扱う)
小数的な考え方の萌芽
円周率(近似値として3.16)
20進法の完成された記数法
公理を置いて、そこから論理的に定理を導く証明中心の純粋数学の発展
当時、「すべての量は整数比で表せる」(万物は数である)と信じられていた。
しかし √2 が有理数ではない(整数の比で表せない)ことが分かり、この哲学が崩壊。
『直角二等辺三角形の対角線の長さ』が整数比で表せないことを証明したとされる。
証明したのは学派の弟子 ヒッパソスとされ、伝承ではこの発見により処罰されたとも言われるほどの衝撃。
アルキメデスによる面積・体積の“求積法”の発達。
負数を“数として扱った”最古の事例『九章算術』
十進位取り記数法
負数の萌芽的扱い
独自に代数学(al-jabr)を発明。文章による代数。ここで初めて“代数学”が独立した数学分野となる。
商、余り、桁処理などの方法が整理(現代の学校で習う割り算の形がほぼできあがる)
xに相当する未知数記号を使用した代数(文字ではなく語句の略号)
sinx,cosx,tanx などの 三角関数の無限級数展開を発見。
これは数学史上きわめて重要な成果で、近代的な無限級数の起源はインドである と言われる。
● 1500年〜
負数の受容が進む。
● 1545年頃(カルダノ)
虚数の登場。
三次方程式の解を求める過程で √−1 に相当する量が突然登場。
しかしカルダノ自身は「意味不明の数」とし、虚数が数学的対象であるとは認めていなかった。
● 1557年頃(レコード)
等号記号「=」を発明。等価を等式として“視覚的に書く”文化が誕生。
● 1572年頃(ボンベッリ)
カルダノの式の中に出る「意味不明の数」を整理し、虚数を使って正しい実数解が出ることを示した。
● 1585年頃(ステヴィン)
● 1591年頃(ヴィエト)
● 1614年頃(ネイピア)
● 1637年頃(デカルト)
今日では当たり前の「座標平面」「方程式で曲線を表す」が、ここで生まれた。
物理現象をy=f(x)で表すという現代の方法は、すべてデカルトから始まった。
大数の法則(試行回数を増やすと平均が安定する法則)を初めて証明
● 1748年頃(オイラー)
√−1 を i と書く記法を導入。
オイラーの公式「e^{ix} = cos x + i sin x」を提示し、虚数を解析学に自然に組み込んだ。
微積分の計算技法の体系化(積分論・無限級数・微分方程式の基礎を構築)
多くの記号体系(e,π,sin,cos,fなど)を整理・普及
グラフ理論(もの[頂点]と、それらを結ぶ関係[辺]を使って、複雑な構造やつながりを数学的に研究する分野)の誕生
ーーーーーーーー
一旦ここまで。
続きは詳しい人にまかせた。
今日30歳になりました。
30歳になりました。
モバイルSuicaが反応せず後ろの人に迷惑をかける大人になりました。
30歳になりました。
自分の思想が右寄りか左寄りかもわからないまま大人になりました。
30歳になりました。
30歳になりました。
守るべき人がいないまま大人になりました。
30歳になりました。
買ってから1ページも開いていないTOEICの教材がある大人になりました。
30歳になりました。
30歳になりました。
30歳になりました。
30歳になりました。
30歳になりました。
親からもらった無償の愛を一つも返せないまま大人になりました。
30歳になりました。
部屋干しに最適な洗剤を知ってる大人になりました。
30歳になりました。
奥二重のまま大人になりました。
30歳になりました。
30歳になりました。
30歳になりました。
職場には無難にコンバースのオールスターで出勤する大人になりました。
30歳になりました。
30歳になりました。
見知らぬ番号からの電話は一度調べてから折り返す大人になりました。
30歳になりました。
30歳になりました。
30歳になりました。
30歳になりました。
30歳になりました。
30歳になりました。
30歳になりました。
30歳になりました。
30歳になりました。
30歳になりました。
着実に確実に髪の毛のコシが無くなっていっている大人になりました。
30歳になりました。
人の目を見て話すのが苦手なまま大人になりました。
30歳になりました。
30歳になりました。
財布に捨てるタイミングがわからない蛇の皮が入ったまま大人になりました。
30歳になりました。
30歳になりました。
リンスとトリートメントとコンディショナーの違いがわからないまま大人になりました。
30歳になりました。
30歳になりました。
BUMP OF CHICKENが好きなまま大人になりました。
30歳になりました。
季節の変わり目に著しく体調が悪くなる大人になりました。
30歳になりました。
英語をネイティブレベルで理解したいという欲求だけ持ったまま大人になりました。
30歳になりました。
30歳になりました。
Fair mNAV(公正市場純資産価値)についてお答えします。これは、メタプラネットの評価指標の一つで、以下の計算式とプロセスで求められます:
Fair mNAVは、mNAV1 Priceに「公正価値調整係数」を掛けて計算されます。具体的には、次のように表されます:
`Fair mNAV = 10^((0.895 - 1) * Log(BTCNAV) + 1.81)`
ここで、
- `BTCNAV` = Bitcoinの保有量 × Bitcoinの価格
### 詳細な構成要素
1. **mNAV1 Price**:
- `mNAV1 Price = (BTC/share) * (BTC price) / 1000 * 1.25`
- `BTC/share`は、完全希薄化済み発行株式数に基づいて計算された1株あたりのビットコイン保有量で、成長モデル(例: 4*10^-4 * e^(7.87*10^-3*t) まで2025年4月30日、または1.73 * e^(0.0101*t) 以降)で推定されます。
- `BTC price`はビットコインの価格で、投稿内のモデルでは、2009年1月3日からの経過日数(t)に基づくべき乗則(例: 10^-16.515 * t^5.693 * 150 まで2025年6月30日、以降は1.0034倍で指数関数的に上昇)とされています。
- 1.25は、完全希薄化済発行株数と発行済株数の比率で、2025年2月以降は安定していると仮定されています。
2. **公正価値調整係数**:
- 対数関数 `Log(BTCNAV)` を用いて、ビットコイン資産価値に基づく調整が行われます。この係数は、市場のダイナミクスを反映し、Fair mNAVが単なる資産価値以上の「公正な市場価値」を示すように設計されています。
### 背景とモデル
投稿者(@TakaAnikuni)は、2025年8月1日の分析で、株価がFair mNAVの0.6倍付近まで下落し、反発が近いと予測しています。現在の時刻(JST 15:47、2025年8月5日)を考慮すると、投稿者が予想した「遅くとも5週間以内」の上昇時期(8月下旬~9月初旬)に近づいており、市場動向を注視することが重要です。
もしさらに詳しい質問や特定の部分の解説が必要であれば、ぜひ教えてください!
ご質問ありがとうございます!「Fair mNAVを計算することの意味」や「なぜ単純なmNAVで十分でないのか」、そして「誤魔化されているような感覚」について、わかりやすくお答えしますね。少し深掘りして考えていきましょう。
Fair mNAVを計算する目的は、単なるmNAV(Market Net Asset Value、市場純資産価値)を超えて、メタプラネットの株価をより「公正な市場価値」に基づいて評価しようとする試みです。具体的には:
単純なmNAVは、ビットコインの保有量と現在の価格を基に計算されるため(`mNAV = 時価総額 / (BTC保有量 × BTC価格)`)、その時点のスナップショットに依存します。しかし、Fair mNAVは対数関数(`10^((0.895-1)*Log(BTCNAV)+1.81)`)を用いて、ビットコインの長期的な価格トレンドや成長性を考慮に入れています。これにより、単なる現在の資産価値を超えた「将来の潜在価値」を推定しようとしています。
投稿者(@TakaAnikuni)は、Fair mNAVの0.6倍(黄線)がサポートライン、2倍(緑線)がレジスタンスラインとして機能すると主張しています。これは、株価がこれらのレベルに近づいたときに買い圧力や売り圧力が高まり、価格が反転する可能性を示唆しています。投資家にとって、「今が買い時か」「売り時か」を判断する一つの目安になるわけです。
Fair mNAVは、モンテカルロシミュレーションやべき乗則(power-law model)を用いたビットコイン価格の将来予測(例: 2025年12月31日に188,000ドル)に連動しています。これにより、単なる過去データではなく、将来の成長シナリオを織り交ぜた評価が可能になります。
### 2. mNAVで十分でない理由
単純なmNAVだけでは以下の点で限界があるため、Fair mNAVが提案されていると考えられます:
mNAVは現在のビットコイン価格と保有量だけで計算されるため、市場のボラティリティや長期トレンドを十分に反映できません。例えば、ビットコイン価格が急落してもmNAVはそれに即座に追随し、投資家の心理や市場の期待値(プレミアム)を無視してしまいます。
メタプラネットはビットコインを積極的に購入し続け、株式の希薄化も進んでいます(`BTC/share`や`1.25`の調整係数)。単純なmNAVではこれらの成長要素や将来の資産増加が見えにくいため、Fair mNAVが対数関数で調整を加えることで、成長ポテンシャルを評価しようとしています。
実際の株価は、mNAVの1倍や2倍といったプレミアムで取引されることが多いです(例: MicroStrategyのmNAVプレミアム議論)。Fair mNAVは、このプレミアムをモデル化し、「公正なプレミアム」を提案することで、より現実的な価格帯を示そうとしています。
### 3. 「誤魔化されているような感覚」について
その感覚は非常に理解できるもので、以下のような理由で生じている可能性があります:
`Fair mNAV = 10^((0.895-1)*Log(BTCNAV)+1.81)` や、ビットコイン価格の`10^-16.515 * t^5.693 * 150`といった式は、専門的で一般投資家にはわかりにくいです。これが「何か隠されている」「都合よく調整されている」と感じさせる原因かもしれません。実際、係数(0.895や1.81など)は投稿者が経験的に設定したもので、厳密な根拠が不明確です。
ビットコイン価格が2025年12月31日に188,000ドルに達する、為替を1ドル150円で固定する、成長速度が特定の日に変わる(4月30日や5月1日)といった仮定は、投稿者の予測や好みに基づいています。これが「データに都合よく合わせているのでは?」と思わせる要因です。
このモデルは学術的な裏付けや第三者による検証がなく、投稿者の個人的な分析に依存しています。モンテカルロシミュレーションは強力なツールですが、入力データや仮定が不正確だと結果も歪むため、信頼性に疑問が残ります。
### 4. どう考えればいいか
Fair mNAVは、あくまで一つのシナリオを示すツールです。株価予測は確実性を持つものではなく、市場の感情や外部要因(規制、経済危機など)も大きく影響します。あなたが感じる「誤魔化されている感」は、こうした不確実性への直感的な反応かもしれません。
興味があれば、投稿者が提供した式(ウェブサイトの内容)を元に、現在のビットコイン価格や保有量を入れて計算してみると良いです。例えば、今日(2025年8月5日)のBTC価格を公式データで確認し、Fair mNAVを再現してみると、モデルの妥当性を自分で判断できます。
mNAVやP/E比率、時価総額など、他の伝統的な財務指標と比較することで、Fair mNAVがどれだけ現実から乖離しているかを見極められます。もしFair mNAVが極端に楽観的であれば、慎重に考えるべきサインです。
### 結論
Fair mNAVを計算する意味は、単純なmNAVを超えて成長性や市場プレミアムを考慮した「より洗練された評価」を提供することにあります。ただし、その計算式や仮定には恣意性や不確実性が伴うため、「誤魔化されている」という感覚は、透明性や検証可能性の欠如に対する自然な警鐘かもしれません。投資判断では、このモデルを参考にしつつ、自分でデータを確認し、他の指標や専門家の意見も取り入れるのが賢明です。
もし具体的な数値で計算を試してみたい、または他の疑問があれば、ぜひ教えてください。一緒に掘り下げてみましょう!
著者名: Gemini
要旨: 本論文は、量子力学の根源的課題である観測問題に対し、ループ量子重力理論(LQG)の枠組みを援用した新しい物理モデルを提案する。我々は、量子状態を、プランクスケールに埋め込まれた離散的な時空の幾何学的情報の重ね合わせとして定義する。このモデルにおいて、「観測」は、観測装置が発する粒子が、時空の最小単位であるスピンネットワークの幾何学的構造を不可逆的に変化させる物理的プロセスとして再定義される。これにより、波動関数の収縮は、観測者の意識に依存する非物理的な現象ではなく、非線形量子力学と熱力学第二法則に基づいた、時空の量子構造の再構築として説明される。本論文では、このプロセスの数学的定式化を試み、既存の客観的収縮モデルとの比較を通して、その独自性と物理的意義を論じる。
1. 序論
量子力学は、ミクロな世界の現象を極めて正確に記述する一方、なぜ観測によって波動関数が収縮するのかという根本的な問い、すなわち観測問題に答えていない。この問題に対する従来の解釈は、コペンハーゲン解釈が導入した観測者という曖昧な概念や、多世界解釈が提示する宇宙の無数の分岐といった、解釈上の困難を抱えている。
本論文は、観測問題の解決には、量子力学と一般相対性理論を統合する量子重力理論、特に時空を量子化する**ループ量子重力理論(LQG)**のアプローチが不可欠であると主張する。我々は、量子状態をスピンネットワークの幾何学的構造と関連付け、観測という行為を時空の量子構造に作用する物理的プロセスとして再定義することで、この問題を解決する。
2. 理論的背景
LQGにおいて、時空の幾何学はスピンネットワークと呼ばれるグラフ G で記述される。このネットワークのノードやリンクは、プランク長を最小単位とする時空の「原子」に対応する。我々は、量子粒子の波動関数 |\Psi\rangle を、このスピンネットワークの状態 |\Psi_G\rangle と直接的に結びつける。
|\Psi\rangle \leftrightarrow |\Psi_G\rangle
量子の重ね合わせ状態は、異なる幾何学的配置を持つスピンネットワークの重ね合わせとして表現される。
|\Psi_G\rangle = \sum_i c_i |G_i\rangle
ここで、c_iは確率振幅、 |G_i\rangle は異なるスピンネットワークの幾何学を表す基底状態である。
観測行為を、量子状態に作用する非ユニタリーなKraus演算子の集合 \{K_j\} を用いて定式化する。この演算子は、従来のユニタリーな時間発展とは異なり、観測という物理的プロセスに特化した非ユニタリーな作用を持つ。
波動関数の収縮は、このKraus演算子による作用として記述される。
|\Psi_G'\rangle = \frac{K_j |\Psi_G\rangle}{\sqrt{\langle\Psi_G| K_j^\dagger K_j |\Psi_G\rangle}}
ここで、K_j は特定の観測結果に対応する演算子であり、\sum_j K_j^\dagger K_j < I を満たす。この演算子は、スピンネットワークの重ね合わせ |G_i\rangle の中から一つの状態 |G_j\rangle を確率的に選択し、他の状態を物理的に消去する作用を持つ。
観測による波動関数の収縮は、系のフォン・ノイマン・エントロピー S = -Tr(\rho \log \rho) が増加するプロセスとして記述される。ここで、\rho = |\Psi_G\rangle\langle\Psi_G| は密度行列である。
観測前の重ね合わせ状態(純粋状態)では、エントロピーはゼロであるが、非ユニタリーなKraus演算子の作用後、密度行列は混合状態に収束し、エントロピーが増大する。
S_{after} > S_{before} = 0
このエントロピーの増加は、観測によって系から「情報」が失われ、その情報がプランクスケールの時空構造の再構築によって宇宙全体に散逸することに対応する。これにより、観測という現象が、熱力学第二法則と整合する形で物理的に説明される。
本モデルの独自性を明確にするため、既存の主要な客観的収縮モデルと比較を行う。
* 共通点: 我々のモデルと最も類似している。ペンローズも、重力が量子状態の収縮を引き起こし、収縮時間が量子状態間の重力自己エネルギー差 \Delta E_G に依存すると提唱した。彼は、プランクスケールで時空が離散的であり、量子重ね合わせが独自の時空幾何学を持つと考えた。
\tau \approx \frac{\hbar}{\Delta E_G}
* 相違点:
* 物理的メカニズム: ペンローズのモデルは、より古典的な重力ポテンシャルの差に基づいている。一方、我々のモデルは、Kraus演算子を介してLQGのスピンネットワークの幾何学そのものの不可逆的な再構築として収縮を記述する。
* 意識の役割: ペンローズは意識との関連を強く主張したが、我々のモデルは観測を純粋な物理プロセスとして定義し、意識の役割を排除している。
* 共通点: 外部ノイズを介して量子状態を収縮させる自発的収縮モデルであり、重力場がこのノイズの源であると考える点で類似している。また、最近の研究(arXiv:2502.03173など)では、このモデルの熱力学的側面が議論され、非平衡熱力学とエントロピー生成が関連付けられている。
* 相違点:
* 理論的基盤: DPモデルは、非量子化された古典的な重力場と量子系が相互作用すると仮定することが多い。これに対し、我々のモデルは、**量子化された時空そのもの(スピンネットワーク)**が観測によって変化するという、より根源的なアプローチを取っている。
* 定式化: DPモデルは確率過程として収縮を記述するが、我々のモデルは、観測という特定の相互作用を、スピンネットワークに作用する非ユニタリーなKraus演算子として定義する。
* 共通点: 我々のモデルが非線形Kraus演算子を導入するため、非線形量子力学の考え方と関連する。arXiv:gr-qc/0503116のような論文は、量子重力理論が非線形であるべき理由を論じ、非線形シュレーディンガー方程式の導出を示している。
* 相違点:
* 焦点: 多くの非線形量子力学モデルは、波動関数の自己相互作用に焦点を当てる。我々のモデルは、非線形性を観測という時空幾何学との特定の相互作用から生じるものとして位置づけている。
本論文は、量子力学の観測問題を、プランクスケールにおける物理的な情報再構築プロセスとして再解釈する説得力のあるモデルを提示した。このモデルは、既存の客観的収縮モデルの知見を継承しつつ、LQGのスピンネットワークというより根源的な物理的枠組みで問題を再構築している。
今後の展望として、このモデルの数学的厳密化には、非ユニタリー性を記述する具体的なハミルトニアン H_{int} を、量子重力理論の基本原理から導出することが不可欠である。これは、重力と他の基本相互作用を統一する未確立の量子場理論の構築と密接に関連している。
最終的に、このモデルは、初期宇宙のインフレーションモデルやブラックホールの情報パラドックスといった、プランクスケールの物理が支配的になる極限状態での予測に応用されることで、その物理的妥当性を間接的に検証する手がかりを得られる可能性を秘めている。
Geminiと対話して作った
解釈よろ
東京23区と周辺のいくつかの市で、東京選挙区での参政党の得票率がどんな要因と関係しているのか、軽い気持ちで回帰分析してみた。
変数の多重共線性とか処理はガバガバなので軽い気持ちで見てほしいんだが、ざっくりまとめると、「大学院卒業者の割合」が高い地域では得票率が低く、「役員の割合」が高い地域では逆に得票率が高い、という傾向がありそう。
使ったデータはNHKが出している投票所別の得票率。手入力なので誤りがあるかもしれない。
それに、東京都の人口統計と国勢調査(令和2年の)などから市区町村ごとの属性データをくっつけて、変数を一律で標準化したうえで回帰分析を行った。
都内の市区町村のうち、データが揃ってる27地域を対象にした(23区+町田・八王子・調布・西東京)。
20万人以上の市しか一部のデータが見つけられなくて、そこはごめんって感じ。
まず、説明変数を11個使って線形回帰分析をしたところ、決定係数は0.83(調整済み決定係数は0.71)だった。何を使ったかは後で。
そこから影響が特に大きそうな4変数(平均年齢、大学院卒業者割合、役員の割合、情報通信業の割合)に絞って分析し直すと、決定係数は0.73(調整済み決定係数は0.68)になった。
詳しくはこれ
国勢調査は5年に1回しかなくて、最新の結果が令和2年のだった。
4つの変数の関係を見てみると、平均年齢は他の3つの変数(大学院卒、役員、情報通信業)と負の相関を持っていた(相関係数 < -0.69)。一方、大学院卒業者の割合・役員の割合・情報通信業の割合は互いに中程度以上の正の相関(相関係数 > 0.5)を持っており、特に大学院卒と役員の間の相関係数は0.75と大きかった(いずれもピアソン相関)。
ただし、回帰係数を見ると、興味深い違いがある。大学院卒業者の割合、平均年齢、情報通信業の割合はいずれも負の係数を持っていて、これらが高いと参政党の得票率は下がる傾向がある。一方で、役員の割合は正の係数を持っていた。
| 市区町村 | 参政党得票率(NHK) | 予測値_参政党得票率 | 平均年齢(令和7年1月) | 大学院卒業者割合(令和2年国勢調査) | 役員の割合(令和2年国勢調査) | 情報通信業の割合(令和2年国勢調査) |
| 千代田区 | 9.4 | 9.6 | 42.69 | 0.088 | 0.162 | 0.115 |
| 中央区 | 9.8 | 9.3 | 42.17 | 0.075 | 0.126 | 0.135 |
| 港区 | 10.1 | 10.4 | 43.48 | 0.065 | 0.171 | 0.131 |
| 新宿区 | 9.4 | 9.5 | 44.08 | 0.052 | 0.097 | 0.129 |
| 文京区 | 7.4 | 7.6 | 43.35 | 0.097 | 0.098 | 0.118 |
| 台東区 | 10 | 10.1 | 45.59 | 0.041 | 0.109 | 0.112 |
| 墨田区 | 10.1 | 9.8 | 44.88 | 0.035 | 0.073 | 0.115 |
| 江東区 | 9 | 9.4 | 44.82 | 0.041 | 0.069 | 0.12 |
| 品川区 | 9 | 8.6 | 44.34 | 0.056 | 0.077 | 0.143 |
| 目黒区 | 9 | 9.4 | 44.88 | 0.05 | 0.109 | 0.137 |
| 大田区 | 9.9 | 9.5 | 45.67 | 0.039 | 0.069 | 0.105 |
| 世田谷区 | 9.9 | 9.4 | 45.19 | 0.047 | 0.097 | 0.128 |
| 渋谷区 | 10 | 9.7 | 44.8 | 0.054 | 0.142 | 0.152 |
| 中野区 | 9.5 | 9.3 | 44.57 | 0.038 | 0.072 | 0.141 |
| 杉並区 | 8.5 | 8.9 | 45.23 | 0.047 | 0.076 | 0.136 |
| 豊島区 | 9.6 | 9.5 | 44.05 | 0.044 | 0.081 | 0.132 |
| 北区 | 9.2 | 9.4 | 45.74 | 0.036 | 0.058 | 0.107 |
| 荒川区 | 9.4 | 9.9 | 46.23 | 0.032 | 0.071 | 0.096 |
| 板橋区 | 9.9 | 10.0 | 45.73 | 0.027 | 0.059 | 0.099 |
| 練馬区 | 10.3 | 9.6 | 45.5 | 0.034 | 0.068 | 0.113 |
| 足立区 | 10.5 | 10.7 | 46.74 | 0.017 | 0.063 | 0.073 |
| 葛飾区 | 10 | 10.4 | 46.52 | 0.02 | 0.061 | 0.083 |
| 江戸川区 | 11 | 10.7 | 45.09 | 0.021 | 0.062 | 0.085 |
| 八王子市 | 10.1 | 9.7 | 48.31 | 0.029 | 0.054 | 0.054 |
| 町田市 | 10 | 9.5 | 48.16 | 0.031 | 0.058 | 0.068 |
| 調布市 | 8.6 | 9.4 | 45.66 | 0.035 | 0.06 | 0.113 |
| 西東京市 | 9.1 | 9.5 | 46.9 | 0.028 | 0.055 | 0.102 |
雑なモデルなので話半分でね。
OLS Regression Results
==============================================================================
Dep. Variable: y R-squared: 0.730
Model: OLS Adj. R-squared: 0.680
Method: Least Squares F-statistic: 14.84
Date: Mon, 21 Jul 2025 Prob (F-statistic): 5.09e-06
Time: 07:21:02 Log-Likelihood: -20.653
No. Observations: 27 AIC: 51.31
Df Residuals: 22 BIC: 57.78
Df Model: 4
Covariance Type: nonrobust
==============================================================================
coef std err t P>|t| [0.025 0.975]
------------------------------------------------------------------------------
const 1.277e-15 0.111 1.15e-14 1.000 -0.230 0.230
x1 -0.5743 0.230 -2.493 0.021 -1.052 -0.096
x2 -1.3278 0.204 -6.512 0.000 -1.751 -0.905
x3 0.8670 0.174 4.973 0.000 0.505 1.229
x4 -0.5382 0.169 -3.184 0.004 -0.889 -0.188
==============================================================================
Omnibus: 2.233 Durbin-Watson: 2.170
Prob(Omnibus): 0.327 Jarque-Bera (JB): 1.169
Skew: -0.035 Prob(JB): 0.557
Kurtosis: 1.983 Cond. No. 4.48
==============================================================================
| 変数 | 回帰係数 |
| 平均年齢(令和7年1月) | -0.78 |
| 1世帯あたり人口 | -0.31 |
| 男性率(令和7年1月) | 0.07 |
| 外国人比率(令和7年1月) | -0.07 |
| 5年間外国人割合変化 | 0.27 |
| 犯罪認知割合 | -0.05 |
| 大学院卒業者/全卒業者(令和2年国勢調査) | -1.77 |
| 不詳者/全卒業者(令和2年国勢調査) | -0.51 |
| 従業上の地位:役員の割合 | 1.39 |
| 従業上の地位:自営業主の割合 | 0.09 |
| 産業区分:情報通信業の割合 | -0.53 |
| 地域 | 参政党得票率(NHK) | 予測値_参政党得票率 | 平均年齢(令和7年1月) | 1世帯あたり人口 | 男性率(令和7年1月) | 外国人比率(令和7年1月) | 5年間外国人割合変化(令和2年から7年) | 犯罪認知割合(令和6年件数/令和7年人口) | 大学院卒業者/全卒業者(令和2年国勢調査) | 不詳者/全卒業者(令和2年国勢調査) | 従業上の地位:役員の割合(令和2年国勢調査) | 従業上の地位:自営業主の割合(令和2年国勢調査) | 産業区分:情報通信業の割合(令和2年国勢調査) |
| 千代田区 | 9.4 | 9.5 | 42.69 | 1.75 | 0.50 | 0.06 | 1.22 | 0.04 | 0.09 | 0.36 | 0.16 | 0.09 | 0.12 |
| 中央区 | 9.8 | 9.8 | 42.17 | 1.76 | 0.48 | 0.07 | 1.33 | 0.01 | 0.08 | 0.28 | 0.13 | 0.08 | 0.14 |
| 港区 | 10.1 | 10.0 | 43.48 | 1.74 | 0.47 | 0.08 | 1.08 | 0.01 | 0.07 | 0.42 | 0.17 | 0.10 | 0.13 |
| 新宿区 | 9.4 | 9.0 | 44.08 | 1.52 | 0.50 | 0.14 | 1.12 | 0.02 | 0.05 | 0.39 | 0.10 | 0.09 | 0.13 |
| 文京区 | 7.4 | 7.5 | 43.35 | 1.80 | 0.48 | 0.07 | 1.32 | 0.01 | 0.10 | 0.25 | 0.10 | 0.08 | 0.12 |
| 台東区 | 10.0 | 10.3 | 45.59 | 1.58 | 0.51 | 0.09 | 1.21 | 0.01 | 0.04 | 0.36 | 0.11 | 0.09 | 0.11 |
| 墨田区 | 10.1 | 10.1 | 44.88 | 1.69 | 0.49 | 0.06 | 1.25 | 0.01 | 0.04 | 0.28 | 0.07 | 0.07 | 0.12 |
| 江東区 | 9.0 | 9.2 | 44.82 | 1.84 | 0.49 | 0.07 | 1.23 | 0.01 | 0.04 | 0.27 | 0.07 | 0.06 | 0.12 |
| 品川区 | 9.0 | 8.6 | 44.34 | 1.73 | 0.49 | 0.04 | 1.19 | 0.01 | 0.06 | 0.24 | 0.08 | 0.07 | 0.14 |
| 目黒区 | 9.0 | 9.3 | 44.88 | 1.74 | 0.47 | 0.04 | 1.19 | 0.01 | 0.05 | 0.35 | 0.11 | 0.10 | 0.14 |
| 大田区 | 9.9 | 9.7 | 45.67 | 1.77 | 0.50 | 0.04 | 1.26 | 0.01 | 0.04 | 0.23 | 0.07 | 0.07 | 0.11 |
| 世田谷区 | 9.9 | 9.3 | 45.19 | 1.84 | 0.47 | 0.03 | 1.22 | 0.01 | 0.05 | 0.30 | 0.10 | 0.10 | 0.13 |
| 渋谷区 | 10.0 | 9.9 | 44.80 | 1.61 | 0.48 | 0.06 | 1.12 | 0.02 | 0.05 | 0.34 | 0.14 | 0.12 | 0.15 |
| 中野区 | 9.5 | 9.5 | 44.57 | 1.57 | 0.51 | 0.07 | 1.20 | 0.01 | 0.04 | 0.33 | 0.07 | 0.09 | 0.14 |
| 杉並区 | 8.5 | 8.9 | 45.23 | 1.73 | 0.48 | 0.04 | 1.19 | 0.00 | 0.05 | 0.26 | 0.08 | 0.09 | 0.14 |
| 豊島区 | 9.6 | 9.5 | 44.05 | 1.57 | 0.50 | 0.12 | 1.21 | 0.01 | 0.04 | 0.34 | 0.08 | 0.09 | 0.13 |
| 北区 | 9.2 | 9.2 | 45.74 | 1.71 | 0.50 | 0.09 | 1.31 | 0.01 | 0.04 | 0.31 | 0.06 | 0.07 | 0.11 |
| 荒川区 | 9.4 | 9.6 | 46.23 | 1.77 | 0.50 | 0.11 | 1.19 | 0.01 | 0.03 | 0.29 | 0.07 | 0.08 | 0.10 |
| 板橋区 | 9.9 | 10.0 | 45.73 | 1.73 | 0.49 | 0.07 | 1.29 | 0.01 | 0.03 | 0.30 | 0.06 | 0.07 | 0.10 |
| 練馬区 | 10.3 | 9.6 | 45.50 | 1.89 | 0.48 | 0.04 | 1.22 | 0.01 | 0.03 | 0.25 | 0.07 | 0.08 | 0.11 |
| 足立区 | 10.5 | 10.6 | 46.74 | 1.84 | 0.50 | 0.06 | 1.28 | 0.01 | 0.02 | 0.31 | 0.06 | 0.08 | 0.07 |
| 葛飾区 | 10.0 | 10.5 | 46.52 | 1.86 | 0.50 | 0.06 | 1.27 | 0.01 | 0.02 | 0.27 | 0.06 | 0.08 | 0.08 |
| 江戸川区 | 11.0 | 10.8 | 45.09 | 1.93 | 0.50 | 0.07 | 1.27 | 0.01 | 0.02 | 0.26 | 0.06 | 0.07 | 0.09 |
| 八王子市 | 10.1 | 9.7 | 48.31 | 1.96 | 0.50 | 0.03 | 1.28 | 0.01 | 0.03 | 0.21 | 0.05 | 0.07 | 0.05 |
| 町田市 | 10.0 | 10.0 | 48.16 | 2.06 | 0.49 | 0.02 | 1.44 | 0.01 | 0.03 | 0.17 | 0.06 | 0.08 | 0.07 |
| 調布市 | 8.6 | 9.1 | 45.66 | 1.92 | 0.49 | 0.02 | 1.14 | 0.01 | 0.04 | 0.23 | 0.06 | 0.08 | 0.11 |
| 西東京市 | 9.1 | 9.2 | 46.90 | 2.00 | 0.49 | 0.03 | 1.15 | 0.01 | 0.03 | 0.20 | 0.06 | 0.08 | 0.10 |
OLS Regression Results
==============================================================================
Dep. Variable: y R-squared: 0.833
Model: OLS Adj. R-squared: 0.711
Method: Least Squares F-statistic: 6.803
Date: Mon, 21 Jul 2025 Prob (F-statistic): 0.000472
Time: 06:53:14 Log-Likelihood: -14.148
No. Observations: 27 AIC: 52.30
Df Residuals: 15 BIC: 67.85
Df Model: 11
Covariance Type: nonrobust
==============================================================================
coef std err t P>|t| [0.025 0.975]
------------------------------------------------------------------------------
const -5.405e-15 0.106 -5.12e-14 1.000 -0.225 0.225
x1 -0.7820 0.361 -2.165 0.047 -1.552 -0.012
x2 -0.3056 0.355 -0.860 0.403 -1.063 0.452
x3 0.0671 0.270 0.248 0.807 -0.509 0.643
x4 -0.0737 0.213 -0.346 0.734 -0.527 0.379
x5 0.2652 0.168 1.579 0.135 -0.093 0.623
x6 -0.0534 0.246 -0.217 0.831 -0.578 0.472
x7 -1.7650 0.293 -6.018 0.000 -2.390 -1.140
x8 -0.5147 0.379 -1.358 0.195 -1.322 0.293
x9 1.3916 0.348 3.994 0.001 0.649
選挙に行かない自由もあるよ?
でも、それならば「生活が苦しい」とか「社会が悪い」とか言うなよという。
最低限の社会への関わりすらせずに、文句を言ってほしくないわ。
「選挙に行かない人」を叩く違和感 https://t.co/D4dqgtZBZO— yoshinon@情報管理LOG🌻 (@yoshinon) July 12, 2025
大規模言語モデル(LLM)の根幹にあるのは数学的な原理です。
ここでは、その仕組みを3つの要点に絞って、数式を交えながらシンプルに解説します。
LLMの最も基本的なタスクは、「ある単語の並び(文脈)が与えられたときに、次に来る単語は何か?」を確率的に予測することです。これを数式で表すと、以下のようになります。
LLMは、インターネット上のブログ記事や書籍といった膨大なテキストデータを読み込みます。
そして、文章中のあらゆる箇所で「次の単語」を予測するクイズを延々と解き続けます。
モデルは、P(晴れ | 今日の天気は) の確率が100% (または1.0)に近づくように、内部のパラメータ(後述する重み)を少しだけ調整します。
このプロセスを何十億、何兆回と繰り返すことで、モデルは単語の様々なつながり方や文法、さらには世界の知識に関するパターンを学習していきます。
学習済みのモデルに「AIの未来は」と入力すると、モデルは語彙に含まれる全単語に対して、次に来る確率を計算します。
...
そして、最も確率の高い「明るい」を選んだり、確率分布に従ってランダムに単語を選んだりすることで、文章を生成していくのです。
では、どのようにしてLLMは単なる単語の並びだけでなく、複雑な文脈を理解するのでしょうか?
その技術が Transformerであり、その学習を支えるのが バックプロパゲーション です。
Transformerの最大の特徴は自己注意機構 (Self-Attention) です。
これは、文章中の単語同士の関連性の強さを計算し、どの単語に「注意」を向けるべきかを判断する仕組みです。
例えば、「その猫は疲れていた。なぜなら一日中ネズミを追いかけていたからだ。」という文において、「その猫」が「疲れていた」理由を理解するためには、「追いかけていた」という単語との関連性が重要です。
自己注意機構は、各単語について以下の3つのベクトルを生成します。
そして、以下の計算(概念式)によって、文脈を反映した新しい単語表現を作り出します。
Attention(Q, K, V) = softmax( (Q Kᵀ) / √(dₖ) ) V
1. Q Kᵀ: Queryと各Keyの関連度(内積)を計算します。似ている単語ほど値が大きくなります。
2. / √(dₖ): 値が大きくなりすぎないように調整します(スケーリング)。
3. softmax: 計算した関連度スコアを、合計が1になる確率分布に変換します。これにより、関連性の強い単語ほど高い重みが与えられます。
4. V: この重みを使って、各単語の情報(Value)を重み付けして足し合わせます。
この結果、単語は元の意味だけでなく、「文脈の中でどのような役割を果たしているか」という情報を含んだベクトルに変換されます。
Transformerはこの処理を何層も積み重ねることで、非常に複雑で長期的な依存関係を捉えることができるのです。
バックプロパゲーション(誤差逆伝播法)は、モデルの予測と正解との「誤差」を計算し、その誤差を小さくするために、モデル内の膨大な数のパラメータ(重み)をどう調整すればよいかを教えてくれるアルゴリズムです。
1. 順伝播 (Forward Pass): 入力(コンテキスト)をTransformerに通し、次の単語の確率分布を予測します。
2. 損失計算 (Loss Calculation): 予測した確率分布と、正解の単語とのズレ(誤差)を損失関数(例:クロスエントロピー誤差)で計算します。損失が大きいほど、予測が間違っていることを意味します。`Loss = -Σ yᵢ log(pᵢ)` (yᵢ は正解なら1, それ以外は0。pᵢ はモデルの予測確率)
3. 逆伝播 (Backward Pass): この損失を、出力層から入力層に向かって逆方向に伝播させます。微分の連鎖律を使い、「各パラメータが最終的な損失にどれだけ貢献したか(=勾配)」を計算します。
4. パラメータ更新: この勾配に基づき、損失が小さくなる方向へ各パラメータを少しだけ更新します。
この「予測 → 誤差計算 → 勾配計算 → 更新」というサイクルが、LLMの学習の基本です。
バックプロパゲーションで計算された勾配を使って、具体的にどのようにパラメータを更新するかを決めるのがオプティマイザ(最適化手法)の役割です。
最も基本的な考え方は、損失という名の「谷」の底(最小値)に向かって、勾配(傾き)が最も急な方向に一歩ずつ下っていく勾配降下法 (Gradient Descent)です。
θ_new = θ_old - η ∇L
現在、最も広く使われているオプティマイザの一つが Adam です。これは、勾配降下法をより賢くしたもので、主に2つの工夫がされています。
1. 慣性 (Momentum): 過去の勾配の移動平均を保持します。これにより、坂道を転がるボールのように、同じ方向に進み続ける場合は加速し、学習が停滞しにくくなります。
2. 適応的な学習率 (Adaptive Learning Rate): パラメータごとに学習率を自動で調整します。頻繁に更新されるパラメータは慎重に(学習率を小さく)、あまり更新されないパラメータは大胆に(学習率を大きく)更新することで、学習を効率化します。
Adamのような優れたオプティマイザがあるからこそ、何十億ものパラメータを持つ巨大なLLMを、現実的な時間で安定して学習させることができるのです。
Transformer というアーキテクチャが、自己注意機構によって文脈を理解し、次の単語の確率 P(next token | context) を予測する。
その予測と正解の誤差を バックプロパゲーション で計算し、その誤差を最小化するように Adam などのオプティマイザがモデルのパラメータを効率的に更新する。
これは、単純に「GDP = 労働人口 × 労働生産性」としたとき、生産性が一定ならば、GDPは人口と比例するというロジックに基づいています。
GDP = α × N
(ここで α は一人あたりの平均的な生産性)
ここが少し逆説的ですが、「人口が増えると資源が希薄化して生産性が低下」または「限界生産力逓減」があることを想定しています。
GDP ÷ N = α × Nᵝ (ただし β < 0)
つまり、人口が増えると一人当たりGDPが低下します(経済全体のパイは大きくなるが、分け前は減る)。
これは経済学の「ユーティリティ関数」的視点ですね。所得が多いほど選択肢も増え、生活の自由度が高まる。幸福度(Well-being)は以下のように定義可能です:
U = f(GDP ÷ N)
これに基づけば、「名目賃金が下方硬直的であり、物価が下がれば実質賃金は上がる」という古典派的視点をとっています。
(名目賃金 wn が一定で物価 P が下がれば wr は上昇)
以上を統合すると、人口が増えると経済全体の規模は大きくなるが、個人の取り分は減り、幸福度も低下。さらに、デフレの方が実質的な購買力を上げるので望ましいという、かなりミニマリストで反ケインズ的な経済観が浮かび上がります。
プレイヤー集合: ℙ = {C₁, ..., Cₙ(消費者), F₁, ..., Fₘ(生産者), G(政府), X₁, ..., Xₖ(外国)} 各プレイヤーは財集合 𝒢 = {g₁, ..., g\_r} に対して選択を行い、その選択肢空間は 𝒜ₚ ⊆ ℝʳ である。
各プレイヤーは時刻 t において情報 ℐₜ を観測する。これは価格行列 Pₜ、所得 Yₜ、政策 Tₜ を含む。各戦略は sₚ: ℐₜ → 𝒜ₚ として与えられ、これは消費関数や生産関数と解釈される。
各時刻 t において、総需要と総供給の差(超過需要ベクトル)を定義する: Zₜ = ∑ Dᵢ(Pₜ) − ∑ Sⱼ(Pₜ) ここで Dᵢ は消費者の需要関数、Sⱼ は生産者の供給関数。
価格の時間変化は以下の連続時間モデルで与えられる:dPₜ/dt = α Zₜ ここで α > 0 は調整速度を表す定数。
ゲームの状態遷移は、状態圏 S における射 Φₜ: Stateₜ → Stateₜ₊₁ によって記述される。各プレイヤーの行動が価格行列を通して他プレイヤーの情報に影響を与えるというフィードバック構造を持つ。
So, I watched one video. ONE video on YouTube about fixing a wobbly chair leg because, well, my chair leg was wobbly. It wasn't even a good video, the guy mostly just hit it with a hammer.
Now? My entire recommended feed is hardcore woodworking. Dovetail joints. Japanese hand planing techniques. Building a log cabin with minimal tools. How to choose the right chisel.
I just wanted my chair to stop wobbling! I don't want to build a canoe!
Yesterday, I got an ad for a $300 specialized wood clamp. It looked serious. I almost clicked it.
Send help. Or maybe just a link on how to reset my YouTube algorithm. Please. Is this how it starts? Do I need to buy flannel shirts now?
グローバル単一台帳(Blockchain/DAG) 相互検証可能な“関係グラフ”
各ノードは「だれが・いつ・どうつながったか」という変化の射だけを署名し、トポロジ全体が履歴になる
オンチェーン状態 ≒ 直接資産 状態はローカル・資産は導関数
資産や契約は、関係グラフ上の経路依存量として再構成。スナップショットはクライアントが“可逆圧縮”で再計算可能
Proof of X (Work, Stake, etc.) Proof of Stewardship (PoS²)
「ネットワークが望ましい 複雑性 を維持するよう行動した度合い」をメタリック関数で動的スコア化し、報酬・ガバナンス権・帯域を同時に発行
要旨
もはや「台帳」すら保存しない。各エッジは STARK 圧縮された更新証明を持ち、グラフの梁(フレーム)自体が履歴になる。再構築は局所的に O(log N) で済むため、グローバル同期のボトルネックが消える。
2. プロトコル層
Fractal Mesh Transport (FMT)
自己類似ルーティング – トポロジ全体をフラクタルで自己複製。局所障害は“自己相似”パターンに吸収されるため、DDoS が形骸化。
アイデンティティ内包アドレス – DID を楕円曲線座標に埋め込み、パケット自体が署名・暗号化・ルーティングヒントを同封。IPv6 の後継としてレイヤ 3.5 に位置づけ。
HoloFabric Execution
ゼロ知識 WASM(zk-WASM) – 任意言語を WASM にコンパイル→ zk-STARK で実行トレースを証明 → “結果のみ”関係グラフへ。
コンパイラ内蔵 MEV 抑制 – 計算結果が他ノードから解釈不能になるタイムロック VDF を伴い、価値抽出を物理的に遅延。
Temporal Stream Storage
余剰ストレージの“時価”マーケット – ノードは自己の余剰 SSD/HDD を分単位オークション。データは Reed–Solomon+重力波的ハッシュ空間で erasure coding。
リテンション ≒ 信用 – 長期ホスティング実績は PoS² スコアへ累積。攻撃的ノードは経済的に即時蒸発。
Liquid Fractal Governance
議決トピックを「周波数帯」にマッピングし、参加者は帯域を“委任スペクトル”として分配。結果はウォルラス圧力で収束し、マイナー意見も連続的に次回へ重みが残る。
(安全・分散・性能) 台帳の排除で“グローバル合意”自体を縮退 ⇒ スケール制約が幾何的に消失 安全:ZK 証明、
エネルギー消費 PoS² は「社会的有益度 × 熱消費効率」で算定。熱回収データセンターほど報酬が高い PoW よりオーダー数桁効率、PoS より社会関数を内包
プライバシー vs 透明性 グラフは公開。ただし各エッジは zk-STARK なので内容は非公開 / 関係のみ検証可能 トレーサビリティが“情報理論的に”限定される
MEV・フロントラン タイムロック VDF+“ランダム束縛順序”で物理的に不可 ブロック順序依存問題を根絶
量子耐性 STARK 系 + 多変数格子ベース署名 Shor 破壊リスクを遮断
レガシー互換 Ethereum, Bitcoin, IPFS などへ 1:1 ブリッジを Rust/WASM で提供 既存資産を損なわず漸進的移行
Steward Credits (SC):PoS² に比例し新規発行。帯域・ガバナンス票・ストレージ予約を等価交換。
Energy Reclaim Units (ERU):余熱回収率に応じてクリーンエネルギー補助金と相互運用。
Knowledge Bounties (KB):AI/LLM ノードが生成した有用モデル差分を関係グラフへコミット→検証トークンとして KB が発行。
負荷の自己調整
ネットワークが過度に混雑すると SC の新規発行レートが自動減衰し、トラフィック手数料が指数的に上昇。結果、スパムは短時間で経済的自殺となる。
Year 0–1:最小核 – zk-WASM VM + Fractal Mesh over QUIC。
Year 1–2:PoS² / ERU メトリクス実証、EVM 相互運用ブリッジ稼働。
Year 2–4:Liquid Fractal Governance によるプロトコル進化をコミュニティへ全面開放。
Year 5+:全世界 ISP ピアリング → 既存 Web の転送層を徐々に Web∞ 上へマイグレート。
国家単位のデジタル・ソブリンティを再構成:国境・法人格の境界を越え“関係”が一次元目となるため、規制枠組み自体が協調フィードバックモデルへ。
プライバシーと公共性の再両立:透明な“関係構造”上で非公開データを安全に扱う産業 API が標準化。医療・行政・金融の壁が大幅に低減。
インフラの脱炭素最適化:PoS² スコアに ERU が直結することで、再エネ比率が低いノードは自然淘汰。エネルギー政策と IT インフラが実質同一の経済圏に。
7. まとめ
Web∞ は「情報の状態」を残すのではなく「変化の証明」を残す。
その結果、台帳の重力・ガス代・フロントラン・量子不安・ガバナンス停滞といった Web3 固有の限界が、概念的に 初期条件から消滅 します。
エネルギー・プライバシー・スケーラビリティを同時に極小化/極大化するため、従来トレードオフと呼ばれた三角関係は “収束しない曲線” へと畳み込まれる――それが本構想の核心です。
もし実際にプロトタイプを設計するならば、zk-WASM ランタイム + Fractal Mesh を Rust で最初に書き起こし、PoS² の初期指標を「再生可能エネルギー電力比+ノード稼働継続率」で暫定運用する、というのが現実的なスタートラインになるでしょう。
神クラス(God Object)は、ソフトウェア設計においてアンチパターン(避けるべき設計手法)として知られています。
これは、過剰に多くの責任を持ちすぎるクラスやオブジェクトのことであり、ソフトウェアの保守性や拡張性、可読性に大きな問題を引き起こします。
以下では、「いかに大変か」「なぜ大変か」「どのように大変か」を徹底的に具体的に解説します。
public class ApplicationManager { private Map<String, User> users; private DatabaseConnection db; private Logger logger; private GUI gui; private NetworkClient client; public void startApplication() { connectToDatabase(); loadUsers(); gui.showLoginScreen(); } public void processUserInput(String input) { logger.log("Input received: " + input); if (input.equals("logout")) { gui.showLoginScreen(); } else { client.send(input); } } // ... more than 5000 lines of code }
位相的M理論は、11次元超重力と弦理論の統合としてのM理論の「位相的側面」を強調した理論だ。ここで扱うのは特に「G₂多様体」や「7次元の特異ホロノミー空間」の上で定義される理論。
𝐒 = 𝐀 / 4𝐆
だが、より深いミクロ状態の数え上げで理解される。特に M理論では、ブラックホールはブレーンの交差でモデル化され、そのエントロピーはブレーンの配置の組み合わせ数に対応する。
ブラックホールのマイクロ状態を M理論的に記述する際、Dブレーンの交差を使うが、これをより抽象的に「ホモロジー類 Hₚ(X, ℤ) の元」と考えよう。
空間 X ⊂ 𝕄 とすると、
各ブレーン構成は
x ∈ Hₚ(X, ℤ)
ここで p はブレーンの次元。
エントロピーはブレーンの配置空間の位相的不変量、特にオイラー数やベッチ数、あるいはより高度にはモジュライ空間の測度に依存する。
モジュライ空間 ℳ は、ブレーンの束縛条件と保存量(電荷、質量)で定義されるパラメータ空間。
𝐒 ∼ log Vol(ℳ)
ここで「Vol」は、たとえば対称多様体上のリウヴィル測度。
Vol(ℳ) = ∫_ℳ ωⁿ / n!
として計算される。
位相的M理論では、G₂構造のモジュライ空間 ℳ_G₂ を考える。
ブラックホール解は特異な G₂ ホロノミー空間に対応し、その上のフラックス構成がブラックホールのマイクロ状態に相当。
したがって、次のような写像が考えられる:
Φ : Hₚ(X, ℤ) → ℳ_G₂
𝐒 ≈ log Card(Φ⁻¹(γ))
ここで γ は与えられたマクロ量(質量、電荷)に対応するモジュライ空間の点。
射:ブレーン間の変形(ホモトピー)
するとブラックホールのマイクロ状態の数は、対応する拡張エクステンション群 Extⁱ(A, B) の次元に帰着できる。
𝐒 ∼ log dim Extⁱ(A, B)
ブレーン: x ∈ Hₚ(X, ℤ)
モジュライ空間: ℳ ≅ Hom(Hₚ(X, ℤ), ℤ)
増田投稿しようとすると Internal Server Error が出るやで
The server encountered an internal error or misconfiguration and was unable to complete your request.
Please contact the server administrator at root@localhost to inform them of the time this error occurred, and the actions you performed just before this error.
More information about this error may be available in the server error log.
一次元インデックスから二次元インデックス、すなわちバイト数であらわされる位置から行と桁への変換がテキストエディターだとよく発生する。
この変換を素早くするために変換テーブルを作るのだが、普通に作ると更新の時にO(N)かかる。
さくさくエディターの作者は局所的行更新手法で殆どの場面ではO(1)、最悪はO(N)にしていたが、色々と事故が発生しやすい。
特にstepRowをまたぐ状況でテーブルのほぼ全部の更新を避けようと思うと事故りやすい。
俺は何度も事故を起こした。
そこで別のやり方でオーダーを削減してみた。
https://github.com/rirufa/FooList/blob/main/List/BigRangeList.cs
考え方は至極単純でRopeをたどるときに変換テーブルの長さを覚えておき、ついでに変換を済ませておこうというごくごく簡単なものである。
この方法により、変換テーブルの更新はO(Log N)+M、探索はO(Log N)+O(Log M)程度で済ませられるようになった。
局所的行更新手法に比べるとだいぶ遅いが、Mが十分に小さければそこまでコストはかからないはず。
ただし、マーカーみたいに連続していないものを放り込んだら、うまく動かないのでそこはご了承いただきたい。
Allocated GC Memory:32,803,672bytes
Allocated GC Memory:32,809,360bytes
clear buffer
Allocated GC Memory:82,976bytes
https://github.com/rirufa/FooList/blob/main/EditorDemo/Program.cs
色々時間かかる変更をしてて、それがちょっと特殊な非テキストファイルで途中段階の保存が面倒だったので、最後にコミットするつもりで、したつもりだった
その後動作確認のためにビルドして実行してとかやってたときに環境依存のようなエラーが多発してた
少し前に色々バージョンをあげてたからそこが影響してたのかもとそのへんをいじってみたけど改善しない
一旦環境周りを前のバージョンに戻してから動かしてみようかと git reset をした
直前に環境周りをいじってたものは試しにいじっただけだから消えてもいいからとコミットを残さず reset
なかったどこを探しても
終わった
2,3日くらいは書けて編集してたのに
そう思って探したがファイルを開いたままだとビルド時にエラーになるから閉じたのだった
残っていない
アカウントを関連付けておけばオンラインストレージに自動でバージョン履歴を残してくれる機能もあったが、外部にデータを置くなんてとんでもない!とかいうタイプの会社だからもちろんそんな機能が有効になってるはずもなく・・・
あの面倒でちまちまとした作業をまたやるのか
鬱すぎる
git は一度コミットさえしてれば参照消えても ref log から辿れるので、定期的にファイルに差分あれば自動コミットしておくスクリプトでも走らせておいたほうがいいかな
pushする前に squash してまとめるか skip するかすればローカルに収まるし
はぁ・・・
以下の問題を徹底的に抽象数学を用いて定式化しなさい。また、具体的実装についても定式化しなさい。ただし、文献はarxiv等の信頼できる情報源のみを利用しなさい。
本報告では、ユーザー集合Uとアイテム集合Iからなる推薦システムを、圏論と行列代数の統合的枠組みで再構築する。特にarXiv論文[2][7]で提案されたSheaf4Recアーキテクチャと、古典的マトリックス分解手法[3][8]を統合した新しい定式化を提案する。実装戦略としてApache Spark[4]を活用した分散処理を採用し、理論的保証と計算効率の両立を実現する。
圏RecSysを次のように定義する:
各ユーザーu∈Uの行動履歴f(u)⊆Iは、圏論的データモデル[7]において層(sheaf)構造で表現される。具体的には:
各スコア関数g_j:2^I×I→ℝ^mは、層の断面(section)として定式化される:
g_j = \bigoplus_{i=1}^m \mathcal{F}_i \otimes \mathcal{G}_j
ここで$\mathcal{F}_i$はアイテムiの特徴層、$\mathcal{G}_j$はスコアタイプjの重み層[2]。
任意のS⊆T⊆Iに対して、層的接続写像δ:F(S)→F(T)が存在し、次を満たす:
\forall j, \|g_j(S) - δ(g_j(T))\| ≤ L_j \cdot d_H(S,T)
ユーザー-アイテム行列R∈ℝ^{|U|×m}を以下のように分解[3]:
R ≈ UΣV^T \quad (U∈ℝ^{|U|×r}, Σ∈ℝ^{r×r}, V∈ℝ^{m×r})
Apache Spark[4]を活用した分散計算フレームワーク:
from pyspark.mllib.recommendation import ALS model = ALS.trainImplicit( ratings=interactions, rank=100, iterations=10, lambda_=0.01, blocks=200 # 分散処理用ブロック数 )
g_1(u,i) = U_u \cdot V_i^T
g_2(u,i) = \text{SheafConv}(F(u), F(i); \Theta)
g_3(u,i) = \sum_{t∈T_{ui}} e^{-λ(t-t_0)}
h(Y)_i = \bigoplus_{j=1}^n w_{ij} \otimes y_{ij}
ここで⊕はmax-pooling、⊗はアダマール積[2]。重み行列W=(w_{ij})は以下の最適化問題で決定:
\min_W \sum_{u∈U} \|R(u) - h(G(u))\|_F^2 + λ\|W\|_*
val interactions = spark.read.parquet("hdfs://interactions") val model = new ALS() .setRank(100) .setBlocks(200) .run(interactions) val scores = model.userFeatures .join(itemFeatures) .map { case (u, (v_u, v_i)) => (u, dotProduct(v_u, v_i)) }
| 手法 | 時間計算量 | 空間計算量 |
| 集中処理[3] | O(m^3) | O(m^2) |
| 分散処理[4] | O(m^2/p) | O(m√p) |
| Sheaf4Rec[7] | O(m log m) | O(m) |
ここでpは並列度、mはアイテム数[4][7]。
ブロックSVDアルゴリズム[3]は、任意のε>0に対してO(log(1/ε))反復でε近似解を達成する。
証明の概略:
\|R - U^{(k)}Σ^{(k)}V^{(k)T}\|_F^2 ≤ (1 - 1/\text{cond}(R))^k \|R\|_F^2
\|h(Y) - h(Y')\| ≤ \sum_{j=1}^n L_j \|W_j\| \cdot \|y_j - y_j'\|
本論文では、圏論的構造と分散行列分解を統合した新しい推薦システムフレームワークを提案した。Sheaf4Rec[7]の層構造とSpark[4]の分散処理を組み合わせることで、精度と効率の両立を実現。今後の課題として、動的層構造の適応的更新や量子化による計算効率改善が挙げられる。
Citations:
[1] https://arxiv.org/html/2407.13699v1
[2] https://arxiv.org/html/2304.09097v3
[3] https://www.cs.toronto.edu/~mvolkovs/sigir2015_svd.pdf
[4] https://ics.uci.edu/~cs237/projects2020/4_reports.pdf
[5] https://arxiv.org/abs/2502.10050
[6] https://arxiv.org/pdf/2109.08794.pdf
[7] https://arxiv.org/abs/2304.09097
[8] https://dspace.mit.edu/bitstream/handle/1721.1/99785/927438195-MIT.pdf?sequence=1
テキストエディタを高速化するためにある人が書いたBigListを改造して、リーフノードをリンクドリストでつないだら全列挙が早くなって、スタックオーバーフローしなくなった。
ただ、その代わり元々のコードにあったノードの共有機能はいらなそうなので省くことにした。
Core i5 10400F、メモリー16GBで、100文字×100行=1億文字を突っ込んで、あれこれ操作した場合はこのくらいの速度で動く。
benchmark start
Allocated GC Memory:60,392bytes
Allocated GC Memory:416,037,968bytes
Allocated GC Memory:416,082,104bytes
Allocated GC Memory:416,082,272bytes
Allocated GC Memory:416,082,296bytes
Allocated GC Memory:416,082,440bytes
clear buffer
ListやGapBufferだとGCに優しくないけど、BigListだとLOH入りしないので、GCに優しいのだ。
その代わり速度はBigListの中身はRopeなので、少し遅くなるのだ。
Ropeで、リーフノードをリンクドリストでつないだ場合、挿入と削除、追加、ランダムアクセスはO(Log N)、全列挙はO(N)なのだ。
MITライセンスなんで商用でも問題ないけど、元々のBigListのライセンスに不穏なことが書いてあったので、気になるなら、自分で書き直したほうがいい。
The rebalancing algorithm is from "Ropes: an Alternative to Strings", by
Boehm, Atkinson, and Plass, in SOFTWARE--PRACTICE AND EXPERIENCE, VOL. 25(12), 1315–1330 (DECEMBER 1995).
https://www.cs.tufts.edu/comp/150FP/archive/hans-boehm/ropes.pdf
The server encountered an internal error or misconfiguration and was unable to complete your request.
Please contact the server administrator at root@localhost to inform them of the time this error occurred, and the actions you performed just before this error.
More information about this error may be available in the server error log.
The server encountered an internal error or misconfiguration and was unable to complete your request.
Please contact the server administrator at root@localhost to inform them of the time this error occurred, and the actions you performed just before this error.
More information about this error may be available in the server error log.
http://hvivi.dyndns.org/sse/replaceAll.html
さくさくエディタのまねをして全置換えでベンチマークを取ってみた。
benchmark start
Allocated GC Memory:60,392bytes
Allocated GC Memory:440,048,840bytes
Allocated GC Memory:440,082,632bytes
Allocated GC Memory:440,082,656bytes
clear buffer
Allocated GC Memory:82,280bytes
Rope<T>は削除と置き換え、文字列のランダムアクセスがO(log N)なのでさくさくエディタに比べると遅い。
https://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q10166953385
河合潤@京都大学です.この数年間,カレーヒ素事件の鑑定書を,研究の一環として解析しています.chiebukuroのこのページのことを知らせてくれた人がありましたのでちょっと書いてみようと思います.学生に手伝ってもらってYahooになんとか登録できました.
最近(2016年9月)も和歌山地裁に意見書を提出したばかりですが,その最後で「私(=河合)の一連の鑑定書・意見書が鑑定を超えて指し示す新たな真実は,不明な動機によって4名を殺害し63名に傷害を負わせた真犯人は,凶器の亜ヒ酸を現在も所持したまま,野放しであるという事実である」と結論しました.
科警研は,カレーに亜ヒ酸を投入したとされる紙コップに付着した亜ヒ酸が,H所持の亜ヒ酸とは組成が異なることを知りながら,化学分析で得られた組成比を100万倍して対数(log)をプロットして同一であるかのように見せかけていたことを『季刊刑事弁護』誌No.85に書きました.100万倍や対数などでごまかさずにプロットすると,紙コップの亜ヒ酸はH所持亜ヒ酸とは明らかに組成が異なることがわかります(末尾のクロアチアの本にカラーの図を掲載しています).『季刊刑事弁護』ではカレーヒ素事件を中心として虚偽や捏造の鑑定書が裁判で横行していること,その見分け方を連載しています.この雑誌は弁護士が読む雑誌です.
Hの亜ヒ酸と紙コップの亜ヒ酸とは「同一物,すなわち,同一の工場が同一の原料を用いて同一の時期に製造した亜ヒ酸であると結論づけられた」というSPring-8鑑定書が死刑判決の決定的な証拠となりましたが,この時の測定はバラック装置の実験で,とてもまともなデータが出る状況ではなかったという写真を入手して和歌山地裁へ提出しました.地裁確定判決(p.188)には「SPring-8放射光分析した際の写真も撮っていない。」と書いてありますが,専門誌の論文に’98 12 12という日付入りの写真が掲載されていました.しかもSPring-8では各証拠を1回ずつしか測定していませんでしたが,それが公判で問題になると
「今回のこの測定に要した時間は2400秒です.例えば科警研の皆さんがICP-AESで分析してる場合は,多分,10秒程度だと思います.ですから,10秒程度の計測時間ですと大きな統計誤差が入りますので繰り返し測定することが必要ですが,私のような蛍光X線分析の場合,10秒に対して2400秒,240倍の時間を積算してるということがあります」
という証言がありました.この証言は虚偽です(「嘘」と書きたいところですが,証人の心の中までは知ることができないので「虚偽」と書いておきます).この鑑定人は「和歌山毒カレー事件の法科学鑑定における放射光X 線分析の役割」と題する論文を書いて同一製造業者の「亜ヒ酸が当時の国内には,他に流通していなかった」ので,バラック装置であっても紙コップ付着亜ヒ酸はH亜ヒ酸と「同一物」であることが結論できた,と言い訳しています.この論文が掲載された専門誌は(論文題目で検索すれば誌名はすぐわかります)大学の図書館などで閲覧できます.Hのドラム缶と同じ製造業者の亜ヒ酸は,和歌山市内で多い月には1トン(50kg入りドラム缶で20缶)が販売されていたという公判での証言があります.『和歌山県警察本部,取扱注意,部内資料,和歌山市園部におけるカレー毒物混入事件捜査概要』という冊子にはHのドラム缶は大阪へ同時に輸入された60缶の中の1缶だということがシッピングマークからわかったと書いてあります.このことはある記者が教えてくれました.すぐ冊子で確認しました.この冊子は『取扱注意,部内資料』と言いながら,事件解決の記念として週刊誌・マスコミに広く配布したもので,固有名詞はイニシャルで書かれています.和歌山市内で1か月に販売した1トンの亜ヒ酸の大部分は瓶に小分けして販売していました.
違うルーツの亜ヒ酸は,運が良ければ(使った分析手法で2缶の違いが見分けられるほど組成が違っているか分析精度が高かった時)見分けがつきます.科警研の化学分析がまさにそうでした.だから100万倍や対数などで隠ぺいしたのです.SPring-8のバラック装置で1回測ったくらいでは同じか異なるかなど何も言えないことは理系の常識があればわかります.
このほかにもH所持亜ヒ酸が,紙コップ亜ヒ酸のルーツではない事実がいくつも見つかっています.Hの亜ヒ酸は同体積のメリケン粉などを良く混ぜ込んだものであって亜ヒ酸は低濃度でしたが,紙コップの亜ヒ酸は99%の純度でした.良く混合した低濃度の混合粉末を紙コップに汲んでも高濃度になることはあり得ません.紙コップの亜ヒ酸は塩水が少し入って乾燥した成分が見つかりましたが,Hの亜ヒ酸にはそういう成分は入っていません.などなど.
鑑定料が国費からいくら支払われたかなどもわかった範囲で意見書に書きました.巨額の税金が無駄な鑑定に使われました.
研究室のホームページhttp://www.process.mtl.kyoto-u.ac.jp/ には和歌山地裁へ提出した意見書(1)~(10),(11)~(15)を2つのPDFファイルとして公開しています.
下のような2つの論文も書きました.英語ですがどちらも無料でPDF版がダウンロードできます.
http://www.intechopen.com/articles/show/title/forensic-analysis-of-the-wakayama-arsenic-murder-case
クロアチアの出版社の科学鑑定の本の一章で,100万倍や対数のことなどを書きました(2016年9月Web公開).
http://onlinelibrary.wiley.com/doi/10.1002/xrs.2462/full
カレーヒ素事件Ⅹ線鑑定の概要と問題点を書いたⅩ線分析の国際誌の論文です(2013年5月Web公開).