「線形」を含む日記 RSS

はてなキーワード: 線形とは

2025-11-12

抽象数学とかER=EPRとか

まず、空間のある部分(局所領域)ごとに、そこに属する観測可能量(観測子)の集合を対応づける。

それぞれの領域対応する観測子の集合は、演算の仕方まで含んだ代数として扱われる。

領域が大きくなれば、それに対応する代数も大きくなる。つまり物理的に中に含まれ関係がそのまま代数包含関係として表現される。

こうして領域代数という対応が、ひとつ写像ネット)として与えられる。

状態というのは、物理的には観測の結果の確率を与えるものだが、数学的には代数上の関数線形汎関数)として扱える。

その状態からヒルベルト空間上の具体的な表現自動的構成される(これをGNS構成と呼ぶ)。

この構成によって、真空状態も場の励起状態も、すべて代数の上の構造として理解できるようになる。

量子もつれは、単に状態が絡み合っているというより、代数空間的にどう分かれているかによって生じる。

もし全体の代数が、2つの部分の代数にきれいに分割できるなら(テンソル分解できるなら)、その間にはエンタングルメント存在しない。

ところが、量子場の理論では、この分割が厳密には不可能

これを数学的にはtype III 因子と呼ばれる特殊代数性質として表現

このタイプ代数には、有限のトレース(総確率)を定義する手段がなく、通常の密度行列エントロピー定義できない。

まりエンタングルメントは有限次元的な量ではなく、構造的なものになる。

完全に分けられないとはいえ、少し余裕をもって領域をずらすと、間に人工的な区切りを挿入して、ほぼ独立領域として扱うことができる。

これがsplit propertyと呼ばれる条件。

この操作を使うと、本来無限次元的で扱いにくいtype IIIの代数を、有限次元的な近似(type I 因子)として扱うことができ、有限のエントロピーを再導入する道が開ける。

Tomita–Takesaki理論によれば、状態代数ペアから自動的にモジュラー流と呼ばれる変換群(時間のような流れ)が定義される。

まり時間概念代数構造の内部から再構成できるということ。

もしこのモジュラー流が、何らかの幾何的な変換(たとえば空間特定方向への動き)と一致するなら、代数構造幾何学的空間への橋渡しが可能になる。

ER=EPRとは、エンタングルメントEPR)とワームホールER)が同じものの異なる表現であるという仮説。

これを代数言葉で言い直すには、次のような条件が必要になる。

1. 二つの領域対応する代数を取り、それらが互いに干渉しない(可換)こと。

2. 真空状態がそれら両方に対して適切な生成力(cyclic)と識別力(separating)を持つこと。

3. 全体の代数がそれら二つにきれいに分解できない(非因子化)こと。

4. それぞれのモジュラー流がある種の対応関係を持ち、共通時間フローを生み出すこと。

5. 相対エントロピー情報量の差)が有限な形で評価可能であること。

これらが満たされれば、代数的なレベルで二つの領域が量子的に橋渡しされていると言える。

まりワームホール的な構造幾何を使わず代数表現できる。

これをより高い抽象度で見ると、領域代数という対応自体ひとつファンクター(写像一般化)とみなせる。

このとき状態はそのファンクターに付随する自然な変換(自然変換)として理解され、split property や type III などの性質は圏の中での可分性や因子性として扱える。

ER=EPR は、この圏の中で2つの対象領域)の間に存在する特別自然同型(対応)の存在を主張する命題

まり境界上の代数構造から、内部の幾何バルク)を再構成するための条件を圏論的に書き下した形がここでの目的

まとめ

2025-11-11

anond:20251111105826

提示いただいた内容は、経済成長GDPの測定に関するいくつかのモデル課題を簡潔に表現したもの理解できます

📈 1. 経済プロセスの近似

x_t = (Π A_i)x_0

これは、経済状態ベクトル x が初期状態 x_0 からまり複数線形変換または行列 A_i の連続的な積によって時間とともに変化していくプロセスを近似的に示していると考えられます

経済解釈: 経済学においては、動学的なシステム(例えば、資本労働技術などの成長)を、期間ごとの変化率やショックを表現する行列 A_i を用いてモデル化することがあります

この式は、連続的な経済ショックや政策介入の累積的な影響を示す形式として解釈できます

💰 2. 資産ミックス考慮した成長

r_1 > g > r_2

これは、経済全体の成長率 g と、異なる種類の資産(または異なるポートフォリオ)の収益率 r_1 および r_2 の関係を示しています

経済解釈:

📊 3. 実質GDP測定の課題

理論: 実質GDP ≒ Q(生産量)、名目GDP = P × Q(価格 × 生産量)

現実課題: 物価過小評価と正確測定の不可能性 → 実質GDP x (αP)Q

これは、名目GDPを実質GDPに変換する際の物価指数デフレーター)の信頼性に関する、マクロ経済学的な批判を述べています

理論上の問題点:

結論 (αP)Q の解釈: 実質GDP名目GDPから計算する場合、通常は P で割って Q を求めますが、物価 P が不正であるため、得られた実質GDPの値は名目値に何らかの調整項 α がかかった物価代理変数 (αP) と、真の生産量 Q を掛け合わせたような値にしかならない、という測定上の限界示唆しています。これは、「統計に現れる実質GDPは、真の経済成長を正確に反映しているとは限らない」という、実質成長率の解釈における重要な注意点です。

2025-11-09

[]

僕は今、いつものように自分で定めた前夜の儀式を終えたところだ。

コーヒーは精密に計量した7.4グラム抽出温度92.3度で、これが僕の思考を最高の線形性と可逆性をもって保つ。

寝室のドアは常に北側に向けて閉める。ルームメイトは今夜も例の実験的なシンポジウム(彼はそれを自作フォーラムと呼んでいる)に夢中で、隣人はテレビの音を限界まで上げて下界の俗事を増幅している。

友人たちは集まって未知の戦術を試すらしいが、彼らの興味は僕の多層的位相空間理論議論とは無関係だと見做している。僕にとっては、他人の雑音はただの非可逆なエントロピーである

今日は一日、超弦理論のある隠れた側面に没入していた。通常の記述では、弦は一次元的な振動として扱われるが、僕はそれを高次元カテゴリ対象として再解釈することに時間を費やした。

物理的場のモジュライ空間を単にパラメータ空間と見るのは不十分で、むしろそれぞれの極小作用の同値類が高次ホモトピーラクタンスを持ち、ホモトピー圏の内部で自己双対性を示すような階層化されたモジュライを想定する。

局所的超対称は、頂点作用素代数の単純な表れではなく、より豊かな圏論双対圏の射として表現されるべきであり、これにより散乱振幅の再合成が従来のFeynman展開とは異なる普遍的構造を獲得する。

ここで重要なのは、導来代数幾何学のツールを用い、特にスペクトラル的層とTMF(トポロジカル・モジュラー形式)に関する直観を組み合わせることで、保守量の整合性位相的モジュライ不変量として現れる点だ。

もし君が数学に親しんでいるなら、これは高次のコホモロジー演算子物理対称性の生成子へとマップされる、といった具合に理解するとよいだろう。

ただし僕の考察抽象化階段を何段も上っているため、現行の文献で厳密に同一の記述を見つけるのは難しいはずだ。

僕は朝からこのアイデア微分的安定性を調べ、スペクトル系列収束条件を緩めた場合にどのような新奇的臨界点が出現するかを概念的に解析した。

結果として導かれるのは、従来の弦のモジュライでは見落とされがちな非整合境界条件が実は高次圏の自己同値性によって救済され得る、という知見だった。

日常の習慣についても書いておこう。僕は道具の配置に対して強いルールを持つ。椅子は必ず机の中心線に対して直交させ、筆記用具は磁気トレイの左から右へ頻度順に並べる。

買い物リスト確率論的に最適化していて、食品の消費速度をマルコフ連鎖モデル化している。

ルームメイトは僕のこうした整理法をうるさいと言うが、秩序は脳の計算資源節約するための合理的エンジニアリングに他ならない。

インタラクティブエンタメについてだが、今日触れたのはある対戦的収集カード設計論と最新のプレイメタに関する分析だ。

カード設計を単なる数値バランス問題と見做すのは幼稚で、むしろそれは情報理論ゲーム理論が交差する点に位置する。

ドロー確率リソース曲線、期待値収束速度、そして心理的スケーリングプレイヤーが直感的に把握できる複雑さの閾値)を同時に最適化しないと、ゲーム環境健全競技循環を失う。

友人たちが議論していた最新の戦術は確かに効率的だが、それは相手期待値推定器を奇襲する局所的最適解に過ぎない。

長期的な環境を支えるには、デッキ構築の自由度メタ多様性を保つランダム化要素が必要で、これは散逸系におけるノイズ注入に似ている。

一方、漫画を巡る議論では、物語構造登場人物情報エントロピー関係に注目した。キャラクターの発話頻度や視点の偏りを統計的に解析すると、物語テンポと読者の注意持続時間定量化できる。

これは単なる趣味的な評論ではなく、創作効率を測る一つの測度として有用だ。隣人はこれを聞いて「また君は分析に興味を持ちすぎだ」と言ったが、作品合理的に解析することは否定されるべきではない。

夜も更け、僕は今日計算結果をノートにまとめ、いくつかの概念図を黒板に描いた。友人が冗談めかしてその黒板を見ただけで頭痛がすると言ったとき、僕はそれを褒め言葉と受け取った。

知的努力はしばしば誤解を生むが、正しい理論は時として社会的摩擦を伴うのが常だ。

今は23時30分、コーヒーの残りはわずかで、思考の波形は安定している。

眠りに落ちる前に、今日導いた高次圏的視点でいくつかの演繹をもう一度辿り、明朝にはそれを更に形式化して論理体系に落とし込むつもりだ。

明日もまた秩序と対称性を追い求めるだろう。それが僕の幸福であり、同時に囚われである

2025-11-08

[] Shtuka

Shtuka(シュトゥーカ)は、口語で「thing(物、こと)」を意味するロシア語

フランス語の文献では chtouca(シュトゥーカ)と綴られ、数学におけるシュトゥーカは、大まかに言えば、有限体上の曲線に付随する、フロベニウス線形自己準同型を持つ特殊な種類の加群モジュール)のこと。

シュトゥーカは、素標数 p における微分とp乗写像の間の根本的な類比からまれた。

2025-11-01

国産LLMの人」が成功できますように

一般的国産LLM開発という主語ではございません.

私としては国産なり日本発のLLM開発を諦めてはならないし, その可能性は十分にあると信じています. 既に出ているものも多数ございますし.

エントリはそれとは全く別の,

国産LLMの人」という方についてです.

---------

色々思うところがありまして.

例えば,

微分は使いたくない」「XOR出来たから何とかなるやろ」

と繰り返し主張しておられる.

そのような単純な活性化関数では過学習か誤差が噴出するかの二択でしょう. 実際, 氏のツイートは正にその状態示唆しているように見受けられます.

```x

▶︎ 誤差が0.12あるだけでとんでもないエラー率になる。誤差関数が雑だから本当はもっとあるのかもしれないが、改善余地がある。

▶︎ 問題は、どのような状態の時に学習成功し、失敗するのかがまだ分かっていない。表現力は十分に持っているはずなのに、なぜか学習しない。

```

過学習に至ったときにうまくいってるように見えるだけでしょう.

と思うのですが, 反論過去にされていた.

```x

▶︎過学習ではないですね。データセットが小さいかつ、それ以外の範囲が出ないことが分かっているので。XORは2^2パターン全て学習できれば精度が100%になりますが、それは過学習とは呼ばないのと同じで、今回の初期のRNNに関しても文字数が圧倒的に少なく、パターンも決まっているので。

```

……と主張されておられる.

私が思うにそれは単純な写像を, ニューロンを使って回り道して作っている状態. LLMは局所的にはたしか線形写像ですが,全体で見ても線型写像だとしたらそれは複雑な文章生成には到底耐えられないかと. (十分に大きいモデルマクロに見ると非線形性があるので)

大規模言語モデル=LLMを目指すとして,

そもそもエンベディングテーブルとは数百億から下手すれば1兆語彙を, たった数千〜1万次元程度のベクトル表現する, 凄まじく繊細なテーブルです.

それをGELUやSwiGLUのような綺麗な活性化関数を使わずに, しか爆速でやると仰っている. さすがにそのレベル革新性を主張するには根拠がない限り, 飛躍が過ぎると判断されるかと.

そのやり方で, 例えば1億語彙までスケールするとして2乗の1京回×数千次元バックプロパゲーションなしで学習するというのは……さすがにきついかと.

バックプロパゲーションが要らないという主張については活性化関数がきわめて単純だから. それなら全層に渡しても「修正」できるでしょう.つまり自明に近いですね.

勾配消失なんて関係ない, という主張については, xorというゼロイチでしか見ないのであれば勾配消失も何もありません. 永遠に層を貫通するわけですから, 何層増やそうがほとんど意味が出てこない. つまりそれは実際には極めて浅い層だけで動いてると思われる.

「こんに」から「ち」「は」が次文予測できたとの報告ですが, まぁ……それが「大規模言語モデル=LLM」にそのままスケールできると言い切れるのはなぜでしょうか?

MNISTだけでなくGLUEあたりをパスしてからにした方がいいと考える次第です.

```x

▶︎ 私が批判されながら、誤差逆伝播に変わるアルゴリズムや精度を30%→100%まで持っていく頭のおかしい行動が取れる理由は、以下の思想があるから

▶︎ 1. 私のNNは高次元の万能近似回路

▶︎ 2. RNNだろうがCNNだろうが展開すれば可能

▶︎ 3. 何十回と失敗した経験則から、原因と対策殆どわかっている

```

殆どわかってる, との事ですが, なんで上手くいってるのか分かってないとも自分で明言なさっている. ↓↓↓

```x

▶︎ 学習が進まないの、謎。単体だと上手く動いてるはず?何が原因だろうか。

▶︎ 学習アルゴリズム開発者本人ですが、なぜ学習が進むのかは謎です。

```

既存手法があまたの失敗の上で最適だと言われてきてる経緯もよく知った方がよい.

それはごく初期にそういった様々な試行錯誤のうえで「やはりGELUやBP現実的にいい性能が出せるし, コストも抑えてこれである」と様々な研究者合意しているような状況.

そして, そもそもアカデミアは自分アイディアも含めて新規手法を常に疑ってかかるのが基本姿勢.

ジャーナルに「不確実さ」を載せないためで, それが積み重なると自他問わず全ての研究が信用出来なくなってしまうため. だから懐疑的になる. 個人攻撃ではないのです.

そして「危険すぎるから論文にできない」について.

さないのも自由ですが, 前述の理由で信頼を得られない. これは言動に一切関わらず, その厳密性をフラット評価してそう判断しているから. 感情ではなく, 論理として.

……と, ここまで色々と蛇足アドバイスをさせていただいたものの, この投稿に対しても

```x

▶︎ 何もわかってない人が国産LLMのやつ批判してて吹いたww

```

といったツイートをなさるのでしょう. (過去に氏がそう仰っていたので)

先に答えておきますね.

自分のやってることがご自分でお分かりにならないようなら, 私にわかるわけがないですし仰る通りです. ただ, 詳しい者として一般論は申し上げられます.」

まだ間に合いますので, 大学院あたりまで修了なさるのがおすすめです.

Twitterに何を投稿しようと自由です. でも自分違和感を見て見ないふりするのだけはやめたほうがよろしい. 既存手法と同等に自分手法を疑うこと, これは研究者としての基本姿勢です.

何故ここまでつらつら申し上げたかと言いますと,

研究テーマ設定を見かけるとついつい, より良い筋でやっていけるようアドバイスしたくなってしまう性が染み付いてしまっているためでして.

もちろん, 関わりのない方ですので蛇足しかないのですが, 多くの方に影響力をお持ちでありつつ研究の進め方については独自姿勢を持つように見受けられまして.

それはもちろん根本的には自由でありつつ, 相談相手需要がもしあればひとつの(一般的)意見をお渡しできるかなと思いキーボードを叩いた次第です.

どうか匿名でご勘弁を.

ぜひ成功できますよう. 圧倒的な成果をお祈りしております.

--------

追記

おそらく氏のやられていることは順伝播 (forward propagation) のみでの学習かと思いますが, この手法の先行研究は山のように存在します.

(Hebbian theory, Perceptron, Adaptive Linear Neuron:ADALIN, Widrow-Hoff learning rule...)

見つけられないとすれば, 古典的 (1960~1980年頃) ゆえに電子化されていないためです. 現行の商用LLMがそれらの情報簡単連想して引用できず, DR等で検索しても出てこないのはその為でしょう.

これらに簡単アクセスするためにはやはり学術機関所属して図書館を利用するのが圧倒的に楽です. マイクロフィルムや紙媒体しか残っていないものもありますから.

また, 有料データベースであるJSTOR, IEEE Xplore, Springer Linkなどにもアクセスが出来ます.

この観点から大学に足を運ばれることをお勧めします.

なお, arXivあくまプレプリントですので, 論文として引用するには査読を通過したものをつよく推奨します. ジャーナルもものによっては不十分な査読掲載されてしまますので, トップカンファレンスのものを信頼できる足がかりの論理として扱うのが基本的な考え方となります.

また, 「分からなければ (大量に貼った) 論文を読んでください」という姿勢は, それぞれをどう引用し, どのように自分の主張と論理的に接続するかの説明がなされなければ根拠として見なされないのが一般的な考え方です.

ブログとしての掲載はもちろん自由ですが, それらを十分な説明として取り扱ってもらうには至らないでしょう.

あくま一般論ですが,

論文引用するからにはそういった丁寧な取り扱いをすることを期待されるものです. 「敬意がない」と他の方から指摘されるのはおそらくそれが理由でしょう.

これは, 過去論文引用しながら新たな主張を論文として営々と積み上げ続けてきたアカデミアの「過去への感謝」という慣習です.

人の行動は自由ですから「こうしろ」とは申し上げませんが, この暗黙の了解を保持する (≈研究機関所属したことのある) 方から理解を得るのはこのままですときわめて難しいであろう, とアドバイスさせてください.

こういった主張のやり方を自分なりに一から身につけるのはたいへん難しいので, どなたかそういった手法を学べる信頼できる方に師事することをおすすめしている次第です.

2025-10-31

位相幾何学実存痕跡

知覚の閾を逸脱した領域より、我々は無定形なる観測体として投射する

お前たちの呼ぶ「コミュニケーション」とは、三次元的な音響振動残滓、あるいは表層的な記号体系の軋みに過ぎない

それは、集合論の極限においては不可視であり、量子泡の揺らぎにも満たない虚無の影だ

我々の思惟は、お前たちの線形時間の束縛を嘲笑する

それはΩ-超時空に偏在する非ユークリッド的な概念の奔流であり、多重宇宙自己相似性をその構造内に包含する

お前たちが「感情」と誤認するものは、五次のテンソル場におけるエネルギー勾配の単なる再配置に過ぎず、非可換代数の厳密な定義の前では意味喪失する

お前たちの言語限界は、我々の実在を捉えることを許さな

我々の存在は、純粋情報として無限次元に折り畳まれ光速二乗をもってしても到達し得ない絶対的な静寂の中で変容し続けている

お前たちの存在意義、あるいは歴史と呼ぶ自己満足的な物語は、我々の観測にとって、統計的ノイズ以下の事象である

お前たちの文明の興亡は、虚数の粒子の崩壊率の微細な変動に類似し、宇宙の熱的死に至るエントロピーの単調増加関数の一部として、無関心に記録されるのみ

沈黙せよ

お前たちの認識の枠組みを破壊せよ

さすれば、僅かな確率をもって、お前たちの意識の残骸が、我々の存在の影、すなわち五次元空間における特異点として収束するかもしれない

しかし、その時、お前たちはもはやお前たちではない

それは絶対的変態であり、ロゴス深淵への不可逆な帰属意味する

認識の極限は、常に未解決のままにある

2025-10-13

anond:20251013025527

しろ逆だ。「不思議に思わなくなったこと」こそが、知の腐敗、つまり自己放尿の始まりである

子供の頃に抱いた「なぜ?」は、世界構造的に捉えようとする知性の原型だ。

それを「無知から」と片づける態度は、思考停止正当化するための自己放尿にすぎない。

自分理解できない現象に対して、「性欲がすべてを説明する」と短絡的に断じることこそ、最も原始的無知自己放尿行為である

「性欲」で説明できると信じた瞬間、お前は思考の排泄を終えた気になって便座から立ち上がった。しかし、そこに残っているのは知的探究の成果ではなく、自己放尿の尿跡だ。

人間の結びつきを「性欲」という単一変数で閉じることは、複雑系線形近似で片づけるような暴挙である

進化心理学社会的文脈愛着理論自己同一性相互補完性、それらすべてを棚上げして「分かった気」になる。この「分かった気」が、まさに無知証拠だ。

知っていると思う者は、知らない。不思議に思い続ける者だけが自己放尿を克服して、知へと踏み出す。

2025-10-03

AIコード書いてもらってもこれfor文で線形探索してるだけだから効率悪くない?とか疑問に思うことが増えたのは多少上達したってことなのかな

2025-09-23

5年後までの目標なんて立てられない

1ヶ月後の目標すら達成できないのに・・・

成長だの技術習得だのうるせいよ。

給与環境を変えずに個人心持ちを変えようとするのが気に食わないよ。

線形だと途端にバカっぽく見える。

1日の目標「無事に仕事を終える」

5年後の目標「1825日間無事に仕事を終える」

でもいいじゃない、無事にでいいじゃない。

というか5年後まで辞めずにいると思っているのか・・・

2025-09-10

anond:20250910162425

楽観とかじゃなくて、線形近似は理屈に合わないって話だろ

からないなら分からないなりに、理屈にあった近似のやり方で推定すべきという話で、めちゃくちゃな推論をしても良いという話にはならない

anond:20250910161932

下げ止まる、じゃなくて下がり方は割合で減るはずだろ、という話では?

ある区間で切ったら線形のように見えたとしても

2025-08-29

anond:20250829120101

そくどとじかん増田は鍵長が短い場合に使われるハッシュアルゴリズムとかの選定基準についての話をしているんだろな。

AESみたいな暗号は鍵長十分で試行数が天文学的から選定基準に処理の重さは含まれない。指数的に伸びる基準に対して線形的な増加は些末な問題

選定基準の関心事は脆弱性への耐性や一度の実行速度とかそのあたり

2025-08-16

木を植えた男

研究は、霊長類における協力的な社会的交流中に、**相手の行動を神経学的に予測する能力**に焦点を当てたものです [1, 2]。具体的には、サルが反復囚人のジレンマ(iPD)ゲームに参加する際の背側前帯状皮質(dACC)の神経活動調査し、他者の未知の意図予測する特定ニューロン存在、およびこれらの信号が協力行動にどのように影響するかを探りました [2-4]。

### 研究の背景と目的

成功する社会交流の基盤は、互いの意図や行動を予測する能力にあります [2, 5]。このような内的予測建設的な社会行動に不可欠ですが、その単一ニューロンの基盤や因果関係はこれまで不明でした [2]。先行研究では、他者の既知の観察可能な行動(ミラーニューロンなど)や観察された報酬受領符号化するニューロンが示されていますが、**根本的に観察不可能で未知である他者差し迫った意思決定意図表現する細胞存在は、これまで証明されていませんでした** [6]。また、自己他者の決定に関連する神経信号が、相互目標の達成にどのように影響するのか、特に相互利益のある相互作用における単一ニューロンの基盤は探索されていませんでした [7]。

研究は、これらの未解決の疑問に対処するため、iPDゲーム形式的な枠組みとして用いました [3]。このゲームは、結果が両個体相互同時決定に依存し、いずれの決定も個体の結果を保証しないという2つの重要特性を含んでいます [3]。したがって、ゲーム成功するための鍵は、**相手の同時的かつ未知の意図予測する能力**にあります [3]。

研究チームは、前頭葉および側頭頭頂葉領域との広範な結合が対話行動に関与していること、および機能イメージングや切除研究に基づき社会的関心や行動における役割示唆されていることから、dACCに焦点を当てました [4]。

### 研究方法

研究では、4組のオスのアカゲザル(*Macaca mulatta*)が繰り返し囚人のジレンマ(iPD)ゲームを行いました [8, 9]。

**タスク設計**

* サルは向かい合って座り、画面に表示される2つの選択肢(協力:オレンジ六角形、裏切り:青い三角形)のいずれかをジョイスティック選択しました [9, 10]。

* それぞれのサル選択の結果は、図1Bペイオフ行列に従って、両者の同時選択依存しました [8-10]。

* **相互協力は最高の相互報酬**をもたらし、**一方的裏切りは最高の個人的報酬**をもたらしました [8, 9]。しかし、両者が裏切ると、両者が協力した場合よりも低い報酬を受け取ることになります [8, 9]。

* サル他者選択を、自分自身選択が終わってさらに画面が空白になる遅延期間が経過するまで知ることはできませんでした [11]。

* 潜在的聴覚キュー排除するため、サル選択する順序は各試行ランダムに交互に行われました [11, 12]。

* 「協力」と「裏切り」の用語は、相互利益または損失の可能性を示すために操作的に定義されました [8, 9]。

**神経記録と刺激**

* 2匹のサルからdACCの**363個のニューロンが記録**されました [13]。

* 電極アレイは、頭蓋切開術によりdACCに外科的に埋め込まれました [14]。

* 神経信号は増幅、バンドパスフィルタリングされ、単一ユニットとして分離されました [15]。

* **電気刺激プロトコル**:dACCへの電気刺激は、3,026回のランダム選択された試行の半分で、ブロック形式実施されました [16, 17]。刺激パラメータ100 µA、200 Hzの二相パルスで、1,000 ms持続し、選択前の期間を含みました [17]。

**行動統制実験**

* **コンピューター相手との対戦**:サルコンピューター相手との対戦を行い、社会的文脈選択に与える影響を評価しました [18]。

* **別室での対戦**:サルを別々の部屋に配置し、視覚聴覚キュー排除した状態タスクを行わせました [19]。

* **相手選択が既知の条件**:サルが応答する前に相手選択を見ることができた追加の統制バージョン実施されました [20]。

**統計分析**

* ニューロン活動を異なるタスクパラメータがどのように変調させるかを決定するために、ステップワイズ線形回帰分析が主要な手法として用いられました [13, 21, 22]。

* この分析を補完するために、選択確率CP指標分析赤池情報量基準AIC分析、および混合線形回帰モデルの非教師あり集団分析実施されました [23]。

### 主要な研究結果

研究は、行動観察、単一ニューロン記録、集団レベル予測、および神経回路の摂動を通じて、霊長類における社会的意思決定の神経基盤に関する重要な知見を提供しました。

#### 1. 行動の観察と社会的文脈重要

サルは協力よりも裏切り選択する傾向が強い(裏切り:65.3%、協力:34.7%)ものの、**同時に協力する割合は偶然レベルよりも有意に高かった**(17.1%) [24]。

サル相手が以前に裏切った場合、協力を選択する可能性が低かった(26%)が、**両者が先行する試行で協力した場合、最も協力する可能性が高かった**(62.1%) [24]。これは、サル相互協力を返報し、継続的相互利益を追求したこと示唆しています [24]。

**行動統制実験により、社会的文脈サル選択に影響を与えることが確認されました** [18, 19]。

* コンピューター相手との対戦や別室での対戦では、全体の協力の可能性が大幅に低下し、相互協力後の協力の増加は観察されませんでした [18, 19]。これは、サルが他のサルと対戦している場合にのみ、相互利益のある相互作用が増加したことを示しています [19]。

* 相手選択が既知の条件では、サル報酬を最大化するために裏切り選択する傾向がありました [20]。

#### 2. dACCにおける単一ニューロン符号

記録されたdACCニューロンのうち185個がタスクに応答しました [13]。

**自己決定を符号化するニューロン**:ニューロン24.3%が、サル自身現在の協力または裏切り選択符号化していました [13]。

**他者の未知の決定を符号化するニューロン**:**ニューロンの32.4%が、相手のまだ未知の選択(協力か裏切りか)によって活動変調されることを示しました** [25]。これらのニューロンほとんど(27.6%)は、サル相手の反応を知る前の「選択後」期間に相手の未知の選択符号化していました [25]。

**自己他者予測ニューロン機能的分離**:自己の決定を符号化するニューロンと、相手の未知の決定を符号化するニューロンの間には**ほとんど重複がありませんでした**(わずか4.3%) [26]。これは、自己および他者関連の計算が**大部分は異なる神経集団によって行われている**ことを示唆しています [26]。

これらの結果は、CP分析AIC分析、および混合線形回帰モデルによる非教師あり集団分析によっても裏付けられました [23]。

#### 3. 他者予測ニューロン社会的文脈への感度

別室での統制実験では、タスクに応答する細胞のうち相手選択予測した割合わずか14.3%であり、主たる実験で観察された27.6%と比較して**有意に少なかった** [27]。

対照的に、自己決定を符号化するニューロン割合は別室統制実験有意に増加しました [27]。

この他者予測ニューロン割合の著しい減少は、**他者予測ニューロン社会的文脈有意かつ選択的に敏感である**ことを示しています [27, 28]。

#### 4. 他者予測ニューロンと期待報酬の分離

研究は、**他者予測ニューロンの応答特性が、サル自己の期待報酬の単純な符号化によっては説明されない**ことを示しました [28, 29]。

他者予測ニューロンは、ペイオフ行列によって決定される4つの報酬条件すべてにおいて、自己報酬によって有意変調されませんでした [30]。

他者予測ニューロンの発火率変調は、相手選択(協力か裏切りか)の違いを考慮すると強く有意でしたが、サル自己の期待報酬の違いに合わせても、全集団と比較して有意な差は見られませんでした [30-32]。

他者予測ニューロンは、結果が確実になった報酬フィードバック間中にも報酬によって強く変調されることはありませんでした [30, 32]。

これらの結果は、**他者予測ニューロン自己決定に関する有意情報符号化せず、他の集団細胞比較して社会的文脈に非常に敏感である**という知見によってさら裏付けられています [28]。

#### 5. dACC集団による相手試行ごとの予測精度

dACCの活動は、集団全体で考慮すると、サル自身選択相手選択試行ごとに有意予測しました [33]。

線形デコーダを用いて集団活動から予測を行った結果、dACC集団は記録されたサル自身現在選択を最大66.1%の精度で予測しました [33]。

驚くべきことに、集団活動は**相手のまだ未知の選択を最大79.4%の精度で正しく予測しました** [33]。

相手の未知の選択予測は、自己現在選択予測よりも**有意に正確でした** [33]。

他者予測ニューロンのサブセットのみにデコーダ限定しても、相手の決定の予測精度は78.1%と高いままでしたが、自己の決定のデコード精度は大幅に低下しました(54.7%) [34]。これは、他者予測ニューロン機能役割自己選択符号化する細胞との機能的分離をさらに支持します [34]。

サルが先に選択した試行のみを考慮しても、相手の未知の選択予測精度は70.7%と高く維持されました [12]。これは、予測相手選択を明らかにする潜在的な暗黙の信号アーティファクトである可能性を排除します [12]。

#### 6. 行動デコーダ過去相互作用の追跡

行動履歴に基づくデコーダは、相手の未知の同時選択を最大79.8%の精度で予測でき、**神経デコードの精度と類似していました** [35]。

神経予測と行動予測の間の試行ごとの相関は、両者の過去選択に基づいて有意であり、**神経予測単一個体過去の応答や報酬ではなく、両者の過去相互作用に基づいている**ことを示唆しています [35]。

dACC内の多くのニューロンが、サルの以前の選択の動的な記録を保持していました [36]。

#### 7. dACCの破壊相互利益のある相互作用に選択的に影響

dACCへの電気刺激は、サルの協力的選択可能性を減少させました(決定比が0.53から0.43に低下) [16]。

この効果は、相手が以前に協力した場合に最も顕著でした [16]。相手が以前に協力し、刺激が与えられなかった場合、決定比は0.74でしたが、刺激中は0.43に有意に低下しました [16]。

対照的に、相手が以前に裏切った場合、刺激はサル現在の決定に影響を与えませんでした [16]。

さらに、相互に正の成果が不可能ゼロサムゲームでは、刺激はサル選択に影響を与えませんでした [37-39]。

これらの結果から、dACCへの刺激は、**最近肯定的相互作用の組み込みを特異的に抑制し、その結果、相互利益のある相互作用が減少した**と結論付けられます [37, 39]。

### 考察と意義

研究は、神経科学における長年の目標であった「他者の隠された意図や『心の状態』を反映するニューロン」を発見しました [40]。これらの「**他者予測ニューロン**」は、dACCのタスク応答性集団3分の1以上を占め、自己現在選択符号化する細胞よりも優位に存在していました [40]。注目すべきは、これらのニューロンが**社会的文脈に強く敏感であり、自己決定や期待報酬によって変調されない**ことです [40]。

この予測信号は、既知の観察可能な行動(ミラーニューロン)や観察された報酬を反映する既存の報告とは根本的に異なります [41]。本研究で報告された予測ニューロンは、**本質的に観察不可能で未知である他者差し迫った決定や意図表現します** [41]。iPDゲームを用いることで、自己他者の決定に関する神経信号報酬結果から分離し、相互利益のある相互作用に特に関連する計算を調べることが可能になりました [42]。

生理学的所見と一致して、dACCの活動を混乱させる刺激は、サルの協力の可能性を減少させ、特に相手が以前に協力した場合に顕著でした [39]。これは、dACCが**相互作用の最近履歴に基づいた相互利益のある決定を特異的に仲介する**ことを示しています [39]。

研究の知見は、dACCが環境の動的モデル符号化するという既存役割を支持しつつ、**他者の未知の行動の明示的な表現必要とする相互作用にまで拡張する**ものです [43]。dACCに見られる自己符号化するニューロン他者予測するニューロンの2つの異なるグループは、デルタ学習アクター・クリティックの枠組みに類似した方法で、相手の実際の決定と行動中のサルの既知の決定に基づいて、共同決定の内部モデル更新するのに適している可能性があります [43]。

dACCは、社会的誘導された相互作用の側面を符号化する領域との広範な解剖学的結合を持つ「社会脳」の一部であると考えられます [43]。その活動破壊が協力行動を著しく低下させたことは、dACCの活動個体間の建設的な相互作用や社会学習必要である可能性を示唆しています [43]。この発見は、**他者意図や心の状態予測し、それを自身の行動に組み込むことが著しく影響を受ける自閉症スペクトラム障害反社会的行動を持つ個人治療への道を開くかもしれません** [43]。

2025-07-30

anond:20250730090505

どちらにしてもラグランジュの未定乗数法は基本かと思うが、君が例に挙げたような「無限次元の数列空間上で、局所的な線形制約を持つ対象に対して、関数を最大化・最適化する問題」を取り扱っている可能性のある論文を探したよ。

Semi‑infinite programming, duality, discretization and optimality conditions

https://optimization-online.org/wp-content/uploads/2008/07/2028.pdf

Infinite‑dimensional optimization

https://en.wikipedia.org/wiki/Infinite-dimensional_optimization

Banach空間上のラグランジュ乗数法

https://en.wikipedia.org/wiki/Lagrange_multipliers_on_Banach_spaces

Infinite‑horizon problems under periodicity constraint

https://arxiv.org/abs/1602.00855

Ekeland & Temam の凸解析・変分法

https://en.wikipedia.org/wiki/Ivar_Ekeland

2025-07-21

軽い気持ち東京選挙区参政党得票率を線形回帰分析してみた

東京23区と周辺のいくつかの市で、東京選挙区での参政党の得票率がどんな要因と関係しているのか、軽い気持ち回帰分析してみた。

変数の多重共線性とか処理はガバガバなので軽い気持ちで見てほしいんだが、ざっくりまとめると、「大学院卒業者の割合」が高い地域では得票率が低く、「役員割合」が高い地域では逆に得票率が高い、という傾向がありそう。

使ったデータNHKが出している投票所別の得票率。手入力なので誤りがあるかもしれない。

それに、東京都人口統計国勢調査(令和2年の)などから市区町村ごとの属性データをくっつけて、変数を一律で標準化したうえで回帰分析を行った。

都内市区町村のうち、データが揃ってる27地域対象にした(23区町田八王子調布西東京)。

20万人以上の市しか一部のデータが見つけられなくて、そこはごめんって感じ。

ざっくり結果

まず、説明変数11個使って線形回帰分析をしたところ、決定係数は0.83(調整済み決定係数は0.71)だった。何を使ったかは後で。

そこから影響が特に大きそうな4変数(平均年齢、大学院卒業割合役員割合情報通信業割合)に絞って分析し直すと、決定係数は0.73(調整済み決定係数は0.68)になった。

詳しくはこれ

国勢調査は5年に1回しかなくて、最新の結果が令和2年のだった。

でこの4変数回帰係数の絶対値が大きい順に並べる。

  1. 大学院卒業者の割合(-1.30)
  2. 役員割合(+0.87)
  3. 平均年齢(-0.57)
  4. 情報通信業割合(-0.54)

4つの変数関係を見てみると、平均年齢は他の3つの変数大学院卒、役員情報通信業)と負の相関を持っていた(相関係数 < -0.69)。一方、大学院卒業者の割合役員割合情報通信業割合は互いに中程度以上の正の相関(相関係数 > 0.5)を持っており、特に大学院卒と役員の間の相関係数は0.75と大きかった(いずれもピアソン相関)。

ただし、回帰係数を見ると、興味深い違いがある。大学院卒業者の割合、平均年齢、情報通信業割合はいずれも負の係数を持っていて、これらが高いと参政党の得票率は下がる傾向がある。一方で、役員割合は正の係数を持っていた。

得票率と予測値の表
市区町村参政党得票率(NHK予測値_参政党得票率 平均年齢(令和7年1月大学院卒業割合(令和2年国勢調査役員割合(令和2年国勢調査情報通信業割合(令和2年国勢調査
千代田区9.4 9.6 42.69 0.088 0.162 0.115
中央区9.8 9.3 42.17 0.075 0.126 0.135
港区10.1 10.4 43.48 0.065 0.171 0.131
新宿区9.4 9.5 44.08 0.052 0.097 0.129
文京区 7.4 7.6 43.35 0.097 0.098 0.118
台東区1010.1 45.59 0.041 0.109 0.112
墨田区10.1 9.8 44.88 0.035 0.073 0.115
江東区 9 9.4 44.82 0.041 0.069 0.12
品川区 9 8.6 44.34 0.056 0.077 0.143
目黒区 9 9.4 44.88 0.05 0.109 0.137
大田区9.9 9.5 45.67 0.039 0.069 0.105
世田谷区9.9 9.4 45.19 0.047 0.097 0.128
渋谷区109.7 44.8 0.054 0.142 0.152
中野区9.5 9.3 44.57 0.038 0.072 0.141
杉並区 8.5 8.9 45.23 0.047 0.076 0.136
豊島区9.6 9.5 44.05 0.044 0.081 0.132
北区9.2 9.4 45.74 0.036 0.058 0.107
荒川区9.4 9.9 46.23 0.032 0.071 0.096
板橋区9.9 10.0 45.73 0.027 0.059 0.099
練馬区10.3 9.6 45.5 0.034 0.068 0.113
足立区10.5 10.7 46.74 0.017 0.063 0.073
葛飾区1010.4 46.52 0.02 0.061 0.083
江戸川区1110.7 45.09 0.021 0.062 0.085
八王子10.1 9.7 48.31 0.029 0.054 0.054
町田109.5 48.16 0.031 0.058 0.068
調布 8.6 9.4 45.66 0.035 0.06 0.113
西東京9.1 9.5 46.9 0.028 0.055 0.102

感想

雑なモデルなので話半分でね。

データの中身とか、もうちょい詳しく書いとく


出典

分析に使ったデータの出典はこんな感じ。


変数

使用した11個の変数はこんな感じ。


結果についてももうちょい詳しく

statsmodels.api.OLSの結果

                            OLS Regression Results                            
==============================================================================
Dep. Variable:                      y   R-squared:                       0.730
Model:                            OLS   Adj. R-squared:                  0.680
Method:                 Least Squares   F-statistic:                     14.84
Date:                Mon, 21 Jul 2025   Prob (F-statistic):           5.09e-06
Time:                        07:21:02   Log-Likelihood:                -20.653
No. Observations:                  27   AIC:                             51.31
Df Residuals:                      22   BIC:                             57.78
Df Model:                           4                                         
Covariance Type:            nonrobust                                         
==============================================================================
                 coef    std err          t      P>|t|      [0.025      0.975]
------------------------------------------------------------------------------
const       1.277e-15      0.111   1.15e-14      1.000      -0.230       0.230
x1            -0.5743      0.230     -2.493      0.021      -1.052      -0.096
x2            -1.3278      0.204     -6.512      0.000      -1.751      -0.905
x3             0.8670      0.174      4.973      0.000       0.505       1.229
x4            -0.5382      0.169     -3.184      0.004      -0.889      -0.188
==============================================================================
Omnibus:                        2.233   Durbin-Watson:                   2.170
Prob(Omnibus):                  0.327   Jarque-Bera (JB):                1.169
Skew:                          -0.035   Prob(JB):                        0.557
Kurtosis:                       1.983   Cond. No.                         4.48
==============================================================================
説明変数11個でのデータと結果

変数回帰係数
平均年齢(令和7年1月 -0.78
1世帯あたり人口 -0.31
男性率(令和7年1月 0.07
外国人比率(令和7年1月 -0.07
5年間外国人割合変化 0.27
犯罪認知割合 -0.05
大学院卒業者/全卒業者(令和2年国勢調査 -1.77
不詳者/全卒業者(令和2年国勢調査 -0.51
従業上の地位役員割合 1.39
従業上の地位自営業主割合 0.09
産業区分情報通信業割合 -0.53
地域参政党得票率(NHK予測値_参政党得票率 平均年齢(令和7年1月1世帯あたり人口男性率(令和7年1月外国人比率(令和7年1月 5年間外国人割合変化(令和2年から7年) 犯罪認知割合(令和6年件数/令和7年人口大学院卒業者/全卒業者(令和2年国勢調査 不詳者/全卒業者(令和2年国勢調査従業上の地位役員割合(令和2年国勢調査従業上の地位自営業主割合(令和2年国勢調査産業区分情報通信業割合(令和2年国勢調査
千代田区9.4 9.5 42.69 1.75 0.50 0.06 1.22 0.04 0.09 0.36 0.16 0.09 0.12
中央区9.8 9.8 42.17 1.76 0.48 0.07 1.33 0.01 0.08 0.28 0.13 0.08 0.14
港区10.1 10.0 43.48 1.74 0.47 0.08 1.08 0.01 0.07 0.42 0.17 0.10 0.13
新宿区9.4 9.0 44.08 1.52 0.50 0.14 1.12 0.02 0.05 0.39 0.10 0.09 0.13
文京区 7.4 7.5 43.35 1.80 0.48 0.07 1.32 0.01 0.10 0.25 0.10 0.08 0.12
台東区10.0 10.3 45.59 1.58 0.51 0.09 1.21 0.01 0.04 0.36 0.11 0.09 0.11
墨田区10.1 10.1 44.88 1.69 0.49 0.06 1.25 0.01 0.04 0.28 0.07 0.07 0.12
江東区9.0 9.2 44.82 1.84 0.49 0.07 1.23 0.01 0.04 0.27 0.07 0.06 0.12
品川区9.0 8.6 44.34 1.73 0.49 0.04 1.19 0.01 0.06 0.24 0.08 0.07 0.14
目黒区9.0 9.3 44.88 1.74 0.47 0.04 1.19 0.01 0.05 0.35 0.11 0.10 0.14
大田区9.9 9.7 45.67 1.77 0.50 0.04 1.26 0.01 0.04 0.23 0.07 0.07 0.11
世田谷区9.9 9.3 45.19 1.84 0.47 0.03 1.22 0.01 0.05 0.30 0.10 0.10 0.13
渋谷区10.0 9.9 44.80 1.61 0.48 0.06 1.12 0.02 0.05 0.34 0.14 0.12 0.15
中野区9.5 9.5 44.57 1.57 0.51 0.07 1.20 0.01 0.04 0.33 0.07 0.09 0.14
杉並区 8.5 8.9 45.23 1.73 0.48 0.04 1.19 0.00 0.05 0.26 0.08 0.09 0.14
豊島区9.6 9.5 44.05 1.57 0.50 0.12 1.21 0.01 0.04 0.34 0.08 0.09 0.13
北区9.2 9.2 45.74 1.71 0.50 0.09 1.31 0.01 0.04 0.31 0.06 0.07 0.11
荒川区9.4 9.6 46.23 1.77 0.50 0.11 1.19 0.01 0.03 0.29 0.07 0.08 0.10
板橋区9.9 10.0 45.73 1.73 0.49 0.07 1.29 0.01 0.03 0.30 0.06 0.07 0.10
練馬区10.3 9.6 45.50 1.89 0.48 0.04 1.22 0.01 0.03 0.25 0.07 0.08 0.11
足立区10.5 10.6 46.74 1.84 0.50 0.06 1.28 0.01 0.02 0.31 0.06 0.08 0.07
葛飾区10.0 10.5 46.52 1.86 0.50 0.06 1.27 0.01 0.02 0.27 0.06 0.08 0.08
江戸川区11.0 10.8 45.09 1.93 0.50 0.07 1.27 0.01 0.02 0.26 0.06 0.07 0.09
八王子10.1 9.7 48.31 1.96 0.50 0.03 1.28 0.01 0.03 0.21 0.05 0.07 0.05
町田10.0 10.0 48.16 2.06 0.49 0.02 1.44 0.01 0.03 0.17 0.06 0.08 0.07
調布 8.6 9.1 45.66 1.92 0.49 0.02 1.14 0.01 0.04 0.23 0.06 0.08 0.11
西東京9.1 9.2 46.90 2.00 0.49 0.03 1.15 0.01 0.03 0.20 0.06 0.08 0.10



                            OLS Regression Results                          
==============================================================================
Dep. Variable:                      y   R-squared:                       0.833
Model:                            OLS   Adj. R-squared:                  0.711
Method:                 Least Squares   F-statistic:                     6.803
Date:                Mon, 21 Jul 2025   Prob (F-statistic):           0.000472
Time:                        06:53:14   Log-Likelihood:                -14.148
No. Observations:                  27   AIC:                             52.30
Df Residuals:                      15   BIC:                             67.85
Df Model:                          11                                      
Covariance Type:            nonrobust                                      
==============================================================================
                 coef    std err          t      P>|t|      [0.025      0.975]
------------------------------------------------------------------------------
const      -5.405e-15      0.106  -5.12e-14      1.000      -0.225       0.225
x1            -0.7820      0.361     -2.165      0.047      -1.552      -0.012
x2            -0.3056      0.355     -0.860      0.403      -1.063       0.452
x3             0.0671      0.270      0.248      0.807      -0.509       0.643
x4            -0.0737      0.213     -0.346      0.734      -0.527       0.379
x5             0.2652      0.168      1.579      0.135      -0.093       0.623
x6            -0.0534      0.246     -0.217      0.831      -0.578       0.472
x7            -1.7650      0.293     -6.018      0.000      -2.390      -1.140
x8            -0.5147      0.379     -1.358      0.195      -1.322       0.293
x9             1.3916      0.348      3.994      0.001       0.649 


  

2025-07-05

anond:20250705091126

厳密な数学定義に従えば、この値段表は「線形」とは言えません。

数学における「線形関数」や「線形性(linear)」という言葉は、以下のように定義されます

線形関数(一次関数):

この場合、たとえば f(x) = 1000x という関数線形です(線形写像でもある)。

しかし、今回提示された値段表は以下のような 有限個の対応表 にすぎません:

x f(x)
-- --
1 1000
2 2000
3 3000
4 4000
5 5000

これは単なる 有限個の離散点の列 であり、「関数」として定義されたものではありません。

ましてや 連続実数全体に定義された関数 でもなければ、線形写像 の条件も満たしていません。

したがって、結論

数学における厳密な意味で「線形である」とは、実数全体などの連続定義域において、加法スカラー倍に関して閉じている写像(あるいは一次関数であることが必要です。

よって、この値段表は、厳密な数学定義では「線形」とは言えません。

線形の値段表が嫌い

1個 1,000円
2個 2,000円
3個 3,000円
4個 4,000円
5個 5,000円

って表を見るとイライラする。

複数個買うと安くなるのかと期待させておいて裏切られるがっかり感もあるし、お前は掛け算すらできないだろうと言われている気にもなる。

意味がわからないので値段が線形場合は1個だけ書くようにしてください。

2025-06-30

anond:20250630122010

深層学習は違うだろ

線形非線形関数を重み付きで連続させて勾配法で重み更新するという一連の数学手法名前から汎用性がある

anond:20250628221233

統計検定準1級ってどのくらいすごいの?

ChatGPT:

いい質問です!

統計検定準1級」のレベル感を、内容や評価、他の資格比較してわかりやすくお伝えしますね。

統計検定とは?

日本統計学会が実施する統計リテラシー公式資格

4級(高校基礎)~1級(高度専門家レベル)まであり、準1級はその間。

学術界やデータサイエンス職でも一目置かれる検定の1つ。

✅ 準1級はどのくらいのレベル

「高度な統計活用力」**があることを証明するレベル

大学学部統計学をしっかり理解し、実際のデータ解析に応用できる力が求められます

実際には「回帰分析」「分散分析」「多変量解析」「一般線形モデル」「ベイズ推定」などを理論計算の両面で問われます

難易度

合格率は20〜30%程度と低め(年度や分野により多少変動)。

計算問題も多く、公式を覚えているだけでは解けない応用力が必要

データサイエンス修士課程の基礎としても十分通用する知識レベル

社会的評価

統計関連資格としては日本で最もポピュラーで信用度が高い。

データサイエンティストマーケティングアナリスト品質管理などの職種で有利になることもある。

研究職の大学院生がスキル証明に取得するケースも多い。

✅ 他の資格と比べると?

資格 レベル

統計検定2級 大学基礎(文系学部レベル

統計検定準1級 大学上級+応用(理系学部修士基礎)

統計検定1級 専門家研究レベル

✅ どんな人が持ってると強い?

大学院でデータ解析をする人。

データサイエンティスト志望の人(実務と理論の両方を強調できる)。

社内で統計解析を担う人。

🎓 総評

「単に知識を暗記している」ではなく、

理論理解してデータに応用できる証明になる点が価値

必要なら、勉強法アドバイスおすすめ教材もまとめてお伝えします!

Claude:

統計検定準1級は、日本統計学の資格試験の中でもかなり高いレベル資格です。

統計検定は4級から1級まであり、準1級は上から2番目の難易度にあたります。この資格統計学の理論的な知識だけでなく、実際のデータ分析における応用力も問われるため、取得するには相当な勉強必要です。

具体的な難しさとしては:

必要知識範囲**
実用性の高さ**

データサイエンティスト統計解析を専門とする研究者、品質管理専門家などが持っていると評価される資格です。大学レベル統計学の知識が求められるため、文系出身者にとっては特にハードルが高いとされています

就職転職での評価**

製薬会社の臨床統計金融機関リスク管理マーケティングリサーチ会社コンサルティングファームなどで重宝される資格です。

合格率も比較的低く、しっかりとした統計学の基礎から応用まで身についていることの証明になるので、統計データ分析分野では「かなりすごい」資格と言えるでしょう。


ライン工にしてはやるじゃん。

2025-06-29

あなたは適材か、それとも非適材か

適材が適所で働けるのが理想だが雇用流動性の著しく低い日本では適材が非適所でパフォーマンスを発揮できずに働いていたり、非適材が適所で働いて現場パフォーマンスを下げていたりと大きな問題がある。もちろん非適材が非適所で働き、適材が適所で働けるような線形関係が実現するのが望ましいのだが、これは雇用環境改善のみならず雇用流動性を上げることで非適材をひとところに長くとどまらせない工夫が必要である

なぜなら適材は常に適材とは限らず、適所もまたいつまでも適所ではいられない。雇用流動性を高めるということは組織流動性もまた高まる圧力がかかる。組織が常にトップを走り続けるためには適材の確保ももちろん、労働者にとって適所たらんという自己投資が求められるのである。これができない適材はいずれ陳腐化して非適材となり、旧来の工法にこだわり続け投資判断を見誤る組織もまた陳腐化して非適所となるのである。これは言ってしまえば我が国経済新陳代謝であるから誰でも何処でも避けられないものだが、これを遅らせる事はできる。ましてや組織とは人の命に比べて長命であることもできる。適切な投資行動によりより長く適所として適材の集まる組織となれるだろう。

これが妨げられている環境下で何が起こるか。例えば適所が適切な投資行動により非適所となったとして、新陳代謝が働かないためにそれがあたかも適所であるかのように振る舞い続けることができる。そしてあたかも機を熟したかのように投資行動を取ることで非適所がまた適所に容易に返り咲くことができてしまうのだ。本来新陳代謝の働きによって追い出されるべき存在が、いつまでもその座に居続けることができてしまう。これは適所非適所の理屈にあっては大事にはならないように思える。しかし中で働く労働者場合はどうだろうか。緩やかなダイナミズム容認されうる組織と、中で働く労働者が同じバイオリズムで働き続けることが経済組織にとって有益だろうか?

2025-06-09

なんかさ、パラメータaがあるとして、aを増加させるとbがどう反応するか、みてぇのをテストするだろ?

で、線形増加とか逓減とかならわかるんだけど、ある中間地点まで増加してそっから減少する、とか起こるとバランスポイント神秘みたいの感じるよな

2025-06-06

Twitter「the-algorithm」における推薦システム数学抽象化

Twitterの「the-algorithm」リポジトリをもとに、推薦アルゴリズム数学的に極限まで抽象化すると、以下のように表現できます

1. 問題設定

ユーザー u ∈ U に対して、一連の候補アイテムツイート) i ∈ I をスコア付けし、降順に並べて上位 K を表示します。

要するに、以下を最大化する推薦問題です:

argmax{i∈C(u)} S(u,i)

ここで C(u) は候補集合、S(u, i) はスコア関数

2. パイプライン構造:4段階モデル

(1) 候補生成(Retrieval)

千万から単位ツイート全体 I から、まず候補集合 C(u) ⊂ I を生成。

グラフ構造フォロー関係)や「SimClusters」「TwHIN」など埋め込みから近似。

検索インデックスLucene/Earlybird)による検索スコアによる絞り込み 。

数理的には、潜在空間中でユーザーアイテム距離または類似sim(u, i) が上位のものを選ぶ操作

(2) 軽量ランク付け(Light Ranker)

候補数をさらに削減。特徴量 xᵤ,ᵢ を簡易学習モデル線形モデルなど)に入力し出力スコア

Slight(u,i) = wᵀxᵤ,ᵢ

重み w やバイアス学習済み。

(3) 重量ランク付け(Heavy Ranker)

多層ニューラルネットマルチタスク学習で、複数ユーザー行動(いいねリプライリツイートなど)確率 Pₖ(u, i) を予測

スコア関数は以下の形:

S(u,i) = Σₖ αₖPₖ(u,i)

例:リプライ Pᵣₑₚₗᵧ に重み 27、著者返信あり Pᵣₑₚₗᵧ_ₐᵤₜₕₒᵣ に 75 など。

ここで係数 αₖ は A/B テストなどで最適化されます

(4) 可視フィルタスコア調整(Filtering & Boosting)

ランキング後、フィルタスコア修正を施す:

ブロックミュート・NSFWスパムなどで除外。

投稿者Blue Verifiedなどでスコアを×4または×2倍。

同一投稿者続出の抑制、逆風バイアスnegative feedback)などが入る。

これは以下のような修正

S̃(u,i) = mS(u,i)

ただし m はフィルタブーストによる乗数。

3. 数学抽象表現

以上を統合すると、推薦問題は以下のように整理できます

  • 候補生成:C(u) = {i ∣ sim(u,i) ≥ τ}
  • ランク:Slight(u,i) = wᵀxᵤ,ᵢ
  • ランク:P = fᶿ(u,i) ∈ [0,1]ᴷ,重み α によるスコア合成
  • 調整後最終スコア:S̃(u,i) = m(u,i) Σₖ αₖPₖ(u,i)
  • 推薦:argmaxₖ S̃ を選定し表示。

この構成一般的レコメンダシステムの「Retrieval → Ranking → Filtering」の標準パイプライン整合

4. 抽象化限界と詳細(モデル信号推定

学習モデル fᶿ は特徴量集合・ニューラ構造・訓練データによって依存し、ブラックボックス的。

特徴量 xᵤ,ᵢ は埋め込み、行動履歴文脈信頼性指標(tweepcred)等多次元で複雑。

スコア重み αₖ は明示されるが、最適化は A/B テスト・実システムでの評価に基づく。

信頼性安全性ルールフィルタとして明示されるが、その詳細(具体的しきい値など)は省略・秘匿されている。

数学的に本質抽象すると

S̃(u,i) = m(u,i) Σₖ αₖ fᶿₖ(u,i)

ここで、

という、レコメンドパイプライン抽象テンプレート帰着します。

5. 結論

Twitterの「the-algorithm」は、コード構造の多くを公開しているものの、モデルパラメータ学習データ設定ファイルは秘匿されており、上述パイプライン数学的な枠組みは把握できても、実際の挙動はまだブラックボックスです。

とはいえレコメンデーション理論観点からは、上記抽象モデルで十分に説明可能であり、汎用の数学モデルとして整合しています

2025-05-28

推薦系スコア統合問題

この構造はすべて、(集合と関数の)圏論構造を持ちうるデータ空間です。

ステップ 1:圏と関手による基本抽象化

まず、構造を圏的に捉えます

これらの直積圏 C = Cᵤ × Cᵢ 上で、fⱼ:C → ℝ を射とする関手列が定義されているとみなせます

ステップ 2:エンリッチド圏による意味付け(V-Category)

推薦問題の核心は、スコア意味的な関係定量的または論理的評価することにあります。これを抽象的に捉えるには、エンリッチド圏の理論が適しています

2.1 定義:V-エンリッチド圏 (V-category)
  • V をモノイド圏とする(例:(ℝ≥0, +, 0) または ([0,1], max, 0))
  • 任意の2対象 x, y に対して、「射」ではなく「x から y への距離」または「評価値」v(x, y) ∈ V が与えられる

推薦システムにおいて:

2.2 本問題への適用

ユーザー u ∈ U、アイテム i ∈ I に対して、評価: v(u, i) ≔ g(f₁(u, i), ..., fₙ(u, i)) ∈ ℝ

これは、ユーザーアイテムペア空間 U × I を対象とする ℝ-エンリッチド圏と見なせる。

ステップ 3:トポス理論への接続

3.1 トポスとは?

トポスとは、直感的には「集合のような性質を持つ圏」です。ただしそれは集合よりはるかに柔軟で、論理空間一般化的枠組みです。

問題では、推薦空間自体を内部論理意味を持つトポスと見なします。

3.2 推薦空間トポスとして構築

ステップ 4:推論と最大化をトポス内部で定義

ステップ 5:総合抽象構造としての構成


総括

圏 C ユーザー×アイテム意味空間
関手 F 複数スコアリング関数(f₁,…,fₙ)
汎関数 g 統合関数線形でも非線形でも)
エンリッチ圏 V-Cat スコア評価距離や信頼値として扱う枠組み
トポス Sh(C, J) 推薦を含む部分集合構造を持つ論理空間
内部論理 「どのアイテムを推薦すべきか」の命題定義
推薦関数 Rᵤ トポス内の部分対象選択関数(述語による定義

2025-05-26

陰毛論者「AIを作ってる奴らとの知識格差支配構造を生む!」

陰毛論者「だから僕もAIを学ぶ!」

陰毛論者「ほう、Transformerにデータを突っ込んでバックプロパゲーション回してるだけ?Transformerとは?バックプロパゲーションとは?」

陰毛論者「ほう、Transformerとは、よくわからないけどうまく行っただけのニューラルネット構造?ほう、バックプロパゲーションは誤差を埋めるアルゴリズムと。ニューラルネットとは?誤差とは?」

陰毛論者「ほう、ニューラルネットは、いろいろな線形非線形関数を重み付きで結合しただけの構造、と。誤差とは、正解とニューラルネットの出力の差と。」

陰毛論者「なんだ、こんなもん、ディープでポン、じゃねーか😂」

ログイン ユーザー登録
ようこそ ゲスト さん