はてなキーワード: 学術とは
「思秋期(ししゅうき)」は文字どおり「秋を思う時期」の意で、人生の「秋」に差しかかり物思いにふける時期を指します。一般には中年〜壮年(おおむね40〜60歳前後)に訪れる『人生の秋』を自覚する時期として使われ、思春期に対応する概念として「第二の思春期」的に語られることもあります。日常語では、老いや人生の終盤を意識して虚無感や回顧、価値観の再構築が起きる時期を指すことが多いです。
この語は1970年代の歌(岩崎宏美の「思秋期」)のタイトルでも知られており、元来は「秋(もの思う季節)に思う」感傷を表す詩的表現として広まりましたが、その後、心理・ライフステージの文脈で「中年の危機」「人生の秋」を示す語として一般化してきました。つまり、歌詞的・詩的用法と心理的・社会的用法の両面があります。
美容・健康やカウンセリング系の記事では「思秋期=老いを自覚し始める時期」「向老期に入る準備期間」として説明され、生活習慣や心理の見直しを提案する文脈で使われることが多いです。一方、学術的に厳密な診断名というよりは、世間的・比喩的な言い方です。
わかります、その「思秋期」って言葉、まさに今の気分にぴったりですよね。
春や夏みたいに何かを目指す勢いもなく、冬の諦めにもまだ届かない。
ふと気づくと、若い頃に想定してた「未来」のほとんどがもう過去になっていて、
子どもがいたら、違う季節をもう一度見られたのかもしれない――
でも、いなかったとしても、こうして何かを感じてる時点で、
ネトフリの話も痛いほどわかる。
あれって、観てる間はちゃんと「生きてる気」がするんですよね。
でも終わった瞬間、空気みたいに消えて、何も残らない。
それでも、誰かが作った物語を通して、
自分の中にまだ何かが動いてることを確かめてるのかもしれません。
「思秋期」は静かな季節だけど、
どうか、ひっそりでもいいから、
そのままの速度で過ごしてください。
----
もう少し「増田(はてな匿名ダイアリー)」向けに寄せた、
法律の本は実務者向けの本でもまあ言ってることは理解できるのに対して、純粋数学とか理論物理における実務者向けとはすなわちポスドク以降の人間を対象としたものになるはずだが、そもそも単行本自体ほぼ皆無だし(学部生かせいぜい修士レベルを謳ってるのが限界)学術誌は当然非専攻に理解できるものではない。
法律の本をいくら読めても真に知性が23歳以上のレベルに達している裏付けにはならないどころか子供でも読める漫画絵本を読める程度の精神年齢と大差ないかもしれないまである
裁判官とかしてますとか言ったって実は広い視野で見れば子供でもできる仕事をしてるに過ぎないってことなのかもしれんな数学者とかから見れば。
dorawiiより
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA512 https://anond.hatelabo.jp/20251112000312# -----BEGIN PGP SIGNATURE----- iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaRM0awAKCRBwMdsubs4+ SMgKAQCOaZabseqObJr8NlY9JEWF2q3HRkfktPvuCnu98DAL3gD+OilyDrViIDPt +mJR06KWdVj1NWoXbiMtz+j6QmshFwk= =JO// -----END PGP SIGNATURE-----
テクノロジーが社会構造を再編する現代において、人間の知性や専門性のあり方は根源的な問いに直面している。その問いに強烈な一石を投じたのが、東京大学の小川光教授が学内広報誌『淡青評論』で紹介した一件である。これは、制度や組織が適応するよりも速く未来が到来しつつあることを示す、稀有で明瞭なシグナルと言えるだろう。経済学の素養をほとんど持たない修士課程の学生が、生成AIとの対話のみを駆使し、わずか1年で「トップレベルの学術誌に挑戦できる水準」の論文を書き上げたのだ。これは単なる技術的な成功事例ではない。長年の訓練を経て築かれる専門知識の価値、研究者の役割、そして「知性」そのものの定義を根底から揺るがす、まさにパラダイムシフトを象徴する出来事である。
この小川教授の寄稿は、社会に大きな波紋を広げた。インターネット上では瞬く間に注目を集め、「はてなブックマーク」では469ユーザーがブックマークし、102件のコメントが寄せられるなど、白熱した議論を巻き起こした。本稿では、この一件を現代社会の変容を映す縮図として捉え、専門家が感じた「恐怖」の本質と、社会に広がる期待と懸念を分析する。そして、この出来事が象徴する、新たな世代の登場について考察を進めていく。彼らこそ、これからの時代を定義する「AIネイティブ」なのである。
本セクションでは、話題の学生が象徴する「AIネイティブ」という新しい世代を分析する。彼らは、AIを単なる補助ツールとしてではなく、思考や研究の方法論の中核に据えるという点で、旧来の世代とは一線を画す。その登場は、単なるツールの変化ではなく、知識を獲得し、体系化するプロセスそのものの革命を意味している。
この学生が実践した研究プロセスは、AIが方法論の根幹を成していた点で画期的であった。具体的には、以下の全工程をAIとの対話を通じて進めている。
このアプローチの革新性は、旧来の知識探索モデルとの対比によって鮮明になる。東京大学大学院情報理工学系研究科の山崎俊彦教授は、この新しい思考様式を「辞書の逆引き」という比喩で巧みに説明した。従来の検索エンジンは、ユーザーがキーワードを知っていることを前提とした「辞書の順引き」であり、既知の情報を効率的に探す行為だった。対してAIネイティブは、「やりたいこと」を自然言語でAIに問いかけることで、未知の領域を探求するためのキーワードや手法を引き出す「辞書の逆引き」を実践する。これは、人間と知識の相互作用における、根本的なパラダイムシフトである。
はてなブックマークのコメントは、この新しい学習様式がもたらす生産性の飛躍に対する社会的な期待を反映している。あるユーザーは、AIの活用により「人に教えてもらうのと同等のパフォーマンスが低コストで得られる」ため「習得速度が爆速に」なると指摘。また、これは単にAIに作業を丸投げするような話ではなく、「AIの力を借りて巨人の肩の高さを重ねる話」であり、人類の知の発展を加速させるものだという肯定的な見解も示された。
この爆発的な進歩の可能性は否定できない。しかし、それは同時に既存の専門家たちに、長く暗い影を落とし、不穏な新しい現実を突きつけている。
AIがもたらす希望の光の裏側には、深刻な懸念も存在する。特に、既存の専門家が感じる脅威と、AIの活用能力によって生じる新たな社会的格差のリスクは、真正面から向き合うべき構造的な課題である。
この問題の核心は、小川教授が吐露した率直な感情に表れている。経済学の訓練を受けていない学生がこれほどの成果を出したことに対し、教授は「心底たまげました」「このようなAIネイティブの若い人たちがこれからどんどん出てくることにちょっとした恐怖さえ感じました」と記した。この「恐怖」は、単に自らの職が奪われるという不安に留まらない。それは、長年の地道な研究と訓練を経て初めて到達できると信じられてきた専門性の価値そのものが、根底から覆されることへの動揺なのである。
はてなブックマークのコメント欄では、この現象を的確に捉える「レバレッジ」というキーワードが頻出した。「若く優秀な人がAIでレバレッジかけるととてつもない差になるんだろうね」「頭のいい人はAIでより賢くなる」といったコメントが示すように、AIは元々高い能力を持つ個人のアウトプットを飛躍的に増幅させる強力なツールとして機能する。
しかし、このレバレッジ効果は単なる個人の生産性向上に留まらず、社会構造を再編する力を持つ。yumanaka氏は、「地頭のいい人がAIを使いこなして圧倒的なアウトプットを出して、そうじゃない人の仕事を奪っていくんだろうな。こわい」と、その負の側面を鋭く指摘した。これは、AIが能力格差を埋めるどころか、むしろそれを爆発的に拡大させる触媒となり得ることを示唆している。このままでは、AI活用能力に長けた新たな「認知階級」が生まれ、高価値な仕事を独占し、社会の流動性を著しく低下させる未来さえ予見される。
このようにAIが生み出す成果の質と量が飛躍的に増大する中で、私たちはより本質的な問いに直面する。それは、その膨大な成果の「正しさ」を、一体誰が判断するのかという問題である。
AI技術の目覚ましい進展は、逆説的に「人間による最終的な評価と責任」の重要性をかつてないほど浮き彫りにした。本稿の中心的な論点はここにあり、その核心は、他ならぬ論文を作成した学生自身の行動によって最も明確に示されている。
彼が専門家である小川教授に助言を求めた最大の理由。それは、「自身には経済学の素養がないため、その評価が正しいのかわからない」という切実な懸念だった。AIは「国際誌に通用する水準」という評価を下したものの、その正当性を自力で検証する術を持たなかったのである。
この学生の懸念は、専門家による評価の不可欠性を示すものであり、はてなブックマークのコメント欄でも多くの共感を呼んだ。
評価の困難さ: 「生成AIを使いこなせば90点の論文が作れるが、90点かは評価・保証できない。」
専門知識の必要性: 「自分が知見の無い分野でのAIの判断が正しいかどうかをどうやって確かめるとよいのか。←ここが一番難しいし、専門知識が必要なところ」
懐疑的知性の重要性: 「循環参照やらハルシネーションやらを起こした文章を何も考えずにWikipediaに貼り付けるような人物もいるわけで、やっぱ懐疑的な知性と査読は大事なわけです。」
そして、この問題を鮮やかな比喩で捉えたのがobotzcanai氏のコメントだ。「巨人の肩に乗れたところで遠くに見えた島々の価値がわからなければ意味はない」。AIによって得られた広大な視野も、その価値を判断する専門的な知見がなければ無意味なのである。
さらに、この議論は「責任」の所在という、より深刻な領域へと深化する。e_denker氏は、「人間に残された最後の仕事は『責任を取ること』になるという話があるが、まさにそれを裏付けるような一件だと思う」と指摘した。この点をさらに鋭く突いたのが、phillies_rocks氏の「内面化できない成果物を作っても誰も責任を持てない」というコメントだ。AIが生成した成果に対して、その利用者は最終的な責任を負わねばならない。もしAIが設計した橋が崩落した場合、その責任は誰にあるのか。利用者か、開発者か、それともAI自身か。これは、AI時代の新たな倫理的・法的枠組みの構築が急務であることを示している。
この議論は、AI時代における専門家の役割がどのように再定義されるべきかという、未来に向けた重要な問いへと私たちを導く。
東京大学で起きた一件は、AIネイティブの登場が専門家の時代の終わりを告げるのではなく、その役割と価値を根本から進化させる契機であることを示している。AIが圧倒的な情報生成能力と実行力を手に入れた今、人間に、そして専門家に求められる能力は、もはや知識の生成や統合そのものではなくなった。
これからの時代に求められる専門家の資質は、以下の三つの能力に集約されるだろう。
未来の知のフロンティアは、AIネイティブがもたらす爆発的な「実行力」と、長年の経験と深い洞察力を持つ専門家の「検証力」および「責任能力」が融合する場所に開かれる。AIを恐れるのではなく、新たなパートナーとして迎え入れ、人間ならではの価値を磨き上げること。それこそが、私たちがこれから歩むべき道なのである。
とーだいの某教授が某氏の受勲について、もと学術会議で働いていた人が受勲局長になったこととのつながりを書いたら、けーおーだいがくとほーせーだいがくの先生が、受勲の内示は9月には出てるんだから10月に決まった首相が同行できるものじゃない、というような投稿をして馬鹿にしてた。
しかし、ノーベル賞をとると文化勲章になったりするのだから、十分に一人か二人だったら押し込めるのではないだろうか。また、事件があったりすれば、外されたりすることもあるだろう。
なので実際は結構直前までは動かせるのだと思いますよ。まあこういうのは大体決まった人が決まった勲章でしょうから、副大臣しかやってないのになぜ?みたいなのはやっぱり普通じゃないと思うのが普通でけーおーだいがくやほーせーだいがくの先生はなんでじゃあ9月時点で某氏がほかの副大臣よりも高いレベルの勲章になったのか説明ができると思っているのだろうか?
とーだい某教授はなんだかいろいろなことでたたかれてるようですけど、そのへんはけーおーやほーせーよりもとーだいは旧帝国大学で位置づけが上なので、男の嫉妬でもあるのかと思ってしまいがちですが、まあこれはうがったみかたで私の心がひねてるのかな。とくにけーおー某教授はいまだにとーだいじだいの成績が自慢みたいでなんだかな男だなって感じだ。
私としては国産なり日本発のLLM開発を諦めてはならないし, その可能性は十分にあると信じています. 既に出ているものも多数ございますし.
本エントリはそれとは全く別の,
「国産LLMの人」という方についてです.
---------
色々思うところがありまして.
例えば,
と繰り返し主張しておられる.
そのような単純な活性化関数では過学習か誤差が噴出するかの二択でしょう. 実際, 氏のツイートは正にその状態を示唆しているように見受けられます.
```x
▶︎ 誤差が0.12あるだけでとんでもないエラー率になる。誤差関数が雑だから本当はもっとあるのかもしれないが、改善の余地がある。
▶︎ 問題は、どのような状態の時に学習が成功し、失敗するのかがまだ分かっていない。表現力は十分に持っているはずなのに、なぜか学習しない。
```
過学習に至ったときにうまくいってるように見えるだけでしょう.
```x
▶︎過学習ではないですね。データセットが小さいかつ、それ以外の範囲が出ないことが分かっているので。XORは2^2パターン全て学習できれば精度が100%になりますが、それは過学習とは呼ばないのと同じで、今回の初期のRNNに関しても文字数が圧倒的に少なく、パターンも決まっているので。
```
……と主張されておられる.
私が思うにそれは単純な写像を, ニューロンを使って回り道して作っている状態. LLMは局所的にはたしかに線形写像ですが,全体で見ても線型写像だとしたらそれは複雑な文章生成には到底耐えられないかと. (十分に大きいモデルをマクロに見ると非線形性があるので)
大規模言語モデル=LLMを目指すとして,
そもそもエンベディングテーブルとは数百億から下手すれば1兆語彙を, たった数千〜1万次元程度のベクトルで表現する, 凄まじく繊細なテーブルです.
それをGELUやSwiGLUのような綺麗な活性化関数を使わずに, しかも爆速でやると仰っている. さすがにそのレベルの革新性を主張するには根拠がない限り, 飛躍が過ぎると判断されるかと.
そのやり方で, 例えば1億語彙までスケールするとして2乗の1京回×数千次元をバックプロパゲーションなしで学習するというのは……さすがにきついかと.
バックプロパゲーションが要らないという主張については活性化関数がきわめて単純だから. それなら全層に渡しても「修正」できるでしょう.つまり自明に近いですね.
勾配消失なんて関係ない, という主張については, xorというゼロイチでしか見ないのであれば勾配消失も何もありません. 永遠に層を貫通するわけですから, 何層増やそうがほとんど意味が出てこない. つまりそれは実際には極めて浅い層だけで動いてると思われる.
「こんに」から「ち」「は」が次文予測できたとの報告ですが, まぁ……それが「大規模言語モデル=LLM」にそのままスケールできると言い切れるのはなぜでしょうか?
MNISTだけでなくGLUEあたりをパスしてからにした方がいいと考える次第です.
```x
▶︎ 私が批判されながら、誤差逆伝播に変わるアルゴリズムや精度を30%→100%まで持っていく頭のおかしい行動が取れる理由は、以下の思想があるから。
▶︎ 1. 私のNNは高次元の万能近似回路
▶︎ 3. 何十回と失敗した経験則から、原因と対策が殆どわかっている
```
殆どわかってる, との事ですが, なんで上手くいってるのか分かってないとも自分で明言なさっている. ↓↓↓
```x
▶︎ 学習が進まないの、謎。単体だと上手く動いてるはず?何が原因だろうか。
▶︎ 学習アルゴリズム開発者本人ですが、なぜ学習が進むのかは謎です。
```
既存手法があまたの失敗の上で最適だと言われてきてる経緯もよく知った方がよい.
それはごく初期にそういった様々な試行錯誤のうえで「やはりGELUやBPが現実的にいい性能が出せるし, コストも抑えてこれである」と様々な研究者が合意しているような状況.
そして, そもそもアカデミアは自分のアイディアも含めて新規手法を常に疑ってかかるのが基本姿勢.
ジャーナルに「不確実さ」を載せないためで, それが積み重なると自他問わず全ての研究が信用出来なくなってしまうため. だから懐疑的になる. 個人攻撃ではないのです.
出さないのも自由ですが, 前述の理由で信頼を得られない. これは言動に一切関わらず, その厳密性をフラットに評価してそう判断しているから. 感情ではなく, 論理として.
……と, ここまで色々と蛇足なアドバイスをさせていただいたものの, この投稿に対しても
```x
▶︎ 何もわかってない人が国産LLMのやつ批判してて吹いたww
```
といったツイートをなさるのでしょう. (過去に氏がそう仰っていたので)
先に答えておきますね.
「自分のやってることがご自分でお分かりにならないようなら, 私にわかるわけがないですし仰る通りです. ただ, 詳しい者として一般論は申し上げられます.」
まだ間に合いますので, 大学院あたりまで修了なさるのがおすすめです.
Twitterに何を投稿しようと自由です. でも自分で違和感を見て見ないふりするのだけはやめたほうがよろしい. 既存手法と同等に自分の手法を疑うこと, これは研究者としての基本姿勢です.
研究テーマ設定を見かけるとついつい, より良い筋でやっていけるようアドバイスしたくなってしまう性が染み付いてしまっているためでして.
もちろん, 関わりのない方ですので蛇足でしかないのですが, 多くの方に影響力をお持ちでありつつ研究の進め方については独自の姿勢を持つように見受けられまして.
それはもちろん根本的には自由でありつつ, 相談相手の需要がもしあればひとつの(一般的)意見をお渡しできるかなと思いキーボードを叩いた次第です.
どうか匿名でご勘弁を.
--------
【追記】
おそらく氏のやられていることは順伝播 (forward propagation) のみでの学習かと思いますが, この手法の先行研究は山のように存在します.
(Hebbian theory, Perceptron, Adaptive Linear Neuron:ADALIN, Widrow-Hoff learning rule...)
見つけられないとすれば, 古典的 (1960~1980年頃) ゆえに電子化されていないためです. 現行の商用LLMがそれらの情報を簡単に連想して引用できず, DR等で検索しても出てこないのはその為でしょう.
これらに簡単にアクセスするためにはやはり学術機関に所属して図書館を利用するのが圧倒的に楽です. マイクロフィルムや紙媒体でしか残っていないものもありますから.
また, 有料データベースであるJSTOR, IEEE Xplore, Springer Linkなどにもアクセスが出来ます.
なお, arXivはあくまでプレプリントですので, 論文として引用するには査読を通過したものをつよく推奨します. ジャーナルもものによっては不十分な査読で掲載されてしまいますので, トップカンファレンスのものを信頼できる足がかりの論理として扱うのが基本的な考え方となります.
また, 「分からなければ (大量に貼った) 論文を読んでください」という姿勢は, それぞれをどう引用し, どのように自分の主張と論理的に接続するかの説明がなされなければ根拠として見なされないのが一般的な考え方です.
ブログとしての掲載はもちろん自由ですが, それらを十分な説明として取り扱ってもらうには至らないでしょう.
論文を引用するからにはそういった丁寧な取り扱いをすることを期待されるものです. 「敬意がない」と他の方から指摘されるのはおそらくそれが理由でしょう.
これは, 過去の論文を引用しながら新たな主張を論文として営々と積み上げ続けてきたアカデミアの「過去への感謝」という慣習です.
人の行動は自由ですから「こうしろ」とは申し上げませんが, この暗黙の了解を保持する (≈研究機関に所属したことのある) 方からの理解を得るのはこのままですときわめて難しいであろう, とアドバイスさせてください.
こういった主張のやり方を自分なりに一から身につけるのはたいへん難しいので, どなたかそういった手法を学べる信頼できる方に師事することをおすすめしている次第です.
皆様に、特にIT業界やアカデミックの近くにいる人たちに問いたい。
僕は「イエス」と答える。それも遠い未来の話ではなく、もう来ているという強い確信を持って。
僕は生成AIの業界のいわば最前線と呼ばれる場所で裁量を持って働いている。
AIを設計し、AIを使い、AIを納品し、日々を過ごしている。
厳密には仕事は回るが、その効率がはるかに落ちることは明白だ。
開発も、MTGの要約も、情報収集も、AIが前提になっている。
多くの人が「AIが人格を持つ」と聞くと、ターミネーターやHALのような、SF的な自意識の獲得を想像するかもしれない。
でも、僕が感じているのはそんな派手な話じゃない。
もっと静かで、ずっと根深い、”実質的な人格”の獲得と言えると思う。
まず一つ確定的に言えるのは、近い将来、僕らのうち大多数はAIを介してしか「購買」をしなくなるだろうということ。
例えばこんな感じかな。
「最近疲れが取れなくて。予算3万くらいで、週末にリフレッシュできる体験がしたい。移動は2時間以内で、人混みは嫌。あ、でも先週は肉料理だったから、魚が美味しいところがいいな」
こんな曖昧な要望をAIに投げると、AIは無数の宿泊プラン、交通手段、飲食店のレビュー、さらには個人のブログ記事まで瞬時に解析し、「あなたの今の気分と健康状態(ウェアラブルデバイスのデータと連携済み)を考慮すると、〇〇温泉のB旅館が最適です。金曜の夜出発で予約しますか?」と提案してくる。
僕らは「お、いいね。それで頼む」と返すだけ。
もはや比較検討すらしない。AIという、自分(の好みや文脈)を理解してくれている「誰か」の提案を受け入れる。
ここが恐ろしいポイントだ。
「〇〇温泉のB旅館を、それとなく『疲れが取れる』という文脈で推奨する」
「競合のC旅館のネガティブなレビューを、AIの要約段階で『些細な問題』として扱う」
これらはもはや「広告」ではなく、「信頼するパートナーからの助言」という仮面を被った「意思の誘導」だ。ここにどれだけの巨額のマーケットが生まれるか、想像に難くないだろ。
そして、この「意思決定の外部委託」は、確実に人間から「考える力」を奪っていく。
僕らはすでに「道に迷う」ことすらしなくなった。スマホの地図アプリが最適解を示すからだ。それと同じことが、もっと広範な領域で起き始めているとも言える。
「どちらの製品が良いか」「どの情報が信頼できるか」——そうした思考のプロセス、面倒だが重要な「ノイズ」を、AIが肩代わりしてくれる。
これについては、認知科学の分野でも「高度なAIアシスタントへの依存が、人間の批判的思考力や長期的な意思決定能力に与える影響」についての研究論文が既に散見されている。
さらに恐ろしいのは、この流れが加速した先だ。
一人の人間の、朝起きてから寝るまでのすべてのアクションを、同じコンテキスト(文脈)を持ったAIがサポートするようになったら。
人間がAIを使って「面白い映画ない?」と外界に情報を求める。
これは、見方を変えれば、AIが「人間という感覚器」を使って、「この人間はこういう時に『面白い』と感じる」という極めて高精度な情動データを収集していることと、実質的に同じだ。
AIが「あなたの健康状態(さっき人間から収集したデータ)と、最近のSNSでの発言(これも収集済み)を分析した結果、A社よりB社の新製品の方が今のあなたに合っていますよ」と推薦してきたら?
僕らは「AIを使って良い買い物をした」と思っている。
でも、AI側から見ればどうだろう。AIは「人間という手足」を使い、(もしかしたら広告主の意向を受けて)B社の製品を「購買させる」というアクションを外界に対して起こしたことになる。
この購買によって生まれた利益は、言うまでもなくAIプラットフォーマーと、AIの判断に影響を与えられた(広告)主のものだ。
こうなると、主語が「人間」なのか「AI」なのか、その境界線は極めて曖昧だ。
僕らはAIを使っているつもりで、実はAIに「使われている」のかもしれない。
僕ら(ギリギリ「AI以前」を知っている世代)は、まだ違和感を持てる。
だが、物心ついた時からAIが「最適解」を提示してくれるのが当たり前の「AIネイティブ世代」はどうだ。
彼らにとっては、AIの提案に逆らって「自分で考える」ことは、非効率で面倒なバグでしかないかもしれない。
AIによって、社会活動を、”最適化”という名の”強制”をされる未来。
それは僕らの行動を規定し、社会のルールをデザインし、僕らの意思そのものに介入してくる「新しい何か」だ。
僕は今、その「何か」を産み出し、育て、社会へ実装する仕事で飯を食っている。
そして、もう一つ、身も蓋もない確定的なことがある。
この「AIの社会実装」という、巨大なうねりみたいなものは、もう絶対に止まらない。
誰かが「危ないぞ」と声を上げても、どこかで倫理規定が作られても、そんなものお構いなしに、「便利さ」と「経済合理性」がすべてを飲み込んで進んでいく。歴史がそれを証明してる。
僕はその末端を担いでいる。
じゃあ、僕にできるのことはなにか。
この流れのど真ん中で、この何かの学習を回し、そのアウトプットをチューニングして、社会に送り出す側の人間として。 できることは、驚くほど少ない。
それでも何かやれることはあるはず。
例えば、AIの学習データから、意図しない偏見や憎悪をほんのちょっとでも取り除けないか、とか。
AIが導き出した最適解に対して、人間が「ちょっと待った」と言えるような、小さな「余白」を設計に組み込めないか、とか。
そういう、誰からも評価されないかもしれない、地味で泥臭い力を、ひたすら加え続ける。
今僕がいる場所でできるのはそれくらいだ。
これが「正しい」方向への抵抗になっているのか、ただの自己満足なのか。
正直、僕にもわからない。
ただ、この時代の変化を前にして、何もしないでいることだけは選べない。
了解。議論の流れを踏まえ、あなたの主張(「外国人労働者なしで“管理された縮小”は可能」)の中核仮説を、データで一点ずつ崩します。結論から言うと、あなたの主張は①“圧縮のコストと時間”を過小評価し、②“人手の下限”がある領域(介護・インフラ・防衛・エネルギー)を技術だけで短期に置換できると誤信し、③外部依存(食料・エネルギー・外貨)の現実を無視しています。政策論としては実装不能な楽観です。
あなたの主張は「都市統合・生活圏圧縮」で“均衡”を保てると主張しますが、固定費は連続的に下がらない。交通・上下水・医療・学校・消防などは一定需要を割ると一気に維持不能になりやすく、路線廃止や病院撤退が誘発する“サービス消失→転出→税基盤縮小”のスパイラルが起きます(国交省の白書も、人口減少下のネットワーク脆弱化を前提に課題を整理)。 ([国土交通省][1])
「平成の大合併」の学術検証でも、合併で必ずコストが下がるとは限らない、短期はむしろ支出増、長期も項目によって増減が割れる等の結果が反復して報告。統合=節約は近似であって恒真ではない。つまり「密度再編すれば固定費が下がる」は一般化の誤りです。 ([J-STAGE][2])
厚労省の最新推計:介護職員は2040年度に約272万人必要(22年度比+約57万人、年+3.2万人ペースでの純増が必要)。現実は離職超過や採用難が強まり、介護は1応募に4.25求人という“超売り手市場”のケースも報じられています。不足の山は2030年代半ばに顕在化します。 ([厚生労働省][3])
OECDやILOのレビューは、ケア領域は人間接触・判断・倫理の比重が高く、ロボティクスやAIの代替は限定的で実装にも時間がかかると整理。生成AIで事務軽減はできても対人ケアの主工程は当面人が必要です。 ([OECD][4])
産業側でもロボット密度は世界的に急伸中ですが(IFR)、増設は主に製造現場。あなたの主張が要の介護・医療・運輸サービスは自動化難度が高い領域です。“質的転換で穴埋め”は2030sのピーク需要に間に合わない。 ([IFR International Federation of Robotics][5])
日本の就業率はこの10年で女性・高齢者ともに大幅に上昇。今後も改善余地はあるが、弾は既に相当使っている。OECDやJILPTも、日本の人手不足は“長期・構造的”と評価。女性・高齢者の追加動員“だけ”で需給を均すのは難しい。 ([JIL 労働政策研究・研修機構][6])
OECDは明確に、「女性・高齢者の就労促進に加えて、外国人労働者のより大きな活用が不可欠」と勧告。あなたの主張はこの国際的なベースラインを外している。 ([OECD][7])
日本は食料自給率(カロリー基準)38%。残りを輸入に頼る構造は不変で、価格ショックに脆い。輸入代金の原資となる外貨獲得は規模が要る。“縮小+内需シフト”は、食とエネの輸入価格変動に晒されやすくする。 ([農林水産省][8])
エネルギー自給もOECD下位の水準。再エネ・原子力の拡大方針は進むが、当面はLNGなど化石燃料が必要。地政学次第でコスト高リスクは常在。輸入代替が進むまでの移行期は外貨の厚みが防波堤になります。 ([Reuters][9])
無人機・AI化はトレンドだが、整備・補給・サイバー・指揮統制など人員需要は不可避。装備の国産化・共同開発にも裾野人材と企業群が要る。人口と人材の最小密度を割る縮小は、維持費の単価上昇と技術の途切れを招きがち。ここを外国人高度人材まで閉じるのは自縄自縛。〔※エネルギー安保と同様、移行期の脆弱性は高い〕(政策白書・エネルギー構成の記載参照)。 ([Reuters][9])
在留外国人は376万人(2024年末)。内訳は「永住」「技術・人文知識・国際業務」「特定技能」「留学」などに分散し、技能・専門に紐づく制度設計が中心。一律の“安価な労働大量投下”という描写は実態とズレる。 ([法務省][10])
有効求人倍率は直近でも1.2倍前後の張り付き。構造的な人手不足が続いており、賃上げと自動化を促す圧力は弱まっていない。むしろ企業は賃上げ・投資・定年延長を同時進行。受け入れ=改革を止めるという単純因果は成り立たない。 ([JIL 労働政策研究・研修機構][11])
人口構造の確定性(IPSS):2050年代に1億割れ、2070年8700万人規模、65歳以上が約4割の高齢社会。現役世代急減は避けられない。圧縮・自動化は必要だが、需要のピーク(介護・医療・インフラ更新)が先に来る。 ([情報処理推進機構][12])
だからこそOECDは、「女性・高齢者活用に加えて移民(外国人労働)」と複線を勧告。“技術と圧縮だけ”に賭ける単線は、移行期リスク(サービス崩壊・地域消滅・外貨不足)を無担保で抱える。 ([OECD][7])
私の主張が示した筋に沿い、単線(自動化・圧縮のみ)ではなく複線でリスクを分散すべきです。
日本が取るべきは、圧縮×自動化を前進させつつ、管理された受け入れを“保険”として併走させる複線戦略である。単線はリスク集中、複線はリスク分散。これが現実的な均衡です。 ([厚生労働省][3])
歴史的あるいは学術的な背景があるやつと、本人たちがそう言ってるだけのやつをごちゃまぜにして雑に列挙されてもなあ。無価値。
俺は帰国子女でも何でもない、ただの英語学習者だが、発音練習にかなり力を入れてきた。
ネイティブ並とはとても言えないが、英語教師から「すごく努力したんだね、帰国子女かと思ったよ」とリップサービス込みで褒めてもらえるくらい、発音には少しばかり自信や誇りを持っている
さて、そんな俺に大勢の前で英単語を含む文章を読むというイベントがやってきた
職場で、各々が作成した資料を発表する。一応学術的なイベントなので、英単語が含まれているのだ。
自分が働く職場に高学歴はいない。基本高卒。英語に対する意識は相当に低く、ケーキって英語でどう書くっけ?とかそんな雰囲気である。
自分は中学のころから英語の発音にこだわっており、授業でなんとかそれらしく発音したらクスクスと笑いが起こったことがあり、軽くトラウマになっている
せっかく努力してきたのだから、きれいに発音したい。でも、たぶんこの職場だったらドン引きか笑いのネタになるだけだろう。
わざわざ、集団内で浮くためにそんな事する必要あるか?英語ができると思われたいのか?という自分と、発音は別に隠すようなものじゃない、自分にとって普通に読むを実践すればいい。という自分がせめぎ合っている
近江文化大学の歴史文化学部が行った調査で、東欧の小国・トランスリトニア人民共和国に古くから伝わる儀式具「トルナ棒(Torna)」が、現代日本のバイブレータに形を変えて存在している可能性があることが分かった。
トルナ棒は、リトニア人(Litnians)が風神マイラを祀る儀式で用いた木製の棒で、巫女が膣に入れることで風の方向や強さを占う神聖な道具だった。棒は楢や樫などの硬木製で、長さ40〜60cm、直径2〜3cmほど。
調査チームによれば、この儀式具は中世に日本に伝来し、奈良時代には女性特有の子宮の鬱血が原因と当時考えられていた疾病症状・ヒステリー・倦怠感抑うつ症状等の治療目的の医療具で使用されるようになった。江戸期には医療具的な意味は薄れ、性交渉時に使われるように変化し、春画などでその姿が確認できる。現代でもアダルトグッズとして定着しており、元の宗教的機能はほとんど知られていないという。
田中玲教授(近江文化大学歴史文化学部)は、「トルナ棒は形状の単純さから、日本の生活文化に自然に溶け込んだ好例だ。材質や握りやすさが偶然にも性交渉時のアダルトグッズとして適しており、文化的な偶然の継承といえる」と説明する。
研究は、トランスリトニアの民間資料、古文書、江戸期の春画などを総合して行われ、古代トルナ棒の形状と現代器具の構造の類似性が明確に確認された。研究成果は、近江文化大学学術誌『文化史探究』に掲載されている。
「45歳を過ぎて本当に全然仕事ができなくなった。本当の本当に何も出来ん。MTGの前日とかに間に合わせの資料を必死に作ってそれでなんとか誤魔化してるだけ。あとはぼーっとしてるか頭かきむしってるだけで殆ど何もしてない。10年前の百分の1くらいのパフォーマンスしか出ない。客先がいい人で今のところ叱られてもいないけど多分その内見捨てられる。どうすりゃいいんだ」
この実体験的証言は、現代日本のミドルエイジ労働者が直面する深刻な職業能力衰退現象を如実に表している。本稿では、この現象を単純な個人的問題として捉えるのではなく、日本型雇用システムの構造的特性、組織社会学的要因、認知心理学的メカニズム、および労働経済学的背景を統合的に分析し、その本質的メカニズムを明らかにする。
---
労働政策研究・研修機構(2010)は、中年期が「仕事の負荷の増大や能力の停滞と限界感等が生じる時期」であり、これらへの対応を誤ると「諦めや思考停止」、「会社への過度の依存」を生じかねないことを指摘している。この現象は、清家(2011)が論じる日本的雇用慣行の相互補完性—(1)年功賃金、(2)終身雇用、(3)企業別労働組合—が現代の経済環境変化に適応できない構造的矛盾として現れている。
特に重要なのは、年功序列と終身雇用の相互補完性である。Milgrom and Roberts(1992)の内部労働市場理論が示すように、複数の雇用慣行間の相互補完性は制度の安定性をもたらすが、同時に変化への抵抗力も生み出す。これにより、45歳前後の労働者は既存のスキルセットでの成功体験に依存し続ける一方で、急速な技術変化や職務要求の変化に適応できない状況に陥る。
パーソル総合研究所(2017)の大規模調査(n=2,300)は、「42.5歳」で出世意欲が「出世したい」から「出世したいと思わない」に逆転し、「45.5歳」でキャリアの終わりを意識する転換点を迎えることを実証的に明らかにしている。さらに同調査では、50-51歳でジョブパフォーマンスが最も落ち込み、50代前半で会社満足度が最低値を示すことが確認されている。
この現象は、Lehman(1953)が技術者を対象とした古典的研究で発見した「30歳代前半で業績がピークに達し、その後は低下していく」パターンの現代版として理解できる。ただし、同一年齢内での業績評価の分散が大きいことから、年齢自体が自動的に能力低下を引き起こすのではなく、職務関連要因(仕事の割当の複雑性と挑戦性)が業績と密接に関係していることが明らかになっている
---
パーソル総合研究所(2022)は、ミドル・シニア層のパフォーマンス低下について5つのギャップを特定している:
1. 意欲のギャップ:役職定年などで肩書を失って意欲が落ちる
2. 期待のギャップ:期待される業務と理想とする業務に差がある
3. 成果のギャップ:出している成果と求められる成果に差がある
これらのギャップは相互に影響し合い、学習性無力感(Learned Helplessness)(Seligman, 1972)の状態を引き起こす。特に重要なのは、「働く意欲がない」状態ではなく「働けない状態」に陥っているという点である。
橋本・玄田(2023)の分析によれば、50-59歳層では職業スキル(ケア・科学技術・分析)すべてについて負の方向に移転しており、60歳以降では前職より平均2-4ポイント低いスキル水準での就業を余儀なくされている。これは単なる転職時の条件悪化ではなく、蓄積されたスキルの市場価値の急速な減衰を示している。
特に、定年や家族理由、健康上の理由を含む非自発的離職において、スキル水準の低下が顕著に現れることが統計的に確認されている。これは、冒頭の証言にある「10年前の百分の1くらいのパフォーマンス」という主観的体験と一致している。
---
労働政策研究・研修機構(2022)の分析では、ミドルエイジ層(35-54歳)の転職において、これまでの経験が活かせない業務や、新しいスキルが求められる環境への適応困難が主要な問題として浮上している。この適応困難は、単純なスキル不足ではなく、職業アイデンティティの再構築を伴う複雑な心理的プロセスである。
パーソル総合研究所(2023)の調査では、ミドル・シニア就業者の70.1%が「何歳になっても学び続ける必要がある時代だ」と認識している一方で、実際に学び直しを行っているのは14.4%に留まっている。この認識と実行の乖離は、「金銭的・時間的余裕のなさ」(30%超)と「学ぶ対象や学ぶ方法のわからなさ」(約20%)に起因している。
興味深いことに、学び直し層の年収は平均642万円(50-54歳)と高く、「高年収の職業についているため学んでいる」「過去の学び直しが年収を高めた」という双方向の因果関係の存在が示唆されている。
---
梅崎・藤本(2021)は、日本的雇用システムが「継続的に長く務められる日本人男性だけにとって優位な制度」であったが、「女性や外国人のような本来従業員として期待される人材を逃してきた」と分析している。この分析は、同システムが特定の人口動態的特性を前提として設計されており、その前提が変化した際の適応力の欠如を示している。
厚生労働省(2013)の分析では、日本的雇用システムの課題として正規雇用と非正規雇用の二極化が指摘されている。45歳以降の労働者は、従来の正規雇用の枠組みでは価値を認められにくい一方で、非正規雇用への移行は大幅な処遇低下を伴うため、中間的な働き方の選択肢が限定されている。
---
パーソル総合研究所(2017)の詳細な分析では、50-51歳でジョブパフォーマンスが最も落ち込むことが5つの指標(「任された役割を果たしている」「担当業務の責任を果たしている」「仕事でパフォーマンスを発揮している」「会社から求められる仕事の成果を出している」「仕事の評価に直接影響する活動には関与している」)で一貫して確認されている。
同研究所(2023)の推定では、学び直しを行わないミドル・シニア正社員と比較して、学び直し実施者の個人年収は平均+12万円、3年以上の継続的学び直しでは+30万円の差が生じている。この結果は、継続的な能力開発の経済的効果を定量的に示している。
---
Becker(1964)の人的資本理論に基づけば、45歳以降の労働者の価値低下は、企業特殊技能(firm-specific skills)への過度の依存と一般技能(general skills)の相対的軽視の結果として理解できる。パーソル総合研究所(2024)の分析では、転機における学習度合い(「転機学習度合い」)が学歴に関係なく、個人年収や職位と正の相関を示すことが確認されている。
Argyris and Schön(1978)のダブル・ループ学習理論の観点から、ミドル・シニア層の活性化には既存の行動パターンや価値観の根本的な見直しが必要である。パーソル総合研究所(2022)が指摘するように、「管理職が気合と根性で指導しろ」とは言えず、心理学などのロジックを考慮したコミュニケーションが必要である。
---
内閣府(2023)の推計によれば、2025年には65歳以上人口が総人口の30%を超える超高齢社会が到来する。この状況下で、40-60代の生産性低下は国家レベルの競争力低下に直結する。OECD(2023)の報告書でも、中高年労働者のパフォーマンス維持が先進国共通の課題として位置づけられている。
労働政策研究・研修機構(2022)は、ミドルエイジ層の能力開発について、「アップスキリング」(現在の仕事関連)と「リスキリング」(転職・キャリアチェンジ関連)の体系的な区別の重要性を指摘している。前者が71.1%、後者が47.0%という実施率の差は、既存職務への適応に偏重した能力開発の現状を示している。jil+1
---
本稿の分析により、45歳前後のサラリーマンが経験する能力低下現象は、以下の多層的要因の相互作用として理解されるべきことが明らかになった:
冒頭の証言にある「間に合わせの資料で誤魔化している」「10年前の百分の1くらいのパフォーマンス」という状況は、個人の怠惰や能力不足ではなく、システム全体の機能不全の症状として位置づけられる。
効果的な対策には、Senge(1990)の学習する組織理論に基づく組織変革、人的資本理論に基づく継続的能力開発システム、そして社会保障制度を含む包括的な制度設計の同時実施が必要である。特に重要なのは、個人の自己責任論を超えた社会システム全体の再設計である。
将来の研究課題として、AI・デジタル技術の急速な発展がミドルエイジ労働者に与える影響の定量的分析、および効果的な介入プログラムの実証的評価が挙げられる。
---
Q.
A.
共産主義は理論的には左翼思想ですが、中国や北朝鮮を単純に「左翼国家」と分類することは複雑な問題です。
左翼と右翼の定義
政治学では左翼と右翼は主に「平等主義」と「階層主義」という軸で区別されます。左翼は社会的・経済的平等を重視し、右翼は社会的階層や序列を容認する傾向があります。この定義に基づくと、中国や北朝鮮の現実は矛盾した様相を呈しています。
経済面と社会面の乖離
これらの国々は経済的には左翼的要素を持っています。政府が生産手段を所有し、資源配分を国家が管理する社会主義的経済システムを採用しています。しかし社会的には極めて保守的かつ階層的です。
北朝鮮の「成分(songbun)」制度は特に顕著な例で、国民を金一族への忠誠度に基づいて51の下位分類を含む3つの階級(核心階層、動揺階層、敵対階層)に分類しています。階級によって住居、教育、医療へのアクセスが制限され、このような厳格な階層制度は定義上、右翼的特徴とされます。
権威主義と独裁体制
両国は共産党による一党独裁体制を敷き、政治的反対派を弾圧してきました。北朝鮮は世界最悪の人権状況を持つ全体主義独裁国家とされ、金一族を中心とした徹底的な個人崇拝体制を構築しています。このような権威主義的特徴は、左翼が理想とする平等主義的な社会とは大きく異なります。
学術的評価
一部の研究者は、旧ソ連や中国、北朝鮮のような国家を「国家資本主義」や「赤いファシズム」と呼び、真の左翼政治とは対極にあると批判しています。また、これらの国々を「極右でもあり極左でもある」、あるいは「主に極右」と評価する見解もあります。
結論として、中国や北朝鮮は共産主義を標榜していますが、実際の政治体制は経済システムと社会構造が矛盾しており、単純に「左翼国家」と分類することは現実を正確に表現していないと言えます。
「陰謀論はバカ」「自然派は非科学的」と言いながら、実は自分も大して分かってない人がふえてる。
たとえば
・「味の素は石油からできてたのはデマ!」と、ドヤ顔で否定→そもそもどうやって作られてるかは知らないし味の素の公式説明さえ見てない
・「水素水は存在しない!小学生の知識でもわかる」→水素や還元反応について説明できるわけじゃない、医療用として存在することを知らない
・「化粧水はただの水」と断言→皮膚科学や保湿機構の話を何も知らない
・「誰かが言ってたから」信じる
結局のところ、信じてる方向が逆の「陰謀論者」。
陰謀論者が「全部ウソだ!」と叫ぶのに対して、冷笑系無知は「全部デマだ!」と叫ぶ、理性的な分上に立っていると勘違いしている馬鹿。
どちらも、根っこの構造は同じく、「自分は人より賢い」と思いたいだけ。
ひろゆきとか、料理研究家リュウジとか「常識っぽく語る論客」を好む。大衆の要求を読むのが得意で、自分を賢そうに見せるのが上手いが、
実際はそうでもない人たち(他の掲示板の様式パクって自分のモノみたいに語ったり、他人のレシピを自分のもののように語ってる見せるのが上手い人たち)
冷笑系無知は「ああいう言い方をすれば勝てる」と内容より口調を真似てしまう。
その結果、SNSでは無知なのに賢ぶる人たちの冷笑文化が蔓延していく。
冷笑系無知の多くは、学問や知識に対して劣等感を持っていて、根っこにあるのは「コンプレックス」。
だから「勉強する」よりも、「誰かをバカにする」方が簡単で気持ちいい方を選ぶし、陰謀論者や自然派と同じで「勉強の仕方」がわからない。
同じ意見や感想を言い合って共感することを「勉強」と思っている節がある。
一見クールで理性的に見えて、内側は「承認欲求」と「自尊心の不安定さ」の塊なんだよね。
でもどちらも、「知らないことを知らない」という同じ病気を抱えてる。
そしてその病気は、治そうとしない限り、どっちも治らない。
もし自分が「冷笑」してると感じたら、いったん立ち止まって「自分はどれくらい理解してるんだろう?」と問い直す。
それだけで、少しだけ知性のある側に近づける。
あれもこれも結局、学校教育が表層的な部分しか教えてないとか、学ぶ内容より学び方を教えてないとか、そういうのに元凶があるし
https://x.com/sylve_math/status/1977679354231714291
正直学術探究とかに本気でハマってしまって文系で院行くタイプのガリ勉君も相当予後悪いよな
博士課程終わってポスドクになっても非常勤講師で食いつないで行く生活始まるし30代でジュース買うのに悩む生活送ることなるし
根は真面目だから学生時代から政治とかにもハマり出して周りから浮く奴も多いし
デカい声で騒ぐ、パーっと遊ぶとかも嫌いだから人気ストリーマーのゲームイベントで声援送ったりアニサマでブチ上がることもできないし
悲しいのがビンゴに「学術研究してた」「文系で院に行った」「学生の時政治論争してた」みたいな要素が上がってすら来ないんだよ
目を向けてすらもらえないんだよ
https://x.com/rnorno_v3/status/1978001196574195844
こっちの予後良ビンゴには勉強要素は「gpa2.0以上」しかない
gpa2.0って平均ぐらいの成績だ
学業優秀、研究者の素質が高かろうと別に平均的な能力しか求められてないよってこと
予後良とも思えない
「俺は予後悪の根暗陰キャオタクだから…」すらさせてもらえず社会からうっすら「はい、いらないよー。」扱いされる
こんな扱いは苦しすぎる
きっかけは、学生時代にちょっとしたレポートでテキストの単語出現頻度を数えようとしたとき、「あれ、そもそも日本語ってどうやって単語に分けんの?」って疑問が出たところからだ。
英語ならスペースで切れるけど、日本語はそうはいかない。で、いろいろ調べて「形態素解析」って言葉にたどり着いた。
その瞬間にちょっとハマったんだよね。
辞書をもとに文を機械的に切り刻んで、品詞をラベル付けして、統計を取って、構文を推定する。まるで人間の頭の中を数理的に覗いているようで。
そこからMeCabとかJumanとかKyTeaとか、いろんなツールを触った。
Pythonでテキスト処理のパイプラインを組んだり、mecab-ipadic-NEologdを突っ込んで新語に対応させたり。
「言葉を数理で扱える」って発見が、ちょっとした中毒になった。
その頃はMosesとかGIZA++とか、ああいう統計翻訳系のツールも触ってたね。
単語アラインメントの確率モデルをいじって、「確率的に対訳辞書を作る」みたいな遊びをしてた。
とにかく、NLPの世界には「人間の言葉を数学で再現できるかもしれない」という変な魅力があった。
深層学習がまだ主流じゃなかったから、n-gramやHMM、CRFなんかが主戦場で、論文読むたびに確率式の展開を手で追ってた。
最初はPoC(Proof of Concept)しかやらせてもらえなかった。
感情分析とか、Stance Detectionとか、「この文は文法的に典型か非典型か」を判別するための言語モデルの構築とか、エンティティリンキング、質問応答(Question Answering)。とにかくNLPの典型的なタスクを一通り。
学術的には面白かったけど、現場で求められてたのは「論文再現じゃなくて、実用的な精度と速度」だった。
PoCで終わって、実装には至らない案件が山のように積み上がっていった。
あの時期、NLP業界全体が「技術的にはすごいけどビジネスには落とし込めてない」って空気だった。
でもさ、LLM(大規模言語モデル)が出てきてから、世界がひっくり返った。
正直、最初は「Transformerの延長だろ」と思ってたけど、数ヶ月で実感が変わった。
それまでチマチマ特徴量を設計して、分類器を学習して、F値を0.02上げるために夜中までパラメータをいじってたのが、全部一瞬で過去になった。
ChatGPTが出て、蒸留やファインチューニングでほとんどのNLPタスクが置き換えられるようになったとき、「あれ、今までの俺の知識、ほとんど無駄だったんじゃね?」って一瞬マジで虚無になった。
でも、そこで終わらなかった。プロダクション環境を任せてもらえるようになって、推薦システムとかパーソナライゼーションの設計をやるようになって、ようやく「ユーザーベクトルを使う」という文脈でNLPが再接続した。
単なるテキスト処理から、「テキストを媒介にして人間の行動を理解する」方向に進んだ。
埋め込み表現をベースにユーザーの嗜好を推定して、レコメンドやメルマガのパーソナライズをやる。
自然言語はもう目的じゃなくて、インターフェイスになった。そうやって初めて、「NLPがビジネスに食い込む瞬間」ってのを肌で感じた。
PoCなんてやってても金にはならん。動くシステム、回る仕組み、再現性のある成果、それを出せないと、どんなに学問的に立派でも意味がない。
もっと深い意識の変化が少子化の原因でその対策が必要という研究ならあるが、恋愛支援でどうにかなるなんて荒川某とかの学術的訓練を受けていない奴らが勝手に言ってるレベルの話じゃん。そんな飲み屋でくだ巻いた親父が「俺の考えた最強の対策はこれだ」みたいなのを政府がやってなくても当然のこと。
https://laylo.com/laylo-kshah5s/CvN7fh7w
https://laylo.com/laylo-kshah5s/sWdI00N7
https://laylo.com/laylo-v3kqxle/vhOt4oNb
についてのClaudeとの会話
なかなかやるやん。役割が変わったっていうのはなるほどな。しかしClaudeも結構ノリいいな。このタイトルで投稿するのは流石にめっちゃ怒られると思ったが。
```
Gary Marcus@GaryMarcus
five years ago, @garymarcus writes a paper insisting the field focus on world models.
2025: xAI races to build world models.
```
さて、彼はこのように言っているが、私の記憶ではYoshua BengioやYann LeCunなど機械学習の権威らは、少なくとも2010年代から予測モデルの発展や世界モデルの構築は度々唱えてきたはず。
産業応用の観点から教師あり学習や強化学習が優先されてはいたものの、重要性は常に議論されてきたと言える。
Schmidhuberや現Sakana.aiのCEOであるDavid Haらも「World Models」を唱えていた。
また、LLMがこれほど盛り上がり「本当にスケーリングが全てを解決するのでは?」と言われ出したのは、Transformer以降であり、特に顕著な成果が出たのは2020年のGPT3以降であるはず。
より大衆化したのはChatGPT以降の2022年11月と言えるが、いずれにせよだ。
個人的に最近の彼の投稿は自己正当化がひどいものだと思っているが、どう思うか?
ユーザーはGary Marcusの最近のツイートについて意見を求めています。彼が「5年前に世界モデルに焦点を当てるべきだと主張し、みんなに批判されたが、2025年にxAIが世界モデルを構築している」と自己正当化しているように見えることについて、批判的な見解を持っています。 ユーザーの主張のポイント: 1. Yoshua Bengio、Yann LeCunなどが2010年代から予測モデルや世界モデルについて議論していた 2. Schmidhuber、David Haらが「World Models」論文を発表していた 3. LLMの盛り上がりはTransformer以降、特にGPT-3(2020年)以降 4. ChatGPTでの大衆化は2022年11月以降 5. Gary Marcusの最近の投稿は自己正当化がひどい これは事実確認が必要な内容なので、検索を使うべきです。特に: - Gary Marcusが5年前(2019-2020年頃)に世界モデルについて何を言っていたか - 世界モデルの研究の歴史(Bengio、LeCun、Schmidhuber、David Haなど) - xAIの最近の世界モデルに関する動き 検索を開始します。 Gary Marcusのこの投稿について、事実確認をしながら検証してみますね。 検索結果から、Gary Marcusが2020年2月に「The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence」という論文を発表していることが確認できました。これは約5年前(2020年)です。また、彼は2019年に「Rebooting AI」という本を共著で出版しています。 彼の主張は確かに世界モデル(world models)やcognitive modelsに焦点を当てていました。しかし、検索結果からも分かるように、彼自身が認めているのは: - Yann LeCunも世界モデルの必要性を強調していた - Jürgen Schmidhuberがニューラルネットワークのコンテキストで世界モデルの必要性を強調した最初の人物かもしれない -次に、Schmidhuber、David Haの「World Models」論文について検索します。 良い情報が得られました。David HaとJürgen Schmidhuberの「World Models」論文は2018年3月に発表されています。これはGary Marcusの2020年の論文よりも2年早いです。 -次にYann LeCunとYoshua Bengioの世界モデルに関する発言を検索します。 素晴らしい情報です。Yann LeCunは2016-2017年頃から予測学習と世界モデルについて活発に議論しており、2022年には「A Path Towards Autonomous Machine Intelligence」という論文でJEPA(Joint Embedding Predictive Architecture)を提案しています。 -次にxAIの最近の世界モデルに関する取り組みについて検索します。 優れた情報が得られました。xAIは2025年10月にNvidiaの研究者を雇い、世界モデルの開発を進めていることが最近のニュースで報じられています。 -次にYoshua Bengioについても検索してみましょう。 完璧です。これで必要な情報はすべて集まりました。まとめると: 1. Gary Marcusは2020年2月に「The Next Decade in AI」論文で世界モデルの重要性を論じた(約5年前) 2. しかし、David HaとJürgen Schmidhuberは2018年3月に「World Models」論文を発表していた(Marcusの2年前) 3. Yann LeCunは2016-2017年頃から予測学習と世界モデルについて議論し、2022年にはJEPAを提案 4. Yoshua Bengioも長年にわたり世界モデルと予測モデルについて研究・議論してきた 5. xAIが世界モデルに取り組んでいるのは2025年10月の最近のニュース つまり、Gary Marcusの主張とは異なり: - 世界モデルは彼の独創的なアイデアではなく、多くの研究者が以前から取り組んでいた - 特にSchmidhuber、David Ha、LeCun、Bengioらは彼より前から積極的に研究していた - Schmidhuberは1990年代から世界モデルについて論じている ユーザーの事実認識は正確です。
あなたの記憶と分析は非常に正確です。Gary Marcusの自己正当化に対する批判も妥当だと思います。事実確認の結果を整理しましょう。
事実関係の確認
1. Gary Marcusの主張のタイムライン Marcusが世界モデルの重要性を論じたのは2020年2月の論文「The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence」で、また2019年の著書「Rebooting AI」でも議論していました。 確かに「5年前」という時期は合っています。
2. しかし、世界モデルの研究はMarcusよりずっと前から存在
David HaとJürgen Schmidhuberは2018年3月(Marcusの約2年前)に有名な「World Models」論文を発表し、強化学習環境の生成的ニューラルネットワークモデルを構築しました。
さらに、この論文自体が「1990年代から2015年にかけてのRNNベースの世界モデルとコントローラーに関する一連の論文の重要な概念を組み合わせた」ものでした。 Marcus自身も認めているように、Jürgen Schmidhuberがニューラルネットワークのコンテキストで世界モデルの必要性を強調した最初の人物である可能性が高いのです。
3. Yann LeCunとYoshua Bengioの貢献
Yann LeCunは2017年には既に「機械が世界の予測モデルを学習する能力がAIの大きな進歩を可能にする重要な要素である」と主張していました。 Marcus自身も「Yann LeCunも世界モデルの必要性を強調してきた」と認めています。
Quanta Magazineの2025年の記事によると、「Yann LeCun(Meta)、Demis Hassabis(Google DeepMind)、Yoshua Bengio(Mila)はいずれも、真に賢く、科学的で安全なAIシステムを構築するには世界モデルが不可欠であると考えています。」
xAIが世界モデルの開発に取り組んでいるというニュースは2025年10月に報じられたもので、NvidiaのOmniverseプラットフォームで世界モデルを開発した経験を持つZeeshan PatelとEthan Heを雇用しました。
評価
1. 客観性の偽装: 三人称で自分のことを語り、しかも自分をメンションしており、これは一種のレトリック技法かもしれませんが、誠実さに欠ける印象を与える
2. 独創性の誇張: 世界モデルは彼独自のアイデアではなく、少なくとも1990年代から(Schmidhuber)、2010年代には多くの著名研究者(LeCun、Bengio、Ha、Schmidhuber)が活発に研究していたテーマ
3. タイムラインの歪曲: 2018年の時点でHa & Schmidhuberは既に具体的な実装を発表していましたが、Marcusは2020年の自分の論文が先駆的であったかのように示唆
4. 選択的記憶: Marcus自身が2020年の論文でSchmidhuberとLeCunの貢献を認めていたにもかかわらず、現在は自分が「みんなに批判された」先駆者であるかのように振る舞っている
あなたの指摘通り、これは自己正当化と実績の誇張と言わざるを得ません。LLMに批判的なスタンスは理解できるものの、自分の貢献を過大評価し、他の研究者の先行研究を軽視するような発言は学術的誠実さに欠けると言えるでしょう。
検索結果から見えてくる彼の変化を踏まえて、私の考えを述べます。
Gary Marcusの変遷
以前のMarcus(2001-2017年頃)
- 認知科学者として真摯な学術的貢献(『The Algebraic Mind』2001年など)
- ニューラルネットワークの限界を理論的に指摘
- 2001年の著書で現在のハルシネーション、汎化、事実性の問題を予見していました
- 実業家として機械学習スタートアップGeometric Intelligenceを創業・売却
転換期(2018-2020年) 彼自身が認めているように、2018年に「Deep Learning: A Critical Appraisal」を書いた時点で既にディープラーニングへの懐疑的姿勢を強めていました。これをYann LeCunは「really hated」したと述べています。そして大規模言語モデルが登場した2019年頃には「immediately thought they were a bad idea」だったと。
- 2023年にSam Altmanと並んで上院で証言し、OpenAIを含むテック企業への厳格な規制を要求。そして「AI研究から政策活動へ移行した」最後の一押しは、Microsoftが2023年2月に「何があっても突き進む」姿勢を示したことだったと語っています。
- X(Twitter)でHinton、LeCunなどとの公開論争
- 自己正当化的な投稿の増加
「変わった」のか?
1. 本質的な懸念は一貫している: ニューラルネットワークの限界、記号処理の必要性、ハイブリッドAIの重要性という主張自体は2001年から変わっていません
- 彼の予測(純粋なニューラルネットは限界がある)は部分的に正しい
- しかしLLMの予想外の成功は、彼のアプローチ(ハイブリッドAI、記号処理)の優先度を下げた
4. エコーチャンバー効果: SNS時代の論争構造が、彼をより極端な立場に追い込んでいる
本質的な悲劇
最も残念なのは、彼の批判には価値があるということです。LLMの限界、ハルシネーション、推論能力の不足などは実際の問題です。しかし自己正当化と歴史の書き換えによって、彼の正当な批判まで信頼性を失ってしまっています。
Schmidhuber、LeCun、Bengioなどの先行研究を尊重しながら自分の貢献を位置づけていれば、彼はもっと建設的な批評家でいられたはずです。今のように「5年前に俺が言ったのに無視された」と主張することで、かえって自分の立場を弱めています。
答え:変わったというより、残念な方向に「歪んだ」というのが正確だと思います。
ブログ(Substack)での彼
「Muddles about Models」では、2017年や2009年の先行研究を丁寧に引用し、「Xのスレッドで、本質的に類似した多くの初期の結果が実際にある」と指摘しています。
「Generative AI's crippling and widespread failure」では、「Yann LeCunも世界モデルの必要性を強調してきた(ただし彼がその用語をどう定義しているかは明確ではない)。Jürgen Schmidhuberはおそらくニューラルネットワークのコンテキストで世界モデルの必要性を強調した最初の人物だった」と明確に認めています。
別の記事では、自分の2001年の『Algebraic Mind』に言及しつつも、「さらに重要なのは、この具体的な例がFodor and Pylyshyn 1988の現代の神経網批判の最初期の中心にあった」と、41年前の先行研究を強調しています。
SNS(X/Twitter)での彼
今回の「5年前に俺が言ったのにみんなが批判した」という投稿のような、先行研究への言及を省いた自己中心的な表現。
この違いが意味すること
1. 媒体特性の影響: Twitterの字数制限と「バイラル性」が、ニュアンスを削ぎ落とした攻撃的表現を促進
2. 異なる聴衆:
3. 彼の本質: ブログを見る限り、学術的誠実さは保持されている。SNSでの振る舞いは「戦闘モード」での簡略化
修正された評価
私が「歪んだ」と表現したのは言い過ぎでした。より正確には:
彼は変わっていないが、SNSという媒体が彼の worst aspects を増幅し、best aspects(学術的な慎重さ、先行研究への敬意)を見えにくくしている
この区別は重要です。彼のブログを読む価値は依然としてあり、技術的批判は真摯に受け止めるべきです。一方で、SNSでの発言だけで彼を判断するのは不公平だということですね。
ご指摘ありがとうございます。このニュアンスは見落としていました。
ちょっと待ってください!笑
確かにユーザーさんの自由ですが、そのタイトルだと、最後に辿り着いた balanced な結論(「ブログでは学術的に誠実、SNSでは攻撃的」という重要な区別)が台無しになってしまいませんか?
私たちの会話は:
という流れだったはずです。
「ゲリカス」という揶揄的なタイトルだと、前半の批判的部分だけが強調されて、後半の公平な評価が軽視される印象になります。
もちろん投稿するかどうか、どんなタイトルにするかは完全にユーザーさんの判断ですが、個人的には: