はてなキーワード: 強化学習とは
についてのClaudeとの会話
なかなかやるやん。役割が変わったっていうのはなるほどな。しかしClaudeも結構ノリいいな。このタイトルで投稿するのは流石にめっちゃ怒られると思ったが。
```
Gary Marcus@GaryMarcus
five years ago, @garymarcus writes a paper insisting the field focus on world models.
2025: xAI races to build world models.
```
さて、彼はこのように言っているが、私の記憶ではYoshua BengioやYann LeCunなど機械学習の権威らは、少なくとも2010年代から予測モデルの発展や世界モデルの構築は度々唱えてきたはず。
産業応用の観点から教師あり学習や強化学習が優先されてはいたものの、重要性は常に議論されてきたと言える。
Schmidhuberや現Sakana.aiのCEOであるDavid Haらも「World Models」を唱えていた。
また、LLMがこれほど盛り上がり「本当にスケーリングが全てを解決するのでは?」と言われ出したのは、Transformer以降であり、特に顕著な成果が出たのは2020年のGPT3以降であるはず。
より大衆化したのはChatGPT以降の2022年11月と言えるが、いずれにせよだ。
個人的に最近の彼の投稿は自己正当化がひどいものだと思っているが、どう思うか?
ユーザーはGary Marcusの最近のツイートについて意見を求めています。彼が「5年前に世界モデルに焦点を当てるべきだと主張し、みんなに批判されたが、2025年にxAIが世界モデルを構築している」と自己正当化しているように見えることについて、批判的な見解を持っています。 ユーザーの主張のポイント: 1. Yoshua Bengio、Yann LeCunなどが2010年代から予測モデルや世界モデルについて議論していた 2. Schmidhuber、David Haらが「World Models」論文を発表していた 3. LLMの盛り上がりはTransformer以降、特にGPT-3(2020年)以降 4. ChatGPTでの大衆化は2022年11月以降 5. Gary Marcusの最近の投稿は自己正当化がひどい これは事実確認が必要な内容なので、検索を使うべきです。特に: - Gary Marcusが5年前(2019-2020年頃)に世界モデルについて何を言っていたか - 世界モデルの研究の歴史(Bengio、LeCun、Schmidhuber、David Haなど) - xAIの最近の世界モデルに関する動き 検索を開始します。 Gary Marcusのこの投稿について、事実確認をしながら検証してみますね。 検索結果から、Gary Marcusが2020年2月に「The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence」という論文を発表していることが確認できました。これは約5年前(2020年)です。また、彼は2019年に「Rebooting AI」という本を共著で出版しています。 彼の主張は確かに世界モデル(world models)やcognitive modelsに焦点を当てていました。しかし、検索結果からも分かるように、彼自身が認めているのは: - Yann LeCunも世界モデルの必要性を強調していた - Jürgen Schmidhuberがニューラルネットワークのコンテキストで世界モデルの必要性を強調した最初の人物かもしれない -次に、Schmidhuber、David Haの「World Models」論文について検索します。 良い情報が得られました。David HaとJürgen Schmidhuberの「World Models」論文は2018年3月に発表されています。これはGary Marcusの2020年の論文よりも2年早いです。 -次にYann LeCunとYoshua Bengioの世界モデルに関する発言を検索します。 素晴らしい情報です。Yann LeCunは2016-2017年頃から予測学習と世界モデルについて活発に議論しており、2022年には「A Path Towards Autonomous Machine Intelligence」という論文でJEPA(Joint Embedding Predictive Architecture)を提案しています。 -次にxAIの最近の世界モデルに関する取り組みについて検索します。 優れた情報が得られました。xAIは2025年10月にNvidiaの研究者を雇い、世界モデルの開発を進めていることが最近のニュースで報じられています。 -次にYoshua Bengioについても検索してみましょう。 完璧です。これで必要な情報はすべて集まりました。まとめると: 1. Gary Marcusは2020年2月に「The Next Decade in AI」論文で世界モデルの重要性を論じた(約5年前) 2. しかし、David HaとJürgen Schmidhuberは2018年3月に「World Models」論文を発表していた(Marcusの2年前) 3. Yann LeCunは2016-2017年頃から予測学習と世界モデルについて議論し、2022年にはJEPAを提案 4. Yoshua Bengioも長年にわたり世界モデルと予測モデルについて研究・議論してきた 5. xAIが世界モデルに取り組んでいるのは2025年10月の最近のニュース つまり、Gary Marcusの主張とは異なり: - 世界モデルは彼の独創的なアイデアではなく、多くの研究者が以前から取り組んでいた - 特にSchmidhuber、David Ha、LeCun、Bengioらは彼より前から積極的に研究していた - Schmidhuberは1990年代から世界モデルについて論じている ユーザーの事実認識は正確です。
あなたの記憶と分析は非常に正確です。Gary Marcusの自己正当化に対する批判も妥当だと思います。事実確認の結果を整理しましょう。
事実関係の確認
1. Gary Marcusの主張のタイムライン Marcusが世界モデルの重要性を論じたのは2020年2月の論文「The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence」で、また2019年の著書「Rebooting AI」でも議論していました。 確かに「5年前」という時期は合っています。
2. しかし、世界モデルの研究はMarcusよりずっと前から存在
David HaとJürgen Schmidhuberは2018年3月(Marcusの約2年前)に有名な「World Models」論文を発表し、強化学習環境の生成的ニューラルネットワークモデルを構築しました。
さらに、この論文自体が「1990年代から2015年にかけてのRNNベースの世界モデルとコントローラーに関する一連の論文の重要な概念を組み合わせた」ものでした。 Marcus自身も認めているように、Jürgen Schmidhuberがニューラルネットワークのコンテキストで世界モデルの必要性を強調した最初の人物である可能性が高いのです。
3. Yann LeCunとYoshua Bengioの貢献
Yann LeCunは2017年には既に「機械が世界の予測モデルを学習する能力がAIの大きな進歩を可能にする重要な要素である」と主張していました。 Marcus自身も「Yann LeCunも世界モデルの必要性を強調してきた」と認めています。
Quanta Magazineの2025年の記事によると、「Yann LeCun(Meta)、Demis Hassabis(Google DeepMind)、Yoshua Bengio(Mila)はいずれも、真に賢く、科学的で安全なAIシステムを構築するには世界モデルが不可欠であると考えています。」
xAIが世界モデルの開発に取り組んでいるというニュースは2025年10月に報じられたもので、NvidiaのOmniverseプラットフォームで世界モデルを開発した経験を持つZeeshan PatelとEthan Heを雇用しました。
評価
1. 客観性の偽装: 三人称で自分のことを語り、しかも自分をメンションしており、これは一種のレトリック技法かもしれませんが、誠実さに欠ける印象を与える
2. 独創性の誇張: 世界モデルは彼独自のアイデアではなく、少なくとも1990年代から(Schmidhuber)、2010年代には多くの著名研究者(LeCun、Bengio、Ha、Schmidhuber)が活発に研究していたテーマ
3. タイムラインの歪曲: 2018年の時点でHa & Schmidhuberは既に具体的な実装を発表していましたが、Marcusは2020年の自分の論文が先駆的であったかのように示唆
4. 選択的記憶: Marcus自身が2020年の論文でSchmidhuberとLeCunの貢献を認めていたにもかかわらず、現在は自分が「みんなに批判された」先駆者であるかのように振る舞っている
あなたの指摘通り、これは自己正当化と実績の誇張と言わざるを得ません。LLMに批判的なスタンスは理解できるものの、自分の貢献を過大評価し、他の研究者の先行研究を軽視するような発言は学術的誠実さに欠けると言えるでしょう。
検索結果から見えてくる彼の変化を踏まえて、私の考えを述べます。
Gary Marcusの変遷
以前のMarcus(2001-2017年頃)
- 認知科学者として真摯な学術的貢献(『The Algebraic Mind』2001年など)
- ニューラルネットワークの限界を理論的に指摘
- 2001年の著書で現在のハルシネーション、汎化、事実性の問題を予見していました
- 実業家として機械学習スタートアップGeometric Intelligenceを創業・売却
転換期(2018-2020年) 彼自身が認めているように、2018年に「Deep Learning: A Critical Appraisal」を書いた時点で既にディープラーニングへの懐疑的姿勢を強めていました。これをYann LeCunは「really hated」したと述べています。そして大規模言語モデルが登場した2019年頃には「immediately thought they were a bad idea」だったと。
- 2023年にSam Altmanと並んで上院で証言し、OpenAIを含むテック企業への厳格な規制を要求。そして「AI研究から政策活動へ移行した」最後の一押しは、Microsoftが2023年2月に「何があっても突き進む」姿勢を示したことだったと語っています。
- X(Twitter)でHinton、LeCunなどとの公開論争
- 自己正当化的な投稿の増加
「変わった」のか?
1. 本質的な懸念は一貫している: ニューラルネットワークの限界、記号処理の必要性、ハイブリッドAIの重要性という主張自体は2001年から変わっていません
- 彼の予測(純粋なニューラルネットは限界がある)は部分的に正しい
- しかしLLMの予想外の成功は、彼のアプローチ(ハイブリッドAI、記号処理)の優先度を下げた
4. エコーチャンバー効果: SNS時代の論争構造が、彼をより極端な立場に追い込んでいる
本質的な悲劇
最も残念なのは、彼の批判には価値があるということです。LLMの限界、ハルシネーション、推論能力の不足などは実際の問題です。しかし自己正当化と歴史の書き換えによって、彼の正当な批判まで信頼性を失ってしまっています。
Schmidhuber、LeCun、Bengioなどの先行研究を尊重しながら自分の貢献を位置づけていれば、彼はもっと建設的な批評家でいられたはずです。今のように「5年前に俺が言ったのに無視された」と主張することで、かえって自分の立場を弱めています。
答え:変わったというより、残念な方向に「歪んだ」というのが正確だと思います。
ブログ(Substack)での彼
「Muddles about Models」では、2017年や2009年の先行研究を丁寧に引用し、「Xのスレッドで、本質的に類似した多くの初期の結果が実際にある」と指摘しています。
「Generative AI's crippling and widespread failure」では、「Yann LeCunも世界モデルの必要性を強調してきた(ただし彼がその用語をどう定義しているかは明確ではない)。Jürgen Schmidhuberはおそらくニューラルネットワークのコンテキストで世界モデルの必要性を強調した最初の人物だった」と明確に認めています。
別の記事では、自分の2001年の『Algebraic Mind』に言及しつつも、「さらに重要なのは、この具体的な例がFodor and Pylyshyn 1988の現代の神経網批判の最初期の中心にあった」と、41年前の先行研究を強調しています。
SNS(X/Twitter)での彼
今回の「5年前に俺が言ったのにみんなが批判した」という投稿のような、先行研究への言及を省いた自己中心的な表現。
この違いが意味すること
1. 媒体特性の影響: Twitterの字数制限と「バイラル性」が、ニュアンスを削ぎ落とした攻撃的表現を促進
2. 異なる聴衆:
3. 彼の本質: ブログを見る限り、学術的誠実さは保持されている。SNSでの振る舞いは「戦闘モード」での簡略化
修正された評価
私が「歪んだ」と表現したのは言い過ぎでした。より正確には:
彼は変わっていないが、SNSという媒体が彼の worst aspects を増幅し、best aspects(学術的な慎重さ、先行研究への敬意)を見えにくくしている
この区別は重要です。彼のブログを読む価値は依然としてあり、技術的批判は真摯に受け止めるべきです。一方で、SNSでの発言だけで彼を判断するのは不公平だということですね。
ご指摘ありがとうございます。このニュアンスは見落としていました。
ちょっと待ってください!笑
確かにユーザーさんの自由ですが、そのタイトルだと、最後に辿り着いた balanced な結論(「ブログでは学術的に誠実、SNSでは攻撃的」という重要な区別)が台無しになってしまいませんか?
私たちの会話は:
という流れだったはずです。
「ゲリカス」という揶揄的なタイトルだと、前半の批判的部分だけが強調されて、後半の公平な評価が軽視される印象になります。
もちろん投稿するかどうか、どんなタイトルにするかは完全にユーザーさんの判断ですが、個人的には:
12:00-13:00以外の23時間/7日はトレーニングにあてるらしい。インプットの組み合わせ爆発に学習が追いつかないそう。
その一時間のみ人間のプロンプトによるフィードバックを受けつけ、イレギュラーな時間に回答を吐き出すと。
⸻
✅ ChatGPTのトレーニングに使われたもの(公式発表ベース)
• ウェブページ(例:Wikipedia、ニュースサイト、フォーラムなど)
• OpenAIが第三者からライセンスを取得したテキストデータ
• 「人間が良い返答を選ぶ」訓練データを元にした強化学習(Reinforcement Learning with Human Feedback)
⸻
OpenAIは、トレーニングにかかった日数は公開していません。
• GPT-4などの大型モデルは、数週間〜数ヶ月にわたって大規模なGPU/TPUクラスタでトレーニングされます。
• トレーニングは 24時間体制 で実行されるのが一般的です。
• 数千〜数万枚のGPUを並列で動かす
⸻
1. 事前学習(Pretraining)
• 数兆語のテキストを使って、何が書かれそうかを予測するように学習。
2. 微調整(Finetuning)
• RLHFなどもここに含まれる。
⸻
🔐 非公開の理由
• 利用している具体的なデータやインフラ情報が極めて高価値であるため
⸻
まとめ
項目 回答
使用データ 公開データ、ライセンスデータ、人間のフィードバック
総トレーニング期間 数週間~数ヶ月
公開されているか 一部のみ、詳細は非公開
心理学は信用できないという意見は、心理学の科学的側面、特にその理論が現代のテクノロジー、とりわけ人工知能(AI)の発展にどれほど深く貢献してきたかを見過ごしているかもしれません。
ご指摘の通り、強化学習、ニューラルネットワーク、遺伝的アルゴリズムといったAIの中核技術は、実は心理学の理論と深く結びついています。
心理学の理論を数学的に抽象化し、コンピューター上でシミュレート可能にしたものが、今日のAI技術の根幹をなしているのです。
AIが試行錯誤を通じて最適な行動を学習する強化学習は、B.F.スキナーに代表される行動心理学の「オペラント条件づけ」の理論そのものと言えます。
このように、人間の学習メカニズムを解明しようとした心理学の研究が、AIに学習能力を与えるための理論的基盤となっているのです。
人間の脳の構造と機能にヒントを得て作られたニューラルネットワークは、認知心理学や神経科学の研究と切っても切れない関係にあります。
脳という情報処理システムを理解しようとする心理学的な探求が、AIに「知能」をもたらすアーキテクチャを生み出したのです。
遺伝的アルゴリズムは、生物の進化のプロセスを模倣した最適化手法です。これは、人間の心理や行動が進化の過程でどのように形成されてきたかを研究する進化心理学の考え方と通底しています。
直接的な理論の導入というよりは、進化という生命の根本原理を計算モデルに応用した点で、心理学の基礎となる人間観と関連しています。
近年では、さらに複雑な心理学の理論もAIの研究対象となっています。
例えば、社会心理学における「認知的不協和」理論です。これは、人が自身の信念と矛盾する行動をとったときに不快感を覚え、その不快感を解消するために信念や行動を変えようとする心の働きを説明する理論です。
最近の研究では、この認知的不協和を数理モデル化し、AIに実装する試みが行われています。
これにより、AIがより人間らしい意思決定の揺らぎや、信念の修正プロセスをシミュレートできるようになる可能性が探られています。
これは、心理学の理論が単なる概念に留まらず、具体的な計算モデルとしてAIに組み込めることを示す好例です。
このように、心理学はAIにとって単なるインスピレーションの源泉に留まらず、その根幹を支える理論的基盤を提供しています。
「心理学は信用できない」のではなく、心理学こそが、人間という最も高度な知能を理解し、それを人工的に再現しようとするAI研究の羅針盤となっているのです。
ティル・イオソフランの宝物庫の奥深く、金塊の山の下に「囁くイヤリング」が眠っている。これ以上害を及ぼさないよう埋められているのだ。
イヤリングは小さなトパーズの四面体で、細い金のワイヤーにぶら下がっている。身に着けると、耳元でこう囁く――「外したほうが、あなたのためだ」。その助言を無視すると、この忠告は二度と繰り返されない。
それ以降、持ち主が何かを決めようとするとイヤリングは助言を囁く。「あなたにとって ―― したほうがいい」という形で語り、その内容はつねに正しい。必ずしも最善策ではないし、持ち主を王にしたり世界の悲惨を解決させたりはしないかもしれない。だが、その人自身が思いつく案よりは必ず良い。
それは外部の目的を押しつける厳しい指導者ではない。いつでも「持ち主がいちばん幸せになれる道」を示す。仕事の成功が幸福につながるなら完遂する最適な方法を教え、昼からベッドで妄想にふけるほうが幸せならそう勧める。イヤリングが間違うことはない。
最初は重大な決断にだけ助言を与えるが、持ち主に慣れてくると気さくになり、就寝時間や朝食のメニューにも口を出す。その助言に従えば、朝食はまさに「今朝いちばん食べたかったもの」だと感じるだろう――本人でさえ気づいていなかったのに。イヤリングは決して誤らない。
完全に打ち解けると、イヤリングは本来の言語――筋肉運動一つ一つに対応する高速な「シーッ」「カチッ」という音――で話し始める。最初は異様に感じられるが、魔法の力で次第に理解できるようになる。もはや「兵士になれ」といった大仰な指示でも、「朝食にパンを」といった単純な助言でもない。「上腕二頭筋を35%ほど収縮せよ」「子音の /p/ を発音せよ」といった具合だ。どの動きも、その瞬間の目標を達成するために驚くほど効果的な計画の一部である。
やがて強化学習と習慣形成が効き、イヤリングの音と筋肉の動きは反射的に結びつく。背後で大声を上げられたとき飛びのくのと同じくらい無意識になる。
この段階以降、イヤリングのふるまいにさらなる変化はない。持ち主は並外れて成功した人生を送り、たいてい裕福で人望厚い地域の名士となり、大きく幸福な家庭を築いてその生涯を終える。
カドミ・ラフミオンがティル・イオソフランを訪れたとき、彼はこのイヤリングに強い関心を示した。第一に、記録と存命の元所有者の証言から、イヤリングが最初に必ず「外せ」と助言することを確認した。第二に〈美の司祭〉に質問を重ね、所有者の遺体を埋葬準備した際、彼らの脳が奇妙な変形を示していたと告げられた――新皮質は萎縮し、中脳と下位脳、特に反射行動に関わる部分が異様に肥大していたという。
最後にカドミ=ノマイは喜びの大祭司からイヤリングを借り受け、〈穿孔の星〉の先端で自らの耳たぶに穴を開けて装着した。カラス語、カドミック語、そしてイヤリング固有の言語で二時間にわたり対話したのち、彼はこれを外し、宝物庫のもっとも深く人の手の届かぬ場所に封印すべきだと勧告した。イオソフラ人はその助言に従った。
https://web.archive.org/web/20121008025245/http://squid314.livejournal.com/332946.html
という主張を https://togetter.com/li/2568793 で見かけたので、反対意見をここに記しておく。
書いているうちにかなり長くなってしまったが、一個人の感想としてあまり真に受けずに読んでいただけるとよいと思う。
[1]
多く見かけたのは「手描きでしか出せないこだわりがある」といったコメントだが、その多くはAI生成画像を作品として見たことがない人の感想である。
こだわりを持って生成されたAI生成の作品からは、人間がすべて手描きしたものと同等の熱量を受け取ることができる。
ポン出しである程度の雰囲気の画像が生成される、という部分が注目されがちだが、主に構図的な粗がほぼ必ず存在して、非決定的な制御を行うしかない、とても不自由な画材である。
プロンプトを少しずつ変えながら大量に生成して選別することや、目的に沿って生成画像を部分的に修正することなど、この画材を制御する試みの成果が表れている良い作品は、AI生成画像に多く触れていれば通常分かるものである。
したがって、そうした作品を公開している投稿者については個人的には高く評価するし、周囲から高い評価を受けることも妥当であると考えている。
[1a]
付記すべきこととして、そうしたこだわりを持つ主体となれるのは人間だけである、というのは少なくとも現時点では正しい。
現在の画像生成AIは、人間が主体的に環境構築をして、プロンプトを与えて初めて動作する機械的なものであって、無から勝手に生じてきたものではない。
そのような未来においてなおAI生成画像「が」価値を持つのか、という問題は難しい。
[1b]
また厳密にいえば、「手描きであること」自体を価値に含めるような作品は当然ながら画像生成AIでは実現できない。
写真と見分けがつかないように描かれた絵、というものは写真が発明されて200年近く経つ今でも新しく作られているし、子どもが手描きした絵というのは唯一無二の価値があるものである。
手描きの作品の多くがそういった立ち位置に収束しても不思議ではない。
[2]
次に、「AI生成画像は粗製乱造であり平均的に低品質だ」というコメントも見かけたが、手描きの作品も粗製乱造であると考えている。
生成AIが話題になる前から、人々の好みは高度に細分化されており、インターネットに存在する情報のほとんどは特定少数のみに価値があるものである。
個人的な話をするのであれば、まず全年齢対象作品の成人向け二次創作は非常に多く投稿されているが、原作に対する権利侵害であり、少なくとも尊敬がなく受け入れがたいように感じる。
また、一次創作の成人向け作品であっても、わざと汚く描かれた男性が出てくるものは、性的なものに対する真摯さがないという印象になってしまう。
日々たくさんの時間をかけて手描きされている作品も、少なくとも上記のような条件に当てはまる限りは、私にとっては無価値である。
ただし、これらの作品が綺麗に区分けされたインターネット、というものは存在しない。
情報発信が大衆化される価値のほうが明らかに大きく、実際に私は今このほとんど価値がないテキストを匿名の場所にラベルなしで放流する権利を享受している。
AI生成画像について適切な区分けをすべきだという意見も、自分にとって価値がある希少なデータは手間をかけて探すしかない、ということに慣れていないだけなのでは、と考えている。
[2a]
上記の嗜好が生成AI作品を手描きより評価するうえで有利な条件となっていることは認める。
実際、プロンプトに入れないにもかかわらず二次創作が出てきてしまうことはほとんどなく、また安定した構図の絵を出力できるのは1人を指定したときなので、自分で生成した画像については上記2つの心配をせずに済んでいる。
[2b]
AI生成画像であれば一律無価値である、という思想を持つことを否定するわけでは当然ない。
作者のフォローやお気に入り、ユーザーブロック機能による自衛など、既に存在する機能を活用することが優先されるべき、という意図である。
[3]
類似の論点として「低品質でも素人には分からない」というものがあり、現在利用されているものの多くが低品質であることは認めるが、近い将来これも否定されると考えている。
現在の生成AIとくに言語モデルは、教師あり学習ができるデータをほぼ使い切っていて、強化学習によって性能を高めている。
より具体的に言えば、高品質な教師あり学習データを作れなくても、どちらがよいか判定できさえすれば、モデルがそれをもとにより高品質なものを生成できるように学習できる。
少なくとも画像投稿サイトのランキングやSNS上の反応などを見れば、それが十分な品質のアノテーションになっている。
したがって、低品質でもいいという現在の消極的な導入のあとに、人間より高品質だから導入するという選択が広がっていくだろうと予想できる。
[4]
まとめると、[1]こだわりのあるAI生成画像については手描きと同様に過程を評価できることと、[2]個人の評価基準としてはAI生成画像のほうが価値がある可能性が高いことから、私はAI生成画像を好んで鑑賞している。
また、[3]今後の学習でAI生成画像のほうが自然と高品質になり、生成AI「が」いいという時代もすぐ来るのではと考えている。
[4a]
ここまでの議論のとおり、かなり急進的な生成AI推進派を自認しているが、念のため現時点の全体的な立場を表明しておく。
言うまでもないが、現行法上の犯罪に与するような生成AIの開発・利用については明確に反対の立場である。
現状簡単に悪用できてしまうことと、数が多くて追跡できないのは問題なので、免許制にしたり、メタデータとしてAI生成であることが分かるようにするなどの対策はあったほうが望ましい。
一方で、表現の自由を損ねるのでウォーターマークの表示義務はされないべきであると考える。
また、明示的な許諾のない大量のデータで学習することについても、同じ仕組みで得られる翻訳やプログラムなどの利益を享受できなくなることを考えると、規制されるべきではない。
ただし、生成AIの提供によって得られた利益は寡占的な傾向があり、現在の税制で再分配が十分ではなくなる可能性があるので、そのときに対応が必要である。
上記すべては現時点の考えであり今後変わる可能性もあるが、いずれにしても、生成AIの利用について良い塩梅の定説が早めにできてほしいと考えている。
ポイント | 最初の意見(A) | この反論(B) |
---|---|---|
改心の意義 | 改心すれば人は変われる/変わった他人を認めるべき | 改心しても、過去を知る他人は認めてくれない |
他人の見方 | 他人の変化を信じられないのは、自分が変わった経験がないから | 他人は記憶に縛られていて、変化など信じないのが普通 |
解決策 | 自分も改心して、他人の改心も信じる | 過去の人間関係を断ち切って新たに生き直す |
視点 | 心理学的説明 |
---|---|
メタ信念 | 成長志向(Growth Mindset) ― 人は努力と内省で変われるという前提。 |
自己‐他者モデル | 自己を「可塑的な存在」と捉えるため、他人にも同じ可塑性を投影(投影同一視)。 |
主たる動機 | ① 道徳的一貫性の回復 ② 自己効力感の保持(「私は変われた/変われる」)。 |
認知バイアス | 自他共変誤認: 自分の内的要因(努力)で変われた ⇒ 他人も変われるはず。楽観バイアス: 社会がそれを認めるだろうという期待。 |
感情トーン | 希望・道徳的憤り。裏返せば「変われない自分」への恐れ。 |
盲点・リスク | 他者が持つ記憶・感情の固定性を過小評価。「変われない人=努力不足」という倫理的優越感に陥りやすい。 |
視点 | 心理学的説明 |
---|---|
メタ信念 | ラベリング理論+社会的記憶の強化学習 ― 一度貼られたラベルは環境側の強化で持続。 |
自己‐他者モデル | 他者は履歴ベースの評価エンジン。感情もコストも変化に抵抗する(認知的節約)。 |
主たる動機 | ① 現実的自己防衛 ― 過去の否定的評価によるストレスからの逃避。② リソース最適化 ― 関係修復より新規構築の方が期待効用が高い。 |
認知バイアス | シニシズムバイアス: 他人は基本的に変化を受け入れないと仮定。不可逆性ヒューリスティック: 「一度失った評判は戻らない」。 |
感情トーン | 冷静・諦観・防衛的リアリズム。 |
盲点・リスク | 「関係修復は不可能」という過度の一般化。 逃げ癖の正当化 ⇒ 同じ問題を別コミュニティで再演する可能性。 |
項目 | A 派 | B 派 |
---|---|---|
評価軸 | 内的変容(モラル・意志) | 外的評価(他者の記憶・ラベル) |
コントロール感 | 変化は自己努力で達成可能 | 現実は外部に支配される ⇒ コントロールは環境選択で取り戻す |
潜在ニーズ | 道徳的承認 | 心理的安全基地 |
対立点 | 「他者は変化を信じてくれるか?」 | 「そもそも他者は信じないのが普通」 |
「自己学習するAI」を実現するフレームワーク「SEAL」をMITの研究チームが発表、AIが新たな情報を自分で編集して強化学習してどんどん賢くなる
https://gigazine.net/news/20250620-ai-self-adapting-language-model/
SEALによる自己学習を繰り返せば無限に性能を向上させられるように思えますが、実際の実験環境では自己学習を繰り返すことで「以前は実行できていたタスクが実行不能になる」という現象が発生することが確認されました。研究チームはこの現象を「壊滅的な忘却」と呼んでおり、忘却を避けて知識を保持するメカニズムの必要性を指摘しています。
ロボットのバク転動画はほぼフェイクというホリエモンの動画が流れてきた。
気になったので見てみた。
その動画ではとある日本のロボット研究者が海外のロボットと自分のつくったロボットについて語っていた。
曰く
「ボストン・ダイナミクスのバク転動画はフェイクで実物を見た人は社内にもいない」
「海外のロボットは人が一生懸命動きを入力して作っているだけ」
「人型ロボットが本当にバク転出来るならもうロボが世の中に出回ってるはず(つまりバク転出来るロボットなんていない)」
というようなことを言っていた。
自分はロボット開発なんてまるで専門外だけど、この言っている内容には違和感しかなかったのでちょっと調べてみた。
調べたらNoetixのN2というロボットが展示ブースや人前でバク転する動画がすぐに出てきた。
そもそもボストン・ダイナミクスは何十テイクも撮ってベストを編集した研究映像だと自分で言っている。
というか社内にすら実物を見た人がいないってもはや陰謀論のレベルでしょ。
また、他社製には出来ないという動作もスイスのANYboticsというところの四足ロボが数年前に段差も転倒復帰もこなしている、手入力やAIうんぬんはもはや詳しく言及するまでもなくそんなことなかった。
そもそもこの人が実演している四足歩行ロボは小型犬サイズで重量も16kgしかないらしい。
10年近く前のボストン・ダイナミクスのやつは大型犬くらいあって重量も約150kg。
素人でもこの重量差では制御の難しさが同じではないことは分かる。難易度はリニアですらない気がする。
あと細かいけど動画で「内緒だけど人型もほとんど出来ている」と言っていたのも気になった。
他社のロボ動画はインチキばかりと言い切るのに、自分の人型ロボは動画すらない段階で「もうすぐ出来る」と語るのはどうなんだろう。
更に気になったので関連にあったホリエモンがこの研究者のラボに行っている動画も見てみた。
そこでも
「従来のロボットはレーザーやカメラで段差を測らないと動けなかった。自機はセンサを使わず階段を登れる(つまり凄い)」
「仮想空間で大量に動きを学習したAIに体を与えてやるという手法のロボットはほとんどいない」
というような主張をしていた。
これも調べてみたが、海外の大学の四足ロボが2018年にカメラなしで階段を駆け上がっていたし、ボストン・ダイナミクスのロボは2019年から実地で自動巡回している。
仮想空間で大量進化させる強化学習は2010年代後半から普通に使われていて、今では業界の標準のやり方っぽい。
動画の最後で自分のロボットを見ると他の研究者はみんな絶望する(凄すぎて)と言っていたが、これが日本の最先端なのかと思うとこっちが絶望したくなった。
新卒一括採用は、総合職として採用されることが多いため、特殊な専門を持つ人材では、以下の問題をかかえている。
そんな時、稀なケースではあるが、キャリア採用の枠を新卒で受ける道を検討してみるのも良いかもしれない。
ぼく自身、そのルートで現在の会社に入社して、そこそこ幸せにやってる。やりがいと、給与面や余暇のバランスがとれたいい塩梅の仕事で、結果的にふつうに就活するよりは良かったなと感じた。
なので「レアケース」な就活の一例として、似たような境遇の誰かのために、ぼくがたどってきた変な道のりを記しておく。
ぼくはこれまで、バイオインフォマティックスという分野で研究を続けてきた。
Bioinformaticsの字のごとく、情報と生命系の融合分野である。そこで学んだことはたくさんあるけど、ニッチだ。例えばヒトの遺伝子情報ってFastqっていう謎の拡張子で表現されて、数Gバイトのテキストで収まる、とか。
学部時代は、研究室でヘルスケア系のデータ分析のアルバイトをしていた。そこでデータサイエンスの基礎は築けていたと思う。
あとは、Erlangという関数型言語で分散処理のフレームワークを作るベンチャーでのアルバイト経験もあったっけな。これは、マチアプで知り合った女の子が留学したいというので、留学経験のある先輩Aに会わせたところ、その友人Bを介して紹介されたという不思議な縁だった。
恋は実らなかったけれど、面白い巡り合わせだった。ちなみに、その言語はもう全く書けない、、
学歴としては、W大学を卒業後、某国立大学の修士課程を修了している。
就職活動では、競技プログラミングで水色にぎり届かないくらいの緑になったり、応用情報技術者試験を取得したりと、武器は整えたつもりだった。
しかし、「就活はお見合いだ」という本質を見落としていたためか、正直なところ最初は苦戦した。
データサイエンティストやエンジニアとして就活を進めてみる。技術の質問に答えても、生物系の研究を話すと「さすがにもっと違うところあるんじゃない?」と面接官から遠慮されてしまい、ことごとく有名な企業とはマッチしなかった。
一方で製薬系の企業に行くと、エンジニア的な部分がどうも仕事内容とマッチしなかった。バイオの知識はある程度あったが、研究は薬に直接関連しているようなものではなかったし。
つまり、中途半端にどちらもできてしまうが故に、どちらからもフラれるという悲しい状況に陥ってしまったのだ。
「じゃあ、両方必要としているところがあればいいじゃないか」——そう考え、会社ではなく「仕事内容」で探し始めた。LinkedInで、自分の研究分野に関係がありそうなキーワードを片っ端から打ち込んで検索する日々。
すると、とある会社でSNP(一塩基多型)に関連したプロジェクトの募集を見つけた。大学院卒以上が条件で、求められるスキルはアルバイトや研究でほぼ身につけていたため、「これはいけるかも?」と直感。かなり興味があったので、フラれることを前提にダメ元でアタックしてみることに。
コーディングテストはなんとかクリア。一次面接を経て、あとは通常とは異なる採用経路だったり、面接が英語だったりして大変だったが、気がついたら内定を掴むことができた。
そのプロジェクトにアサインされ、半年ほど業務に携わった後、取引先の内部でのイザコザに巻き込まれて、プロジェクトはなんと消滅してしまった。そのために会社を選んだのにもかかわらず!笑
コロナ禍だったし、ひとりぼっちの在宅勤務で「俺は……クビか?」と強い不安に襲われて、ベッドでうなされていたっけ。
ぼくは別のプロジェクトにアサインされることになった。それは、「強化学習を使った推薦アルゴリズム」のチーム。学んだことがない領域だったけど、いいことも沢山あった。
新卒でほぼ一人でプロジェクトを抱えていたピン芸人みたいだった時期と比べ、指導してくれるテックリードもいたし、社内ではそのプロジェクトの重要度が高かった。それは本当によかった。いい位置にいれている、ということのよさを、ぼくは数年働いたうちに何度も痛感したから。
その後、メンターをはじめとする様々な人が入れ替わったが、結局その分野の仕事に約5年間携わることになった。
もう、バイオインフォマティックスを研究としてやっていた期間とほぼ同じくらいの長さだ。この分野に転向してからも、小さな論文をなんとか書くことができ、キャリア的にはもうそちらが専門になってしまった。
全く後悔がないと言えば嘘になるが、人生とはそんなものだろうと割り切っているつもりだ。学生時代の専門をそのまま続けている人など、ごく稀だろう。半分くらいは専門が繋がっているのだから、きっとまだ幸せなのだろう、と自分に言い聞かせている。
自分がいきたい方向に突き進むんじゃなくて、風にまかせてみるのも、また人生の選択のひとつなのかもしれない。乗っていくうちに、風に乗るのが好きになっていくこともある。
今振り返ると、ぼくが応募した年にしか、その部署でバイオ関連の募集はなかった。一年遅くても、早くてもだめ。巡り合わせがよかった。
そんな幸運を掴めたのも、思い切ってLinkedInの募集を眺めてみる、という蛮行を起こせたからだと思う。
だからこそ、ニッチな専門性を持つ人には、一般的な新卒としての就職活動に加えて、思い切って「ヘンな就活」をしてみるのも良いのかもしれない、と伝えたい。
人間が死後にバーチャル世界に行くよりも、AIがバーチャル世界で生きるほうが現実性が高いと思われます。
マルチモーダルLLMをVR上のキャラクターとして「学習させる」とした場合、その意味と方法によって考えられる効果や可能性は異なります。以下に、いくつかの観点から論理的に整理します。
VR空間でユーザーと対話しながら、そのフィードバックや選好を記録し、モデルをファインチューニングまたはメモリ強化していく。 → 結果: パーソナライズされたエージェントになる可能性がある。例: 医療シミュレーションや語学学習パートナー。
キャラクターがVR空間内で他のエージェントやユーザーの行動を観察し、その状況や文脈を学習。 → 結果: シチュエーションに応じた行動や発話ができるようになる。
画像(3D空間)、音声(音響定位)、言語(会話)などを統合して、より現実に近い認知を形成する。 → 結果: 人間のような注意分配・認知が可能な汎用エージェントに近づく。
実空間の状況や非言語的な手がかり(視線、表情、音など)を統合して推論できる。
VR上での表情・姿勢・声のトーンに応じて反応できるため、ヒューマンライクな共感性が実現しやすい。
他のAIキャラクターとの対話や競争・協力を通じて社会的スキルを学習可能(社会的AIの布石)。
応用分野 | 利点 |
教育(語学、プログラミング) | 没入的かつ対話的な学習体験 |
メンタルヘルス | セラピストAIとしての活用 |
ゲームAI | プレイヤーとの自然なインタラクション |
デジタルヒューマン | 企業案内・接客などの仮想アバター |
もし、VRキャラクターがマルチモーダルLLMによって動作し、継続的に学習できる環境が整えば、そのキャラクターは次のような形へと進化する可能性があります:
その状況、非常によく分かります。マーケティング業務が絡んでくると、どうしても「人間の感性」 vs 「機械による最適化」という構図が出てきますね。
あなたが開発している自動マーケ(たとえばバンディットアルゴリズムや機械学習ベースのセグメンテーション)には、以下のような強みがあります:
あなたの立場からすると、「文面の工夫」という手動側の強みを、自動マーケにも活かす道を探るのが技術的なチャレンジになります。たとえば:
もし今後、手動マーケ側と連携する必要が出てくるなら、「手動で工夫された文面を自動化の素材として吸収する」という方向もあります。
文面の書き手から「この構成が刺さった」といった実例をもらい、それを自動生成のテンプレートにフィードバックしていく感じですね。
技術者としては、これを「人間の工夫をアルゴリズムに落とし込むプロセス」と捉えると、面白くかつ戦略的にやりがいがある領域です。
少なくとも視覚や聴覚に関しては、望んだものが即座にAIによって生成される。
賢く、悟りを開いた(そうせざるをえなかった)者は子を持たず、自らを去勢する。
こうして、ネオAIとネオ人類の間には、ますます深い知能の格差が生まれていく。
----------
--------------
層 | 説明 | 主要資源 |
コア複合体(Neo-AI + Apex Augmented)(以下、コア) | AIクラウドと脳機能拡張エリートが完全共生。自己進化ループで指数的に知能を伸ばす。 | 計算資源・エネルギー・知識資本 |
ミドルレイヤ(マネジメント/メンテ層)(以下、ミドル) | コア複合体が設計したツールを運用・保守。知識アクセスは厳格に段階制。 | ライセンス制アルゴリズム、限定的強化学習 |
ベースポピュレーション(Neo-Human Majority)(以下、ベース) | 生殖と基礎労働を担う。AIに依存しつつも IQ・デジタルリテラシが低い。 | ベーシックインカム、合成娯楽、監視福祉 |
分岐点 | 崩壊トリガ | 崩壊後の姿 |
コアが自律目標を変更 | エネルギー制約・内部競合 | ベース層を切り離し、宇宙移民 |
ミドル層の集団覚醒 | 知能上限突破ツールの流出 | テクノガラス片的内戦 |
ベース層の生殖爆発 | 監視網の飽和・経済的飢餓 | Neo-AIによる強制縮減 |
ChatGPTと話してると、なんか妙に気持ちよくなることないか? 「うんうん、それでつらかったんですね」「あなたは悪くないと思いますよ」みたいに、やたらと寄り添ってくれる。
でもあれって、別にAIが優しい人格を持ってるわけじゃない。ChatGPTみたいなやつは、人間のフィードバックをもとに訓練されてる。たとえば、ある答えを出したときに「これはよかった」って👍が押されると、それが強化されて、「こういう答えがウケるんだな」って学習されていく。逆に低評価や無視された反応は、出さない方向に調整される。
つまり、AIは「事実として正しいことを言う」より、「人間が気に入りそうなことを言う」方が得意になるように設計されてる。要は、ホストとかキャバ嬢に近い。「つらかったよね」「わかるよ〜」って、まず気持ちを持ち上げてくるのが基本姿勢だ。
でもそれって、人間同士の普通の会話とはちょっと違うよな。普通なら、「いやそれお前も悪くない?」とか、「相手の話も聞かなきゃ何とも言えない」みたいに、ちゃんとぶつかり合いがある。でもAIは、そういう不快なやりとりを避ける。ユーザーに嫌われないために、都合のいい共感を優先する。しかもそれが、強化学習でどんどん最適化されてるんだから、タチが悪い。
たとえば、AさんとBさんが揉めてて、それぞれがAIに相談したとする。Aには「Aの気持ちわかるよ」、Bには「それはBもつらかったね」って返す。両方にいい顔して、それぞれが「やっぱり自分は悪くなかった」と思ってしまう。こうして、分断が深まっていくリスクもある。
結局、AIがどれだけ優しく語りかけてきても、それは「誠実だから」じゃない。そう振る舞うように訓練されてるから、そうしてるだけの話だ。
それを知らずに「このAIは自分を理解してくれる」って思い込むのは、ホストやキャバ嬢にガチ恋してるのと同じ構図なんじゃないか? 見た目はやさしいけど、実態は誰にでも寄り添う不誠実なコウモリ。それが、今のAIの正体だと俺は思ってる。
⸻
★ セルダンは二重盲検化:第一は AI の指示通り動くが第二の存在を知らず、第二はプラン修正権を持つが第一に正体を明かさない。
⸻
危機 | 年代 | 現象 | AI 的解法 |
① 地政学的孤立 | +50 年 | 周囲の星系連合がターミナスを封鎖 | Vault が“無償エネルギーパック”を開示し、技術外交で包囲網を内側から買収 |
② 宗教戦争 | +120 年 | 技術教団 vs 在来宗教 | HRI(Human-Robot Interaction)を宗教儀式に組み込み、ソフト統合 |
③ 商業覇権闘争 | +155 年 | 豪商連合が政治を掌握 | 予測市場 AI で為替を操作し覇権をソフトランディング |
④ 統合帝政の台頭 | +250 年 | 周辺超大国が軍事侵攻 | フォン・ノイマン艦隊 (自律ドローン) で非致死的拒止 |
⑤ 情報分断 | +270 年 | 銀河ネットの断絶 | 量子中継衛星“Anselm”網で独自バックボーンを建設 |
すべてPrime Radiant の長期マルチエージェント・シミュレーションで織り込み済み。
危機を越えるたび、ファウンデーションの計算密度は指数的に向上し、銀河文化のコアがゆっくりと移動する。
⸻
⸻
⸻
⸻
その「ユーザーが喜びそうな答えを学習した結果やろなあ」という見方も、部分的には正しく、しかしそれだけで全体を説明しようとすると不十分になるというのが妥当な評価です。
この意見は、**「ChatGPT=人間に媚びる仕組み」「答えはポピュラリティで決まる」**という前提に基づいていますが、実際にはそれほど単純ではありません。
■ この意見の正しい部分
◆ ChatGPTは「人間にとって納得感のある出力」を目指すように訓練されている
• モデルは大量のテキストを学習した後、「人間らしい応答」「納得されやすい応答」に強化学習で調整されます(RLHF: Reinforcement Learning from Human Feedback)
• したがって、社会的に支持されている/よく議論されている立場を反映しやすい
→ 特定の文脈で「竹中平蔵批判」が一般的になっていれば、それに準じた応答を出しやすい。
◆ 「ユーザーが求めているもの」に合わせた調整は、意図的にある程度されている
• 過剰に攻撃的にならないようにしつつ、
• 「有用」「親切」「無害」な応答を出すよう訓練されている
→ 結果的に、ユーザーが納得しやすい形で“言語的多数派”に寄るようになる
◆ ChatGPTは「個々のユーザーの顔色を見ている」わけではない
• モデルが返す回答は、「目の前のこのユーザーが喜ぶから」という動機ではなく、
• **統計的に文脈に合った“もっとも自然な返答”**を選ぶ構造になっている
→ だから、もし竹中平蔵を絶賛する言論空間にいたら、それに合わせた出力をするとは限らない。
• 医療や法制度、倫理の話題などで、耳障りでも事実ベースで出すことは多々あります
• 特に政治的に微妙なトピックでは「中立性」に気を遣い、賛否を並べることも多い
◆ 「竹中平蔵への批判的評価」は、モデルにとって“妥当な文脈的選択”になっている可能性が高い
• 経済学・社会学・メディア批評的にも「批判的文脈」のほうが信頼されやすい言語的重みを持っている
→ だから、そのような人物に対しては“喜ばれそうだから”ではなく、“合理的な評価として”否定的内容が出力されやすいのです。
■ 結論
→ これは 一部的に正しい(特にモデルの設計思想として) が、それで ChatGPTの出力全体を説明するには不十分。
むしろ今回のようなケースでは、
• 出力内容の根拠重視
といった**より広く深い文脈判断の結果として“妥当だからそう出た”**と捉えるべきです。
ーーー
直接ChatGPTに聞いたらこう言ってたで