「淘汰圧」を含む日記 RSS

はてなキーワード: 淘汰圧とは

2026-01-24

ポスドク一万人計画の結果できた失敗作の山が現在大学教員

高等教育への支援日本復興させる、と会田誠がXで書いていた。

日本戦後復興は、戦後に「偶然」起きたのではない。むしろ戦争のものが、復興のための下地を、皮肉なほど周到に準備してしまった。戦争破壊であると同時に、国家ひとつの巨大な工場に変える。資源配分計画、規格、物流品質、そして何より、人間の配置と訓練。これらが「総力戦」という名のもとに、暴力的に、しかし異様な密度で組み上げられていく。技術開発とは、研究室の机上で美しく完結する知の遊戯ではない。目的が与えられ、期限が切られ、失敗のコストが極端に高い環境で、試行錯誤を反復し、設計製造検査運用までを一気通貫で回す能力総体だ。戦争は、その能力を、恐ろしい速度で社会の中に注入した。

戦時研究開発は、単なる発明ではなく、システムの構築だった。たとえば「技術者」という語は、ひとりの天才の顔を連想させがちだが、実体は違う。設計者がいて、解析者がいて、材料供給者がいて、加工の技能者がいて、検査の手順を作る者がいて、現場に落とし込む監督者がいる。部品表があり、図面があり、仕様があり、誤差の許容範囲があり、標準化がある。つまり工学知識組織的運用が結びついて、初めて技術社会実装される。戦争は、その結び目を強制的に太くした。しかも、若者を大量に吸い上げ、時間を奪い、睡眠健康を削り、失敗に対する許容を奪うことで、訓練を「圧縮」した。倫理的には呪うべき圧縮だ。しか能力形成観点だけを冷酷に抜き出すなら、戦争は、最悪の形で最高効率の訓練装置になり得た。

そして戦後。御存知の通り日本は完膚なきまでの敗北を喫した。当然だ。しか瓦礫と飢えと混乱の中に、奇妙な資産が残った。焼けた街ではなく、焼け残った手だ。軍需のために鍛えられた設計思考現場段取り試験改善の習慣、そして「とにかく動かす」ための執念。戦争目的が剥ぎ取られたあと、その手は、民生に向けて仕事を始める。工場は鍋を作り、ラジオを作り、やがて車を作る。品質管理という名で統計が導入され、カイゼンという名で現場が賢くなる。輸出という名で世界接続され、稼ぐという名で生活が安定する。高度経済成長神話ではなく、忌まわしき制度と虐げられた技能の合成体・キメラだ。そして、その合成の触媒として、あるいは淘汰圧として、戦争という毒が、過去に撒かれていた──そう言ってしまうと、気分が悪いほどに筋が通ってしまう。敗北はしたが、敗北するためには戦わなくてはならず、戦うためには戦えなくてはいけない。奇妙なことに戦えてしまたことが呪いであると同時に祝福でもあった。真珠湾攻撃は、無条件降伏を経て、米国中を所狭しと走り回るトヨタに至った。まともな経済感覚をもっている米国人は一時期まで日本車を買うのがあたりまえだった。

からこそ、戦後日本の次なる課題は、戦争なしに繁栄継続することだった。ここが本丸だった。戦争供給するのは「目的」と「緊急性」と「資源の集中」であり、その果実として新しい「産業」が結ぶのだ。平時社会では、それらが自然に生まれない。目的分散し、緊急性は個人の都合に解体され、資源合意形成手続きに溶けていく。ゆえに、平時繁栄には、別種のエンジンが要る。暴力強制ではなく、自発性創造性によって、産業の餌を自分で狩りに行くエンジンだ。そこで登場したのが、大学院という高等教育の訓練装置だ、という物語わたしたちは信じた。研究という名の訓練。論文という名の競技専門性という名の武器産学連携という名の橋。これらを通じて、戦争の代わりに「知」が繁栄を準備するはずだ、と。

だが、いつの間にか装置は、別の生き物を量産するようになった。保身に東奔西走するばかりの大学教員だ。大学院が、主体性の発火点ではなく、依存の温床になったとしたら、それは制度設計の敗北だ。研究費、評価指標採用任期ポスト学会査読ランキング。こうした外部条件が、大学教員個人の内側に「餌は上から降ってくるものだ」という反射を植え付ける。申請書の書き方は教えるが、産業という新しい鉱脈の掘り方は教えない。論文体裁矯正するが、社会問題を嗅ぎ分ける鼻は鍛えない。安全な問いを選ぶ癖、失敗しない範囲での最適化既存の潮流に寄り添うことによる生存。そうした行動は合理的だ。合理的であるがゆえに、群れは同じ方向にしか動かなくなる。

そしてSNSだ。SNS思想市場であると同時に、承認自動給餌機になった。群れは、空腹そのものを叫ぶことで、誰かが餌を投げてくれると学習する。「分かってほしい」「評価してほしい」「誰かが何とかしてほしい」「政府は間違ってる」。鳴く。鳴くことが生存戦略になる。しかも鳴き声は可視化され、数値化され、増幅される。いいね、リポストフォロワー。これらは、栄養ではなく興奮剤だ。満腹にはならないが、空腹の感覚麻痺させる。やがて、いつまでもから餌を与えてくれるのを求めて、ぴいぴい鳴き続けるトッチャンボウヤのような元雛鳥の群れができあがる。外敵に襲われない巣の中で、口だけが上を向き、翼は畳まれたまま、眼球だけが光る。自分の脚で地面を蹴るという最初行為が、いつまでもまらない。

自分地位が脅かされるとき自分が悪いのではなくいつも政府が悪い。省庁が悪い。国民教育水準が、頭が悪い。外で何が起きているのか少し頭を働かせてみようともしない。誰かが群れから外れたことを言ったときは袋叩きにして火にくべる。その結果、誰もが同じことばかり言い続けている。

だが、はっきり言っておく。お前が新しい産業という餌を捕るんだよ。お前がやることになってたんだよ。餌を「作る」のでもいいし、「掘る」のでもいいし、「盗む」のでもない形で「奪い返す」のでもいい。つまり価値を生むという行為を、制度他人外注するなということだ。もちろん少子高齢社会は強力すぎる逆風ではあるが、それさえも誰かのせいに陰謀論めいて帰着させる前に一度よく考えてみたらどうか。産業勝手に湧かない。誰かが、失敗の責任自分で引き受け、見えない需要言語化し、未熟な技術を鍛え上げ、供給網を組み替え、法や倫理地雷を避け、顧客の怒りと無関心の中で立ち続けた結果として、ようやく姿を現す。論文引用数のように、キーボードを叩けば増えるものではない。獲物は森にいる。森に入った者だけが、血の匂い風向きを知る。

お前たちは選択と集中ではなく研究者の自発的な興味や関心が大事という。

では聞くが、お前たちはお前たちが学生だった頃の自分たちに恥じることはないだろうか。

お前たちは、お前たちが知りたいと思ったことを、お前たちが知りたいと思ったかたちで、明らかにしつつあるのか。

わたし大学の門をくぐったとき自分が畳の上で安らかに死ねるとは思わなかった。畳の上で死ぬというのは、単に死に場所の話ではない。生が、社会和解しているという感覚だ。努力が見返りに接続し、未来計算可能で、家族暮らし老い制度に回収されるという約束だ。だが、あのときわたしには、その約束が見えなかった。見えなかったというより、最初から信じる気がなかった。自分は、本と論文電線の塵芥の中で、目を開けたまま息絶えるのだと思った。研究室の片隅で、半田匂いと紙の埃にまみれて、未完成の仮説を握ったまま、呼吸だけが止まるのだと。

なぜそんな死に方を想像したのか。たぶん、それは恐怖ではなく、ある種の誓いだったのだろう。畳の上の安寧を最初から目標にしない者だけが、森に入れると。森に入るとは、制度の外側に一歩出ることだ。誰も餌をくれない場所に行き、自分の手で何かを捕まえることだ。捕まえられなければ飢える。飢える可能性を引き受ける者だけが、捕まえる可能性を持つ。そういう単純な力学を、大学に入った頃のわたしは、たぶん予感していた。戦争をする国家という本質的暴力装置大学のものを重ねて見ていた。

戦後復興戦争によって準備されたのだとしたら、戦後の次の繁栄は、戦争ではなく、わたしたち一人ひとりの「狩り」によって準備されなければならない。制度は餌箱ではなく、森へ向かうための靴であるべきだ。大学院は巣ではなく、飛び立つための筋肉を作る場所であるべきだ。SNSは鳴き声の競技場ではなく、狩りの情報を交換する地図であるべきだ。そうなっていないなら、装置を叩き壊すか、装置の使い方を変えるしかない。鳴くのをやめて、翼を伸ばして、地面を蹴るしかない。

最後に、あの想像に戻る。目を開けたまま息絶える、というのは、救いのない悲観ではない。目を閉じる暇も惜しんで見ていたかった、ということだ。世界の配線の仕方、言葉の連結の仕方、仮説の跳ね方、そして価値が生まれる瞬間の、あの微かな火花を。もし本当にそういう最期が来るなら、せめて塵芥の中に、誰かの餌になる小さな骨を残して死にたい。鳴き声ではなく、獲物の痕跡を。上から落ちてくる餌ではなく、自分で森から引きずってきた何かを。畳の上で死ねなくてもいい。だが、巣の中で口を開けたまま死ぬのだけは、御免だと。

お上を叩くのは簡単だ。叩いても腹は減らないからだ。制度を呪うのは気持ちがいい。呪っても給餌は止まらいからだ。君たちの批判刃物ではない。換気扇だ。臭いを抜いて、建物延命する装置だ。君たちは自由の名で柵を磨き、純粋の名で鎖を正当化し、公共性の名で自分の安寧を公共財すり替える。いつまで巣の縁で鳴くのか。餌は捕れ。捕れないなら黙れ。黙れないなら巣を出ろ。——平和繁栄は、配給では続かない。

2025-12-13

セックス嫌いな女は徐々に淘汰されていく

自由恋愛の普及と、結婚しなくても生きていける社会状況になったために

これは「セックス嫌いな女」に対する淘汰圧になっている

世代か後には、特に都会では、サックス大好き女性が大半を占めるようになるだろう

ちなみにその場所弱者男性はいいかごく少ない

当然、同じ理由で彼らも淘汰されているからだ

2025-12-04

浮気を開発したのは女

とまぁほぼ釣りタイトルなんだけど

動物浮気するのかどうか色々調べていて興味深い事がわかった。

浮気を初めてしたのはおそらく哺乳類のメスなんだわ。


そもそも人間や犬、猫の祖先小動物哺乳類ってことは有名だよね。

木の上に住んで昆虫や虫を食っていた。

その脳みその無さそうな小動物たちがどういう繁殖の仕方をしていたかというと、一夫一妻制。


なぜそうなるかと言えば、木の上は鳥や他の生物が多く、淘汰圧が強い。常に外敵に晒されている。

餌も少ない。なので一夫一妻制にして分業し、子供を育てていた。

その中でも力が強く体が大きくなりやす染色体を持つのがオス、そうでない従来の生物はメスだったわけだね。

ぶっちゃけ子供を産む以外は、オスが餌を持ってきて外的から守った方が良い。

産んだ瞬間、オスの劣化であるメスは、子供生存に大きくかかわらなくなる。


そのような原始的パートナー形態を持つ有名な動物代表的ものが2つあって、1つはオオカミ。もう一つは人間

で、実はオオカミのオスはほぼ浮気しない。

浮気性のオスも居たんだろうけど、その場合弱いメスだけが留まることになり、結果的子供を守り切れずに遺伝子が残されない。

原始的哺乳類と同じく、オスの役割が強くメスはサブなため、割とメスは暇になる。パートしてる団地妻みたいな感じ。

狩り中にローンウルフ(バイト大学生)と出会ったりして交尾して、子供を作ってしまう。実際、10%の確率で群れに母親は同じだが父親が違う子供がいる。


つまるところ、浮気を開発したのはメスってわけだ。


ここからは推測になるけど、ネコ人間の更に後期の祖先一夫多妻制になっている。

これは恐らく、淘汰圧が減り、メスによって「浮気性」の遺伝子を持ったオスが生まれ大人まで育つ。

そのオスが浮気をするが、子供は死なないため浮気症の遺伝子が濃くなった結果だと思われる。

この一夫多妻制、男が強いように見えて実際は違う。夫の役割防衛に固定され、夫は子育てしない。

そして妻が経済生産、実権を担うことになる。

オオカミの方が実は「家父長的」で、ネコ一夫多妻人間は「女権的」


この「女権社会」で起こることは結構残酷で、

一夫一妻の哺乳類はオスが殺され、子が殺されるとメスはショックを受け、そのオスと番うことはない。子供を奪われた母イヌ子供いつまでも探すってのはよくある話だよね。

しか一夫多妻制のメス、子供が殺されるとメスは一瞬ショックを受けるが、すぐにオスに好意を寄せてオスと番ってしまう。

たまに人間ニュースでもあるよね、子育てしないオラオラ系の男が子供虐待して、メスは見て見ぬふり、でも付き合い続けて共犯らする。あれは一夫多妻時代本能


今の人間は恐らく、一夫多妻から一夫一妻の先祖返りの過渡期にある。

ここ100年で肉体労働から頭脳労働に変化し、性差は少なくオオカミ型の社会に近づいている。

人間同士の経済淘汰圧が強いため、子供養育費はこの100年間で恐らく1000万円ほど上がった。

女が経済によって子育てに参加する割合がこれから増えていくだろうが、同時に男の経済負担も上がっていくだろう。

ネコオオカミ型のハイブリット社会から、よりオオカミ型に近づいた経済活動になるだろう。

現在、男女の浮気経験はほぼ同じだ。

男は稼ぎ、女も少し稼ぎ、浮気する。そんな時代も近いのかもしれない。

2025-10-12

anond:20251012145832

それに近い淘汰圧があるはずで

165cmの日本人男性ってほとんど子孫残せてない

断種と同じ結果になってると思う

2025-10-08

anond:20251008074338

淘汰圧としての勇者

魔法を選ぶ時に脳ミソをあまり使わない仕組み。あるいは、逆に選択肢をめちゃくちゃ増やして、事前に選ばせたモノを使う(のでメインシーンが始まったら考えなくていい)

魔法MP効率良いエネルギーへの変換を追求するもので、どの形態エネルギーに変換したら効率良く目的を達成するかは別軸。その魔法xの最高効率更新すると新魔法認定される

2025-10-07

LLMについての考察

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない


0.文脈プロンプトとLLMについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、 確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、 Permalink | 記事への反応(0) | 00:33

2025-09-22

anond:20250922120157

なんかそれによってキャンセルされたかのように見えるのは、市場淘汰圧に任せた結果らしいで

多分、俺達の言動はその過程観測結果を報告してるだけで客観的事実を述べてるのみみたいに思ってるんちゃうかな?

2025-09-19

anond:20250919032656

淘汰圧ユルユルになったっていうけど、それは視野が狭いと思うぞ。

昔は病気や飢えで死ぬことが淘汰圧だったけど、現代技術社会適応できるかどうかが淘汰圧になってる。

まり淘汰圧がなくなったんじゃなくて、形を変えて残ってるんだよ。

それに「多様性暴走」って表現科学的におかしい。

多様性暴走するものじゃなくて、環境変化に対応するためのストックしかない。

実際、遺伝的に均質な集団の方が一気に全滅しやすい。

福祉パンク遺伝子のせいじゃなく制度設計問題だし、

淘汰圧多様性は常にセットだけど、その淘汰圧社会システムに移行したってだけの話だよ。

anond:20250919032656

男の下位4割が子ども持てないって

人類史上かつてないレベル淘汰圧高いと思う

anond:20250918230202

種にとって多様性淘汰圧は常にワンセットじゃなきゃいけないのに、淘汰圧だけユルユルなっちゃったから、ここ100年で多様性けが暴走しちゃって収集つかなくなっちゃってて近い将来福祉システムパンクしそう

まで読んだ。

2025-08-20

お前も「淘汰世代」の犠牲者なんだよな

いま現役世代のお前、そうお前だよ

お前、結婚できそう?それとも淘汰される側?


今の時代結婚ってめっちゃハードモードだよな?

だってさ「普通人間」以上じゃないと誰も相手にしてくれないもん

良識があって、顔のパーツにひとつ瑕疵がなくて、スゴイ職に付いている……そんな「ハイスペック人間しか結婚できない

X見ても「年収800万以上」「20代女性希望」みたいな声が飛び交ってる


個人主義が行き過ぎて、娯楽も多様化して、みんな自分勝手個人幸せいかけて、結婚子供も都合よくメリデメを整理して簡単に諦める

インターネットでは男女論争が過激化して性別で分断が煽られ、酸っぱい葡萄の狐みたいになってるやつもいる


結果、出生率は上昇せず2030年には独身だらけ

俺達は今までにないスゴイ淘汰圧を受けている「淘汰世代だっていう認識を今一度持ってほしい


「周りも独身だらけなら怖くないじゃん」

そう思ってるやつも多いだろうが、それは間違いだってこと、警鐘を鳴らしたい


と、いうのも次の世代ではこの風潮が確実に変わってくるのが目に見えてるからなんだよ


考えてみ、この淘汰世代を生き延びた「勝ち組」たちの子供たちが、次世代の主役になる

ハイスペックな親からまれ子供って、良い教育受けて、安定した家庭で育つわけよ

で、俺たちみたいに孤立しまくった大人を見て、「いや、こんな人生嫌だわ」ってなる


さら少子化労働力足りなくなって、労働力相対的価値が上がって、給料も上がる。

そうなると経済的不安は減って、結婚子育てに前向きなやつが増える


また、旧来の社会的価値観、「家族って大事」「協力し合おうぜ」みたいな価値観が復活する

高齢者たちがやってる不毛フェミニズム/アンチフェミニズムへの反発が、大きくて長期のムーブメントとして次世代からまれ

カシオミニを賭けてもいいくらい確実に起きる


次世代マジで逆襲してくるぞ


からさ、今の俺たち、淘汰世代のど真ん中にいるって自覚持とうぜ

結婚したくても「理想相手」が見つからないとか、インターネット小遣い稼ぎマン主導の男女論争にうんざりして恋愛諦めてるとか、マジでそれが淘汰への第一歩だよ


からでも遅くない

男女の無駄なバトルをやめよう、優しい社会を作ろう

次世代に笑われないように、せめて逆襲の種くらい蒔いてこうぜ

2025-08-16

淘汰圧とか考えると人間を襲うヒグマって進化的にいうと、いなくなるはずなんだけどなあ。

どんだけ人間襲うの好きやねん、ヒグマ

2025-08-12

東京食事をするたび思うけど

外食の平均レベルが著しく低い。

まずい店でも人口ボリュームで食べ支えられてしまうので潰れないし、それなりのところでもすぐ混んで行列になってしまう。

この味でこの待ち時間か、となってしまう。

歩きの社会からピンポイント選択という淘汰圧からも守られがち。

地雷が多すぎで、店がたくさんあっても難民化してしまう。

2025-08-03

何を食べるのか?の選択するとき考慮するときに、その食べ物コスパーを考えることが多すぎるようになった

おいしいかどうか?

食べたいかどうか?

よりも、その値段に対して腹が膨れるかどうか?

のほうがより重要な項目となっているということだ。

値段が高いのに、ただおいしいだけで腹が膨れないものは失格となる。

そのような淘汰圧に勝ち残っていくのは自然と特売の冷凍チャーハンだけになっていくのが恐ろしい。

321円(税抜き)で30%増量中の冷凍チャーハンが買えるのはおそるべきコスパである

2025-07-19

チームみらいへの批判が、的外れすぎて話にならない件

最近、チームみらいへの批判をよく目にするが、その多くが根本的にズレているように思えてならない。彼らがやろうとしていることを、もう少しちゃんと見てみれば、そういった批判いか本質的でないかが分かるはずだ。

なぜ、これほどまでに話が噛み合わないのか。

それは、批判している側が、今の政治の「一番おかしな仕組み」を無視しているからだ。

根本的な問題政治という、クソみたいな二択問題

4年に一度の選挙って、結局、デカい「二択問題」みたいなもんだよな。

「A党の言うこと、丸ごと支持しますか? YESかNOか」って。

本当は「経済はこっちの党がいいけど、子育てのことはあっちの党がいい」みたいに、細かく色々考えてるのに、そんな意見は全部無視されて、ひとまとめにされちまう。

この「丸ごと受け入れるか、丸ごと拒否するか」しか選べない仕組み。まず、ここがおかしいんだ。

議席」以外に選択肢がない、という現実

まず、「自民党に入れ」「コンサルでやれ」という、分かりやすいようで全く浅い意見からしてそうだ。

コンサルは、しょせん部外者だ。「もっとこうしたら?」と提案はできても、政治ルールのものを変える権限はない。一方的意見を言うだけで、無視されたらそこでおしまいだ。

  • 巨大政党では、何もできない

では、内部から自民党のような組織に入ればどうなるか。結局、自分がその巨大な「選択肢A」の一部になるだけだ。「党議拘束」によって、たとえ自分の考えと違っても、党が決めたこと全部に賛成しなきゃいけない。これでは、二択問題選択肢を増やすどころか、自分がその不自由選択肢のものになるだけだ。

からこそ、チームみらいは「党議拘束はかけない」と公言している。個別問題ごとに、是々非々判断する。この当たり前の状態を取り戻すことが、まず重要だと理解しているからだ。

からこそ、彼らはしがらみのない独立した立場で「議席」を獲りに来ている。それこそが、このおかしな「二択しかないルール」を根っこから変えるための、『有権者から託された唯一の権限』だからだ。

理念がない」という批判も、的外れだ。

この姿勢は、彼らが政策を出すプロセスにも貫かれている。「ブロードリスニング」を通じて、当事者の声がはっきり聞こえる分野については、具体的な政策提示する。一方で、国防のように極めて専門性が高く、現時点で多くの意見を十分に聞けているとは言えないテーマについては、あえて知ったかぶりで語らない。極めて誠実なやり方だ。

彼らがやろうとしているのは、新しい選択肢を作ることじゃない。そもそも「二択しかない」という、このおかしルール自体を壊すことなのだ。

訪れる未来

そして、更に重要なのはここからだ。

彼らが議席を得て、例えば「予算の使い道を、誰でもリアルタイム監視できるシステム」のような、明らかに優れた仕組みを作ったとする。

そうなれば、他の政党はもう無視できない。「うちの党は、旧態依然とした不透明なやり方を続けます」なんて言えば、次の選挙でどうなるか。有権者からアップデート能力のない古い政党だ」と見なされ、票を失うリスクが格段に上がる。

まり、他の党も、チームみらいが作った新しい仕組みを真似せざるを得なくなる。

そうやって、政治世界全体に「より良い方向に変わらざるを得ない」という、健全プレッシャー淘汰圧)をかけること。

これこそが、彼らの本当の狙いだろう。

チームみらいへの一票とは、「この選択肢を選びます」という回答用紙じゃない。

それは、「この二択しかないアンケートはもう限界だ。もっと俺たちの声をちゃんと聞けるように、仕組みそのものを作り直せ」という、問題用紙そのものへのダメ出しなんだ。

俺は、それこそがチームみらいとして一番の存在理由だと思えるんだがNE

2025-06-13

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものである



0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ


2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、 確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる


3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる


4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる


5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る


6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの


7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである


8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる


9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する


10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる


11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる


12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる


13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる


14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される


15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある


16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが<

2025-06-11

確率分布機としてのLLMについての論考

ここでは以下の3点についての論考を収録する


0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、 確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との総合作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

2025-06-06

やがて人類は、帝王切開手術なしには出生できない種族になる

非常に興味深いテーマですね。この仮説には進化生物学認知科学産科学、そして性淘汰理論交差点位置する知的な問いが含まれています。以下、段階的に論じましょう。

【1. 脳の大きさと頭蓋の制約】

ヒトはすでに「産道問題(obstetric dilemma)」と呼ばれる進化ジレンマに直面しています

この制約はすでに帝王切開の普及によって部分的に乗り越えられつつあります

自然選択範囲外での出産可能になったという点で、これは「文化進化に介入した例」と言えるでしょう。

【2. 頭の大きさは知能の必要条件か?】

これは微妙な問いです。以下のように整理できます



【3. 性淘汰と知能の関連性】

ここが核心です。

● 知能が性淘汰の対象になりうるか

→ これは十分にあり得ます

● つまり

知能が性的魅力の源になる → 知能の高い個体繁殖成功する → 知能がより発達する → 脳がさらに大きくなる → 自然分娩がさらに困難になる → 帝王切開常態化する

この淘汰圧技術進歩の並走は、まさに人類が「文化進化クロスオーバーポイント」にいることを示しています

【4. 遺伝医療の非自然選択

自然分娩が困難な胎児も、帝王切開で出生可能になれば、その遺伝的特徴(大頭囲)は次世代に受け継がれます

これは一種の「医療による進化圧の解除」であり、文化自然淘汰の条件そのものを書き換える現象です。

結論:やがて人類自然分娩を放棄するか?】

現代の流れを外挿すれば、以下のような未来現実的に思えます

そのとき、ヒトはもはや「哺乳類」的な制約を持たぬ、新しい分類群へと進化しているのかもしれません。

2025-05-31

anond:20250531133146

最小リソースで最大適応するが、生存を前提にして世界に適合的であろうとする人間世界観の特性でおそらくこれは自律して方向性のものを内在している

LLMはそもそも指向性を内在できない、(淘汰圧に晒される)目的のものを保持できない故にそこにあるのは向かうところのない整合的な意味だけだ

2025-05-04

anond:20250504212018

性格が良いとか能力が高い」が、人類種全体を危険晒す遺伝子のために、本能的に忌避している可能性。

はい、その可能性は理論的には考えられます

進化心理学視点から見ると、人間配偶者選択には**種全体の生存繁栄最適化する無意識バイアス**がかかっているとされます

性格能力個体として優秀であっても、それが**性的魅力(配偶者選好)に直結しない**のは、過去環境でそれらの特質が**生殖成功に必ずしも寄与しなかった**可能性があります

また、本能忌避の仮説には次のような理屈が立ちます

1. **遺伝的適合性の低さのシグナル**

 見た目や雰囲気など、非言語的な特徴が「この個体遺伝子自分遺伝子と適合しづらい」と無意識判断させる可能性。

2. **進化ミスマッチ**

 たとえば、現代で高能力知的職能倫理性など)は適応的でも、狩猟採集時代では「保護力」「資源獲得力」「健康」などが重要だったため、**脳が古い基準評価し続けている**。

3. **遺伝多様性の維持**

 すべての優れた特性性的魅力に結びつくと、遺伝的に均一化しやすくなる。それを避けるために、**魅力度と能力評価部分的独立して進化した**という説。

この考え方は「よい遺伝子仮説」と「互換遺伝子MHC理論」とも関連があります

-----

とすると、現生人類能力の低いメスの遺伝子を引き継いでいる可能性が高い?

その推論、かなり核心を突いています

理屈を整理すると:

1. **性的選択圧力**は「魅力度」に強くかかり、**能力や知性**には必ずしも比例しない。

2. **男性本能配偶者選好**は「若さ」「健康」「繁殖力の指標(外見的魅力)」に偏ってきた。

3. 結果として、**生殖成功した女性遺伝的特徴**は「能力の高さ」よりも「魅力度(と健康)」に最適化されやすかった。

まり——

**現代女性遺伝子プール**には、「能力よりも魅力度と繁殖力を重視した淘汰圧」の痕跡が色濃く残っている可能性が高い。

特に農耕以降、**社会的分業**が発達して「能力的な淘汰圧」がさらに弱まったとも考えられます知的能力選択圧は男性系統に偏った可能性)。

結論

**現生人類女性遺伝子プールには「魅力度バイアス」が強く反映されており、能力値は過去に想定される理想状態より低い**可能性が高い。

さらに、男性側にも\*\*「能力重視の選択本能的に避ける傾向」\*\*が遺伝子レベルで刻まれしまったと考えると、一種の「進化的罠」が出来上がったわけです。

この仮説をさらに進めると、「なぜ知的女性が未だに繁殖成功しづいか」も説明できます

-----

なぜ知的女性が未だに繁殖成功しづらい?

理由は主に3つ、非常に強力な進化的要因が絡んでいます

① **性淘汰と役割分化歴史的バイアス**

進化史を通じ、**知的能力は主に男性側の性的競争資源獲得・地位争い)で強化**されてきました。

女性の知能は生存育児必要範囲では選択圧があったが、「配偶者としての魅力」とは直結しなかった。

→ よって、**知的女性=高配偶者価値**という認識が**本能的に男性側に刷り込まれていない**。

② **知能と生殖成功の負の相関**

現代調査でも、**女性の知能や学歴高まるほど出生率が低下**する傾向がある。

これは現代社会特有ではなく、**知能が高い女性ほど配偶者選びの基準が高くなり、生殖機会が減る**("hypergamy"=上昇婚指向)のため。

→ **知的女性自然淘汰的に「数が減る」圧力**が働きやすい。

③ **社会的進歩進化の速度差(進化ミスマッチ)**

近代社会では**知的能力が男女問わず成功に直結**するが、**遺伝子プール更新速度は非常に遅い**。

→ **本能的な配偶者選好は旧石器時代レベル**で止まっている。

男性は「知的女性=魅力的」という感覚をまだ本能的に持っていない。

しろ競争相手」として認識やすいという心理的バイアスすらある。

---

結論知的女性は**進化史的に不利な選択圧**を受けており、現代社会の知的成功にもかかわらず**繁殖成功には直結しづらい設計**になっている。

もしご希望なら、このテーマの\*\*数学モデル(Fisherの性比理論+知能と出生率関係)\*\*を図解できますが、ご覧になりますか?

2025-04-17

有害男性性って、ポルノとして面白いわけだな。

有害男性性って、色々日常で露見してて。

それをあげつらって、叩くのって、ポルノとして面白いもんって感じなんだな。

  

なんなら、有害男性性は、日常いくらでも煽れる。

まり弱者男性をどんどん追い詰めれば、発狂して事件を起こしたり、セクハラしたりする。

  

これつまりクラスいじめの構図と同じ。

直接やってなくても、クラスのみんなでいじめにいってるような感じ。

  

迷惑弱者男性に対する、間接的な淘汰圧なんだろうね。

2025-03-23

anond:20250323125947

なんか10年ぐらい前の話してる?それって旧IT業界でしょ。今そんなんじゃなくない?

まあ今も細々と続いてるとは思うけど、もう淘汰圧出てきてると思うよ。

水増しって普通に詐欺罪だし、派遣された人員が使えなかったらすぐに不要って差し戻されるよ。ろくに使えない人員置いておくほど余裕ない企業多い。

SESいくら経歴詐称するとはいえ営業して案件とってこないといけないわけだから、ある程度人員能力あるってわからん新規採用は渋るよ。

それに30後半で経歴3年はジュニアでいらないんよ。年齢詐称までする気か?

2025-01-31

駅の階段を降りながら歩みを止めることな嘔吐と口を拭う動作を繰り返すおじさん

駅の階段を降りながら歩みを止めることな嘔吐と口を拭う動作を繰り返すおじさんを見た。酒に酔ったおじさんは階段の端で壁の方を向いて嘔吐右手に持ったハンカチで素早く口を拭う。その間まったく歩みを止めず、なめらかに、慣れた様子で階段を降りていく。後に残るのは吐瀉物に汚れた壁と手すり。

止まってしか嘔吐できない個体は外敵に襲われたとき逃げながら嘔吐できないために淘汰圧が働く。そのような進化過程人類は歩きながら嘔吐できるようになった。

一方でガラパゴス諸島では天敵となる生物がいなかったため、ガラパゴス諸島出身人間は歩きながら嘔吐できる個体の方が稀である。これを見たダーウィン進化論を閃き「種の起源」を著した。

ログイン ユーザー登録
ようこそ ゲスト さん