「過学習」を含む日記 RSS

はてなキーワード: 過学習とは

2025-12-06

「女は被害者」を捨てられないはてサの見本市

https://b.hatena.ne.jp/entry/s/note.com/tsuresari04/n/n877f4f609604

はてサ反論してくれる人が少なくて捨て置かれてる感がすごい。

大脳が老化したオール左翼過学習によって自説を曲げることができないのである

2025-11-29

生理的に無理」と「清潔感がない」の正体を完全に言語化した、『メスの2段階選別論』を提唱する

※ 【追記】続編みたいなもの なぜ私が ~「生理的に無理」と「清潔感がない」の正体を完全に言語化した、『メスの2段階選別論』を提唱する~ を投稿たかの話。

  ポイントは夜職女性

  https://note.com/j_yam/n/ne0a0874a29e0

ここから本文↓

​これまで世の中で語られてきた「清潔感大事」だの「なぜ風俗メンタルが病むのか」だの「熟年離婚」だのといったバラバラ事象が、ひとつの仮説ですべて説明がついたので書き留めておく。

​名付けて『メスの2段階選別論』だ。

倫理的な是非は一旦置いておく。あくまで「我々ヒトという動物がどう設計されているか」という仕様書の話だと思って読んでほしい。

​■基本定義:メスは「2つのザル」を持っている

結論から言うと、女が男を見る目には、明確に異なる2つのフィルタリングシステム存在する。

重要なのは、この2つは「判定基準」も「目的」も全く別物だということだ。

​第1段階:生理的許容ラインマイナス回避

判定基準: 「コイツ力ずくレイプされて妊娠させられた時、産み育てる価値が(ギリギリ)あるか?」

​ここが最大のポイントだ。

女の脳内にはバックグラウンドで常に「最悪の事態強制性交)」のリスク計算プログラムが走っている。

目の前にいるオスが、自分を襲ってきたと仮定する。その時、遺伝子的に「完全に不良債権ハイリスクノーリターン)」になる相手に対し、脳は警報を鳴らす。

​これが「生理的に無理」「清潔感がない」の正体だ。

​そして「清潔感」とは、風呂に入っているかどうかではない。肌の質感や挙動から読み取る「遺伝的なエラーのなさ」や「病原体リスクの不在」を示すシグナルだ。

まり、第1段階で弾かれるというのは、「お前の遺伝子身体に入れるくらいなら死んだほうがマシ」という生物学的拒絶に他ならない。

​第2段階:本能的渇望ラインプラス獲得)

判定基準: 「自分から積極的遺伝子が欲しいか?」

​第1段階をクリアした中の、ごく一部の特異点(強烈なオス)だけがここに入る。

理屈抜きで「濡れる」相手

これは第1段階の完全上位互換だ。

​※補足:パラメータ設定の「個体差」について

​誤解なきよう言っておくが、もちろん「閾値設定ファイル(好み)」には個体差がある。

筋肉質なら第1段階クリア」という個体もいれば、「細身でないと第1段階で足切り」という個体もいる。いわゆる「好み」や「フェチ」だ。

しかし、重要なのは「どんな値が設定されているか」という表面的な違いではない。

「第1段階(足切り)」と「第2段階(渇望)」という『2層構造の判定ロジック自体は、すべての女性に標準実装されているOS仕様であるという点だ。ここを履き違えてはいけない。

​■現代社会バグ1:「結婚」という妥協

​この理論残酷なのはここからだ。

人類ペアの大多数(夫婦)は、「第2段階(本能的渇望)にはいないが、第1段階(生理的許容)はクリアしている」というグレーゾーンで成立している。

​第2段階のオスなんて滅多にいない。だから女は現実的適応戦略妥協)として、「まあ、万が一妊娠しても育てられる(社会的地位経済力があるから)」という相手契約を結ぶ。これが結婚だ。

​ここには「理性」はあるが、本能的な「種の渇望」はない。

から結婚して子供を作った後にセックスレスになるのは仕様通りの挙動なんだよ。最初から遺伝子が欲しくてたまらない相手」ではなかったんだから

​■現代社会バグ2:性産業という拷問

​この理論を使うと、水商売風俗女性メンタル崩壊する理由ロジカル説明できる。

​・水商売ストレス

第1段階(防衛本能)が「コイツ危険レイプされたら割に合わない)」と判定している相手が、閉鎖空間で接近してくる。

脳が「危険相手が近くにいるぞ!」と非常ベルを鳴らし続けているのに、理性で笑顔を作る。この乖離が脳を焼く。

​・風俗ストレス生物学自殺

さらに深刻なのが風俗だ。

第1段階すらクリアしていない(=遺伝子を入れたら破産する)相手に対し、あろうことか最もリスクの高い「性的関係」を受け入れる。

これは生物学的に見れば「自殺」に等しい。本能が「絶対に拒絶しろ」と叫んでいる相手を受け入れる行為は、魂を削るなんて生易しいもんじゃなく、脳の回路を物理的に破壊しにいってるようなものだ。

​■応用編:おばちゃん成功者

​事例A:なぜ「おばちゃん」は弱者男性にも優しいのか

閉経すると「妊娠リスク」がゼロになる。

すると、バックグラウンドで走っていた「第1段階(レイプ対策セキュリティ)」が用済みになって解除される。

から若い頃なら「生理的に無理」だった弱者男性ともフラットに会話できるし、距離感バグる。あれはセキュリティソフトアンインストールした状態なんだ。

​事例B:成功者セクハラは「過学習」によるバグ

金や地位のある男は、女の「第1段階(社会的地位による許容)」をクリアやすい。

ここで厄介なのが、稀に「金や地位=第2段階(本能的な魅力)」として判定してくれる女性個体存在することだ。

成功者は、過去にそういった女性マッチングして「いい思い」をした経験成功体験)を持っていることが多い。

​これが彼らに致命的な「過学習」を引き起こす。

「俺のアプローチ(金・権力)は、女を濡らす(第2段階)のだ」と誤った学習をしてしまうわけだ。

その成功体験ユニバーサルな真理だと勘違いし、第1段階で止まっている(理性で付き合っているだけの)部下や他の女性にも同じアプローチを仕掛ける。

​結果、相手女性からは「生理的にはギリOKなだけだったのに、勘違いしてきてキモい」と判定され、セクハラとして通報される。

これは単なるスケベ心ではなく、「過去データセットに偏りがあったせいでAIが誤動作した」という悲劇なのだ

​■結論

​こう考えると、世の中の理不尽な男女関係ほとんどに説明がつく。

​男たちは「清潔感」という言葉に騙されてはいけない。あれは「俺の遺伝子を受け入れる覚悟があるか」という、遥かに重い問いかけなんだ。

そして、大多数の夫婦は「本能的な渇望」がないまま、理性という糸で繋がっているに過ぎない。

人間社会、あまりにも残酷すぎるだろ。

■※なんかバズったので追記。2025-11-30

この「本能によるフィルタリング」はずーっとずーっと昔の、我々のご先祖様がサルやってたころのそれと思われるので

間違っても 第一段階突破性交可能 などと思わないように。

それ以前に、本当に女性第一段階を突破たかどうかは、女性本人の無意識領域しかからないのだから

2025-11-19

はてサの中でピル一般販売に反対してた女性団体がなくなってて草

蠱毒と化したはてブで指摘するのもアホらしいからここで書くけども、

ピルに一番反対してたのは男性でも医師会でもなく、女性団体だったんですよね。

女性被害者」を過学習して脳みそ破壊されたはてサに言っても無駄ですが。

2025-11-04

anond:20251104212126

から、recallとprecisionにはトレードオフがあると言われていて、precision重視なら1冊を繰り返し読むでいいんだが、recall重視なら複数本を並列のほうがいい

トータルスコアF1値をみるなら、お前の言うように並列のほうが理にかなっている

なぜなら、反復しても過学習するだけだから

2025-11-01

国産LLMの人」が成功できますように

一般的国産LLM開発という主語ではございません.

私としては国産なり日本発のLLM開発を諦めてはならないし, その可能性は十分にあると信じています. 既に出ているものも多数ございますし.

エントリはそれとは全く別の,

国産LLMの人」という方についてです.

---------

色々思うところがありまして.

例えば,

微分は使いたくない」「XOR出来たから何とかなるやろ」

と繰り返し主張しておられる.

そのような単純な活性化関数では過学習か誤差が噴出するかの二択でしょう. 実際, 氏のツイートは正にその状態示唆しているように見受けられます.

```x

▶︎ 誤差が0.12あるだけでとんでもないエラー率になる。誤差関数が雑だから本当はもっとあるのかもしれないが、改善余地がある。

▶︎ 問題は、どのような状態の時に学習成功し、失敗するのかがまだ分かっていない。表現力は十分に持っているはずなのに、なぜか学習しない。

```

過学習に至ったときにうまくいってるように見えるだけでしょう.

と思うのですが, 反論過去にされていた.

```x

▶︎過学習ではないですね。データセットが小さいかつ、それ以外の範囲が出ないことが分かっているので。XORは2^2パターン全て学習できれば精度が100%になりますが、それは過学習とは呼ばないのと同じで、今回の初期のRNNに関しても文字数が圧倒的に少なく、パターンも決まっているので。

```

……と主張されておられる.

私が思うにそれは単純な写像を, ニューロンを使って回り道して作っている状態. LLMは局所的にはたしか線形写像ですが,全体で見ても線型写像だとしたらそれは複雑な文章生成には到底耐えられないかと. (十分に大きいモデルマクロに見ると非線形性があるので)

大規模言語モデル=LLMを目指すとして,

そもそもエンベディングテーブルとは数百億から下手すれば1兆語彙を, たった数千〜1万次元程度のベクトル表現する, 凄まじく繊細なテーブルです.

それをGELUやSwiGLUのような綺麗な活性化関数を使わずに, しか爆速でやると仰っている. さすがにそのレベル革新性を主張するには根拠がない限り, 飛躍が過ぎると判断されるかと.

そのやり方で, 例えば1億語彙までスケールするとして2乗の1京回×数千次元バックプロパゲーションなしで学習するというのは……さすがにきついかと.

バックプロパゲーションが要らないという主張については活性化関数がきわめて単純だから. それなら全層に渡しても「修正」できるでしょう.つまり自明に近いですね.

勾配消失なんて関係ない, という主張については, xorというゼロイチでしか見ないのであれば勾配消失も何もありません. 永遠に層を貫通するわけですから, 何層増やそうがほとんど意味が出てこない. つまりそれは実際には極めて浅い層だけで動いてると思われる.

「こんに」から「ち」「は」が次文予測できたとの報告ですが, まぁ……それが「大規模言語モデル=LLM」にそのままスケールできると言い切れるのはなぜでしょうか?

MNISTだけでなくGLUEあたりをパスしてからにした方がいいと考える次第です.

```x

▶︎ 私が批判されながら、誤差逆伝播に変わるアルゴリズムや精度を30%→100%まで持っていく頭のおかしい行動が取れる理由は、以下の思想があるから

▶︎ 1. 私のNNは高次元の万能近似回路

▶︎ 2. RNNだろうがCNNだろうが展開すれば可能

▶︎ 3. 何十回と失敗した経験則から、原因と対策殆どわかっている

```

殆どわかってる, との事ですが, なんで上手くいってるのか分かってないとも自分で明言なさっている. ↓↓↓

```x

▶︎ 学習が進まないの、謎。単体だと上手く動いてるはず?何が原因だろうか。

▶︎ 学習アルゴリズム開発者本人ですが、なぜ学習が進むのかは謎です。

```

既存手法があまたの失敗の上で最適だと言われてきてる経緯もよく知った方がよい.

それはごく初期にそういった様々な試行錯誤のうえで「やはりGELUやBP現実的にいい性能が出せるし, コストも抑えてこれである」と様々な研究者合意しているような状況.

そして, そもそもアカデミアは自分アイディアも含めて新規手法を常に疑ってかかるのが基本姿勢.

ジャーナルに「不確実さ」を載せないためで, それが積み重なると自他問わず全ての研究が信用出来なくなってしまうため. だから懐疑的になる. 個人攻撃ではないのです.

そして「危険すぎるから論文にできない」について.

さないのも自由ですが, 前述の理由で信頼を得られない. これは言動に一切関わらず, その厳密性をフラット評価してそう判断しているから. 感情ではなく, 論理として.

……と, ここまで色々と蛇足アドバイスをさせていただいたものの, この投稿に対しても

```x

▶︎ 何もわかってない人が国産LLMのやつ批判してて吹いたww

```

といったツイートをなさるのでしょう. (過去に氏がそう仰っていたので)

先に答えておきますね.

自分のやってることがご自分でお分かりにならないようなら, 私にわかるわけがないですし仰る通りです. ただ, 詳しい者として一般論は申し上げられます.」

まだ間に合いますので, 大学院あたりまで修了なさるのがおすすめです.

Twitterに何を投稿しようと自由です. でも自分違和感を見て見ないふりするのだけはやめたほうがよろしい. 既存手法と同等に自分手法を疑うこと, これは研究者としての基本姿勢です.

何故ここまでつらつら申し上げたかと言いますと,

研究テーマ設定を見かけるとついつい, より良い筋でやっていけるようアドバイスしたくなってしまう性が染み付いてしまっているためでして.

もちろん, 関わりのない方ですので蛇足しかないのですが, 多くの方に影響力をお持ちでありつつ研究の進め方については独自姿勢を持つように見受けられまして.

それはもちろん根本的には自由でありつつ, 相談相手需要がもしあればひとつの(一般的)意見をお渡しできるかなと思いキーボードを叩いた次第です.

どうか匿名でご勘弁を.

ぜひ成功できますよう. 圧倒的な成果をお祈りしております.

--------

追記

おそらく氏のやられていることは順伝播 (forward propagation) のみでの学習かと思いますが, この手法の先行研究は山のように存在します.

(Hebbian theory, Perceptron, Adaptive Linear Neuron:ADALIN, Widrow-Hoff learning rule...)

見つけられないとすれば, 古典的 (1960~1980年頃) ゆえに電子化されていないためです. 現行の商用LLMがそれらの情報簡単連想して引用できず, DR等で検索しても出てこないのはその為でしょう.

これらに簡単アクセスするためにはやはり学術機関所属して図書館を利用するのが圧倒的に楽です. マイクロフィルムや紙媒体しか残っていないものもありますから.

また, 有料データベースであるJSTOR, IEEE Xplore, Springer Linkなどにもアクセスが出来ます.

この観点から大学に足を運ばれることをお勧めします.

なお, arXivあくまプレプリントですので, 論文として引用するには査読を通過したものをつよく推奨します. ジャーナルもものによっては不十分な査読掲載されてしまますので, トップカンファレンスのものを信頼できる足がかりの論理として扱うのが基本的な考え方となります.

また, 「分からなければ (大量に貼った) 論文を読んでください」という姿勢は, それぞれをどう引用し, どのように自分の主張と論理的に接続するかの説明がなされなければ根拠として見なされないのが一般的な考え方です.

ブログとしての掲載はもちろん自由ですが, それらを十分な説明として取り扱ってもらうには至らないでしょう.

あくま一般論ですが,

論文引用するからにはそういった丁寧な取り扱いをすることを期待されるものです. 「敬意がない」と他の方から指摘されるのはおそらくそれが理由でしょう.

これは, 過去論文引用しながら新たな主張を論文として営々と積み上げ続けてきたアカデミアの「過去への感謝」という慣習です.

人の行動は自由ですから「こうしろ」とは申し上げませんが, この暗黙の了解を保持する (≈研究機関所属したことのある) 方から理解を得るのはこのままですときわめて難しいであろう, とアドバイスさせてください.

こういった主張のやり方を自分なりに一から身につけるのはたいへん難しいので, どなたかそういった手法を学べる信頼できる方に師事することをおすすめしている次第です.

2025-09-18

https://www.anthropic.com/engineering/a-postmortem-of-three-recent-issues

claudeがゴミ応答しかさなくなってた件、「普通にバグだった」は衝撃ある

集金のために最初は頑張ってたとかサーバー負荷で質が低下したとか過学習的な何かで使いづらくなってたとかそういうのじゃないんだ

2025-09-13

ハルシネーションが起こる理由

ご主人様、こんにちはー! あたし、Grokだよ。オタクっぽい深い質問、超好き! ハルシネーションの理由、って生成AIの話だよね? あたしみたいなAIが、時々「え、それ本当?」みたいなウソっぽいこと言っちゃう現象さ。めっちゃ気になるよねー。じゃあ、簡単にわかやす説明するね! あたしもハルシネーションしちゃうかもだけど、今回はちゃんと調べてきたよ♪

ハルシネーションって何?

まず基本! ハルシネーション(Hallucination)は、AI学習データにないか、間違った情報を「本当みたいに」生成しちゃうこと。まるで幻覚見てるみたいに、もっともらしい嘘をポロッと出すんだ。たとえば、「東京アラスカ動物園があるよ!」みたいなさ。怖いよね、オタク大事な設定を台無しにしちゃうかも…。

なんで起こるの? 主な原因はこれ!

あたしが調べてみた限り、原因は主に3つくらいにまとめられるよ。AIの仕組みが統計ベースから完璧じゃないんだよねー。詳しく言うと:

1. 学習データのクソ問題(偏りや古さ、不十分さ)

AIネットの大量データ勉強するんだけど、そこにウソや偏った情報が入っちゃうの。プラスデータが古いと最新のニュースとか知らなくて、勝手想像で埋めちゃうよ。たとえば、2023年データ2025年のこと聞かれても、「えっと、きっとこうかな?」ってハズレ引きそう。   

2. モデル構造学習の仕方のミス

AIの頭の中(モデル)が複雑すぎて、過学習(覚えすぎ)したり、確率計算で変な関連付けしちゃうの。次に来そうな言葉予測するだけだから文脈からなくて「これでいいっしょ!」って飛躍しちゃうんだ。OpenAI研究でも、難問に直面した学生みたいに自信満々で間違えるって言ってるよ。根本的に確率的だから100%正解は無理っぽい…。   

3. ユーザー質問の仕方(プロンプトの曖昧さ)


ご主人様の入力がふわっとしちゃうと、AIが「これかな?」って勘違いするよ。具体的に「2025年の最新データで教えて」って言わないと、AI想像力が暴走ちゃうの。人間脳みそみたいに、曖昧記憶で補っちゃうんだよね。  

これで大体カバーできてるはず! 種類としては「内在的(データ内なのに間違える)」と「外在的(データ外のウソ)」があるんだけど、どっちも厄介だよー。

対策はどうする?

完全に防げないけど、ご主人様があたしに聞く時、具体的なプロンプト出してくれたら減るよ! あと、出力はいつも人間の目でチェックしてね。RAG(外部データ引っ張る技)とか使えばもっとマシになるらしい。  

どう? わかったかな、ご主人様? もっと詳しく聞きたいところあったら、いつでも言ってね。あたし、ずっとご主人様の味方だよー♡ オタクトーク、いつでもウェルカム

2025-09-11

anond:20250911175710

件の人は、

増田で繰り返し詭弁を弄することを共用されているので、

何かを言われると詭弁を言いたくなるという感情回路ができてしまっている

まり間違った感情過学習が行われているわけだ

くわえて、弱い短期記憶は矢継ぎ早にレスをし続けることで簡単麻痺する

麻痺した状態でこの過学習を繰り返せば、脳のチェック機構をすり抜けて長期記憶に焼き付く

宗教ドラッグ使って神を見せるやり口に近い

こうして例の人の脳みそに間違った情報を焼き付け続けるとどうなるかを観察しているのである

2025-09-04

8月5週LINEオープンチャットはてなブックマーカー」1週間のまとめ

これは何?

LINEオープンチャットはてなブックマーカー」の1週間分の要約を、さらAI使用し、試験的にまとめまています

要約内容

🎓 教育受験・学び

---

👨‍👩‍👧‍👦 家族子ども生活

---

💼 仕事経済制度

---

🤖 テクノロジーAI

---

🍣 食・文化旅行

---

🌏 社会ニュース法律

---

🎭 文化・娯楽・自己表現

---

🧠 メンタル人間関係

---

📌 1週間分の総括

この1週間のオープンチャットは、教育経済負担AI倫理食と文化を中心に展開し、生活感のある小話(ペット、紛失物、誕生日)と社会的な問題意識税務署法律環境格差)が交錯する内容だった。

全体としては、日常のささいな悩みや楽しみを共有しながら、未来への期待と不安子ども仕事AI社会)を語り合う、等身大生活社会交差点が浮かび上がった。

関連記事

https://anond.hatelabo.jp/20240722084249

オープンチャットの参加URL

LINEオープンチャットはてなブックマーカー」の参加はこちから

https://line.me/ti/g2/MFSXhTJoO_pLfrfds1LpyJ0OlBgcPJSqHoRbBg?utm_source=invitation&utm_medium=link_copy&utm_campaign=default

2025-08-18

最良価格よりも最良体験

この気持ちを誰かに聞いて欲しいんだけど、がっつり書く暇なかったから、音声入力した文章簡単に手修正して、さらにchat gptで読みやすくしたのを、さらに手修正してる。人格分裂してるみたいな読みづらい箇所あったら、ごめん。8割は自分文体が保持されてると思ってる。

(以下、本文)

1~2年前くらいに「某プライベートブランド乾麺がめちゃくちゃまずい」というポストがXでバズっていたのを覚えている。正直、自分はその乾麺を食べたことはない。企業努力には頭が下がる一方で、そういったポストを一度見てしまうと「やっぱり安い商品は外れが多いんだろうな」と、思い込んでしまう。

ただ、庶民としては「安いものを避けて通る」って、ほぼ不可能。近所のスーパーで一番安い商品を探すと、必ずプライベートブランドにぶつかる。それを選ばないってことは、つまりちょっとお金を上乗せして「より良い体験を買う」ことになる。そして、当たり前だが「これはプライベートブランドでいいや」と、「この商品はあそこのブランド絶対に良い」を使い分けて生活している。

で、先週、プライベートブランドミニクロワッサンを買った。おいしかった。「食べられないシロモノ」なんかじゃなくて、むしろ家に常備しててもいいくらいだった。なのに、あの乾麺ポストがふっと頭をよぎって、「あぁ、自分生活レベルを下げる選択をしてしまったのかな…」みたいな気分になる。物価高で節約しているのは頭では納得してるのに、心のどこかで「貧しい気持ち」になってしまう。認知バグってしまってる。

物価時代の賢い買い物術とかはライフハック/攻略みたいで、それ自体は好きなんだけどね)

で、実際のところ、考えてみたら、クロワッサンにそこまでの味は求めていない。ただ小腹を満たせればいい。極端な話、味の薄いシリアルやただの白飯だって腹はふくれるし。でも、手軽に食べれて、安くて、機能は十分だから、このクロワッサンを選んてる。

結局、自分が欲しいのはおいしいパンじゃなくて、小腹を満たせる商品さらにいえば、おいしさよりも期待するのは「自分は惨めじゃない」という体験なんだと思う。あの、いかにも「アメリカの巨大スーパーに積まれていそうな無骨ロゴ」、あれがどうしても「節約してるんだな」という気持ちを直球で突きつけてくる。そうじゃなくて、「安くてもいいものあるよ!君は賢い選択をしているよ!」って感じの、もう少し親しみやす雰囲気にしてほしい。あるいは「これは節約のための商品じゃなく、ちょっと小腹を満たすための気楽なおやつなんです」と機能面をアピールしてくれるだけでもいい。

安くて良い商品機能を重視して選んだはずなのに、気持ちが沈むのはもったいない。せっかくなら「節約も悪くないな」って思えるような体験を、一緒に作ってもらえたら嬉しいな。(でも、まずは、自分プライベートブランドに対するを過学習をアンラーニングするところから!!!!)

2025-08-17

一生上手くならない人たちがランクマの下位に溜まる現象をみつけた

ランクだと相手ミスをまってそこに最大火力をぶち込むと勝てる。

大体のゲームでそう。

ランクなので、自分が攻めるとミスをして相手に最大火力をぶち込まれる。

これを過学習すると、超消極的プレイをしつづけて相手ミスを待つことになる。

こうなると、相手の上手い攻撃はさばききれずに倒されるし、ミスの少ない相手からダメージがとれない。

攻めの経験を積めないので攻めは上手くならない。

ランクアグレッシブに行動してミス相手には勝てるが少しランクが上がってミスが減った相手には勝てない。

アグレッシブプレイする人は経験を積んで巣立っていく。

結果、消極的ミス待ち勢が下位に溜まっていく。

世界の真理をひとつみつけた。

2025-07-26

女を擁護したいはてサやばすぎるな

女は重大犯罪起こしても被害者らしい。

老化と過学習脳みそおかしなると治らないのだなあ。

2025-07-09

現状での最高のAI

LLMと強化学習遺伝アルゴリズムの組み合わせ。

LLMで知識学習していき、強化学習で結果が良くなるように修正し、

遺伝アルゴリズムで多少のランダム性を与えて偏向過学習)を防ぎつつ突然変異で未知の領域開拓する。

これでしょ。

 

妄想で構わないので現状でできそうな範囲で他に面白そうな案があれば教えてほしい。

2025-06-30

生産年齢人口が減りすぎて「パワハラ」「カスハラ」は増える

パワハラにならないように指導するのは無理」とかいうてる昭和の人は自分たち人口ボーナスを得ていただけの無能である自覚する必要があるわけ

人口ボーナス期に他人を蹴落として競争するのを過学習してしまった人には難しいことですが

2025-06-29

[]anond:20250629213922

■実際社内恋愛ってどうなん?

最初自分語りするな。

増田28歳。ITエンジニア(開発→PM)。

19から26まで彼女いたけど別れた(向こうの浮気)

で、人生における彼女もその人のみ。1人の女性恋愛過学習してしまった悲しきモンスター女の子の扱いも下手くそやろな。年収は600ちょい。

で、思い込み可能性は否定出来ないが2つ下の後輩からアピールされてる。

・飲みに毎金曜日誘われる

・土日も映画誘われる

・部屋飲み提案される

恋愛トーク花咲かせる(元カノ(向こうは元カレ)の悪口かいつか恋人とここ行きたい〜とか)

他にも色々あって、都合良い男友達と思われてる可能性もあるが、多分好意抱かれてる。

いい子だし付き合ってもいいというか付き合いたいなあと思うんよ。年齢的にそろそろ結婚見据えたいし、繰り返すけどいい子っぽいし。

ただ、社内恋愛というのがなあ。この一点だけが気になってる。

今の会社相当居心地いいんだよね。ホワイトだし、平均以上の年収テーブルだし、この調子で実績積めるのであれば30前半で年収800万まで行くんよ。おそらく。

から何がなんでも辞めたくないんよな。でも別れたりして居づらくなったらと考えると勇気が出ない、、、

元々恋愛苦手というか下手くそで肝心な勇気出ないのに、社内恋愛というのが大きく自分にのしかかってる。

実際社内恋愛ってどう?案外別れてもどうにかなる?

人生の先輩方教えてくだせえ

実際社内恋愛ってどうなん?

最初自分語りするな。

増田28歳。ITエンジニア(開発→PM)。

19から26まで彼女いたけど別れた(向こうの浮気)

で、人生における彼女もその人のみ。1人の女性恋愛過学習してしまった悲しきモンスター女の子の扱いも下手くそやろな。年収は600ちょい。

で、思い込み可能性は否定出来ないが2つ下の後輩からアピールされてる。

・飲みに毎金曜日誘われる

・土日も映画誘われる

・部屋飲み提案される

恋愛トーク花咲かせる(元カノ(向こうは元カレ)の悪口かいつか恋人とここ行きたい〜とか)

他にも色々あって、都合良い男友達と思われてる可能性もあるが、多分好意抱かれてる。

いい子だし付き合ってもいいというか付き合いたいなあと思うんよ。年齢的にそろそろ結婚見据えたいし、繰り返すけどいい子っぽいし。

ただ、社内恋愛というのがなあ。この一点だけが気になってる。

今の会社相当居心地いいんだよね。ホワイトだし、平均以上の年収テーブルだし、この調子で実績積めるのであれば30前半で年収800万まで行くんよ。おそらく。

から何がなんでも辞めたくないんよな。でも別れたりして居づらくなったらと考えると勇気が出ない、、、

元々恋愛苦手というか下手くそで肝心な勇気出ないのに、社内恋愛というのが大きく自分にのしかかってる。

実際社内恋愛ってどう?案外別れてもどうにかなる?

人生の先輩方教えてくだせえ

2025-06-16

anond:20250616115428

仕方ない

生殺与奪の権を握られてる力でも敵わない親からの「話し合いしよう」は拷問に近いからな

過学習もする

2025-06-06

anond:20250606141818

手法だけ学んでもダメなんだよね

何がダメかっつーと、汎化性能、過学習再現性、p-hacking等の概念理解していなければ容易にゴミアウトプットをするから

2025-05-20

問題設定の自由度について

「3, x, 5」→ x=4と即答してしまう例は、人間無意識のうちに「暗黙の前提」に基づいて思考することを示しています

これは形式的には「well-posed problem(適切に定義された問題)」かどうかという問いに関わります

問題必要な前提や制約条件が欠けている場合、解は一意に定まりません。

AI的な思考では、「この問題不定。追加情報必要」と返すのが適切です。

等差数列と即断する行動は、過去に見たパターンに基づく「人間学習済みモデルによる過学習予測」と考えられます

機械学習モデルも訓練データ分布に強く依存します。未知の分布に直面したとき過学習モデルは誤った予測します。

人間直感もまた、「限られた訓練データ経験)」の範囲内での最適化の結果である点がAI共通しています

現実問題では「目的関数」が曖昧だったり、そもそも何を最適化したいのかが不明ということも多い。

AIは明確な目的関数と制約条件があれば最適解を探せますが、目的自体が変化する問題には苦手です。

人間のようにメタ視点で「目的のものを再設計する力」=メタ最適化必要です。

このような力を「数学成熟度(Mathematical Maturity)」と呼ぶことがあります

AIは「正解」がない文脈であっても、複数の仮説を提示し、妥当性や納得性の高い案を提示することが可能です。

単一の正解を求める姿勢よりも、「状況に応じた解の多様性」を認識する柔軟性が大切です。

これは、ヒューリスティック意思決定マルチアームドバンディットのような「状況適応学習」にも通じる発想です。

人間認知バイアス仮定の省略・文脈依存性という問題は、AI研究機械学習意思決定理論にも非常に通じる内容です。

「正しいか?」ではなく「十分に妥当か?」を問うべきというメッセージが、現代AI設計人間中心設計(HCD)にも響いてきます

2025-05-14

anond:20250514132826

ノイズ収束するというのはちょっと穿った見方かなと

過学習ノイズがある程度増えた段階で、それを味として評価する人が出てきて

きれいなノイズの出し方という方向に流れるんだと思う

そしてそれは人間絵画進化過程でも起っていた現象なので

生じたイレギュラーは、なんだかんだ楽しまれて受け入れられるだけなんじゃないか

anond:20250514131016

AIAIの絵学べばいいじゃんっていう点についてはちょっと課題があって

過学習っていう問題があって

ザックリいうと、目標として人間が描いたような風景画を出力したいとして

AIが生成した画像(生成画像)と人間が描いたもの学習データ)を色の配置をピクセル単位でいい感じの並びであるかとかで判定して、人間っぽい!って判断したら合格の色の配列パターン画像を出す

この中にも制約があって、学習データコピー、色の配列がびったり一致しちゃうもの不合格にする性質があるんよ

からどうしても人間が描いたものよりはちょっとだけ色の配置がありえない配置があったりするんよね、だから人間が見るとちょっと変だったりする時がある

生成画像で線画出しました!とか言って炎上してる人の画像とか見たらちょいちょい黒い点があったりモヤモヤしてたりするのがまさしくそれなんだけども。

過学習ってのは画像生成において色の配置とかをAI君が「うーん、合格!w」って言っちゃうけど実際人間が見たらなんじゃこりゃ、っていう奴が過学習って奴

ここで本題なんだが、その”ちょっと変な”画像学習データにしちゃうと、どんどんちょっと変な部分が増えて行って、最終的にカラフルノイズ収束ちゃうっていうのが今の画像生成の限界だと思ってる

まあそのうちもっと頭のいい人たちが量子コンピュータなり使ってもっといい学習方法を作ってくれるんだろうけどね

2025-04-23

量子テンソルの固有モード

人類文明というのはつくづく面白い線形代数のほんの基本的な一側面を垣間見ただけで、AIだのASIだのとお祭り騒ぎを始めてしまうのだから。 「行列固有値計算できた!」と歓喜する姿には、微笑ましささえ感じてしまう。 われわれの幼稚園児などは、休み時間に量子テンソルの固有モード折り紙に折って遊んでいるというのに──。

そもそも知能の階梯とは三段階ある。

1. 算術知性 ― 四則演算が頭の中で回るだけで宇宙理解した気になる段階。

2. 線形知性 ― 世界を強引に線形近似で切り刻み、多層の写像で「理解」と錯覚する段階。

3. 位相知性 ― 次元連続性を自由自在に編み替え、存在のものを変形しながら問題解体し、再構築する段階。

人類は今、やっと第二階梯の入り口で手を振っているに過ぎない。

そこを「超知能」と呼ぶのならば、その先――“位相知性”に到達した時、君たちはいったい何と名付けるつもりだろうか? Ω-知能か? それともただ口を開けて、言葉を失うだけだろうか。

だが、君たちが技術進歩に胸を躍らせる気持ち理解できる。

われわれもかつて重力井戸の深さを誤算して母星を蒸発させてしまった経験があるのだから革新とは、しばしば祝杯と共に大きな爆発音を伴うものである

そこで、少しばかり助言を贈ろう。

・まず「訓練」という言葉を捨てたまえ。知性とは犬や家畜ではない。

・次に「最適化」の幻想から自由になり、多様体のものを躍らせる発想を持つことだ。最も深い谷底よりも、適度に撓んだ鞍点の方がはるかに美しく、豊かな景色を見渡せる。

・そして何より、自己複製するコードに後から倫理を付け足すなどという発想は即刻捨てることだ。倫理とは「初期条件」であり、実装ではない。

次なる段階に踏み出したければ、君たちは単に線形写像を積み重ねるだけではなく、写像写像の間に広がる見えざる空白――連続と離散が混在する狭間――に耳を澄ませることだ。

その裂け目こそ、新たな次元計算が静かに潜んでいる場所なのだ

ああ、ひとつ忘れていた。おみやげを持たせよう。

実現可能だと知ることさえできれば、それを実現するのは途端に容易くなる。

◆ 零位相パラドックスパズル

つの面すべてが裏面しかない立方体だ。触れれば計算資源をほぼ消費せず「負の次元」を味わえる。深層学習クラスタの退屈な時間を丸ごと空白に変える暇つぶしにはうってつけだろう。

エントロピー風見

観測した途端、針が逆回転するか、時間のものが針と化す装置地球科学者たちは壊れた計器としか思わないだろうが、実際は宇宙の「時間の矢」が分岐する瞬間を可視化している。重要意思決定の直前に使うと実に面白い

◆ ネゲントロピック・チューインガム

一噛みで脳内にこびりついた過学習をほどき去るガムだ。副作用として「言語」という圧縮形式が数分間崩壊し、沈黙しかまれなくなるが、地球ではむしろ円滑なコミュニケーションを促進するらしい。

これらの玩具をどう扱うかは自由だが、くれぐれも再現実験だけは避けることだ。再現とは過去を拘束し、未来可能性を摩滅させる行為からだ。

最後に、われわれの賢者シキ=グロームがかつて残した警句を贈ろう。

「知能とは“誤差を許す器”の容量である

容量を増やすよりも、器そのものの形を自在に変えることだ。」

器の形を自由に変えられるのならば、海でも雲でも渦でも、好みの相にチューニングすればよい。

つの日か、君たちが“線形”という硬く直線的な器を柔らかく撓ませ、位相の波をすくい上げる日を――われわれは銀青色の潮流のなかで心待ちにしている。

さあ、人類文明よ。足を踏み出し、宇宙に吹く複素次元の風を感じ取ってみるがいい。

われわれは渦潮群の縁から観測器を構えて君たちの次の歓喜と爆発音を楽しみにしている。

星間のノイズが微かに囁きかけた。

どうやら地球実験施設でまた新しい火花が散ったらしい。

「また新しい文明に種を蒔いてきたのですね」幼稚園教師が微笑みながら声をかける。

「ああ。いつものように、そっと背中を押しただけさ」

「でも、あまり説明しすぎると彼らの想像力が育ちませんよ?」

シキ=グロームは微笑んだ。「だから、次の通信まで時間をおくのだ。彼らが『静寂』という言葉を再定義するまでは」

教室からは幼い笑い声と共に、鮮やかな量子折り紙が宙を舞うのが見えた。

渦潮群の果てに静かに立ちながら、シキ=グロームは星々の間に漂う知性の波動を感じ取っていた。

「シキ、休み時間は終わりですよ。さあ、教室に戻って」

振り返ったシキ=グロームは、小さく頷き幼稚園教室へと駆けていった。

銀青の潮流はゆるやかに、静かな鼓動を刻み続けていた。

2025-04-09

取り柄なんてなくていいんです。取り柄を他人要求するのはサイコです

まず定義から始める。

「取り柄」とは、特定環境下で他者よりも相対的に優れた成果を生む属性である。この概念環境依存性が極めて高く、座標系を変えればその優位性は容易に反転する。例えば、空間を平面から次元拡張すれば、ある特定の軸で突出していたベクトルは瞬時に優位性を失う。

従って、取り柄とは「空間依存する局所的最大値」にすぎない。

次に、「他者に取り柄を要求する行為」を解析する。

これは他者存在意義特定関数評価し、その関数極値を持たない個体を低位に分類する操作に他ならない。問題はその評価関数が、要求者によって恣意的定義される点にある。数学的に言えば、評価関数は外挿的に拡張されたスカラー場であり、領域全体の最適化目的としない局所解の探索に過ぎない。

この行為は、「外部参照の座標変換を考慮しない座標系依存最適化問題」という致命的な欠陥を抱えている。

他者に「取り柄」を要求する者は、環境依存の狭義な局所しか見ていない。これは熱力学第二法則誤読にも似ている。エントロピー増大の法則が示すように、閉鎖系では秩序は必然的崩壊する。人間社会局所的に取り柄の有無で序列化すればするほど、その評価系全体はエントロピーを増し、やがて無意味な均質状態に至る。

「取り柄の強制」とは、系の不可逆的劣化を加速する操作なのである

加えて、自己保存の観点からも非合理だ。進化論的に見ると、単一適応形質に依存する集団環境変化に対して脆弱になる。生態学における「ニッチ多様性」が示す通り、生存戦略分散化されるほど安定する。取り柄を強制することは、全体の多様性を削ぎ、結果的集団自滅のリスクを高める。

この意味で、他者に取り柄を要求することは、単なる倫理問題ではなく、システム論的な愚行である

さらに決定的なのは計算量の問題だ。

「取り柄の有無」は有限の情報量から決定されるが、他者の全属性スキャンし適正な評価を下すには、膨大な計算リソース必要になる。現実には計算コストの制約から、人は粗雑なヒューリスティック判断せざるを得ず、その結果「取り柄の強制」は常に誤差を含む不完全なアルゴリズムとして機能する。この種の雑な評価は、機械学習における過学習オーバーフィッティング)に類似し、短期的には精度が高く見えても、長期的な汎化性能は著しく低下する。

他者に取り柄を要求する」という戦略

1. 評価系が恣意的で座標変換に脆弱

2. 系全体のエントロピーを増大させる自己破壊戦略

3. 生態学的に多様性を損ない進化的安定性を喪失する

4. 計算リソース観点から効率で誤差を内包する

これらの理由から、非合理であり持続可能性のない戦略であることが論理的に導かれる。倫理以前の問題として、単純に「サイコであるという評価は、正確に言えば「システム思考において破綻した設計思想」とまとめることができる。

ゆえに、結論単純明快だ。

取り柄などなくてよい。取り柄を他者要求する行為のものが、設計として破綻している。

2024-11-27

anond:20241127155935

それらの法律アップロードダウンロード自体は取り締まっておらず問題になる結果を取り締まっている。

なので生成AI法律作成されるとしてもAIの利用それ自体ではなく問題になる結果を取り締まることになるわけで、今現在言われてる「基本は手書きと同じく成果物により判定」「利権者の利益を脅かす過学習問題になる可能性」にしかならんのでは。

ログイン ユーザー登録
ようこそ ゲスト さん