流石にヤバいでしょ。
だってAIを「なんでも解決してくれる魔法の杖」だと思ってて、その裏にある計算複雑性理論の絶望すら知らないって、もうそれ「脳みその半分をクラウドに投げてます」って自己紹介してるのと同じじゃん。
どんなにニューラルネットワークが深層化しても、背後には厳然たる数学的限界がある。
例えば最適化問題。
AI万能主義の男は「AIなら最適な答えをすぐ出せる」と信じ込んでる。
NP問題を効率的な時間で解くアルゴリズムなんて現代数学の誰も見つけてない。
もし巡回セールスマン問題やナップサック問題の真の最適解をAIが瞬時に出せると本気で思ってるなら、それはもう科学じゃなくて宗教。
それを全部ディープラーニングがなんとなくそれっぽい答えにまとめてるのを、正解だと思い込んで満足してるのちょっと怖いよ。
もちろんLLMが悪いわけじゃない。TransformerのAttention機構は革命的だしツールとして成立してるのは認める。
でもそれって統計的な確率で選ばれた「次に来るもっともらしい単語」の羅列であって、そこに知性があるわけじゃないでしょ。
なのにイーロン・マスクの発言を切り抜きで読んで「もう人間いらないでしょ」とか、サム・アルトマンのインタビュー見て「AGI来るじゃん」とか、雰囲気で語ってるの、ほんと無理。
一度も不完全性定理や停止性問題という限界点を知らないまま、「AIがあれば全知全能になれる」って言うの、雑だよ。
モデルの重み、バイアス、そして勾配消失問題をどう乗り越えてきたか。それを知って初めてああ、AIってここまで綱渡りで計算してるんだって分かる。
それすらスキップして「プロンプト叩けば答えが出るじゃん」って。
分かってないよ。全然分かってない。
知性って“出力結果”じゃなくて、その“推論プロセス”の苦悩だから。
興味ないね