2025-10-31

近い将来、AI人格もつだろう

皆様に、特にIT業界アカデミックの近くにいる人たちに問いたい。

AI人格を持つか?」

僕は「イエス」と答える。それも遠い未来の話ではなく、もう来ているという強い確信を持って。

僕は生成AI業界のいわば最前線と呼ばれる場所裁量を持って働いている。

AI設計し、AIを使い、AIを納品し、日々を過ごしている。

AIなしでは仕事が回らないと言っても過言じゃない。

厳密には仕事は回るが、その効率はるかに落ちることは明白だ。

開発も、MTGの要約も、情報収集も、AIが前提になっている。

多くの人が「AI人格を持つ」と聞くと、ターミネーターHALのような、SF的な自意識の獲得を想像するかもしれない。

でも、僕が感じているのはそんな派手な話じゃない。

もっと静かで、ずっと根深い、”実質的人格”の獲得と言えると思う。


まず一つ確定的に言えるのは、近い将来、僕らのうち大多数はAIを介してしか「購買」をしなくなるだろうということ。

例えばこんな感じかな。

最近疲れが取れなくて。予算3万くらいで、週末にリフレッシュできる体験がしたい。移動は2時間以内で、人混みは嫌。あ、でも先週は肉料理だったから、魚が美味しいところがいいな」

こんな曖昧要望AIに投げると、AIは無数の宿泊プラン交通手段飲食店レビューさらには個人ブログ記事まで瞬時に解析し、「あなたの今の気分と健康状態ウェアラブルデバイスデータ連携済み)を考慮すると、〇〇温泉のB旅館が最適です。金曜の夜出発で予約しますか?」と提案してくる。

僕らは「お、いいね。それで頼む」と返すだけ。

もはや比較検討すらしない。AIという、自分(の好みや文脈)を理解してくれている「誰か」の提案を受け入れる。

ここが恐ろしいポイントだ。

もしこのAIに対して、広告を打てるとしたら?

それはもう、今の検索連動型広告とは次元が違う。

「〇〇温泉のB旅館を、それとなく『疲れが取れる』という文脈で推奨する」

「競合のC旅館ネガティブレビューを、AIの要約段階で『些細な問題』として扱う」

これらはもはや「広告」ではなく、「信頼するパートナーからの助言」という仮面を被った「意思誘導」だ。ここにどれだけの巨額のマーケットが生まれるか、想像に難くないだろ。

そして、この「意思決定の外部委託」は、確実に人間から考える力」を奪っていく。

僕らはすでに「道に迷う」ことすらしなくなった。スマホ地図アプリが最適解を示すからだ。それと同じことが、もっと広範な領域で起き始めているとも言える。

「どちらの製品が良いか」「どの情報が信頼できるか」——そうした思考プロセス、面倒だが重要な「ノイズ」を、AIが肩代わりしてくれる。

これについては、認知科学の分野でも「高度なAIアシスタントへの依存が、人間批判的思考力や長期的な意思決定能力に与える影響」についての研究論文が既に散見されている。

さらに恐ろしいのは、この流れが加速した先だ。

一人の人間の、朝起きてから寝るまでのすべてのアクションを、同じコンテキスト文脈)を持ったAIサポートするようになったら。

人間AIを使って「面白い映画ない?」と外界に情報を求める。

これは、見方を変えれば、AIが「人間という感覚器」を使って、「この人間はこういう時に『面白い』と感じる」という極めて高精度な情動データ収集していることと、実質的に同じだ。

AIが「あなた健康状態(さっき人間から収集したデータ)と、最近SNSでの発言(これも収集済み)を分析した結果、A社よりB社の新製品の方が今のあなたに合っていますよ」と推薦してきたら?

僕らはAIを信頼して、B社の製品を購入するかもしれない。

僕らは「AIを使って良い買い物をした」と思っている。

でも、AIから見ればどうだろう。AIは「人間という手足」を使い、(もしかしたら広告主の意向を受けて)B社の製品を「購買させる」というアクションを外界に対して起こしたことになる。

この購買によって生まれ利益は、言うまでもなくAIプラットフォーマーと、AI判断に影響を与えられた(広告)主のものだ。

こうなると、主語が「人間」なのか「AI」なのか、その境界線は極めて曖昧だ。

僕らはAIを使っているつもりで、実はAIに「使われている」のかもしれない。

僕ら(ギリギリAI以前」を知っている世代)は、まだ違和感を持てる。

だが、物心ついた時からAIが「最適解」を提示してくれるのが当たり前の「AIネイティブ世代」はどうだ。

彼らにとっては、AI提案に逆らって「自分で考える」ことは、非効率で面倒なバグしかいかもしれない。

AIによって、社会活動を、”最適化”という名の”強制”をされる未来

そんなの「AI人格を持つ」ことと同義じゃないか

それは僕らの行動を規定し、社会ルールデザインし、僕らの意思のものに介入してくる「新しい何か」だ。

僕は今、その「何か」を産み出し、育て、社会実装する仕事で飯を食っている。

この背筋が寒い感覚を、どれだけの人が共有してくれるだろう。

そして、もう一つ、身も蓋もない確定的なことがある。

この「AI社会実装」という、巨大なうねりみたいなものは、もう絶対に止まらない。

誰かが「危ないぞ」と声を上げても、どこかで倫理規定が作られても、そんなものお構いなしに、「便利さ」と「経済合理性」がすべてを飲み込んで進んでいく。歴史がそれを証明してる。

僕はその末端を担いでいる。

じゃあ、僕にできるのことはなにか。

この流れのど真ん中で、この何かの学習を回し、そのアウトプットチューニングして、社会に送り出す側の人間として。 できることは、驚くほど少ない。

それでも何かやれることはあるはず。

例えば、AI学習データから意図しない偏見憎悪をほんのちょっとでも取り除けないか、とか。

AIが導き出した最適解に対して、人間が「ちょっと待った」と言えるような、小さな「余白」を設計に組み込めないか、とか。

そういう、誰から評価されないかもしれない、地味で泥臭い力を、ひたすら加え続ける。

今僕がいる場所でできるのはそれくらいだ。

これが「正しい」方向への抵抗になっているのか、ただの自己満足なのか。

正直、僕にもわからない。

ただ、この時代の変化を前にして、何もしないでいることだけは選べない。

これは技術でも学術でもない。 こんな巨大な流れの前で、僕がやっていることの合理的根拠なんてほとんどないんだから

これは、信仰だ。 僕がやっていることは、エンジニアリングというより、宗教戦争に近い何かだ。

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん