2026-03-24

AI倫理を壊してるんじゃなくて、倫理なしで走れるようにしたんだよ

Vibe Codingで非エンジニアアプリを作れるようになった。そいつらが技術者倫理を持ってないことが問題になっている。

エンジニア技術を身につける過程倫理も叩き込まれる。個人情報の扱い方とか、セキュリティに穴を開ける怖さとか。コードが書けるようになる前に、やっちゃいけないことを学ぶ。少なくとも俺の周りではそうだった。

Vibe Coderにはその過程がない。悪気はない。学ぶ機会がそもそもない。技術者コミュニティに属してないから先輩にぶん殴られることもない。動いた、リリースしよう、で終わり。他人APIを叩きまくる意味も、ユーザーデータがどこに飛んでるかも、考えたことすらないだろう。

これがVibe Coderだけの話なら別に笑ってられたんだよ。

最近他人コンテンツAIに食わせてエッセンスだけ抽出するサービスが平然とリリースされてる。動画記事レシピ論文。作った人間努力権利無視して、AIで吸い出して自分サービス機能にする。完全に泥棒だろ。

これをやってるのはVibe Coderじゃない。ちゃんとした企業ちゃんとしたエンジニアチームだ。技術者倫理を学んできたはずの人間企画を通して、実装して、レビューして、組織としてリリースしてる。プロ組織ぐるみでやってる。

なんでこうなるかっていうと、AIやらせたら一瞬で終わるからだ。URL投げたら中身が構造化されて返ってくる。数行のAPI呼び出しで済む。昔なら一つずつ見て手で書き起こすなんて面倒すぎて、そんな機能作ろうっていう発想自体が出てこなかった。面倒くささが倫理防波堤だったんだよ。AIはその防波堤更地にした。

同じ構造もっとかいスケールで起きてる。

イスラエルガザで使ってるAIターゲティングシステム攻撃対象の選定をAIがやって、人間承認するだけ。1件あたりの判断に使う時間20秒程度だったという報道がある。20秒だぞ。20秒で人を殺す判断をしてる。AIのおかげで殺す効率が上がった。

コンテンツの抜き取りと人殺しを並べるなと思うかもしれない。でも構造は同じだ。本来は手間がかかるから踏みとどまっていたことを、AIが一瞬でできるようにした。できるからやる。やってから考える。考えた頃には元に戻れない。

この話はどこか遠い世界のことじゃない。

AIをフル活用してる組織で、個人情報を一切AIに投げてない組織ってあるか? ないだろ。断言する。最初は「匿名化してから投げます」って言ってたのが、まあ社内利用だし大丈夫だろってなって、気づいたらMCP生データを投げてる。一回やったら戻れない。便利だから。俺だってClaude使うとき、気をつけてはいるけど、一度もセンシティブ情報プロンプトに含めなかったかと聞かれたらそんな自信は全くない。

AI性質のものが、今まで人間が積み上げてきた倫理の枠組みを溶かしてるんだよ。

所有権他人が作ったコンテンツAIに食わせて要約して、自分サービス機能にする。学習データに誰の著作物が入ってるか誰も正確に把握してない。でもみんなやってる。やらない方が負けるから。もうそういうレースになってる。

プライバシーも同じ。顔認識と行動追跡はもう当たり前で、最近感情分析である。全部AIで一瞬でできる。できるからやる。法整備が追いつく前に既成事実が積み上がっていく。

これ突き詰めると人権の話なんだよ。所有権プライバシーも、一人の人間を一人の人間として尊重するっていうのが根っこにある。AIはそれをデータにして一括処理する。一括処理された瞬間に個人統計になる。統計になった人間権利なんか誰も気にしない。

そして俺たちはこの流れを自分で加速させてる。AIを使えば使うほど便利になる。便利だからもっと使う。使うたびに倫理ラインが下がる。もう戻れないところまで来てるかもしれない。

Vibe Coderが倫理なしで走ってるのを見て危ないと思ってた。でも周り見渡したら、プロエンジニア企業国家も同じ方向に走ってた。速度が違うだけだった。

便利だ便利だって言いながら全員で崖に向かってるわけだ。

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん