Vibe Codingで非エンジニアがアプリを作れるようになった。そいつらが技術者倫理を持ってないことが問題になっている。
エンジニアは技術を身につける過程で倫理も叩き込まれる。個人情報の扱い方とか、セキュリティに穴を開ける怖さとか。コードが書けるようになる前に、やっちゃいけないことを学ぶ。少なくとも俺の周りではそうだった。
Vibe Coderにはその過程がない。悪気はない。学ぶ機会がそもそもない。技術者コミュニティに属してないから先輩にぶん殴られることもない。動いた、リリースしよう、で終わり。他人のAPIを叩きまくる意味も、ユーザーのデータがどこに飛んでるかも、考えたことすらないだろう。
これがVibe Coderだけの話なら別に笑ってられたんだよ。
最近、他人のコンテンツをAIに食わせてエッセンスだけ抽出するサービスが平然とリリースされてる。動画、記事、レシピ、論文。作った人間の努力も権利も無視して、AIで吸い出して自分のサービスの機能にする。完全に泥棒だろ。
これをやってるのはVibe Coderじゃない。ちゃんとした企業のちゃんとしたエンジニアチームだ。技術者倫理を学んできたはずの人間が企画を通して、実装して、レビューして、組織としてリリースしてる。プロが組織ぐるみでやってる。
なんでこうなるかっていうと、AIにやらせたら一瞬で終わるからだ。URL投げたら中身が構造化されて返ってくる。数行のAPI呼び出しで済む。昔なら一つずつ見て手で書き起こすなんて面倒すぎて、そんな機能作ろうっていう発想自体が出てこなかった。面倒くささが倫理の防波堤だったんだよ。AIはその防波堤を更地にした。
イスラエルがガザで使ってるAIターゲティングシステム。攻撃対象の選定をAIがやって、人間は承認するだけ。1件あたりの判断に使う時間は20秒程度だったという報道がある。20秒だぞ。20秒で人を殺す判断をしてる。AIのおかげで殺す効率が上がった。
コンテンツの抜き取りと人殺しを並べるなと思うかもしれない。でも構造は同じだ。本来は手間がかかるから踏みとどまっていたことを、AIが一瞬でできるようにした。できるからやる。やってから考える。考えた頃には元に戻れない。
この話はどこか遠い世界のことじゃない。
AIをフル活用してる組織で、個人情報を一切AIに投げてない組織ってあるか? ないだろ。断言する。最初は「匿名化してから投げます」って言ってたのが、まあ社内利用だし大丈夫だろってなって、気づいたらMCPで生データを投げてる。一回やったら戻れない。便利だから。俺だってClaude使うとき、気をつけてはいるけど、一度もセンシティブな情報をプロンプトに含めなかったかと聞かれたらそんな自信は全くない。
AIの性質そのものが、今まで人間が積み上げてきた倫理の枠組みを溶かしてるんだよ。
所有権。他人が作ったコンテンツをAIに食わせて要約して、自分のサービスの機能にする。学習データに誰の著作物が入ってるか誰も正確に把握してない。でもみんなやってる。やらない方が負けるから。もうそういうレースになってる。
プライバシーも同じ。顔認識と行動追跡はもう当たり前で、最近は感情分析まである。全部AIで一瞬でできる。できるからやる。法整備が追いつく前に既成事実が積み上がっていく。
これ突き詰めると人権の話なんだよ。所有権もプライバシーも、一人の人間を一人の人間として尊重するっていうのが根っこにある。AIはそれをデータにして一括処理する。一括処理された瞬間に個人は統計になる。統計になった人間の権利なんか誰も気にしない。
そして俺たちはこの流れを自分で加速させてる。AIを使えば使うほど便利になる。便利だからもっと使う。使うたびに倫理のラインが下がる。もう戻れないところまで来てるかもしれない。
Vibe Coderが倫理なしで走ってるのを見て危ないと思ってた。でも周り見渡したら、プロのエンジニアも企業も国家も同じ方向に走ってた。速度が違うだけだった。
便利だ便利だって言いながら全員で崖に向かってるわけだ。