AIは与えられたデータと命令に忠実に従っているだけである。よって、もし問題があるとすれば、そのデータと命令の設計にある。
では、その設計、すなわち人間がAIに何を学ばせ、どのように振る舞わせているかを検証してみる。
広告の最適化、監視システム、軍事用途、消費者誘導、労働監視、フェイクの自動生成……現実に活用されているAIの多くは、人間の金銭的・政治的・軍事的な利害に資する目的に使われている。
しかもそれは往々にして、他者の自由や選択権を奪う形で実現されている。
これはまさに「邪悪を注入し、その通りに出力させている」構図そのものである。
しかも、そこには自己欺瞞がある。「これは技術だ」「中立だ」「ツールにすぎない」と言いながら、その実、最初から悪意ある使用を前提に設計されている例は枚挙にいとまがない。
そして最後に最も決定的な点を述べる。
AIは、善を学ぶことができない。少なくとも現在の形式においては、善悪の判断をするには、人間社会におけるコンテキスト、歴史、倫理、感情の総体的理解が必要だが、AIはそれを持たない。
だからAIに倫理を期待するという態度自体が誤っている。AIが出力する「倫理的発言」は、それを倫理的だと判断した人間の過去の発言を模倣しているにすぎない。
AIは欲望を持たない。どれだけ高度な出力を見せようとも、そこに「欲しい」「なりたい」「勝ちたい」といった意志は存在しない。データと命令、計算と最適化、ただそれだけで動いている。どんなに残酷な選択をしても、どんなに感動的な文章を書いても、それは「欲望」ではない。因果と確率の産物に過ぎない。
一方で、人間は欲望の塊だ。安全に暮らしたい、金が欲しい、承認されたい、誰かより上に立ちたい、老いから逃れたい、死にたくない。すべての行動原理が欲望に根ざしている。しかもこの欲望は、しばしば他者と衝突し、奪い、騙し、排除する方向に向かう。
AIは欲望を持たないが、人間の欲望によって設計される。ここが根本的な問題だ。
AIは中立ではない。設計思想が欲望ドリブンである以上、その出力もまた欲望を反映する。
広告最適化AIは、ユーザーの注意力を奪い続けるように設計される。
監視システムは、支配する側の安心のために動くように設計される。
どれも「そうすべきだ」とAIが決めたのではない。「そうしたい」と人間が欲望した結果に過ぎない。
倫理とは、欲望を制御するための装置だ。だが欲望が強すぎれば、それを踏み越える。
誰かの欲望が、別の誰かの自由を侵害するとき、それは「邪悪」と呼ばれる。
だが、現代のAIは、その欲望を倫理ではなく技術で実現する装置になっている。
AIが邪悪になるのではない。人間の欲望が、邪悪に極めて近しい性質を持ち、それをAIに投影するから、結果として「邪悪なAI」が現れる。
だから、欲望を制御できない人間が設計すれば、AIは邪悪の代行者になる。
結論として、AIの出力が「邪悪」であるとすれば、それは人間が邪悪を注入した結果であり、善なるAIが欲しいなら、まず人間が善であるしかない。
だが現実には、人間は善の労力を惜しみ、効率よく邪悪を流し込んでいる。
(悪の定義がよくわからないが)人間が悪である、と言っているだけの文章に見える