米国防総省、初の殺傷型AI兵器をテスト中であることを明らかに 人間の判断は入る
アメリカ国防総省のAI(人工知能)の研究開発を行うジョイントAIセンター(Joint AI Center:JAIC)の副所長のNand Mulchandani氏は、初めての殺傷型AI兵器のプロジェクトが現在、テスト段階にあることを明らかにした。JAICは2018年に設立されたばかりの組織。Mulchandani氏は初の殺傷型AI兵器プロジェクトの具体的な内容は公開しなかったが、同氏は「戦術的な最先端のAI(tactical edge AI)」と表現し、人間に判断による仲介が入ることを明らかにし、戦闘オペレーションでの「フラグシップ製品」になると語っていた。
「多くのAI技術が戦闘用の兵器に搭載されようとしていることは事実だ。ただし、現時点では完全自律型兵器は1つもない。我々はDoDD 3000.09に従ってAI技術の開発を行っている。致死的(lethal)と言われるようなキラーロボットやターミネーターのような製品や兵器の開発は行っていない」とコメント。
AIを搭載した「キラーロボット」と称される自律型殺傷兵器(Lethal Autonomous Weapon Systems:LAWS)が人間の判断を介さないで、AI自身の判断で標的や敵に攻撃をしかけることが非倫理的、非道徳的であるとNGOなどがLAWSの開発には強く反対をしている。今回、同氏もそのような批判をかわすかのように「人間の判断が入る」と強調していた。AIの軍事活用は懸念されているが、それでも戦闘スタイル、軍人の仕事を効率化できることから軍事分野でも積極的にAIが活用されようとしている。特にAIを搭載したロボットの方が人間よりも3D業務(Dirty:汚い、Dangerous:危険、Dull:退屈)には適している。
現時点で、LAWSは実戦では活用されておらず、今回、具体的なスペックやどのような製品かは明らかにされていないが、初の殺傷型AI兵器がテスト段階であるということは近い将来、実戦に導入される可能性もある。世界的にAI技術の開発は米中が拮抗している。中国は圧倒的なデータや情報量を元にAIの開発を行っており、軍事分野でも活用されている。Mulchandani氏は「中国では顔認識技術を利用して、特定の人物を検知したりするような基本的人権を無視した使われ方の開発を行っているかもしれないが、米国防総省のJAICでは現時点では顔認識技術で人を特定するような試験は行っていない」と語っていた。また同氏は「サイバーセキュリティ分野での攻撃的な手法としてAIは大きなポテンシャル(潜在的可能性)があるだろう」ともコメントしていた。