2023年12月、イスラエル軍の空爆を受けるガザ地区のラファ市街 Photo: Abed Rahim Khatib / picture alliance / Getty Images

2023年12月、イスラエル軍の空爆を受けるガザ地区のラファ市街 Photo: Abed Rahim Khatib / picture alliance / Getty Images

画像ギャラリー
+972マガジン(イスラエル・パレスチナ)

+972マガジン(イスラエル・パレスチナ)

Text by Yuval Abraham

2023年10月7日に開始したイスラエルによるパレスチナ・ガザ地区への空爆は、前代未聞の規模の民間人の巻き添え被害が発生している。その背景には、最新鋭のAIの利用という、これまでの戦争とは完全に異なるメソッドを今回イスラエルが採用したことにあった。

イスラエル・パレスチナ合同独立系メディア「+972マガジン」とイスラエルの独立系メディア「ローカル・コール」が、イスラエルの軍関係者の証言をもとに、AIが戦争の形をどのように変えたかを検証する。(この記事は第1回/全5回)

2021年、『人間とマシンのチーム:私たちの世界に革命をもたらす人間と人工知能のシナジーをいかに生み出すか』(未邦訳)と題する英語の本が刊行された。著者はY・S准将というペンネームだが、イスラエルのエリートの諜報機関、8200部隊を率いる人物であることが確認されている。

著書で彼は、戦火のなかで軍事攻撃の「標的」を何千という規模でマークするため、大量のデータをすばやく処理する特別なマシンの開発を提唱した。そのようなテクノロジーがあれば、「新たな標的の割り出しと、それを承認する意思決定の両方における人間のボトルネック」を解消できるだろうと、彼は書いている。

そのようなマシンは、実際に存在すると判明している。イスラエルとパレスチナ合同の独立系メディア「+972マガジン」とイスラエルの独立系ニュースメデイア「ローカル・コール」の調査によって、イスラエル軍が「ラベンダー」という人工知能をベースにしたプログラムを開発したことがわかった。

現在ガザ地区でおこなわれている戦争の間に軍に所属し、殺害対象を設定するためのAIの利用に直接関わったイスラエルの諜報機関の職員6人の証言によると、ラベンダーは、特にこの戦争の初期にあった前例のない規模の空爆において、重要な役割を果たしたという。軍事作戦におけるAIの影響力は、機械の出力結果が「まるで人間の決定のように」扱われるくらい大きかった。

情報筋は、戦争の最初の数週間、軍はほぼ完全にラベンダーに頼りきりだったと証言した。そしてラベンダーは、3万7000人のパレスチナ人を戦闘員の疑いがあると判定し、その人たちの家を含めて空爆の候補とした。

戦争の初期、軍は将校に、ラベンダーの殺害リストをそのまま受け入れてよいと一様に認めており、マシンの判定の理由や、判定に使われた生のデータをしっかりとチェックするようには求めなかった。

さらに、イスラエル軍は組織的に、これらの標的が軍事活動をしているときよりも、自宅にいるときを狙った。通常は、家族全員がその場にいる夜間だ。

その結果、特に戦争初期に、AIのプログラムの決定により、大半は戦闘に関与していない女性や子供である何千人というパレスチナの民間人が、イスラエルの空爆で殺害されたのだ。

以下の記事では、イスラエル軍の高度に自動化された標的生成が、ガザ戦争の初期にどのようにおこなわれたかを順番に追っていく。

自動化すると止まらない


イスラエル軍内で「人間の標的」という言葉は、過去には上級の戦闘員のことを指した。それは軍の国際法部門によると、私邸にいるときに民間人が周囲にいても殺害してよいほどの重要人物とされる。諜報機関職員の証言によると、イスラエルの過去の戦争では、国際法を遵守するために、そのような人間の標的はとても慎重に設定され、家ごと爆撃されるのは上級の司令官クラスだけだったという。これは、殺害方法が「特に残忍」で、標的と一緒に家族全員を殺してしまうことも多かったからだ。

ところが、ハマスがイスラエル南部に激しい攻撃をしかけ、約1200人を殺害、240人を誘拐した2023年10月7日以降、イスラエル軍はまったく違うアプローチに転じた。「鉄の剣作戦」のもと、イスラエル軍はハマスの軍事部門のすべての人員を、階級や重要度に関係なく標的に設定した。

これがすべてを変えることになる。

この新たな手法は、イスラエルの諜報機関に技術的な問題をもたらした。以前の戦争では、人間の標的1人の殺害を承認するために、将官は複雑で時間のかかる「有罪確定」の手続きを踏まなければならなかった。その人物が本当にハマスの軍事部門の上級職なのか、証拠を突き合わせ、住居を割り出し、人脈を調べ、最終的にいつ彼が家にいるかをリアルタイムで特定する。

標的リストに十数人の上級職しか載っていなかったときには、諜報機関の職員も有罪確定と居所特定の作業を個別におこなうことができた。

しかし、そのリストが拡大し、何万人という下級の戦闘員が追加されると、イスラエル軍は自動化されたソフトウェアと人工知能に頼らざるをえなくなった。その結果、パレスチナ人を戦闘員と認め有罪を確認する人間の役割は軽くなり、AIが作業の大半を担うようになった。

取材に応じた4人の証言者によると、今回の戦争で標的を設定するのに開発されたラベンダーは、3万7000人のパレスチナ人を「ハマスの戦闘員」の疑いがあるとマークし、殺害対象とした。その多くは下級の戦闘員だった。(イスラエル軍のスポークスマンは、取材に対する声明で、そのようなリストの存在を否定している)

「私たちは下級の戦闘員が誰かを知らない。イスラエルは戦争前から彼らを定期的に追跡していたわけではないからだ」と証言者Bは述べ、現在の戦争のためにこの特別な標的設定マシンが開発された理由を明らかにした。

「軍は、下級の戦闘員とされた人々に対して、自動的に攻撃できるようにしたかった。それは究極の理想とされた。そしてひとたび自動化されると、標的の生成には手がつけられなくなった」


消えた「手動でのチェック」


証言者たちは、以前は補助ツールにすぎなかったラベンダーの殺害リストをそのまま受け入れることが許可されたのは、戦争が始まって2週間が経ったときだったと述べる。それまでは諜報機関の職員が、AIシステムに設定された数百人の標的をランダムに取り出し、正確かどうかを「手動で」チェックしていた。そのサンプル分析で、ラベンダーが90%の正答率で標的がハマスに属しているかどうかを言い当てられるとわかると、軍はシステムの全面的な使用を認めた。

そのときから、ラベンダーがある人をハマスの戦闘員と認識すると、それは命令と同等に扱われるべきだということになり、マシンがなぜそのような判断を下したのかや、判断基準となった元データの独立したチェックはおこなわれなくなった。

「朝5時に空軍が出撃して、私たちがマークした家のすべてを爆撃する。私たちは何千人もまとめてマークしていて、ひとりひとりについて精査しない。すべてを自動化されたシステムに入力し、その何千人のうちの1人が自宅にいるとわかると、彼は即座に攻撃対象になる。家ごと空爆するのだ」

「重要度が低い現場の戦闘員を殺害するために、家を空爆するように指示されたのは驚きだった」と、下級の戦闘員とされる人のマークにAIを用いたと証言した人は言う。「このような標的を『くず標的』と呼んでいた。それでも、『抑止』のためだけに爆撃する標的、つまりただ破壊のためだけに高層ビルを爆撃するよりは、特定の標的がいる分、倫理的だと思っていた」

戦争初期のこの規制緩和がもたらした致命的な結果は唖然とするものだった。ガザのパレスチナ保健省が発表したデータ(イスラエル軍はこれを信用できないと表向きには言っているが、独自に死者数を把握できていないため、戦争開始以来、このデータをほとんど唯一の情報源として参照してきたようだ)によれば、2023年11月24日に1週間の停戦が合意されるまでの最初の6週間で、イスラエル軍は約1万5000人のパレスチナ人を殺害した。これは2024年4月時点の死者の合計の半分にのぼる。

何万もの標的を一気に「生成」


ラベンダーのソフトウェアは、集団監視システムを通して収集されたガザ地区の住民230万人のほとんどに関する情報を分析し、各人がハマスやPIJ(イスラム聖戦)の軍事部門で活動している可能性を評価し、ランク付けをする。証言者たちによると、マシンはガザにいるほぼ全員に対して、戦闘員である可能性を1から100までの数字で表していた。

ラベンダーはハマスやPIJの工作員として知られる人物の特徴を学習するために、その情報を学習用データとして与えられ、住民全員のなかから同じ特徴を探し出すという。その特徴がいくつか重なればその人には高い数値がつけられ、自動的に殺害の標的候補となる。

この記事の冒頭で挙げた本『人間とマシンのチーム』で8200部隊の司令官は、ラベンダーの名前を出さずにそのようなシステムを推進している(この司令官自身も名前を明かしていないが、8200部隊の5人の証言者が、この本の著者は司令官であると認めた。それは「ハアレツ」紙によっても報道されている)

人間のスタッフを軍事作戦中の軍の能力を制限する「ボトルネック」と呼び、司令官は以下のように嘆いている。「私たち人間はとても多くの情報を処理できない。戦争中は、どれだけ多くの人に標的の生成の任務を与えようと関係ない。1日に必要な標的には到底及ばないのだから」

この問題を解決するのが、人工知能だと司令官は言う。その本は、AIと機械学習アルゴリズムに基づくラベンダーと同様の「標的生成マシン」設計の原理を簡単に説明している。そこでは、ひとりひとりの人間のレーティングの数値を増やすための「何万もの」特徴の例もいくつか挙げられている。たとえば、戦闘員として知られる人物のWhatsApp(メッセージアプリ)グループに入っている、数ヵ月ごとに携帯電話を変える、住む場所を頻繁に変えるなどだ。

「情報の量と種類は多いほどよい」と司令官は書く。「視覚的な情報、携帯電話の通信、ソーシャルメディアの使用、戦場での行動、電話の相手、写真」などだ。最初は人間がこれらの特徴を選び出してやらねばならないが、マシンは次第に自ら特徴を発見できるようになる。これによって、実際に攻撃するか否かの決定は人間が下すものの、軍は「何万もの標的」を生成することができるという。

イスラエル軍の上層部がラベンダーのような人間の標的を作り出すマシンの存在を示唆したのは、例の本が唯一のケースではない。+972マガジンとローカル・コールは、8200部隊の機密データサイエンス・AIセンターの司令官とされる人物「ヨアブ大佐」が2023年にテルアビブ大学のAI週間の企画でおこなった私的な講義の録画映像を入手した。この講義については、イスラエルのほかのメディアにも当時報道されている。

講義でその司令官は、イスラエル軍によって使用される新型で高度な標的生成マシンについて語った。それは学習素材とされた既存の戦闘員のリストとの類似性に基づいて「危険人物」を検出するマシンだ。このマシンが初めて使用された2021年5月のガザ地区での軍事作戦について言及しながら、「このシステムを使ってようやく、私たちはハマスのミサイル部隊の司令官たちを特定できたのです」とヨアブ大佐は講義で述べた。

講義で使用されたスライドには、マシンの仕組みを表した図もあった。マシンは既存のハマスの戦闘員に関するデータを学習素材として与えられ、その特徴を学習し、ほかのパレスチナ人がそれにどれだけ似ているかを格付けするのだ。

「私たちは上がってきた結果をランク付けし、攻撃するか否かの基準を定めます」とヨアブ大佐は言い、こう強調した。「最終的に、決定するのは血の通った人間です。国防の分野では、倫理性を保つために、私たちはこのことを重視しています。これらのツールは情報将校が自らのキャパシティの壁を打ち破るのを助けるためのものです」

しかし、実際の運用においては、そうはならなかった。ここ数ヵ月の間にラベンダーを使用した情報筋の証言によれば、大量の標的の生成と殺傷力の影に、人間の主体性と正確さは隠れてしまった。(続く)

AIの力を借りてドライにおこなわれる標的の生成には、エラーも多く見られた。第2回では、イスラエル軍がそのエラーを認識していながら問題視していなかった実態が語られる。

This article was produced by and originally published in +972 Magazine and Local Call. Original article



無料登録で「特典」を利用しよう

無料会員に登録すると、毎月2本まで
プレミアム会員限定記事が読めます。

プレミアム会員について詳しく見る

オススメのプレミアム記事

PROFILE

翻訳:永盛鷹司

読者のコメント 1
コメントを投稿するには会員登録が必要です。
クーリエのプレミアム会員になろう クーリエのプレミアム会員になろう
+972マガジン(イスラエル・パレスチナ)

+972マガジン(イスラエル・パレスチナ)

おすすめの記事

loading

表示するデータはありません。

注目の特集はこちら

loading
    • {{ item.type }}
    • UPDATE

    {{ item.title }}

    {{ item.update_date }}更新 [{{ item.count }}記事]

表示するデータはありません。