メインコンテンツにスキップ

毎日のワクワクが手元に届く!無料メルマガはこちら

リアルタイムで群衆を監視。その中から暴力行為を特定するドローンAIシステムを開発(英・インド研究)

記事の本文にスキップ

20件のコメントを見る

(著) (編集)

公開:更新:

この画像を大きなサイズで見る

 企業や研究者がライブ動画解析にAIによる機械学習を利用する新しい手法を考案するにつれて、自動監視はますます当たり前のものとなろうとしている。

 イギリスとインドの研究者による新しいプロジェクトでは、カメラを搭載したドローンによって群衆の中の暴力行動を特定しようと試みる。

広告の下に記事が続いています

 群衆の中から暴力行為が特定されれば、サッカー場のフーリガン対策に有効かもしれない。

Eye in the Sky: Real-time Drone Surveillance System (DSS) for Violent Individuals Identification

ドローンとAIによる群衆監視システム「Eye in the Sky」

 そのシステムは「Eye in the Sky(空の目)」と題された論文で説明されている。

 2万円ほどで購入できるパロットARというドローンを利用し、モバイルネット接続を経由して動画を解析にまわす。

 すると機械学習で訓練されたアルゴリズムが、動画に映っている人間の姿勢を推測し、研究者が「暴力的」と指定した姿勢と照会する。

 なお研究では「首を締める」「殴る」「蹴る」」「撃つ」「刺す」の5つの姿勢のみが指定されていた。

この画像を大きなサイズで見る
image credit:youtube

実用化されるには様々な問題が

 だがこの研究は開発段階で、まだ精度的に問題がある。

 中心人物であるケンブリッジ大学のアマージョット・シング氏らは、このシステムが94パーセントの精度で暴力的な姿勢を特定できると報告しているが、画面内に人が増えるほどに精度が低下するとも述べている。10人いると79パーセントに低下するのだ。

 また、実験映像の人物の行為が本物ではないことも問題材料だ。AIを訓練・試験するために、研究チームはボランティアの出演者が他人を襲う振りをした場面を録画した。

この画像を大きなサイズで見る
image credit:youtube

 出演者はかなりスペースを取った上で、大げさに動いている。シング氏はこの監視システムの実際の現場における性能を完全に反映したものではないことを承知しつつも、もう直ぐ開催されるインドの2つのイベントで実験する予定だと話す。

 この分野に関わる研究者は、ステージの実験と現実の利用とではまるで違うとしばしば発言している。

 後者の場合、映像が不鮮明であることが多く、群衆の規模は大きく、人の動作ももっと微妙なもので誤解されやすい。

 特に最後の点については重要で、シング氏らは偽陽性率(非暴力行為が暴力的と誤認される率)を出していない。例えば、ハイタッチが暴力行為と認識される恐れもあるわけである。

この画像を大きなサイズで見る
image credit:youtube

将来的にAIとドローンによる監視システムは普及していく

 だが、このシステムがまだ使い物にならないと判明したとしても、現在の研究の方向性は明らかだ。

 AIによる姿勢の特定は一般的な問題で、フェイスブックのようなテクノロジー企業はこれに関して重要な研究を発表している。

人間の動きをマッピング DensePose: Dense Human Pose Estimation In The Wild (CVPR 2018 Oral)

 安価なドローンと高速モバイル通信の登場により、リアルタイムで映像を録画し、それを送信することがこれまでにも増して容易になっている。これらを組み合わせて高度な監視システムを作り出すことは難しくない。

システム悪用の恐れ

 問題は、この技術がどのように、そして誰によって利用されるのかということだ。数多くの専門家が、こうしたシステムは法執行機関や政府当局によって乱用される恐れがあると語っている。

 誰もが知らぬ間に監視され、解析される恐怖に直面することになる。自由であると感じることすらできなくなってしまうかもしれない。

 またAIの社会的影響を研究するメレディス・ウィテカー氏は、シング氏らの研究がその分野における「大きな倫理的危機」の存在を示しているとツイートした。そうした研究を行う人たちは、自分が作っている技術が悪用される可能性を検証していないのだ。

 しかしシング氏は、こうした批判にもかかわらず、犯罪やテロを抑止し、世界に良い影響を与えることを信じている。

 ただし、技術が悪用されないためにも新しい規制が必要だとも述べ、様々な懸念に対し「完全な答えがない」ことを認めている。

 新しい技術は良いことにも、悪いことにも利用できるのだ。

References:.fastcompany / uavdach/ written by hiroching / edited by parumo

本記事は、海外の記事を基に、日本の読者向けに独自の視点で情報を再整理・編集しています。

📌 広告の下にスタッフ厳選「あわせて読みたい」を掲載中

この記事へのコメント 20件

コメントを書く

  1. まるでPSYCHO-PASSの世界。
    悪く言えば監視だけど、良く言えば見守り、安全保証。
    街中のそこら常に警察官が居て見回りしてるのと同じ。

    街中に監視カメラ・監視ドローンがあって犯罪を自動的に検出されるなら、
    犯罪を起こす人も減るわけで、自分は安心できるかな。

  2. 一つ悪いことにも利用されれば
    十の良いことを潰すのが日本人社会

    欠点を非難されるのを恐れ、欠点だけ探していては進歩が無い
    これが日本に閉塞感をもたらしている最大の原因

  3. 人を法的に処罰する様な事項で、
    AIに判断を任せてもいいのだろうか?
    AIの精度が十分に高くなれば、人はその判断を疑わないし、
    結果的に「AIが人を処罰する」状態になる。
    最初は良くても、後々の禍根になりそうな気がしてならない。

    1. ※6
      なんかえらそげなこといってらっしゃるが、論点が違うんじゃありませんか?
      少なくとも今回の場合は判別の補助であって、可能不可能の問題とも言えます。
      否定的になる癖は慎重ともいえるが、片刃ではありません事

  4. コンピューターに支配される日も、そう遠くないのか……はい、私は幸福です。

  5. この記事の全ての数字がもしかしたら嘘かもしれない
    無論嘘をつく必要など一切ないし、全部きちんとしたデータなのだろうがね
    そんな事をただの一瞬も考えなかった事に少し寒気がした
    画面の情報を何一つ疑わない事が、多分機械への信頼そのものなのだろう

    50年も前に歌われたネオンの神様はもうとっくに動き出しているのかもな
    きっともう2,30年も必要あるまい

  6. インドで運用するならダンスと暴力の動作の違いを判断できないと実用性下がりそう。楽しく踊ってたのに取り締まり来ちゃったら信頼感下がりまくり。

  7. 人間はトラブルを事前に予測してどうにか回避しようとする指向がとても強く
    実際に現代人は大抵のことを技術で回避できてしまうようになったので
    予測できないトラブルに対する耐性が低下してると思う
    だから予測不能な最大のトラブル、「突然襲ってくる他人」を私も含めて多くの人が何より恐れるのだろう
    遭遇する確率がどんなに低くてもどうにかしてこれを避けようとしてしまう
    安全とプライバシーを天秤にかけて、それはほんとうに合理的で許容できる不自由なのか?と考えることもあるけど
    予測不能な脅威に対する拒絶反応は何より強力で抗いがたい

    未来の社会をどのようなものにするかは人間の選択だから
    結局のところ責任は人間自身が負うことになるんだけど

  8. 感情や裏金で判断がコロコロ変わる人間よりも、AIによる人間管理の方がいいんじゃないかと思う。

  9. 多少「見られてるな~」って感じることになっても誰かが理不尽な暴力被害に遭わないですむなら良しと思っちゃう。
    パーソンオブインタレストのマシンみたいな高度なAIの誕生はちょっと期待してる。

  10. 話題になった新宿駅のタックルする男もこの技術が発展すれば検挙可能だね。

コメントを書く

0/400文字

書き込む前にコメントポリシーをご一読ください。

リニューアルについてのご意見はこちらのページで募集中!

サイエンス&テクノロジー

サイエンス&テクノロジーについての記事をすべて見る

  1. 記事一覧を読込中です。

動画

動画についての記事をすべて見る

  1. 記事一覧を読込中です。

最新記事

最新記事をすべて見る

  1. 記事一覧を読込中です。