
企業や研究者がライブ動画解析にAIによる機械学習を利用する新しい手法を考案するにつれて、自動監視はますます当たり前のものとなろうとしている。
イギリスとインドの研究者による新しいプロジェクトでは、カメラを搭載したドローンによって群衆の中の暴力行動を特定しようと試みる。
群衆の中から暴力行為が特定されれば、サッカー場のフーリガン対策に有効かもしれない。
ドローンとAIによる群衆監視システム「Eye in the Sky」
そのシステムは「Eye in the Sky(空の目)」と題された論文で説明されている。
2万円ほどで購入できるパロットARというドローンを利用し、モバイルネット接続を経由して動画を解析にまわす。
すると機械学習で訓練されたアルゴリズムが、動画に映っている人間の姿勢を推測し、研究者が「暴力的」と指定した姿勢と照会する。
なお研究では「首を締める」「殴る」「蹴る」」「撃つ」「刺す」の5つの姿勢のみが指定されていた。

実用化されるには様々な問題が
だがこの研究は開発段階で、まだ精度的に問題がある。
中心人物であるケンブリッジ大学のアマージョット・シング氏らは、このシステムが94パーセントの精度で暴力的な姿勢を特定できると報告しているが、画面内に人が増えるほどに精度が低下するとも述べている。10人いると79パーセントに低下するのだ。
また、実験映像の人物の行為が本物ではないことも問題材料だ。AIを訓練・試験するために、研究チームはボランティアの出演者が他人を襲う振りをした場面を録画した。

出演者はかなりスペースを取った上で、大げさに動いている。シング氏はこの監視システムの実際の現場における性能を完全に反映したものではないことを承知しつつも、もう直ぐ開催されるインドの2つのイベントで実験する予定だと話す。
この分野に関わる研究者は、ステージの実験と現実の利用とではまるで違うとしばしば発言している。
後者の場合、映像が不鮮明であることが多く、群衆の規模は大きく、人の動作ももっと微妙なもので誤解されやすい。
特に最後の点については重要で、シング氏らは偽陽性率(非暴力行為が暴力的と誤認される率)を出していない。例えば、ハイタッチが暴力行為と認識される恐れもあるわけである。

将来的にAIとドローンによる監視システムは普及していく
だが、このシステムがまだ使い物にならないと判明したとしても、現在の研究の方向性は明らかだ。
AIによる姿勢の特定は一般的な問題で、フェイスブックのようなテクノロジー企業はこれに関して重要な研究を発表している。
安価なドローンと高速モバイル通信の登場により、リアルタイムで映像を録画し、それを送信することがこれまでにも増して容易になっている。これらを組み合わせて高度な監視システムを作り出すことは難しくない。
システム悪用の恐れ
問題は、この技術がどのように、そして誰によって利用されるのかということだ。数多くの専門家が、こうしたシステムは法執行機関や政府当局によって乱用される恐れがあると語っている。
誰もが知らぬ間に監視され、解析される恐怖に直面することになる。自由であると感じることすらできなくなってしまうかもしれない。
またAIの社会的影響を研究するメレディス・ウィテカー氏は、シング氏らの研究がその分野における「大きな倫理的危機」の存在を示しているとツイートした。そうした研究を行う人たちは、自分が作っている技術が悪用される可能性を検証していないのだ。
しかしシング氏は、こうした批判にもかかわらず、犯罪やテロを抑止し、世界に良い影響を与えることを信じている。
ただし、技術が悪用されないためにも新しい規制が必要だとも述べ、様々な懸念に対し「完全な答えがない」ことを認めている。
新しい技術は良いことにも、悪いことにも利用できるのだ。
References:.fastcompany / uavdach/ written by hiroching / edited by parumo
本記事は、海外の記事を基に、日本の読者向けに独自の視点で情報を再整理・編集しています。
まるでPSYCHO-PASSの世界。
悪く言えば監視だけど、良く言えば見守り、安全保証。
街中のそこら常に警察官が居て見回りしてるのと同じ。
街中に監視カメラ・監視ドローンがあって犯罪を自動的に検出されるなら、
犯罪を起こす人も減るわけで、自分は安心できるかな。
セポイの反乱が鎮圧できるな !
一つ悪いことにも利用されれば
十の良いことを潰すのが日本人社会
欠点を非難されるのを恐れ、欠点だけ探していては進歩が無い
これが日本に閉塞感をもたらしている最大の原因
※4
何故低評価なんだ?
でもテロは車でドーンだからな
人を法的に処罰する様な事項で、
AIに判断を任せてもいいのだろうか?
AIの精度が十分に高くなれば、人はその判断を疑わないし、
結果的に「AIが人を処罰する」状態になる。
最初は良くても、後々の禍根になりそうな気がしてならない。
※6
なんかえらそげなこといってらっしゃるが、論点が違うんじゃありませんか?
少なくとも今回の場合は判別の補助であって、可能不可能の問題とも言えます。
否定的になる癖は慎重ともいえるが、片刃ではありません事
一番の活躍の場はムショだな
コンピューターに支配される日も、そう遠くないのか……はい、私は幸福です。
さぁみんなでカポエイラ
この記事の全ての数字がもしかしたら嘘かもしれない
無論嘘をつく必要など一切ないし、全部きちんとしたデータなのだろうがね
そんな事をただの一瞬も考えなかった事に少し寒気がした
画面の情報を何一つ疑わない事が、多分機械への信頼そのものなのだろう
50年も前に歌われたネオンの神様はもうとっくに動き出しているのかもな
きっともう2,30年も必要あるまい
インドで運用するならダンスと暴力の動作の違いを判断できないと実用性下がりそう。楽しく踊ってたのに取り締まり来ちゃったら信頼感下がりまくり。
人間はトラブルを事前に予測してどうにか回避しようとする指向がとても強く
実際に現代人は大抵のことを技術で回避できてしまうようになったので
予測できないトラブルに対する耐性が低下してると思う
だから予測不能な最大のトラブル、「突然襲ってくる他人」を私も含めて多くの人が何より恐れるのだろう
遭遇する確率がどんなに低くてもどうにかしてこれを避けようとしてしまう
安全とプライバシーを天秤にかけて、それはほんとうに合理的で許容できる不自由なのか?と考えることもあるけど
予測不能な脅威に対する拒絶反応は何より強力で抗いがたい
未来の社会をどのようなものにするかは人間の選択だから
結局のところ責任は人間自身が負うことになるんだけど
ツッコミいれるとポリスメンが来るわけか
やっぱり西側も東側も監視国家化が進んでるね
※16
そら監視国家こそがユートピアやもん
感情や裏金で判断がコロコロ変わる人間よりも、AIによる人間管理の方がいいんじゃないかと思う。
多少「見られてるな~」って感じることになっても誰かが理不尽な暴力被害に遭わないですむなら良しと思っちゃう。
パーソンオブインタレストのマシンみたいな高度なAIの誕生はちょっと期待してる。
話題になった新宿駅のタックルする男もこの技術が発展すれば検挙可能だね。
そのうち犯罪係数を計りはじめそう(失禁