ネットでの誹謗中傷やフェイクニュース、総務省が規制に本腰…背景を探る
完了しました
SNSや動画投稿サイトなどにあふれる
ツイッターから「逆質問」
「逆に質問させていただきますと…」
今年3月7日に開催された総務省の有識者会議「プラットフォームサービスに関する研究会」(座長・宍戸常寿東大教授)。招集されたツイッター・ジャパンの担当者は、誹謗中傷に関する日本での対応をツイッター社が明らかにしない理由を問われ、こう「逆質問」をぶつけてきた。
「このような情報を事業者が開示することで、誹謗中傷に対してどのような改善につながるとお考えになっているのでしょうか」「開示する理由を議論されていないまま、開示することを求められているような気がします」
その口調には、<法的な根拠もない要請に、なぜ応じなければいけないのか>との不満がにじんでいた。研究会の空気は凍り付いた。
委員の一人は、「政府による規制を避けるためにも、事業者の自主的な対応と情報開示に期待してきたのだが…」と落胆の表情を浮かべつつ、こう振り返る。
「法的根拠がないまま、単なる『お願い』をされても困るという事業者の気持ちも分かる。自主規制には限界があるのではないか」。研究会ではそれまで政府の介入には消極的な声も少なくなかったが、この一件以降、法規制の必要性が強く意識されるようになっていった。
増える誹謗中傷、自ら命絶つ事件も
「プラットフォーム研究会」は、2018年に発足し、19年以降、誹謗中傷やフェイクニュースなどへのPFの対応の在り方について議論を重ねてきた。
誹謗中傷の問題は年々深刻化している。同省が運営を委託する「違法・有害情報相談センター」に寄せられた誹謗中傷の相談は昨年度、6000件を突破。その数は10年前の約4倍に膨れあがり、多い順にツイッター、グーグル、メタ(旧フェイスブック)と続く。2020年5月には、ツイッターやインスタグラムで誹謗中傷の大量投稿を受けた女子プロレスラーの木村花さんが命を絶っている。
「インターネット上の誹謗中傷をめぐる法的問題に関する有識者検討会」は今年5月、「名誉感情の違法な侵害が認められ、差止めによる削除をなし得る場合がある」とする見解を発表。同検討会は、法務省が公益社団法人「商事法務研究会」に依頼して、法学者と弁護士計6人を委員、法務省、総務省、最高裁をオブザーバーとして発足。今後は削除が容易になる可能性がある。
問われる責任、PFの役割は?
かつては海外に比べて少ないといわれたフェイクニュースの弊害も、コロナ禍やロシアのウクライナ侵攻などで社会に不安が広がる中、徐々に顕在化してきた。昨年3月の同省の委託調査では全体の21%が「SNSやブログで週一回以上フェイクニュースに接した」と回答している。
本来、こうした問題で責任を問われるべきは、発信者である。しかし、情報発信の担い手が、職業的訓練を受けた「情報発信のプロ」であるマスメディアに限られていた時代と異なり、インターネットの登場以降は、誰もが発信者になった。匿名での投稿も多く、個々の発信者の責任を問うことは簡単ではない。結局、インターネットは個人の表現の自由に大きく貢献する一方で、名誉やプライバシーなどの人権を傷つける恐れもある、「多様性に富みつつも危険に満ちた言論空間」(委員)を生み出してしまった。
こうした中で、ゲートキーパー(門番)であるPFに一定の対応を期待するのは、自然の流れともいえる。PFは情報が流通する「場」の提供者であり、その「場」での情報流通の適正さについて一定の責任を負うとの考えからだ。
高まるコンテンツ・モデレーションへの期待、難しい線引き
PF事業者自身がPF上のコンテンツをモニタリングし、違法・有害情報を削除したり、投稿者のアカウントを停止したりする「コンテンツ・モデレーション」への社会的要請が年々、高まっているのはこのためだ。
ただ、話はそう単純ではない。
誹謗中傷の投稿は、時には人を死に追いやるほどの深刻なダメージを与えるが、一方で、それぞれの投稿が名誉棄損やプライバシー侵害などの違法な表現か、それとも正当な批判として表現の自由の範囲内にあるかの線引きは難しい。
フェイクニュースとなると問題はさらに複雑になる。だますことを目的とした虚偽もあれば、悪意はなくても間違っている情報もある。明らかな
削除が甘ければ無法地帯化するし、やり過ぎれば今度はユーザーの表現の自由が奪われ、窮屈になる。つまり、非常にさじ加減が難しい問題なのである。
さらに、それをPF事業者の自主規制に委ねるか、あるいは国家が法でPFを規制するかという問題もある。
表現の自由の問題に詳しい京都大学の曽我部真裕教授は「国家が基準を設けてPFに削除義務を課せば、PF自身の営業の自由やユーザーの表現の自由を奪う恐れがあり、一方で、投稿の削除を全くの『PF任せ』にすれば、誹謗中傷を放置したり、逆に削除し過ぎたりして、今度はユーザーの表現の自由がPFによって奪われてしまう」と指摘する。
総務省の研究会では、こうした危険性を考慮する形で、PF事業者の自主的な対応に委ねると同時に、PF事業者の対応に過不足がないのか外部から検証できるようにモニタリングを実施してきた。
だが、冒頭に紹介したツイッター・ジャパンの発言からもわかるように、そう簡単には進まなかった。法的根拠がなく、あくまで「お願いベース」の取り組みだからだ。
表は、主な質問に対するPF事業者の対応状況を研究会が評価したものだ。日本の事業者が「優等生」的に情報を開示するのに対し、海外事業者はなかなか明らかにしない状況がよくわかる。
今年3月にメタと研究会で交わされたやりとりも、その姿勢を示しているといえるだろう。研究会では、2021年10月に元メタ社員が「アルゴリズムの変更によって、ユーザーを怒りなどの極端な反応を引き起こすコンテンツに誘導していた」などと内部告発したことや、「偽情報対策にかける全予算の87%が米国にあてられる」などとする報道があったことを受け、事実関係についてたずねた。だが、回答はなかった。「インスタグラムの若者に対する悪影響について、日本を含む6か国の約2万人を対象に調査した」との報道もあり、質問を送ったが、やはり回答はないままだ。
欧米では、この問題に法規制によって対応しようという動きが進む。特に注目されているのが6月、欧州議会で可決されたデジタルサービス法(DSA)=Digital Services Act=だ。デジタル市場法(DMA)と並ぶEUのPF規制の二本柱の一つで、DMAが公正な競争環境の整備を目的とするのに対し、こちらはユーザー保護を目的として、情報流通に関するPF事業者の責任を規定する。
対象はインターネットサービスプロバイダーから、ホスティングサービス、マーケットプレイスやSNSなど幅広く、それぞれの業態や規模に応じた義務が課される。特に、欧州で4500万人以上のユーザーをもつ「超大規模オンラインプラットフォーム」に対してはモニタリングを行い、義務違反には前年度の総売上高の最大6%の罰金等を科す。
コンテンツ・モデレーションの基準のわかりやすい説明や、違法コンテンツの通報受け付け態勢の整備、削除などの対応に関する理由の通知、またユーザーからの異議申立制度や、それらの対応の詳細についての報告義務も課す。「公共の安全または公衆衛生に対する重大な脅威が生じた場合」にはPF事業者にコンテンツ・モデレーションの体制強化などの緊急対応を要請することができたり、刑事犯罪の疑いのあるコンテンツについては当局への通報などを義務づけたりもするが、基本的にはコンテンツ・モデレーションの透明性と説明責任の確保に重点が置かれている。
総務省が「法的枠組みの導入」提言
総務省も動き出した。プラットフォーム研究会は6月30日に公表した「第二次とりまとめ」案で、この問題に行政が一定の関与をしていくことの必要性をうたい、「行動規範の策定と順守の求め」とともに、「法的枠組みの導入」を具体的に進めるよう提言したのだ。
座長の宍戸教授は「『法的枠組み』といっても、削除の義務づけではなく、あくまで、事業者にコンテンツ・モデレーションの透明性を高め、説明責任を果たしてもらうための報告義務などを想定している」と説明する。「これなら、事業者にとってもユーザーの信頼性確保につながるなど経済的合理性のある取り組みになるし、ユーザーもサービスのメリットやリスクを理解しながら安全に利用できるようになるのでは」と意義を強調する。
誹謗中傷についてはこれらを「速やかに具体化することが必要」、フェイクニュースについては「具体的に検討することが必要」としており、書きぶりには温度差があるが、これについても宍戸教授は「フェイクニュースであっても、事業者がコンテンツ・モデレーションの対象とする以上は、過剰な措置や恣意的な措置を防ぐために透明性と説明責任の確保が必要になってくるだろう」という。
レコメンデーションは「今後の課題」に
「PF上の違法・有害情報対策で重要なことは、『透明性』と『説明責任』の確保だが、それはコンテンツ・モデレーションだけに求められるのではなく、レコメンデーションにも必要なはず」。研究会委員の一人、森亮二弁護士はこう指摘する。EUのDSAではレコメンデーション機能の透明化は対策の目玉の一つになっている。だが、今回の報告書案では「今後の検討課題」という位置づけになっていることが残念そうだ。
レコメンデーションとは、そのユーザーが興味を持ちそうな「おすすめ」のコンテンツを表示する機能で、そのユーザーのオンライン上での閲覧履歴や購買履歴、位置情報などのデータからユーザーがどのような性格・趣味・
ユーザーを楽しませ、快適にさせることで、そのPFでの滞在時間を増やす。そのPF上で過ごすユーザーが増えるほど、広告収入は増えていくので、PFのビジネスモデルには欠かせない機能である。
だが、人々の関心を集めることが経済的価値をもつという「アテンション・エコノミー」は突き詰めていけば、情報の正確性や倫理性よりも、興奮や怒り、衝撃などに満ちた情報の方がビジネス上有利だという考えに行きついてしまう。前述した元メタ社員の内部告発で明らかにされた「怒りを刺激するコンテンツを上位に表示するアルゴリズム」は、アテンション・エコノミーの追求の結果だと推測されている。
欧州ではレコメンデーションの透明化を義務付けへ
英国の政治コンサルティング会社であるケンブリッジ・アナリティカの世論誘導は、アテンション・エコノミーを重視するPFのアルゴリズムを悪用した典型だろう。同社は、フェイスブックユーザー8700万人分のデータをもとに、「陰謀論が好き」「衝動的な怒りに流されやすい」といった誘導しやすい性格のユーザーを割り出し、ターゲットにした。そして、2016年の米大統領選挙でトランプ陣営を、同年の英国のEU離脱の是非を問う国民投票で離脱派を支援するために、対象者を扇動するコンテンツを送り続け、過激な愛国者に育て上げていったとされている。対象者の操作や扇動に重要な役割を果たしたのが、フェイスブックのレコメンデーション機能だったのだ。
「誹謗中傷やフェイクニュース、ヘイトスピーチなどを深刻化させている一因は、不透明なレコメンデーション機能が放置されていることにある」と指摘する森弁護士は、「削除などの事後対応だけではなく、それらが生じる根本原因に向き合う必要がある」と話す。
ケンブリッジ・アナリティカ問題などを民主主義への深刻な脅威と受け止めてきたEUでは、DSAの柱の一つとして、レコメンデーション機能の透明化をPF事業者に義務付ける方針だ。広告の場合、表示後1年間は、広告内容と広告主、ターゲティングするために使用された主なパラメータ(変数)などを一般のユーザーも確認できるようにする。また、性的指向や宗教、民族性などの情報をターゲティングに使うことや、未成年に対するターゲティングも禁止する予定だ。
7月から侮辱罪の上限引き上げ
「6月のG7で採択された『
既に様々な対策が動き始めている。匿名の発信者を特定しやすくなる新たな裁判手続きも始まり、侮辱罪の法定刑の上限を引き上げる改正刑法も7月、施行された。前出の「インターネット上の誹謗中傷をめぐる法的問題に関する有識者検討会」でも、誹謗中傷の大量投稿のほか、被差別部落の地名リストの掲載など、これまで削除基準があいまいだった事案について整理する試みがなされている。
このほか、ユーザーへの啓発やPFの自主的な創意工夫の取り組みも引き続き必要になっていくだろう。レコメンデーション機能の透明化など、積み残された課題の解決も急がれる。宍戸教授は「総合的な対策でこつこつと積み重ねていくことが重要だ」と話している。