ソーシャルメディア(SNS)のタイムラインを眺めていると、お気に入りの音楽アプリがプレイリストを提案してくれたりします。これだけみると、人工知能(AI)が好みを学んで必要なものを提供してくれて、私たちの生活を向上させてくれる存在のように感じるかもしれません。しかし、その便利さの裏には「アルゴリズムによる弊害」という深刻な問題が潜んでいます。
その弊害は、目に見えるものでも、すぐに影響が表れるものでもありません。AIシステムが知らないうちにユーザーの生活に関する意思決定を行なうことで、時間をかけて徐々に悪影響が積み重なっていきます。このようなシステムの隠された力が、プライバシー、平等性、自律性、安全性にとって重大な脅威になりつつあります。
AIシステムは、現代的な生活のほぼあらゆるシーンに組み込まれています。 観るべきテレビ番組や映画を提案したり、雇用主が誰を採用するか決める手助けをしたり、さらには、裁判官の判断に影響を与えたりもします。
こうしたシステムはしばしば中立と見なされています。が、一方で特定の層に対して不利な判断を下したり、最悪の場合、現実社会で被害を引き起こすようになったらどうなるでしょうか?
AIの利用がもたらす見過ごされがちな影響を踏まえ、この急速に進化するテクノロジーに追いつくことができる規制の枠組みが必要とされています。私は法律とテクノロジーの相互作用を研究しており、こちらの研究論文でAIの法的枠組みの概要を論じています。
じわじわと浸透する悪影響
アルゴリズムによる弊害で最も特徴的なのは、その累積的な影響が見えにくいことです。通常、これらのシステムは目に見える形で人々のプライバシーや自律性を直接侵害しません。多くの場合、人々に気づかれないうちに収集した膨大な量の個人情報を使って、生活に影響を与える決定を行ないます。
ウェブサイトを渡り歩いているときに同じ広告が付いて回るような、ちょっとイラッとする程度ですむ場合もあります。それでも、AIの反復的な被害に対応しないまま運用され続けると、被害規模が拡大し、さまざまな人に深刻な累積的被害をもたらす可能性があります。
SNSのアルゴリズムを例に考えてみましょう。これらのアルゴリズムは、表向きは有益な社会的交流を促進するように設計されています。しかし、その裏側ではユーザーのクリックをこっそり追跡し、政治的信条や職業上の立場、私生活に関するプロフィールを収集しています。
収集されたデータは、交通ルールを破って道路横断したことはあるか、企業の採用候補になったことがあるか、自殺のリスクがあるかどうかなどさまざまです。これらは、重大な決定を下すシステムによって使用されます。
さらに悪い面でいえば、中毒性を持つ設計が10代の若者をネット依存の悪循環に陥らせることもあります。それが、不安や抑うつ、自傷行為などの深刻な精神衛生の危機につながっています。そして、事態の全容を把握する頃にはもう手遅れです。
プライバシーは侵害され、個人の可能性は偏ったアルゴリズムに左右され、最も弱い立場にある人たちの安全が脅かされます。何も知らないうちに、です。
これを私は「目に見えない累積的な弊害」と呼んでいます。バックグラウンドで運用されているAIの影響は、その姿を見せずに壊滅的な結果をもたらす可能性があります。
規制が遅れている理由
ここまで紹介したようなリスクの高まりに対して、世界各国の法的枠組みは遅れをとっています。
アメリカでは、イノベーションを重視する規制アプローチによって、さまざまな状況下におけるAIシステムの運用に対して厳格な基準を設けるのが難しくなっています。
裁判所や規制当局は、身体的被害や経済的損失といった具体的な被害への対応には慣れていますが、アルゴリズムによる弊害はより複雑で累積的であるため、発見が難しい場合が多いのです。そのため、AIシステムの広範囲にわたる長期的な影響を規制できないケースがしばしば見受けられます。
たとえば、SNSのアルゴリズムはユーザーの精神状態を徐々にむしばむ可能性があります。加えてこうした弊害はゆっくり積み重なっていくため、現在の法的基準の範囲内で対処するのは困難といえるわけです。
アルゴリズムがもたらす4つの弊害
既存のAIおよびデータガバナンスに関する研究を参考に、私はアルゴリズムによる弊害を4つの法的領域に分類しました。「プライバシー」、「自律性」、「平等性」、「安全性」です。それぞれの領域は、繊細でありながら、往々にして抑制されないAIシステムの影響力に対して脆弱です。
プライバシー
第1の弊害は、プライバシーの侵害です。
AIシステムが膨大なデータを収集、処理、送信する際に、プライバシーの侵害が発生しています。表面上はわからないこの弊害は、長期的に深刻な影響を及ぼす可能性があります。
たとえば、公共の場やプライベートな空間で人々を追跡できる顔認識システムは、大規模な監視を当たり前のものにしてしまうおそれがあります。
自律性
第2の弊害は、自律性の侵害です。
AIシステムは、情報操作によって、ユーザーの自律的な意思決定能力を巧妙に弱める場合があります。SNSのプラットフォームでは、アルゴリズムを用いて第三者の利益を最大化するためのコンテンツをユーザーに表示します。
その結果、何百万人ものユーザーの意見や意思決定、行動を人知れず形成していきます。
平等性
第3の弊害は、平等性の低下です。
中立的に設計されているといわれるAIシステムは、データやアルゴリズムに含まれる偏見をしばしば内在化してしまいます。その結果、時間の経過とともに社会的な不平等が深刻化します。
悪い例として、小売店が万引きした人を発見するために使用した顔認識システムによって、女性や非白人が不当に誤認識されたことがありました。
安全性
第4の弊害は、安全性の低下です。
人々の安全やウェルビーイング(身体的・精神的・社会的に良好な状態)に影響を与える決定を下すAIシステムが機能しなくなると、その影響は壊滅的なものになりかねません。そして、たとえ設計通りに機能していたとしても、ソーシャルメディアのアルゴリズムが10代の若者の精神衛生に累積的な悪影響を与えるなどの害を引き起こす可能性があります。
これらの累積的な被害の多くは、営業秘密法で保護されたAI活用によって生じるため、被害者にはその事実を見つけたり追跡したりする手段がありません。これでは説明責任に不透明な部分が残ります。
たとえば、不当に偏った採用の決定や不当逮捕が行なわれた場合、被害者はどうやってそれに気づけるでしょうか? 透明性がなければ、企業に説明責任を求めるのはほぼ不可能です。
説明責任の空白を埋めるために
アルゴリズムによる弊害の種類を分類することで、AI規制の法的枠組みを明確にし、責任説明の空白を埋めるために必要な法改正を実施する可能性を示すことができます。
私が有効だと考える対策のひとつは、企業に対して「アルゴリズムの影響評価」の実施を義務付けること。つまり、AIアプリケーションがプライバシー、自律性、平等性、安全性に与える即時的および累積的な影響を導入前後の両方で記録し、適切に対応するよう求めることです。
たとえば、顔認識システムを使用する企業は、そのシステムがライフサイクル全体で与える影響を評価する必要があるでしょう。
もうひとつの有効な対策は、AIシステムを利用するユーザーの権利の強化です。ユーザーにとって有害と考えられる行為や機能からオプトアウトできるようにしつつ、特定のAIアプリケーションの利用にはオプトインを必要とする仕組みを導入するといいでしょう。
たとえば、企業が顔認識システムを使ったデータ処理を行なう場合、事前の同意(オプトイン)を義務付け、ユーザーがいつでも利用を中止(オプトアウト)できるようにします。
最後に、企業に対するAI技術の利用と予想される弊害に関する情報開示の義務付けを提案します。具体例としては、顔認識システムを使用する場合はユーザーに通知し、さらにシステムがプライバシー、自律性、平等性、安全性に及ぼす潜在的なリスクをユーザーに説明するよう義務付けます。
AIシステムが医療から教育、雇用などの社会を機能させるための重要な部分で広く利用されるようになるにつれ、システムが被害を引き起こさないよう規制する必要性がますます高まっています。
何らかの介入がなければ、目に見えない被害は積もり積もってほぼすべての人に悪影響を与えることになります。そして、システムによる深刻な被害を偏って受けるのは、最も弱い立場の人々です。
生成AIの普及に伴ってその悪影響も深刻化するなか、政策立案者や裁判所、技術開発者、市民社会が、緩すぎる法規制によってもたらされるAIの弊害を認識することが重要であると私は考えます。
目に見えない累積的な弊害をなくしていくためには、より優れた法律を整備する必要があります。加えて、急速に進化する最先端のAI技術に対して、市民の権利や公正を優先させるための慎重なアプローチが求められます。
AIの未来には大きな期待が寄せられていますが、適切な法的枠組みが整備されなければ、不平等が固定化され、多くの場合に強化を目的としているはずの市民の権利を侵害するおそれがあるのです。
本記事は、ミシガン大学法学部のFaculty Fellowおよび客員助教授であるSylvia Lu氏の許可を得て、米Gizmodoがクリエイティブ・コモンズ・ライセンスの下でThe Conversationから全文転載した記事を翻訳しています。The Conversationのオリジナル記事はこちら。