Meredith Whittaker(メレディス・ウィテカー)氏には2つの顔がある。1つは著名なAI(人工知能)研究者。かつて米Google(グーグル)の研究部門Open Research groupの責任者を務めたほか、AIの社会への影響を研究する米ニューヨーク大学のAI Now Instituteを共同で設立した。2021年から2022年にかけて米連邦取引委員会(FTC)委員長へのAI関連のシニアアドバイザーを務めた。
もう1つは、プライバシー重視をうたうメッセンジャーアプリ「Signal」を開発する非営利団体Signal FoundationのPresident(社長)だ。2022年9月に就任した。
2つの側面に共通するのは、政府や大企業による「権力の集中」と「監視」への懐疑だ。ChatGPTをはじめとするAI技術の急速な発展を前に、どのような危機意識を持っているのか。
(聞き手は浅川 直輝=日経コンピュータ編集長)
ChatGPTから画像生成AIまで、現在のAI技術についてどのような懸念を持っていますか。
私は長年にわたりAI研究を手掛けてきました。その視点からみたAI技術は、大手ハイテク企業がユーザーを監視(surveillance)することで得た大量のデータを使うことで成り立っています。AI技術は2010年ごろから、大手ハイテク企業が市場を独占する力の源泉になりました。
AI技術は企業が監視で得た大量のデータをマネタイズする新たな手段を提供しました。大量のデータでAIモデルを訓練し、そのモデルを使って新たな市場へ次々に参入し、企業に利益をもたらしています。
こうした流れが加速しているのを今、我々は目の当たりにしています。非営利団体としてスタートした米OpenAI(オープンAI)は、今や営利企業である米Microsoft(マイクロソフト)の一部となりました。
現在のオープンAIは営利と非営利のハイブリッドの組織ですね。
オープンAIは、マイクロソフトのITインフラであるMicrosoft Azureに依存しています。マイクロソフトがGPT-3の独占的ライセンスを持っているという事実、そしてマイクロソフトがAIから利益を上げることを期待してオープンAIに数十億ドル規模で投資しているという事実をみる限り、オープンAIはマイクロソフトの一部であり、マイクロソフトの営利戦略の一部として理解しなければなりません。
(GPT-4やLaMDAといった)大規模AIモデルを開発できるAI技術は、膨大な量の監視データと大量の計算能力に依存しています。米Google(グーグル)やマイクロソフト、米Meta(メタ)、そして中国のいくつかの大手IT企業だけがこうした能力を持ち、最高の頭脳を持つ人材を雇ってAIの研究を推し進めています。
私がAIについて懸念しているのは、AIは資本と権力を集中させるツールであり、すでに優位な立場にある人々が、そうでない人々に不利になるような方法で使用されるのではないか、という点です。例えば企業の経営者は、社員の労働条件の悪化を正当化するために、GPTの話を持ち出す可能性が高いと思います。
対策を立てる間もなく急速に進化しているAI技術を、社会はどのような形で統制すればよいでしょうか。
いくつかの方策があるでしょう。例えば私が以前にシニアアドバイザーを務めていたFTCは2023年3月、大手IT企業によるクラウドの独占に関する意見募集(パブリックコメント)を始めました。
政府・社会・経済が依存するITインフラの開発に、一握りの企業だけが大きな力を持つことは、私たちの社会にとって良いこととはいえません。企業による権力の集中という観点から見る必要があります。
プライバシーに関する政府の規制も非常に大きな力を発揮するでしょう。大規模なAI研究を推進するには、膨大な量のデータと監視のインフラが必要です。企業が収集するデータの種類や保持期間に規制をかけることで、「監視されるのは嫌だ」という人々の権利を守り、AI開発の独占につながるデータの流れを断ち切ることができます。
近年は欧州連合(EU)のAI規則案のように、「AIの使い方」に焦点を当てた法規制のアイデアも出ています。
EUのAI規則案が採るリスクベースのアプローチが機能するかどうか、私はあまり楽観視していません。EUが考えるAI規則は、ユーザーの意思決定に関わるAIシステムの用途を「高リスク」「中リスク」「低リスク」といった階層的なカテゴリーに分け、高リスクの用途に使われるAIシステムに規制をかけるものです。ただこうしたアプローチは、個々のAIシステムをカテゴリー分けすること自体が難しいという事実を見落としています。
例えば、あるAIシステムが「コンサートの列に並ぶかどうか」など全くリスクのない意思決定に寄与したとして、その意思決定のデータがAPI(アプリケーション・プログラミング・インターフェース)で別のシステムに送られ、よりリスクの高い意思決定が行われる可能性があります。
データの流れやシステムの構成を変えることでAIを様々な用途に使い分けることができ、しかもそれが簡単に切り離せない場合、EUのAI規則が採るリスクベースのアプローチでは、AIを適切に統制して悪影響を抑えられるとは言えないのです。
私が考えるリスクとは、これらの技術やシステムがごく少数の企業によってコントロールされ、公的な監視がおよばず、どのような用途で使っているかも開示されず、システムが互いに影響し合ってブラックボックス化しているということです。
あるAIシステムが私について判断を下し、その判断がデータとなって別のAIシステムを訓練し、さらに別の判断を下す。そうした判断がデータとなって積み重なり、人々の行動に制限をかけることがあり得ます。GPTを組み込んだサービス1つをみて「GPTは中程度のリスクだ」と判断することはできません。こうした多機能かつ汎用的なAI技術のガバナンスには、異なるアプローチが必要です。