2024年12月15日日曜日

人工知能のジェンダーバイアス;田中東子氏の説明は、リベラル・フェミニズムとラディカル・フェミニズムの観点の違いを落としている

このエントリーをはてなブックマークに追加
Pocket

太田啓子弁護士や北村紗衣氏の非難や関連した岩渕潤子氏の童顔巨乳女性に対する言及と比較して、それらしいことしか言っていないのに、なぜか「宇崎ちゃんは遊びたい」×献血コラボキャンペーンの騒動のときの新聞記事での短いコメントが恨まれていて、あれこれ非難されていて気の毒なジェンダー学者の田中東子氏だが、氏の論文「メディアとジェンダー表象」の中の人工知能にあるジェンダーバイアスの問題についての言及が不十分なので指摘しておきたい。

田中論文の該当箇所は以下で、一見それっぽいのだが、アルゴリズムと訓練データの区分けが曖昧になっている。

さらに、今日、私たちがより重要な課題として取り組まなければならない問題がある。それは、AI/アルゴリズムによる性差別と性のステレオタイプの再生産が激増しているという問題である。例えば、Quartz Magazine 誌に掲載された、2017 年 11 月の Nikhil Sonnad による実験結果の例がアルゴリズムによる性のステレオタイプの生成の典型例であると言えるだろう。この実験によると、トルコ語から英語へと職業に関するリストを翻訳した際に、トルコ語の原文では中立的な三人称の名称が使われていたにもかかわらず、アルゴリズムは様々な職業に性別を割り当てたと報告されている。例えば、「兵士」や「医師」は「男性」として指定され、「教師」や「看護師」は「女性」として指定された。「働き者」は「男性」として翻訳され、「怠け者」は「女性」として翻訳されたそうである(Wellner & Rothman, 2020, 192)。

実際に、Google の画像検索結果を見てみると、「アルゴリズムの不公平」という課題は簡単に見えてくる。画像検索において、「医師・看護師」と入れれば、「男性の医師と女性の看護師」の写真ばかりが出てくるし、「管理職」と入力して検索すれば「男性管理職」の画像ばかりが上位に掲示される。大変に腹立たしい実験結果ではあるものの、これは機械学習やアルゴリズムが「自然に」学習してしまう、社会に埋め込まれたジェンダーや人種などに関する「偏見」や「差別」の現れなのである。

「機械学習やアルゴリズム」は「機械学習のアルゴリズム」に読み替えよう。インデックスしても学習しているかはよくわからないGoogle検索を人工知能と看做してよいかも、ここでは考えない。

さて、やや細かいが、機械学習は、アルゴリズムに沿って訓練データを学習して分類器や予測器を構成し、分類器や予測器がサービス利用者に検索や翻訳のアウトプットを提示することに注意しよう。

「社会に埋め込まれたジェンダーや人種などに関する「偏見」や「差別」」は訓練データの方に入るので、アルゴリズムの方には入らない。だから、これだけでは「アルゴリズムの不公平」という話にならない。細かいところを指摘するなと思ったと思うが、これがフェミニズム的には細かく無かった。リベラル・フェミニストは訓練データに問題があると考え、ラディカル・フェミニストはアルゴリズムに問題があると考えるからだ。

マジで? — 田中論文の引用した部分で参照しているWellner and Rothman (2020)の最後のまとめにそう書いてある。

Alternatively, the controversy over the location of the discrimination—whether in the dataset or in the algorithm—can be mapped along the lines of feminist theories: with a liberal feminist approach, it is likely that an AI algorithm would be regarded neutral and the blame would be put on the side of the training dataset. From a radical feminist perspective, the bias will be located in the algorithm, regarding it as shaped by gender power relations. This approach would highlight the fact that most of the algorithms are developed by young male programmers (see (Wajcman 2009)). A radical solution would require a technological revolution in which machine learning should not only "teach" the algorithm to identify an object and classify it, but should also "educate" the algorithm to reflect certain values (see (Feenberg 2017)). However, the challenge of "educating" an algorithm to identify a gender bias is analogous to the (yet unresolved) challenge of training an algorithm to be ethical or fair.(拙訳:あるいは、差別がデータセットにあるのかアルゴリズムにあるのかという議論は、フェミニズム理論に沿って捉えることができる。リベラル・フェミニズムの視点からは、人工知能アルゴリズムは中立であろうと見なされ、非難は訓練データの側に寄せられる傾向がある。ラディカル・フェミニズムの観点からは、アルゴリズムは性別による権力関係によって形作られていると看做すため、偏見はアルゴリズムにあることになるとする。このアプローチは、アルゴリズムの大部分が、若い男性プログラマーによって開発されているという事実を強調しようとしている(Wajcman, 2009)。ひとつの抜本的な解決策としては、機械学習はアルゴリズムに、物体を認識して分類するために「教える」だけではなく、特定の価値観を反映させるように「教育」も行うようにする技術革新が必要となる(Feenberg, 2017)。しかしながら、アルゴリズムにジェンダーバイアスを認識させるという課題は、アルゴリズムに倫理観や公平性を教えるという(まだ解決されていない)課題と類似している。)

ところで、心の中の像を意味することもある表象はやめて、平易に表現物と書きませんか?

0 コメント:

コメントを投稿