米大手がやらかしたジェンダーバイアス問題⇒AIは性差別の温床か!?

2019.03.18

AIの世界に大きく横たわる「ジェンダーバイアス問題(性差による偏向)」について考える。
社会の偏りを如実に反映してしまうAIは、社会の男女差別の傾向をも受け継いでしまっているという。2018年米アマゾンでAIの採用システムが技術職採用で男性を優先した事件が発生。英エディンバラのチームが、履歴書を自動で分類し最も有望な候補者を選ぶように設計したAIが女性よりも男性を優先するよう学習してしまったが、AIに学習させた過去10年間にわたるデータのほとんどが男性から提供されたことが原因だった。一方、米グーグルの翻訳サービスは、男性代名詞への翻訳に設定されていたため「男女差別」との批判を受け、システムを変更した。
また、一般的にAI搭載の音声アシスタントのほとんどは女性の名前と女性的な性格を持っており、ユーザーにとっての心地よさと非攻撃的な印象をもたらしているが、一方で差別発言をすることもあり、その仕組みと対策法が研究されている。
AIのジェンダーバイアスを修正する最適な方法は、社会的な性差別が反映されないよう女性の手によってアルゴリズムを書き換えることだという。女性がもっと開発に関わっていたならば、上記のような事態は避けることができたかもしれない。
その点で、AI産業における多様性の欠如も問題だ。世界経済フォーラム(WEF)の最新の「世界ジェンダー・ギャップ指数」によれば、女性が世界のAI専門家に占める割合はわずか22%にとどまり、この不均衡を改善するためには、頭数を合わせることではなく、女性の意見を取り入れることこそが重要になる。
(The Telegraph『AIの男女差別を是正する取り組み、開発にもっと女性の関与を』 2019年3月17日)

詳しくはこちら

コメントを残す

メールアドレスが公開されることはありません。 *が付いている欄は必須項目です

関連記事

TOPICS

MORE