人工知能学会倫理委員会が声明:機械学習で公平性に寄与

課題

データに基づく機械学習は近年多くの分野で応用され、社会的な影響も大きくなってきました。機械学習は、データに導かれた判断を行うためのシステムを構築するための手法です。データの取得は、データを取得する際の物理的・心理的・倫理的な偏りやノイズなどにより制約されます。例えば、センサーの性能や設置場所により不可避的に生じるデータの欠損、アンケート調査において生じる自分をよく見せようとする性質、あるいは、なんらかの倫理的なルールにより得られる情報と得られない情報が混合してしまい偏りを生じさせるなど、様々な要因が考えられます。

最近では、Facebookが採用の際に採用後のパフォーマンスを本人の履歴などから判断しようとした結果、男女差別を助長するような判断をしていることが明らかとなり、使用を見送るというニュースが話題になりました。これは、例え採用の際に性別を明示しなくても、名前や経歴などに性別による偏りがみられ、結果としてこれまで採用が多く昇進機会の多かった男性に対して有利な結果を導いているためと考えられます。また、リクナビが学生の内定辞退率を推定して、企業に提供していたニュースは記憶に新しいところです。

このような差別的な判断は、実は新しい問題ではなく、米国では「統計的差別」として問題となってきた。例えば、住む場所により金融商品の販売に制限がつくことにより、実質的には人種による差別になっているケースです。Marvinでも、Googleストリートビューによる写真の解析で住人の収入や健康状態などが精度良く推定されることを事例として紹介したが、あからさまな情報がなくても「リスク」を計算し、それを元に差をつけることにより「合理的」に差別を行うことが可能になるかもしれません。

機械学習に基づく判断は合理的で公正に見えるかもしれないが、その背景では、得られる情報は常に偏り、判断も偏っています。機械学習を応用する経営者・技術者には、社会的責任として何が求められるべきなのでしょうか。

機械学習と公平性に関する声明

人工知能学会倫理委員会は2019年12月10日に声明を発表し、機械学習における行動規範として以下の二点を示しました。

(1) 機械学習は道具にすぎず人間の意志決定を補助するものであること

(2) 私たちは、公平性に寄与できる機械学習を研究し、社会に貢献できるよう取り組んでいること

http://ai-elsi.org/archives/888

1.機械学習は道具にすぎません

AI学会倫理員会は、機械学習は道具に過ぎないと規定します。使い方を定めるのは人間であり、その結果が人類の利益にならない場合もあるとして、公平性が欠くことの無いように注意すべきとします。

また、「何が公平か」は人類社会の価値観の問題抜きには考えられず、機械学習に携わる技術者や利用者、経営者、そして組織や社会の全体が機械学習のこの「価値観」に対する影響について把握し向き合っていく必要があるとしています。

2.私たちは機械学習で公平性に寄与します

データの偏りは普遍的に起こることです。しかし、人工知能学会は「様々な基準を機械学習の言葉で表現しなおすことによって、「公平」という概念をより明確なものにしていくこともできる」として、公平性を科学的・技術的に研究していく必要性にも触れています。公平性を常に考えるだけでなく、公平性とは何かも機械学習により再定義され、より精緻な議論ができるようになるかもしれません。

まとめ

人工知能学会倫理委員会が示した「機械学習と公平性に関する声明」を紹介しました。データに駆動された技術や経営は客観性を担保し、無謬な判断を導くと一部で期待されているかもしれません。しかし、それはありえません。どのようにデータが収集されたのかや、どのような手法を使って、どのような判断をさせるのかを的確に理解しながら使用を進めていく必要があります。

人材や金融の分野では、データによるリスク管理が盛んに進められています。しかし、そのシステムの判断がどのような結果を導くのか、リクナビ事件の顛末を考えるまでもなく、考察と透明性が求められています。

参考資料

(森裕紀)