公平性 (機械学習)
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2023/10/08 06:56 UTC 版)
機械学習における公平性(こうへいせい、英: fairness)は、機械学習モデルを用いた自動意思決定の過程でのアルゴリズムバイアスを是正する取り組みのことを指す。機械学習のプロセスを経たコンピュータによる意思決定が機微な変数に基づいている場合、そのような意思決定は不公平とみなされる場合がある。機微な変数の具体例には、性別、民族、性的指向、障害の有無などが挙げられる。他の多くの倫理的な概念と同様に、公平性やバイアスの定義は常に論争の的となってきた。一般に、意思決定が人々の生活に影響を与える場合、公平性やバイアスの問題が重要になってくると考えられる。機械学習の分野では、アルゴリズムバイアスの問題はよく知られており、広く研究の対象となっている。結果は多様な要素によって歪められ、特定の集団や個人にとって不公平とみなされる場合がある。このような事例の例として、ソーシャルメディアサイトがパーソナライズされたニュースを消費者に配信する場合などが挙げられる。
背景
機械学習における公平性の議論は比較的最近の論点である。2016年からその論点における研究で急な増加があった[1]。この増加はある程度アメリカ合衆国の裁判所で累犯を予測するのに広く用いられる、 COMPASソフトウェアが、人種上のバイアスであること主張するところの、プロパブリカによる影響力のある報告とみなされる[2]。一つの研究の論点および議論は、機械学習のモデルを判断するには困難にさせるものである、普遍性をもった定義は無くそして異なった定義はたがいに矛盾しうるものとしての、公平性の定義である[3]。他の研究の論点は、発生論(英: origins of bias )、類型論(英: types of bias )、および低減方法論(英: methods to reduce bias)を含む[4]。
近年高度な技術を持った企業は機械学習でのバイアスの探知と低減の方法に関する道具(ソフトウェアツール、略してツール)と取扱書をつくらせた。ソフトウェアバイアスを低減しその公平性を上昇させる特別なアルゴリズムをもったPythonとR言語のツールをIBMは持っている[5][6]。Googleは機械学習でのバイアスを研究し撃退する指針とツールを発表した[7][8]。フェイスブックは彼らのツールの利用、公平性の流れ(英: Fairness Flow)、彼らの人工知能でのバイアスの探知を報告した[9]。しかしながら、それら企業の努力は十分でなく、そのような従業員によるツールの少しの利用を報じることは、ツールの利用が選択的であっても、そしてそれが可能であっても、すべての彼らのプログラムにたいして使うことはできないことを、論評者たちは主張した[10]。
論争
法律上のシステムでのアルゴリズム的な意思決定の利用は、吟味のもとでの利用での注目に値する領域でありつづけてきた。2014年に、アメリカ合衆国司法長官エリック・ハンプトン・ホルダーは、「リスクアセスメント」の方法が、被告の教育水準や社会経済的背景のような、彼らの管理の下ではない要因に過度に焦点をあてさせるかもしれないという問題を提起した[11]。COMPASに関するプロパブリカによる2016年の報告は、黒人の被告が白人の被告よりもたいてい二度高リスクとして誤って分類される可能性が高く、これに対して白人において逆の誤りがなされることを主張した[2]。COMPASの製作者の、Northepointe Inc.は、彼らのツールが公正でプロパブリカが統計的誤りをしたことを主張して、その報告と争った[12]。これは引き続きプロパブリカにより再度反論された[13]。
集団公平性規準
分類問題において、アルゴリズムは、既知の特性 次の規準はこの節の最初の、独立性、分離性、充分性の三つの主な定義の計測として理解できる。
右の表において、それらの間の関係をみることができる。
予測結果に基づく定義
この節における定義は客体の多様な確率分布についての予測結果 直観的な考えは、'反対器'が からの機微変数の予測に失敗するから、'予測器'が(すなわち)を最小化をするときに、同時に、(すなわち)をも最大化させたいことである。
後処理
最後の方法は公平を達成する分類の結果を修正することを試みる。この方法では、各々の個人に対する得点を返すような分類を用い、そしてそれらについての2値の推測(英: prediction)を必要とする。低得点が陰なものを得そうなのに対して、高得点は陽な結果を得そうにみえる、しかし、望む場合に然りと答えるように、その決定をするような閾値 を調整することができる。その閾値の値の変動は真の陽のものと真の陰のものにおける一得一失に影響を与えることに注意せよ。
選択的な分類を避けること
を、事例が陽な分類+に属するところの確率としての分類により計算される確率とするような、分類を考える。 が1もしくは0に近い場合、その事例 は一定の高い頻度をもって順に+か-に属することをもって表される。けれども、が0.5に近いならば分類が大きく不確かになる[29]。
関連項目
脚注
- ^ Caton & Haas 2020
- ^ a b Mattu
- ^ Friedler, Scheidegger & Venkatasubramanian 2021
- ^ Mehrabi et al. 2021
- ^ IBM1
- ^ IBM2 2020
- ^ Google1
- ^ tensorflow1
- ^ facebook1
- ^ Wiggers 2021
- ^ Meeting 2014
- ^ Dieterich, Mendoza & Brennan 2016
- ^ Angwin 2016
- ^ a b Barocas, Hardt & Narayanan 2023
- ^ a b Verma & Rubin 2018
- ^ "acceptace"の訳につき以下同じ。
- ^ Chen & Hooker 2021
- ^ Mullainathan 2018
- ^ Mitchell et al. 2021
- ^ Castelnovo et al. 2022
- ^ Mehrabi et al. 2021
- ^ Dwork et al. 2012
- ^ Galhotra, Brun & Meliou 2017
- ^ Kamiran & Calders 2011
- ^ Zafar et al.
- ^ Ziyuan 2018
- ^ Zhang, Lemoine & Mitchell 2018
- ^ Xu 2019
- ^ Kamiran, Karim & Zhang 2012
引用文献
ウェブサイト
- Mattu, Julia Angwin,Jeff Larson,Lauren Kirchner,Surya (英語), Machine Bias
- Zafar, Muhammad Bilal; Valera, Isabel; Rodríguez, Manuel Gómez; Gummadi, Krishna P., Fairness Beyond Disparate Treatment & Disparate Impact: Learning Classification without Disparate Mistreatment
- AI Fairness 360
- (英語) Responsible AI practices
- (英語) How we're using Fairness Flow to help build AI that works better for everyone
- Kamiran, Faisal; Calders, Toon (2011-12-03), Data preprocessing techniques for classification without discrimination
- Kamiran, Faisal; Karim, Asim; Zhang, Xiangliang (2012), Decision Theory for Discrimination-aware Classification
- (英語) Attorney General Eric Holder Speaks at the National Association of Criminal Defense Lawyers 57th Annual Meeting and 13th State Criminal Justice Network Conference, (2014-08-01)
- Dieterich, William; Mendoza, Christina; Brennan, Tim (2016), “COMPAS Risk Scales: Demonstrating Accuracy Equity and Predictive Parity”, Northpointe Inc
- Angwin, Jeff Larson,Julia (July 29, 2016) (英語), Technical Response to Northpointe
- Verma, Sahil; Rubin, Julia (2018), “Fairness definitions explained”, 2018 IEEE/ACM international workshop on software fairness (fairware) (IEEE): pp. 1-7
- Ziyuan Zhong (2018-10-22), Tutorial on Fairness in Machine Learning
- Xu, Joyce (2019-01-18), Algorithmic Solutions to Algorithmic Bias: A Technical Guide
- IBM AI Fairness 360 open source toolkit adds new functionalities, Tech Republic, (4 June 2020)
- Wiggers, Kyle (2021-03-31) (英語), AI experts warn Facebook's anti-bias tool is 'completely insufficient'
- Fairness Indicators, tensorflow, (2022-11-10)
書籍
- Dwork, Cynthia; Hardt, Moritz; Pitassi, Toniann; Reingold, Omer; Zemel, Richard (2012). “Fairness through awareness”. Proceedings of the 3rd Innovations in Theoretical Computer Science Conference on - ITCS '12. pp. 214–226. ISBN 9781450311151
- Galhotra, Sainyam; Brun, Yuriy; Meliou, Alexandra (2017). Fairness Testing: Testing Software for Discrimination. 498–510. ISBN 9781450351058
- Kusner, M. J.; Loftus, J.; Russell, C.; Silva, R. (2017), “Counterfactual fairness”, Advances in neural information processing systems, 30., ISBN 9781510860964
- Barocas, Solon; Hardt, Moritz; Narayanan, Arvind (2023-11-28), Fairness and Machine Learning: Limitations and Opportunities, MIT Press, ISBN 9780262048613
AV媒体
- Mullainathan, Sendhil [in 英語] (2018年6月19日). Algorithmic Fairness and the Social Welfare Function. Keynote at the 19th ACM Conference on Economics and Computation (EC'18). YouTube. 48 該当時間:.
In other words, if you have a social welfare function where what you care about is harm, and you care about harm to the African Americans, there you go: 12 percent less African Americans in jail overnight.... Before we get into the minutiae of relative harm, the welfare function is defined in absolute harm, so we should actually calculate the absolute harm first.
雑誌
- Mitchell, Shira; Potash, Eric; Barocas, Solon; d'Amour, Alexander; Lum, Kristian (2021-03). “Algorithmic Fairness: Choices, Assumptions, and Definitions”. Annual Review of Statistics and Its Application 8 (1): 141–163.
- Friedler, Sorelle A.; Scheidegger, Carlos; Venkatasubramanian, Suresh (April 2021). “The (Im)possibility of fairness: different value systems require different mechanisms for fair decision making” (英語). Communications of the ACM 64 (4): 136–143.
- Mehrabi, Ninareh; Morstatter, Fred; Saxena, Nripsuta; Lerman, Kristina; Galstyan, Aram (2021-07-13). “A Survey on Bias and Fairness in Machine Learning”. ACM Computing Surveys 54 (6): 115:1–115:35.
- Castelnovo, Alessandro; Crupi, Riccardo; Greco, Greta; Regoli, Daniele; Penco, Ilaria Giuseppina; Cosentini, Andrea Claudio (2022). “A clarification of the nuances in the fairness metrics landscape”. Scientific Reports 12 (1): 4209.
ウェブアーカイブ
- Brian Hu Zhang; Blake Lemoine; Margaret Mitchell (2018-01-22), Mitigating Unwanted Biases with Adversarial Learning
- Caton, Simon; Haas, Christian (2020-10-04), Fairness in Machine Learning: A Survey
- Chen, Violet (Xinying); Hooker, J. N. (2021), Welfare-based Fairness through Optimization
- 公平性_(機械学習)のページへのリンク