三つの原則
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/07/01 16:29 UTC 版)
2019年に開催された第14回20か国・地域首脳会合で「人間中心のAI社会原則」が承認され、この中でも公平性、説明責任、透明性についての原則が明記された。こうした要求に答えるため、AIによって行われた処理の根拠や透明性を求める声が高まっている。 AIの公平性(Faimess) 機械学習においてAIは学習の前提として例示されたデータを元に処理を獲得する。入力データに偏り(バイアス)があった場合、その出力結果は公平性を欠いたものとなる可能性があるため、AIが公平なサービスを提供できるように入力データにはバイアスの排除が求められる。例として給与査定や人材配置など、人事分野でのAI適用などを検討するケースにおいて公平性が特に求められる。 AIの説明責任(Accountabillity) 学習した過去のデータをインプットとして、未来の推論結果を出力するような場合、誤った答えを出力する可能性がある。こうした事態に、入力データ、出力データ、及び処理内容から、誤りの原因やその責任を明確化できることが求められる。こうした機能は、AIの使用者が悪意をもって問題を引き起こした場合などに、それを明確に示すことで、AIが行った処理自体の潔白を証明するためにも必要となる。 AIの透明性(Transparency) 問題発生時の影響が大きい場面でのAI利用では、AIの出力した結果を採用してよいかどうかを人間が判断する必要が出てくるため、AIの内部処理の情報を使用者が理解できる形で提示できることが求められる。 近年のAIにおいて求められる三つの原則に共通して求められる機能が「AIが学習によってどういう処理を獲得したか」「どういう根拠に基づいて出力を決定したか」といったロジックを説明できることであり、AIの内部処理が複雑になればなるほど困難な要求事項である。XAIはこうした処理の複雑さと説明可能性のトレードオフを解消するために提唱される新たな技術である。
※この「三つの原則」の解説は、「説明可能なAI」の解説の一部です。
「三つの原則」を含む「説明可能なAI」の記事については、「説明可能なAI」の概要を参照ください。
- 三つの原則のページへのリンク