AI法とは? わかりやすく解説

Weblio 辞書 > 辞書・百科事典 > 百科事典 > AI法の意味・解説 

AI法

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2025/04/01 18:48 UTC 版)

規則 (EU) 2024/1689
欧州連合規則
EEA適用対象
名称 Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) (Text with EEA relevance)
適用範囲 全EU加盟国およびEEA
制定者 欧州議会欧州連合理事会の共同採択 (通常立法手続)
法源 EU機能条約[1]
EU官報 L, 2024/1689
沿革
欧州議会
賛成票数
523 / 618

(2024年3月13日可決)[2][3]
欧州連合理事会
賛成票数
27 / 27

(2024年5月21日可決)[3][4]:2
制定日 2024年6月13日[1]
発効日 2024年8月1日[1]
適用日 2025年2月2日より条文ごとに段階的に適用開始[1]
立法審議文書
欧州委員会提案 COM/2021/206 (Document 52021PC0206、2021年4月21日提案)
EESC
意見書
EESC 2021/02482 (2021年9月22日提出)[3]
CR
意見書
COR 2021/02682 (2021年12月2日提出)[3]
その他審議資料 欧州中央銀行 意見書: CON/2021/40 (2021年12月29日提出)[3]
関連法令
改正対象
現行法

AI法 (エーアイほう、別称: AI規則[5][6]: the Artificial Intelligence Act)[注 1]は、欧州連合(EU)による世界初の人工知能(AI)に関する包括的な規制法である[12][注 2]。AI法は信頼性の高いAIの導入を促進しつつ、有害リスク度に応じて (1) 許容できないリスク、(2) 高リスク、(3) 限定的なリスク、(4) 最小限のリスクの4レベルに分類して異なる規制や義務を課す[14][5]。違反時にはレベルごとに異なる制裁金が科される[15]

またリスク分類とは別に、「汎用AIモデル(: general-purpose AI models、略称: GPAI)」を対象とした特別規定もAI法では追加で設けている[16]。AI法の立法過程では、汎用AIモデルの代表例としてChatGPTGemini(旧名: Bard)といった生成AI欧州議会から名指しされ[17]、差別や偽情報といった有害コンテンツの生成や、個人情報の不適切な取扱などの懸念が呈されている[18]

仮に日本や米国などのEU域外で設立された団体や他国民が開発したAIでも、それがEU域内に輸入されて販売・利用されればAI法の規制対象になる (いわゆる域外適用)[19]。ただし、軍事・防衛や科学研究に特化したAIなど、一部条件に合致するAIは同法の規制対象から除外されている[16]

AI法は禁止事項や義務を規制当局からトップダウンで示すだけでなく、AIに従事する事業者が行動規範 (Code of Conduct)[20][21]や実践規範 (Code of Practice)[22][23]を自律的に定めて運用していくボトムアップのアプローチも併用している。またEU基準に適合したAIには民間非営利団体からCEマークが付与され、安全性が可視化される[24]。EUの行政執行機関である欧州委員会内にAIオフィスが設置されており、こうした官民連携の調整・推進役を担っている[25]

AI法は2024年8月1日に発効[26]、条文ごとに段階的に適用を開始する[1][27]。(1) 許容できないリスクのAIシステムは2025年2月2日に原則禁止となる[注 3]

規制対象の定義と規制内容

以下のとおり、AI法では「何」(システムの種類) および「誰」(AIに携わる者の種類) を規制対象に含めるのかを分類している。

なお、立法過程では当初法案から数千か所に修正が加えられており[28]、AI「法案」を解説した文献は古い条文案に基づいていて正確性を欠く可能性があるため、参照時には留意が必要である。

規制対象システムの分類

  • システム全般
    • AIシステム
      • AI法における規制対象内
        • Weak or Narrow AI (ANI)
        • Strong or General AI (AGI)
          • 汎用AIモデル (General-purpose AI models、略称: GPAI)
            • システミックリスク (Systemic risk) を有するGPAI
            • システミックリスクを有さないGPAI
      • AI法における規制対象外
    • AI以外の一般的なソフトウェア

AI法が想定するAIと一般的なソフトウェアの相違点であるが、自律的な動作や予測・推奨コンテンツの生成といった特徴が挙げられ[29][30]、このようなAIの要件定義は国際機関の経済協力開発機構 (OECD) で用いられているものと類似している[30]

AIシステム全般に対し、4段階のリスク度に応じた規制・義務をAI法では規定している。AI法ではこれを「リスクベースアプローチ」と呼んでいる[31][14]。汎用AIモデル (GPAI) は5つ目のリスク分類ではなく、4段階のリスク分類とは別軸で捉えられている[32]

AI法の規制対象システム

汎用AIモデルとは何かについて、AI法の立法者である欧州議会でさえも「確固とした定義はない」とことわりを入れている[17]。その上で、アルゴリズムやその背景にある理論上の観点から "Weak or Narrow AI" (ANI) と "Strong or General AI" (AGI) にAI全般を二分している[注 4]。特定目的に特化したAIであるANIとは、たとえば画像認識や音声スピーチ認識といった、特定の目的に沿ってデータを処理するAIシステムである[17]。一方、多用途で影響力の大きいAGIは、たとえば自然言語 (プログラミング言語ではなく人々が日常的に会話や文書で使用する言語) で記述された大量のデータを読み取るだけでなく、ディープラーニング (深層学習) 技術によって文脈なども理解できる大規模言語モデル (LLM) などを備えており、こうした革新的な技術を用いている点でANIとは異なる[17]。換言するとAGIとは、人間の知的なタスク処理を代行しうるシステムを指す[33]

こうした高度なタスク処理が可能なAGIのうち、特にテキスト文書やイメージ画像、動画などのコンテンツを生成できる能力を持つものを、AI法では「汎用AIモデル」と呼んでいる[17]。欧州議会では汎用AIモデルの例として、ChatGPT (Microsoft社と提携関係にある団体OpenAIが開発) やGemini (旧称: Bard、Google傘下による開発) の名前を挙げている[17]。このような汎用AIモデルは、さまざまなシステムやサービスの基礎・基盤としての重要な役割を担う一方で[17]、倫理的・社会的な問題を引き起こすリスクが懸念されている[18]。たとえば、人種差別や暴力、レッテル張りするようなコンテンツの生成、個人情報や機微情報の取扱不備、偽情報や詐欺情報の生成といった問題が具体的に挙げられる[18]

なお、AI「システム」とAI「モデル」は別個の概念としてAI法では用語を使い分けている。AIモデルはAIシステムに統合され (組み込まれ) た形で用いられる[34]。そのためシステム開発プロセスの概念上はモデルが川上、システムが川下 (Downstream) の位置づけになっている[34]

以下、AIシステム別の定義や義務、規制行為を解説する。

(1) 許容できないリスク

許容できないリスク (: Unacceptable risk) のあるAIは重大な危害を与えうるため[35]、AI法 第5条第1項に基づいて禁止される[36]。同条項の (a)号から (h)号で禁止される利用方法が具体的に列記されている[37][38]。うち (e)号から (h)号の4項目は生体データ関連である[39]

  • (a)号: サブリミナル技術 - AI法の前文 (29) によると、音声または画像、映像を人間が意識的に知覚できない方法で表示させる、あるいは人の自律的な意思決定を歪める欺瞞的な技術を指す[注 5]
  • (b)号: 脆弱性の悪用 - 特定の年齢層、障害の有無、社会経済的地位といった個人ないし集団の特徴を悪用し、重大な損害などを与えうるシステム[40][41]
  • (c)号: ソーシャルスコアリング - ソーシャルスコアリングとは、個人の日常生活の言動が監視され、社会全体にとってどの程度有益か社会信用がスコア (数値) で評価される仕組みである[42]。AI法では、社会的行動や人格的特徴に基づいて人々を不当にランク付けするAIシステムのうち、特に分析データの元の文脈と乖離している、あるいはスコアリングによって不当・不公平な影響をおよぼすものを禁じる[43][39][41][注 6]
  • (d)号: 犯罪予測 - 犯罪捜査で用いられるプロファイリングなどによって、個々人が犯罪を犯すリスクを評価・予測するシステム (ただし犯罪に直結する客観的事実に基づいた人物評価の場合を除く)[39][41]
  • (e)号: 顔画像のスクレイピング (データ収集・抽出) - インターネットあるいは監視カメラ (CCTV) から無差別に顔画像を収集して作成されたデータベース[39][41]
  • (f)号: 感情推測 - 職場ないし教育機関で用いる場合は原則禁止 (ただし、治療目的といった医療上ないし安全上の理由を除く)[39][41]
  • (g)号: 生体分類 (属性推定システム) - 人種、政治的意見、労働組合への加入、宗教・思想上の信条、性生活・性的指向を推測するシステム[39][41]
  • (h)号: リアルタイム・リモート生体識別 (略称: RBI) - 警察などの法執行機関によるAI常時監視システムは原則禁止 (ただし行方不明者の捜索やテロ犯罪組織の容疑者の位置特定といった深刻な状況下は特例として除外する[注 7])[45][2]

(a)号の欺瞞的なサブリミナル技術と (b)号の脆弱性の悪用については、情報法専門家による欺瞞的な (人を欺くような) システムデザインの観点からの論考がある。AI法成立以前にも欺瞞的なデザインは存在し、「ダークパターン」(Dark patterns) の総称で知られていた[46]。ダークパターンの身近な具体例を挙げると、航空チケット予約サイトで追加オプションサービスがデフォルトで選択されているようなウェブデザインである。オプションを希望しないユーザーの一部はこれに気付かずに購入してしまう[47]。こうした表層的なユーザーインターフェース (UI) のテクニックだけでなく、専門家の知見と技術なしでは見破るのが非常に困難なシステムアーキテクチャー (システムの根本的な設計) におよぶ欺瞞的なデザインが問題視されている[47]

欺瞞的なデザイン技術「ダークパターン」の一例。カウントダウンを表示してタイムセールで消費者を煽る。チェックボックスは二重否定の分かりづらい表現。

AI法以前は主に2つの側面からこうした欺瞞的デザインへの対応を試みてきた。まず消費者保護や悪徳商法取締の切り口から、2005年制定の不公正取引慣行指令英語版 (略称: UCPD) をはじめとする欧州消費者法英語版の改正である[48]。もう一つの切り口が、2016年制定のEU一般データ保護規則 (略称: GDPR 、Regulation (EU) 2016/679) による個人データ保護や[48]、さらにユーザーの保護範囲を広げた2022年制定のデジタルサービス法 (略称: DSA、Regulation (EU) 2022/2065) である[49]。DSAの第25条(1)項はダークパターン対策が意識されており、ユーザーの自律的な意思決定を歪めるような欺瞞的デザインを禁じている[49]。しかしDSAは条文の文言に曖昧さがあり、GDPRやUCPDといった他法と部分的に重複しうる[49]。また日進月歩の欺瞞的デザインに対し、「オンライン・プラットフォーム」にしか適用されないDSAはどこまで有効なのか、疑問も呈されている[49]

一方AI法の第5条は、不公正取引慣行指令やDSAの第25条だけではカバーしきれないタイプの欺瞞的なデザインにも対応しうると考えられている[50]。その一つが、アルゴリズムに深く根差した欺瞞的デザイン (Algorithmic manipulation) である。このタイプはたとえば、過去履歴に基づいてユーザーごとにカスタマイズしたコンテンツ表示されるアルゴリズムによって、無意識のうちに偏った情報にばかりユーザーが触れてしまう「エコーチェンバー現象」が問題視されている[51]。もう一つのタイプが、システム依存を起こす欺瞞的デザイン (System dependency and control) である。その特徴として「ネットワーク効果」がある[52]。ネットワーク効果とは、SNSのようなデジタル・プラットフォームがひとたび多くのユーザーを獲得すると、既存ユーザーが新規潜在ユーザーを呼び込む、あるいはオンラインショッピングのように新規出店者を呼び込む現象である[53][54]。その結果、魅力的な代替サービスが新たに登場しても乗り換えづらくなってさらにユーザー数が増える連鎖現象が確認されている[53]

(c)号のソーシャルスコアリングもAIとの親和性が高い。これはAIが人の顔認証や言動分析に長けていることから、スコアリングに必要な監視データの解析に利用できるためである[42]。低スコアの評価が下された個人は、利用できる教育機会や医療サービス、公共財に制限がかかるといった使い方が想定される[42]。ただし倫理面で問題を抱えていることから、ソーシャルスコアリングの制度を導入しているのは世界的にも中国政府のみの状況である[42]

ところが社会全体ではなく、よりミクロなレベルで見るとたとえば配車サービスの米系企業Uberはトラブルのあった利用客をブラックリスト入りさせる仕組みを運用している。また米国ニューヨークでは、ソーシャルメディア上の言動を元に保険会社が保険加入者の保険料を個別設定する商慣行が認められている。こうしたミクロなレベルでは欧米諸国でもソーシャルスコアリングは行われているのが実態である[42]。ソーシャルスコアリングにAIを活用するには、高い精度の監視データと解析能力が前提となるが、実際にはバイアスのかかったデータが混じったり、不当なスコアリング結果を出してしまう技術的な問題が指摘されている。これに対応すべくAI法第5条で不当なソーシャルスコアリングを行うAIが禁止された[42]

(2) 高リスク

高リスク (: High risk) なAIシステムは以下の2カテゴリーに分類される[55][56]

  • 第1カテゴリー【既存】: 身体などの安全性にかかわるリスク - AI法成立以前のEU諸法で安全面の観点から既に規制を受けていた製品。ここで言う「諸法」はAI法の附則 1 (Annex I) のSection AおよびBで計20本列記されており、玩具や船舶、エレベーターや医療機器などが規制製品対象に含まれる。これら諸法で「第三者による適合性評価義務の対象」と指定されている場合に限る[注 8][注 9]
  • 第2カテゴリー【新規】: 基本的人権などにかかわるリスク - AI法成立で新たに規制を受ける領域[55]。AI法の附則 3 (Annex III) で8領域が列記されているが[55][16]、EU行政機関である欧州委員会による委任法令[注 10]で別途、この8領域に追加・修正・削除が可能となっている[16]
    • 生体認証
    • 重要インフラの安全部品 (通信、交通、水道、ガス、電力など)
    • 教育・職業訓練 (教育機関などへの入学割当、学習評価、テスト中の監視など)
    • 労務 (人材選考採用、昇進・解雇・給与などの労務管理、職務分掌・役割分担の決定など)
    • 公共性の高いサービスの利用判断 (公的給付金の個人審査、クレジットカードの個人信用調査、生命保険や健康保険の保険料率個別計算、警察・消防・救急車などの対応優先度決定など)
    • 警察などの法執行 (犯罪被害者になるリスク評価、犯罪被疑者・再犯者の予測など)
    • 移民・亡命・国境管理 (不法移民のリスク評価、ポリグラフ (心拍や呼吸測定機) による移民・亡命審査など)
    • 司法手続および民主的手続 (司法当局による事実調査・法律解釈、選挙・住民投票に影響を与える行為など)

これらの領域にAIシステムが用いることは禁じられていない。しかしAIシステムの開発者や提供者にはリスク管理の手法文書化、リスク管理の組織体制構築、AIシステムの技術文書作成、AI学習データの品質管理、自動まかせにしない人的監視、異常検知と重大インシデントの当局報告、利用者がAIによる生成だと判別がつく透明性の担保といった義務が課される。具体的な義務は、AI法 第8条-第15条 (高リスクAIシステムが満たすべき要件)[58]、第16条-第25条[59]、第40条-第44条 (高リスクAIシステムの適合性評価手続)[60]、第48条-第51条[61]、第62条[59]、第72条 (市販後モニタリング)[62]、第73条 (インシデント報告義務)[63]も参照のこと。EU域外の者が提供する場合はEU域内代理人を指定し、これらの義務遂行を委任する必要がある[64]

なお#立法の沿革で後述のとおり、AI法は当初法案から数千か所の修正が加えられており、特に高リスクAIシステム関連の条項は2023年12月9日合意の三者対話英語版 (: trilogue、トリローグ) で加筆修正が多数加えられている[65][66][注 11]

(3) 限定的なリスク

限定的なリスク (: Limited risk) のAIシステムの例として生成AI (ディープフェイク含む[67])、対話型AI (チャットボット)、感情認識システムなどが挙げられる[31]。上述の (2) 高リスクではさまざまな義務が課されている一方、(3) 限定的なリスクでは利用者への透明化義務が課されているのみである[31]。ここでの「透明化義務」は第50条にて規定されており、チャットボットであればユーザーがAIとやりとりしていることが分かるようにする[68][69]。コンテンツ生成型のAIであれば、生成された画像や動画に電子透かしを入れる、ニュース記事内で明記するなどの方法で、AIの使用有無がコンテンツ閲覧者に判別がつくようにする[68][70]

第50条の透明化義務以外では、第95条で自主的な「行動規範」(Code of Conduct) に基づく開発・運用を求めている[20][21](#行動規範で詳述)。

(4) 最小限のリスク

最小限のリスク (: Minimal risk) しかないAIは、具体例としてスパムフィルタが挙げられる[32]。EUの行政機関である欧州委員会によると、大半のAIは (4) 最小限リスクに分類される[32]。このリスクレベルに該当するAIシステムは、原則として自由に利用が可能である。しかし (3) 限定的なリスクと同様、第95条の「行動規範」に基づく自主性が推奨されている[31](#行動規範で詳述)。

汎用AIモデル

AI法の草案作成当初は「汎用AIモデル」(general-purpose AI models、略称: GPAI) のリスクが十分に認識されていなかったことから、特別規定は盛り込まれていなかったが[18]、法案提出から1年あまりが経過した後に欧州連合理事会が追加修正案を提出し[28]、その後も修正を重ねて[28]特別規定を設けることとなった[16][32]。さらに汎用AIモデルのなかでも、「システミックリスク」(Systemic risk) を有するものについては追加の特別規定がある[71][72]。汎用AI「モデル」はAI「システム」とは異なるため、上述の4つのリスクレベルで分類されない。ただし汎用AI「モデル」が他のAI「システム」に組み込まれ、(2) 高リスクと判定された場合は、上述のリスクレベル別の義務も併せて負うことになる[73]

汎用AIモデル全般

汎用AIモデル全般に課される義務は第53条・第54条で規定されており、以下のとおりである[74][75][73]

  • 技術文書を作成し、最新の状態に更新 (文書に折り込むべき情報項目は附則11参照)
  • 汎用AIモデルを組み込むAIシステムの提供者に対し、当該汎用AIモデルの能力と限界を周知する文書を提供 (文書に折り込むべき情報項目は附則12参照)
  • EU著作権法、特にDSM著作権指令で定められたテキストおよびデータマイニング (略称: TDM) の適法要件を遵守
  • 汎用AIモデルが学習に使用したデータについて、包括的な概要を文書化・公開 (AIオフィスが提供する記入テンプレートを用いる)
  • EU域外が汎用AIモデルを提供する場合、域内代理人を指定

システミックリスク

システミックリスクを有する汎用AIモデルとは、学習に使用される計算能力が相当に高いことから[73]、公衆衛生・安全・治安・基本的人権といった重要な領域に対してEU広域に影響をおよぼしうるもの (high-impact capabilities) を指す[72]。第53条第1項に基づき、以下の措置を「追加」で講じる義務を負う[76]

  • モデル評価の実施
  • リスク評価と軽減対策
  • 重大インシデント発生時の当局報告と是正対応
  • サイバーセキュリティ対策

何をシステミックリスクを有する汎用AIモデルに指定すべきかについては、第51条で「高い影響力」の基準が示されている[72][71]




英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  
  •  AI法のページへのリンク

辞書ショートカット

すべての辞書の索引

「AI法」の関連用語

AI法のお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



AI法のページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
ウィキペディアウィキペディア
All text is available under the terms of the GNU Free Documentation License.
この記事は、ウィキペディアのAI法 (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。 Weblio辞書に掲載されているウィキペディアの記事も、全てGNU Free Documentation Licenseの元に提供されております。

©2025 GRAS Group, Inc.RSS