世界で初めて人工知能(AI)を包括的に規制する欧州連合(EU、本部・ブリュッセル)の「AI法」が5月21日にEU理事会で承認され成立したとのこと。
日本政府は、5月22日にAI(人工知能)を巡る有識者会議「AI戦略会議」を開き、AIの法規制の議論を開始した模様。
EUとのスピードの違いがある現状で、日本のAI規制法は成立に向けて進むのだろうか。
EUのAI包括規制法について
規制法の要点
2024年5月21日、EUは世界初の包括的なAI規制法である「AI法(Artificial Intelligence Act)」を成立させました。
この法令は、AIシステムの安全性と倫理性を確保し、EU市民の権利を保護を目的としています。
この規制法は、2026年から施行される予定です。
- AIシステムの分類とリスク評価:
- AIシステムを4つのカテゴリー(許容不能、高リスク、限定リスク、低リスク)に分類
- それぞれのリスクレベルに応じて規制を適用します。
- 禁止対象となるAIシステム:
- 社会信用スコアシステムなど、個人の行動操作を目的とするAIシステム
- 顔認証を含む遠隔生体認証システムの公共の場でのリアルタイム利用(例外あり)
- 人々の尊厳や基本的権利を脅かすおそれのあるAIシステム
- 透明性の確保:
- 高リスクAIシステムの開発・運用者に対して、そのシステムの機能やリスクに関する情報の公開義務。
- ユーザーは、自身がAIシステムによって処理されていることを認識し、その処理に同意または拒否できる権利を有する。
- 監督と執行:
- 欧州委員会を中心に、EU加盟国が協力して規制法の遵守状況を監督する。
- 違反者には、最大3,500万ユーロまたは年間売上高の7%のいずれか高い方の制裁金が科される。
成立までの主な経緯
主な経緯の抜粋です。
- 2017年:
欧州委員会は、AI開発ガイドライン「Ethics Guidelines for Trustworthy AI」を策定 - 2019年:
欧州委員会は、ホワイトペーパー「Artificial Intelligence: A European Approach to Excellence and Trust」を発表し、包括的なAI規制法案の策定を表明 - 2021年:
欧州委員会は、AI法案を正式に提案 - 2023年:
欧州議会とEU理事会は、暫定合意した。 - 2024年:
欧州議会が最終案を可決し、EU理事会が最終案を承認。
規制法が必要と考える懸念事項
AIシステムの主な懸念・問題を紹介します。
これらを守るために法規制が必要となります。
1. 人権侵害:
- AIシステムが差別的な判断を下す可能性がある
- プライバシー侵害や表現の自由の制限
- 顔認証技術の悪用
2. 安全性:
- AIシステムの誤作動による事故や被害
- サイバー攻撃によるAIシステムの乗っ取り
3. 社会への影響:
- 大量失業の引き起こし
- 人間社会の価値観や倫理観の変化
- 格差の拡大
4. 透明性の欠如:
- AIシステムの仕組みやアルゴリズムが不透明である
- 意思決定プロセスが説明できない
5. 責任の所在:
- AIシステムの開発・運用における責任の所在が不明確である
- 事故や被害が発生した場合の責任の所在
日本におけるAI規制法の議論
日本政府は、5月22日にAI(人工知能)を巡る有識者会議「AI戦略会議」を開き、AIの法規制の議論を開始したようです。
この時点で、開始となった推定要因は、以下と考えられないでしょうか。
- 技術革新の速度が速いため、法規制で対応するのが難しい
- 経済成長への影響を懸念している
- 国際的な議論がまだ十分に進んでいない
但し、政府もこれまでに議論をしてこなかったわけではないようです。
- 2020年: 内閣府「AI倫理指針」策定
- 2021年: 内閣府「AI開発・導入ガイドライン」策定
- 2022年: 経済産業省「AI白書」策定
- 2024年4月: 政府は、AIの悪用を防ぐための指針「AI倫理ガイドライン」を改訂し、より具体的な内容とした。
- 2024年4月: 政府は、AIの開発・運用における責任の所在を明確にするための検討を開始した。
民間企業におけるAI倫理に関する自主的な取り組みが進んでいます。
- 2020年: トヨタ自動車、富士通、NECなどが共同で「AI倫理コンソーシアム」を設立
- 2021年: ソフトバンクグループが「AI倫理憲章」を策定
アメリカのAI法規制の状況
米国では、現時点において包括的なAI規制法は制定されていないようです。
しかし、AI技術の発展に伴い、様々な懸念や問題が指摘されており、政府や議会、民間企業などで議論がされています。
主な論点は以下の通りです。
- 倫理: AIシステムの開発・運用における倫理的な問題
- 安全性: AIシステムの誤作動による事故や被害
- プライバシー: 個人情報の保護
- 偏見・差別: AIシステムによる差別的な判断
- 経済: AIによる雇用への影響
政府レベルの取り組みは進んでいるようです。
- 2019年: トランプ政権は、AI原則に関する大統領令を発表しました。
- 2021年: バイデン政権は、AIに関する包括的な戦略を策定しました。
- 2022年: 米国食品医薬品局(FDA)は、AI医療機器の規制枠組みを策定しました。
- 2023年: 連邦取引委員会(FTC)は、AIに関する消費者保護ガイドラインを発表しました。
議会では、以下のような法案が提出されています。
- 2020年: 「AI Accountability Act」:AIシステムの開発・運用における責任の所在を明確にする法案
- 2021年: 「Algorithmic Justice and Data Act of 2021」:AIシステムによる差別を防止する法案
- 2022年: 「Facial Recognition Privacy Act of 2022」:顔認証技術の使用を制限する法案
これらの法案はいずれもまだ可決されていませんが、今後の議論の焦点となることが予想されます。
民間企業では、以下のような取り組みが進められています。
- 2019年: Google、Amazon、Microsoft、Facebook、IBMなどが共同で「Partnership on AI」を設立
- 2020年: マイクロソフトが「AI原則」を発表
- 2021年: IBMが「AI倫理委員会」を設置
これらの取り組みは、自主的なガイドラインの形となっています。
これからも続く先へ
AI技術の進歩により、私たちの生活の中で知らないうちに活用されています。一刻も早い法的な整備が必要ではないでしょうか。
EUでの法規制成立をきっかけに、各国で急速に整備がされるでしょう。
重要であり、難しいのは、世界標準を制定させることではないでしょうか。
とうとう来た 地球統一の時代に!!