EUで世界初のAI規制法が成立

2025年5月20日

海外流通トピックス

■業種・業態:小売業  
■キーワード:AI規制法/AI原則/AI規制法/OECD

AI規制法のイメージ画像

2024年5月、EU(欧州連合)で、AI(人工知能)に関する世界初の包括的な規制である「AI規制法(EU AI Act)」が成立しました。2030年12月までに、規制の内容に応じて段階的に施行されていきます。

AIリスクに対処し、ヨーロッパが世界的に主導的な役割を果たすように位置付けています。

その2カ月後の7月には米国上院の商業・科学・運輸委員会でも、人工知能(AI)やその他の新興技術の開発をめぐる世界的な競争で米国のリーダーシップを維持するため、「AIイノベーションの未来法案」が可決されました。

日本でも、2025年2月に「AI法案」(人工知能関連技術の研究開発及び活用の推進に関する法律案)が閣議決定され、国会に提出されています。

本稿ではAI規制法が生まれた背景から、米国、日本などの動きを含めてレポートします。

2019年に採択されたOECDの「AI原則」

AI原則のイメージ画像

世界のAIをめぐる動きは、2019年にOECD(経済協力開発機構)で採択された「AI原則」に基づいています。

AIの倫理的かつ責任ある利用を促進するために策定され、OECD加盟国をはじめとする多くの国々のAI政策に影響を与えました。

法的拘束力はありませんが、AIの開発や運用に当たっての指針を示しており、初の多国間の共通基準とされています。この原則は、以下のような重要なポイントを含んでいます。

  1. 人間中心の価値観
    AIは人間の価値観を尊重し、利益をもたらすべきであること
  2. 公平性
    差別や偏見を最小化し、平等性を促進する設計であること
  3. 透明性と説明責任
    AIシステムの仕組みが理解可能で、責任を持つべきであること
  4. 安全性とセキュリティ
    AIの使用が安全で、リスクが適切に管理されていること

このような「AI原則」が策定されたときには、AIが普及し始めたばかりで、用途は主にデータ分析などが中心。
規制が必要な社会的影響も限定的だったため、全体的な指針としては重要だったものの、具体的な法律や規制を制定する必要性がすぐには認識されませんでした。

AIチャットボットなど生成AIの急速な普及

AIチャットボットのイメージ画像

2023年に入ってから、OpenAIが開発した人間との対話に近い自然な文章を生成する「ChatGPT」や画像生成AIなど、生成AI技術が急速に進化。

「Microsoft Copilot」「Google Bard(現Gemini)」なども登場して、生成AIは分かりやすい対話形式と便利さが話題となりました。

SNSや各種メディアで大きく取り上げられたことも手伝い、わずか数カ月で世界中に広がりました。

この急速な普及は、ユーザーの好みやニーズに対応したパーソナライゼーションを通じて、業務効率化や創造性の向上にも大きく貢献しています。

商品検索にも、検索エンジンではなく、生成AIを使うユーザーが拡大しています。

業務でいえば、カスタマーサービスを自動化する「AIチャットボット」は、高く評価されています。

企業や店舗では、カスタマーサポートの最初の窓口としてAIチャットボットを導入することで、簡単な問い合わせを自動で処理できるようになります。

それまで担当していたオペレーターは、より複雑な問題に集中することによって、効率的な業務フローが実現し、顧客満足度も向上できます。

ネットショップ、金融サービス、教育、医療、エンターテインメントなど、さまざまな分野での応用や可能性が広がっており、社会全体の変革をもたらしています。

これにより、生成AIは単なるツールを超えて、より高度な社会的な役割を担うようになっています。

その一方、日常生活やビジネスに広く浸透することで倫理的問題、プライバシーの保護、フェイクコンテンツの生成など、AI技術の規制を急ぐ必要性が高まりました。

OECDは2024年5月、偽情報の拡散や知的財産権の侵害への対応を強化する「AI原則」を改定。これを加味して、同年5月にEUのAI規制法が成立したというわけです。

EU「AI規制法」ではリスクを4つに分類

AI法規制のイメージ画像

EUのAI規制法では、AIをそのリスクに応じて分類しています。

  1. 許容できないリスク
    意識的な操作、偽情報の拡散、人種・政治的意見など推測する生体認証分類システムなどは、社会的に深刻な影響を及ぼすとされ、全面的に禁止
  2. ハイリスク
    採用や信用評価など重要な判断に利用されるAIシステムなどは、開発者に対して厳格な規制が課され、技術文書や透明性の確保が必須
  3. 透明性のリスク
    AIチャットボットやディープフェイク(AIを用いて生成された偽物の画像や映像、音声、またはそれらを生成する技術)などは、ユーザーにAIであることを明示する義務が課される
  4. 最小リスク(規制は行われない)

この新しい法律は、開発場所を問わず、EU市場におけるAI製品に適用されます。
開発企業には、全世界売上高の最大7%に相当する罰金が科される可能性がありますが、導入企業にも、開発企業ほどではないものの一定の義務が発生します。
GPAI(※)では、ChatGPTやMicrosoft Copilotなどの生成AIも対象となるとのことで、開発企業には、ユーザーが正しく活用できるガイダンスの提供をしたり、システムの設計の機能について詳細に記載したりすることなどが求められます。

施行時期は規制内容に応じて分かれており、「1.許容できないリスク」は2025年2月から、GPAIモデルに関する規制は同年8月から、残りの多くの規定は2026年8月から施行される予定です。

※GPAI(Global Partnership on Artificial Intelligence)は、人間中心の考え方に立ち、「責任あるAI」の開発・利用を実現するため設立された国際的な官民連携組織(総務省より)

米国と日本の法案、そして中国の動き

AI法案のイメージ画像

米国の議会上院で可決された2024年7月の「AIイノベーションの未来法案」は、AI技術の革新を推進し、国際競争力を維持することを目的とした法案です。

研究開発の促進に重点を置いていますが、規制の側面も含まれています。

日本で閣議決定された2025年2月の「AI法案」は、AIの研究開発と活用を促進しつつ、透明性や倫理性を確保することを目的としています。

一方、2025年1月、中国で低コスト生成AI「DeepSeek」が登場し、ChatGPTに匹敵する存在として世界中で注目を集めました。

この技術は中国の家電製品にも次々と実装されて、普及が期待されていることから、中国政府は、AI技術の研究開発の支援策や規制を強化しています。
AI技術を活用したデジタル経済の発展を推進するための政策は進化しており、2030年までに世界をリードする目標に向けて具体的な取り組みが加速していくことでしょう。

(文)経済ジャーナリスト 嶋津典代
発行・編集文責:株式会社アール・アイ・シー
代表取締役 毛利英昭

※当記事は2025年4月時点のものです。
時間の経過などによって内容が異なる場合があります。あらかじめご了承ください。