この記事では、EU/欧州連合におけるAI技術・運用に係る法規制について概説します。

 

 

☆ EU法とは?

 

まず前提としてEU域内における法規制は、EU加盟各国の憲法や基本法、またこれらの下部に属する民法や刑法といった一般法に対し、「対等以上の地域国際法として」欧州連合設立等を定めるマーストリヒト条約(1992年調印)や欧州連合基本憲章(2000年起草)などが重複して存在し、効力を生ずる形で運用なされています。欧州連合は、加盟各国から1名ずつ選出された委員から構成され欧州法の起案や議論を行う欧州委員会、立法を担当し、5年毎に加盟国の有権者より直接選出される議員からなる欧州議会、及び各国の閣僚から構成される欧州理事会等により運営され、また独自の司法機関として欧州連合司法裁判所を備えています。

 

近年では、AI産業の市場規模ランキングにおいて世界第3位の地位にあるイギリスが2020年にEUを脱退した事でも大きな話題を集め、また宇露戦争に関してはウクライナ支援のための再軍備計画(25年3月)やEU加盟交渉に向けた議論が進展(22年2月にウクライナ側から加盟申請、24年6月に交渉開始)している点でも注目されています。

 

☆ 欧州版AI規制法について

 

 

さて、2024年5月に地域国際法として史上初となる包括的なAI規制法である「欧州AI規制法」が成立し、8月1日より発効されました。当該規制法はその内容に応じ、2030年末までに段階的に施行されていきます。

 

内容について見ていく前に、欧州におけるAI規制や投資政策の議論の経緯をチェックしましょう。

 

2017年

ロボティックスにかかる民法規則に関する欧州委員会への提言

2016年4月に開催されたロボット・AIの法的倫理的問題にまつわる公聴会のフォローアップ文書。民事責任等の明確化を提言。

2018年3月

AI・ロボティクス・自律システムに関する宣言

欧州委員会科学技術倫理グループ(EGE)による宣言。

    4月

欧州のAI

欧州委員会によるAI開発・規制戦略。

2019年4月

信頼できるAIのための倫理ガイドライン

欧州が設立したAIハイレベル専門家グループ(HLEG)によるガイドライン。

2020年7月

上記の改訂版

2019年末に行われた、350以上の企業組織を対象としたテストによるフィードバックに基づき改訂。

   10月

AI・ロボティクス・関連技術の倫理フレームワークに関する欧州議会への勧告

欧州議会による決議。

2021年4月

AI規則案

欧州委員会による統一法の制定に向けた法案。

2022年2月

AIに関するホワイトペーパー:優越と信頼に向けた欧州アプローチ

欧州委員会による法規制の検討。

 

そして欧州AI規制法は、

・人間中心

・安全、公正性の担保

・個人情報の保護

・機密性の保護

・多様性の尊重

・社会や環境への配慮

・透明性の確保

・説明責任の履行

といった原則を基礎として規律されており、AIの定義につき第3条(1)において「人工知能システム(AIシステム)」とは、本法附則に記載されている手法とアプローチの1つ以上を用いて開発され、人間が定義した特定の目的について、当該システムが相互作用する環境に影響を与えるようなコンテンツ、予測、レコメンデーション、意思決定などのアウトプットを生成できるソフトウェア」を意味するものとしていますが、これは米国や中国における定義より更に広く柔軟な解釈であるとされています。

 

また欧州AI規制法の特色としては、全体として「リスクベース」の定義・アプローチが採用されている点が挙げられるでしょう。具体的には以下となります。

 

種類

定義

規制内容

許容できないリスク

基本的人権に対する侵害といった、普遍的な価値に反するAI

AI適用の禁止

利用者の深層心理に作用するAIや諸個人の社会的評価を無断・秘密で算定する用途、また生体認証といった高度な個人情報のデータベース等

ハイリスク

人の健康や基本的人権、社会経済的な利益に影響を与え得るAI、また公共インフラに用いられるAIなど

規制法に定められる要件、また事前適合性の評価に準拠すること

既存の法規制と抵触する種のAI、例えば社会的評価の独善的な算定により雇用機会の均等を阻害する場合など。

特定の透明性が必要なリスク

高度な危険性は無いものの、透明性要件を満たす必要があるものと認められるAI

情報提供や開示、透明性確保の義務

人と自然に相互作用するAIや、感情推定や生体分類を行う場合、人物など現実世界に実在するものに酷似させたコンテンツなど。

最小リスク

上記のいずれにも該当しないもの

無制限(ただし、任意的に行為規範の遵守が求められる)

 

 

また、規制対象となる利害関係者の定義・分類は以下の通りです。

 

プロバイダー

AIシステムまたは汎用目的型AIモデルを開発し、市場に提供する、または自己の商標により運用する自然人、法人、公的機関等

デプロイヤー

純粋な私的利用を除く、AIシステムをその権限の下で使用する自然人、法人、公的機関等。

インポーター

第三国で設立された自然人または法人の名前または商標が付いたAIシステム等を欧州市場内で販売・提供する、EUに所在する自然人または法人

ディストリビューター

プロバイダー/インポーターに該当しない、AIシステムを欧州域内で利用できるようにする、市場内の自然人または法人

 

欧州 AI規制法は、上記のリスク分類・利害関係者の定義に基づいて、事業者への開発過程の記録保持、必要な場合における情報提供や各組織内でのテスト実施、関係当局との連携等を義務付けるといった建付けとなっています。

 

また、欧州AI規制法は開発や利用の場面でネガティブな規制を及ぼすだけでなく、第6章に中小企業への投資といったイノベーション支援措置についての規定を置くなど、産業を奨励すべき政策的な側面もある点にも注目すべきでしょう。例えば、サンドボックス環境を用いたAI開発の促進がこれに当たります。サンドボックス環境とはユーザーが普段利用する環境から隔離・保護された仮想環境を意味しますが、本法の定める一定の要件を満たし参加資格を得ることで、欧州のAI提供事業者はサービス開発環境の確保という点でメリットを得る事ができます(当該環境以外でのテストについては別途の規制が及ぼされます)。当該規定の適用・執行は26年8月までには開始するものとされていますが、今後の展開として、特に公益性が高い分野については一定の条件下で他目的にて収集された個人情報の利用の解禁や、またスタートアップや小規模事業者に向けたサンドボックス環境への優先的アクセスの確保といったように、産業育成を重視した方向性の導入も議論されています。

 

本法はEU域外に本店を置いている外国企業であっても何らかのAIサービスを域内において販売・提供等する場合には罰則等も含めて本法が適用されるものとされている点から、欧州市場を狙う他国のIT企業や事業主もこうした法規制へのリテラシーは必要となるでしょう。

 

☆ イギリスの動向

 

 

また一応、イギリスにおける規制法の動向についても見ていきましょう。先述の通り、同国は市場規模で換算すれば世界第3位のAI大国であるものの、20年時点で既に欧州連合を脱退してしまっているため、少なくとも国家としては直接的には本法は適用されません。

 

23年3月にイギリス政府が発表した白書によれば、積極的な投資を重視し、非立法主義のソフトロー・アプローチを旨とする方針を提示していたが、24年2月には一定の事業者・AI開発分野には法的拘束力のある規制を及ぼす事がむしろイノベーション促進に繋がり得るとの見解を示し、同年7月には議会単独過半数の議席を取り14年ぶりに政権を獲得した英国労働党のスターマー首相が、一定の分野・事業者を対象とするAI規制に向けた立法を目指す指針を明言しました。当該方針については現在も議論中ではありますが、25年2月にフランスで行われた「AIアクションサミット」における、開放的・包括的・倫理的な規制アプローチを旨とする共同声明に関してはアメリカとともに署名を拒否した点から、欧州におけるそれとは独自の立法指針を有している点が伺われるかと思われます。

 

欧州AI規制法が完全に適用されるまであと5年ほどは必要であり、また英米が欧州や中国との関係の中で、どのように包括的な規制法を制定していくかといった論点が今後の要点となるかと思います。

 

参照文献

https://www.soumu.go.jp/main_content/000848627.pdf(最終閲覧:2025/4/13)

https://www.yomiuri.co.jp/science/20250211-OYT1T50113/(最終閲覧:2025/4/13)

https://nuco.co.jp/blog/article/G7l529WO(最終閲覧:2025/4/13)

https://www.city-yuwa.com/wp/wp-content/uploads/2024/05/Newsletter_vol40.pdf(最終閲覧:2025/4/13)

https://www.jetro.go.jp/biznews/2019/04/17aa7120c9481135.html(最終閲覧:2025/4/13)

https://home.jeita.or.jp/cgi-bin/topics/detail.cgi?n=2693&ca=13&ca2=749(最終閲覧:2025/4/13)

https://www.keidanren.or.jp/policy/2020/077.html(最終閲覧:2025/4/13)

https://www.i-ise.com/jp/information/media/2020/20201104.pdf(最終閲覧:2025/4/13)

https://www.pwc.com/jp/ja/knowledge/column/awareness-cyber-security/generative-ai-regulation10.html(最終閲覧:2025/4/13)