この記事では、規制法の構造やAI開発・利用に対する制約を正当化する根拠について解説します。

 

 

☆ 法規制と自由

 

世の中には非常に多様な種類の法律がありますが、合計2,000個程度ある法律群の中でも産業規制を目的としたものが割合的に見ればほとんどを占めているものと言えます。

 

一般論として、「法規制」を論ずる以前にまず憲法(や国際慣習法、条約等)に基づく様々な種類・次元における諸個人および法人の「自由」があって、これに何らかの政策目的から言わば例外的な状況としての「法規制」が及んでいるような図式として全体像を捉えるのが適当であると思います。例えば経済活動については、財産権や経済活動の自由(憲法§23)のある事から、この自由を公権力によって規制するにはそれを正当化できるに足る、憲法への適合性や国会の承認を得る等の手続上の要件を満たす必要があり、逆に言えばそれらを有さないならば自由への侵害(あるいは自由を侵害する自由との対立構造)となってしまう訳ですね。

 

※ なお国会により採択された「法律」意外にも、内閣府の命令である「政令」や各行政機関の長による「府省令」や「施行規則」、また地方自治体による「条例」等があり、以下に示す様々な産業分野を規制する法令等はこれらの関係から読み解いていく必要があります。

 

ある意味自明な法状態である「自由」に対して、例外的な状況を生じさせる様々な規制法を包括的に規律している法分野が「行政法」です。これは狭義に要約すれば「三権分立における行政府によって行われる、あらゆる政策的・統治行為に係る内部的な法規律」と言っていいと思います(行政法学分野では、行政法の基となる行政権そのものの定義や機能についての説明に関して、複数の学説的な立場が存在していますので、興味のある方は別途調べてみるのがいいでしょう)。また広義に言えば、政策的な規制の及ぶ産業等に関与する自然人・法人に対して及ぶ法令等までをも含むものと解する事もできます。

 

※ なお司法試験や公務員試験等における「行政法」で関していうなら、行政手続法、行政代執行法、行政不服審査法、行政事件訴訟法。国家賠償法、地方自治法、国家行政組織法や行政情報保護法などの法令を一括した分野がこれに当たります。

 

規制法といえば、例えば何らかの構造物を建築したい際には、建築基準法や各地域の条例等に従って目的となる地区の法律上の区分(市街地区や用途地域など)や建築規制等を事前にチェックしたり、また消防法等に従って相当の設備を組み入れたりなどする必要が生じますが、こうした建築基準や違反した場合の罰則等を体系的にまとめたものが概ねこれに当たるものと言えます。また、例えば飲食店やマッサージ店を開業する際には地域を管轄する役所や保健所から営業許可を得る必要があるし、自転車や自動車で移動する際にも道路交通法に配慮する必要があり、あるいは純粋に趣味でドローンを飛行させたいなどの場合にも、道交法や航空法、電波法等に抵触しない手段を選ばなければなりません。

 

このように何らかの事業を営む際にも、また私生活上においても何かと法政策的な規制が発生する場合の多いことから、特に他の業種や環境に影響を与え得るような類型のビジネスを行う上では法規制の有無には留意しておくべきであると言えるでしょう。

 

☆ AIと規制法

 

この点、IT産業の中でも特にAI分野について何らかの一般的な法規制はあるのか?と問われるなら、今のところは「無い」と答えるのが正しいと思います。勿論、AIを開発する上で必須となる教師データ等についても別記事で解説した通りに知的財産権が及ぶ場合があり、またAIを用いた製品やサービスが顧客やユーザーに何らかの損害を負わせた場合等にも、民法や刑法上の責任が発生する場合のあることは言うまでもありません。

 

しかし例えば中華人民共和国におけるような、国家の方針に反する様な趣旨の内容を生成するプログラムの禁止や共産党政権の宣伝活動を消極的に奨励する様な包括的な指針が示された体系的な法典を未だ存在していません。また他の例として、EU/欧州連合ではAIのリスクを4段階に区分した上での規制アプローチや域外適用の詳細な条件などが採用されていますが、そうした一般的な定義およびこれに基づく開発・運用・利用規制等は目下議論の只中にあるのが現状となっています。

 

そうした状況について、そもそもAIの何をどう「規制」する/すべきなのか?という観点で整理してみましょう。

 

上記で例に挙げた国家や国家集団、また米国や英国においては大まかに

 (a) 生成AIを開発する際に用いられる元のデータにおける人格権や財産権

 (b) 生成AIの出力した文字・記号や図像、音声等の内容

 (c) 生成AIを利用する事業者や一般ユーザーの在り方

といった三点に着目した規制が敷かれているものと整理できるかと思います。

 

国際的な比較やより詳しい論点整理については別記事に譲るとして、ここではそれらを正当化するロジックや対処法の解説を行います。

 

まず(a)についてですが、充分に実用的な生成AIを開発するためには、多様な分野から膨大な規模の教師データを収集する必要があり、またこれらを加工・変造・混合させたりする必要が生じます。この際、不可避的に著作権や商標権等を犯してしまう場面が生じないとも限らず、既にある知的財産法制の趣旨に鑑みれば、こうした場合における徒らな無断利用・盗用などは許されないことは言うまでもありませんね。他方で、あらゆる作品や情報等の権利者に逐一許可を取っていては、産業の発展や技術開発、国際競争へのフォローアップが望めないといった難点もまたあり、これに対応する形で例えば著作権法では30の4条において開発者の著作物利用が免責される場合を規定しています。何らかの情報に紐付く固有の知的財産権や人格権はもちろん重要ですが、他方で産業保護・育成の観点からは逆に前者に一定の制約を及ぼすのが相当である場面もあるという訳ですね。

 

また(b)について、例えば現在の生成AIはハルネーション/幻覚と言われるような、架空の固有名詞や根拠をさも実在するかのように提示してくる反応を生じる場合が少なからずあり、また教師データ・開発環境自体の瑕疵やバイアスによって差別的な表現や基本的人権といった概念に無頓着な挙動を起こす場面があります。既存のガイドラインや他国の立法例に鑑みてもこうした生成AIの振舞いは問題視されており、開発・運用側の経済活動や表現に係る自由をある程度制約した上でも、二次被害の予防等のためにあらかじめ法によって規律する事が正当化される領域であると言えましょう。

 

最後に(c)について。例えば近時では「ディープ・フェイク」という、実在する人物に極めて酷似した生成物を用いた架空の画像・映像を作成しSNS等に投稿することで、当人の名誉や社会的評価を毀損する事も可能となる高リスクな技術が問題となっていますが、これはどちらかと言えば技術そのものよりかは生成AIを利用するユーザーの側のモラルや法的責任の範疇の問題であると言えます。また、生成AIを利用する場面において著作権の所在確認や事実関係のファクト・チェックを経ずに過激な内容の記事を投稿し、濫りに分断や対立を煽ったりといった悪用の事例も上記の立法例や審議の過程で争点となっている所でした。この点も、開発者やプラットフォーム提供者に対して間接的に矯正するだけでは防ぐに足らず、ユーザーに対し直接に法的な規制を及ぼすのが相当となる事例であると言えるでしょう。

 

この記事で述べた事例はあくまで極一部のケースではありますが、自由と規制の調整がいかになされるかといった基礎の部分について解説を付しました。次回では日本国におけるAI規制立法の現状について解説します。