2025年1月に開催された世界経済フォーラムの年次総会(通称、ダボス会議)で、AIは主要テーマのひとつとして取り上げられ、機会やリスク、規制について議論された。
生成AIを含むAIの領域において、日本は世界各国の足並みから出遅れていると言われており、米国やEU、中国といった第1集団、英国やカナダ、イスラエル、韓国などの第2集団の後塵を拝し、第3集団に位置しているのが現状だ。日本をはじめ米国やEU、中国などの国や地域のAI法規制とAIガバナンスのあり方に詳しい弁護士の三部裕幸氏に、日本のAI法規制・AIガバナンスの現状と課題、配慮すべきポイントなどについて話を聞いた。
世界規模で急速に進むAI法規制・AIガバナンスの現状
OpenAIがChatGPTを2022年11月末にリリースして以降、生成AIが社会に急速に浸透している。それを受け、2023年の後半からAI法規制の議論が世界規模で急進展した。2016年頃からAI・IT法務を中心に担当する三部裕幸弁護士は、「欧米先進諸国は2019年頃からAI関連の重要リスクの検討を始め、詳細に分析を始めていました」と話す。
日本と世界各国のスタンスが異なるのは、米国やEU、英国、カナダは法的規制や制裁を伴う、いわゆる「ハードロー」の比重が高いことだ(図1参照)。EUでは、世界で初めてAIの横断型規制であるAI法(ハードローの比重が高い)が2024年に可決成立した。米国は分野ごとの既存の法令を活用する形を取りつつ、バイデン大統領が行政当局向けに大統領令を発令し、法的拘束力のあるルールの策定を含めた施策を当局に作らせてきた。英国もこの動きと比較的近い状況にある。いずれの国も、AIに関する法制度を整えなければいけないという問題意識を早くから持っていた。
また中国は、国家レジームの維持を目的に強制力のある法律を整えるという発想で、ハードロー主体のAI法規制を採用している。
こうした各国の動きに対し、日本は法的拘束力のない「ソフトロー」路線をとった。
図1米国・EU・英国・カナダ・中国のAI法規制の特徴
2023年後半発展
当局向けに大統領令を発令、
ハードローのウエイト高い
米国と同調する動き。
EUとは距離を置きつつも離れず
法的拘束力のないソフトロー重視
→2024年に軌道修正
AI法規制の議論は2023年後半に急進展したが、欧米諸国は2019年頃からAI関連の需要リスクを列挙し詳細に分析し、法令化の検討を進めていた。米国、EU、英国、カナダは自国と企業、国民の利益を守るためにリスクベースのAI法規制を必要とする。一方、中国は国家体制を守るために法規制を重視する。
出典:三部氏資料 Atsumi&Sakai 2024
「ソフトローとは、法的拘束力のないガイドラインや業界ルールなどです。罰則などのペナルティもなく、義務付けもしていません。その点、米国バイデン政権の大統領令は、ある省ではこうした対策を立て、別の省では厳しく義務付けし対処する、といったように攻撃リスクについてかなり想定されたものになっています。その結果、米国はEUよりも規制範囲が広くなりました。トランプ政権発足後も、この大統領令に基づく行政当局の施策の一部は引き継がれると見られます」(三部氏)
日本でのAI法規制の動きが後手に回った原因のひとつに、各国の方針についての捉え方の相違があったと三部氏は言う。
「EUも米国もハードローとソフトローを組み合わせた規制強化を進めていたのですが、日本は、AI法規制の世界の潮流は自主規制になる、と推測していたのです」
また、法規制によって保護するものも、日本と他の国や地域とでは異なっていた。
「米国、EU、カナダ、英国がAI法規制必要論に至ったのは、自国と企業、国民の利益を守るためで、そのためにはリスクをベースにした新たな法規制が必要でした。そのため、一部現行法もAIに適用して対処することとし、小さなリスクにはソフトローで対応しようとしたのです」(三部氏)
日本では、一部のAI開発者の心情に配慮したことも、対応の遅れにつながったのではないかと三部氏は分析する。
「実際には法規制がAI開発者たちを守ってくれるのです。私にご依頼くださる多くの開発者の方々は、そのことを理解しています。しかし、一部のAI開発者は逆に、法規制が自分たちの足かせになると誤解しているようです」と言う。
AI法規制がないことによる「4つのリスク」とは
三部氏は、AI法規制が未整備の状態にあることで、日本には「4つのリスク」があると指摘する(図2参照)。
1つ目は「悪意あるものから攻撃を受けるリスク」だ。AIリスク対策がなされておらず、法的拘束力がないソフトローでは、犯罪集団などからのAIによる攻撃を防ぐことが難しくなる可能性がある。
2つ目は「何が許されるか/許されないのかの羅針盤がないリスク」。羅針盤とは法律や民主主義に共通する価値観のことで、これに沿わないAIの利活用は社会的制裁を受けることとなる。AI規制法がないことにより、やってよいこととやってはいけないことの線引きが明確でないために起こった失敗例も散見される。例えば個人情報の恣意的な利用などである。
実際に、国内外で法的制裁にまで及ぶ事案が見られる。損害賠償請求のリスクもある。さらに株価の低迷や企業の社会的信用の失墜、さらに事業の撤退にまで追い込まれることもあるという。
「あらかじめ法律で基準が定められていれば、企業としてもAI活用で許容される範囲が理解しやすくなります」(三部氏)
3つ目が「現行法が障害となるリスク」である。三部氏は2016年からAI法務に携わってきた経験から、「AIは想像以上に現行法に抵触しやすい」という実感があるという。そのためAIに関する新たな法制度づくりにあわせて、AIに関わる現行法の洗い出しと緩和・改正、そして現行法の運用上の工夫が求められると指摘する。
生成AIの利用にあたっては、個人情報保護法や著作権法を侵害しないよう注意喚起されるケースが多いが、それらだけ気を付けていればよいということではない。
「現行法の課題について一例を挙げると、各分野特有の法律がAIビジネスの障害になりやすいのです。例えば医療サービスのAIは、医師法や救急救命士法などの医療・救命業務のプロフェッショナルに関する法律や医薬品医療機器等法に抵触することがあります」(三部氏)
自動車の自動運転技術なども、事故が起きた際に誰が法的責任を負うのかを特定しづらく、事故が起こってしまった場合は自動走行ビジネス関係者が責任を問われる事態になりかねないともいわれている。
そして4つ目が「海外との関連でのリスク」。「欧米諸国とAIに関する輸出入や投資、M&Aなどの取引を実行する際に、法律を揃えておいたほうがスムーズになるということは言うまでもありません」と三部氏は語る。
図2「ソフトロー」路線の4つのリスクと
AIを作って売る側・利用する側がはらむリスク
AI法規制がない場合のリスク
①悪意あるものから攻撃を受けるリスク
- ソフトロー中心では、権威主義的国家や犯罪集団等からのAI攻撃を防げない
- バックドア等のスパイウェアなどよりも、遥かに巧妙かつ効果的な攻撃のリスク
②何が許されるか/許されないかの羅針盤がないリスク
- 日本のような民主主義国では、民主主義の価値観に合わないAI利活用は社会的制裁を受ける
- AI法がないため、予見可能性が確保できないリスク
③現行法が障害となるリスク
- 現行法は、AIの登場を想定していないため、多くの場面でAI利活用を邪魔しかねない
④海外との関連でのリスク
- 欧米諸国間でAIルールが大きく異なれば、AIに関する輸出入・投資・M&Aの実行時に多くの障害に遭遇する
作って売る側
- ①セキュリティリスクなど
- ②そのAIの開発・販売が社会通念に反するリスク欧米の法制・トラブル事例などから読み取れるリスク
- ③使われる分野・場面ごとに、関係する現行法がそのAIを許容しないリスク
- ④輸出入時に法令の違いから発生するリスク
利用する側
- ①意図せぬ操作で攻撃を招くリスクなど
- ②そのAI利用が社会通念に反するリスク
欧米のトラブル事例などから読み取れるリスク
- ③現行法に関するリスク
現状、AI企業の開発者のリスクに対する悩みは②③④に関してである。①は近い将来、国とあらゆる企業の重大な課題となる。4つのリスクに対し、AIを開発し・販売する側、AIを利用する側の双方でリスクが異なるため、それぞれでリスクを特定して対処する必要がある。
出典:三部氏資料 Atsumi&Sakai 2024
AIガバナンスは柔軟な体制で常にリスク情報を共有することが最善策
日本にはまだまだ少ないAI法務の専門家であり、第一人者である三部氏のもとには、さまざまな企業からの依頼や相談が舞い込む。
「法務部門では、新たな技術であるAIの法的課題を扱いきれないことが多いのです。そこで技術担当者と話を進めることが多いのですが、彼らからは『ソフトロー路線がわかりにくい』という話をよく聞きます。AIは技術開発から社会実装の段階に入っており、世界各国でAI法規制のレベルが高まるなかで、AIガバナンスに関連する標準化が求められています。そのため、法規制と標準化の双方を整えてほしいという声が多く聞かれます」(三部氏)
AIに関し、日本では、2024年にソフトロー路線から世界各国に倣いハードロー路線に切り替わり、リスクを抑制するための法案が検討されている。ただ、三部氏によると、法案が成立しても、日本企業のAIガバナンスは欠かせず、そのAIガバナンスの現状は、大きく以下の4つに分けられるという。
- ①AI案件で重いリスクが感じられる場合には、あらかじめ法的・倫理的・社会制裁的な面から外部の専門家に相談している。
- ②AIリスクや法的課題などのセミナーを受講したり、自ら調べたりして対応しようとしている。
- ③行政機関のガイドラインを参考にし、迷いながら進めている。
- ④ガバナンスの必要を感じず、対策も取っていない。
①はAI技術を開発している企業の一部に見られ、リスクを常に考え、対処している点でよい対応といえる。しかし多くの企業は②③④の状況にあるという。②③は情報収集をしつつ、何らかの対応を考えている状態で、④は手つかずの会社ということになる。
三部氏のもとには、企業からAIに特化したガバナンス体制作りの相談も多く寄せられるが、そこでまず話すのは、特別な組織は不要ということだという。
AI法務の専門家が少ない状況で専任の組織がリスク管理を一手に抱えると、問題解決がかえって遠のいてしまう。また、自社のガバナンス体制で自己完結すると、AIを開発する側、利用する側双方にとってさまざまなシーンで生じうるAI特有のリスクが見過ごされがちになる。
「そこで私が勧めているのは、既存の部署をベースに組織間でAIのリスク情報が行きかう、風通しのいい柔軟な体制をつくることです。そして先に挙げた4つのリスクを抽出し、必要に応じてAI法務の専門家に相談することが重要です。リスクを常に社員間で共有する風土があることが最善のガバナンスだと考えます」(三部氏)
また、三部氏は企業向けのAIのリテラシーに関する教育も行っている。
「技術面やAIの歴史だけでなく、AIの4つのリスクについて説明したうえで、リスクに関わる情報評価の手法やレポート体制、情報を入手した場合の担当責任、そして対応力のある部門や外部の有識者や専門家にどのように相談するかの取り決めを含めてリテラシー教育を行っています」(三部氏)
実はこうした教育やマインドセットは、AIガバナンスの緩やかな体制作りにも重要になる。
生成AI活用で広がる可能性を阻害しないことがガバナンスのカギ
最後に、AI法務の最前線から日本のAI産業の技術開発を目の当たりにしてきた三部氏に、AI法規制やAIガバナンスを踏まえ、日本企業が生成AIビジネスを今後どのように展開していくとよいかを聞いた。
「業務改善への利用や後発となった生成AIの基本開発に向けた投資論議よりも、日本のAI産業が得意とする領域にヒト・モノ・カネの資源を集中し、新たな産業を輸出産業として育てることが重要だと考えます。画像・映像、金融、ゲーム、農業、災害対策、創薬などの領域で日本企業が有する高度な産業技術と生成AIの応用開発を組み合わせることで広がる可能性は、世界からも注目を集めつつあります。これらの領域で成長を遂げるためにも、イノベーションを阻害しないAI法規制や、それに伴うガバナンスを構築する必要があります」(三部氏)
Profile
三部裕幸氏
弁護士(第二東京弁護士会)、ニューヨーク州弁護士
渥美坂井法律事務所・外国法共同事業 パートナー
大阪大学招聘教授(社会技術共創研究センター)
早稲田大学法学部卒(2002年)。2003年司法修習終了、同年弁護士登録(第二東京弁護士会)。2016年からAI・ITに関する法務を中心として活動し、官庁・企業・大学の依頼を受け、欧州・米国・中国などを定期的に訪問。AI法制度や問題事例を調査し、各国の企業人・政府関係者・学者と交流。その知見を企業や政権与党・自民党へ提言の他、マスコミに登壇し、AI法務の啓蒙にも努める第一人者である。2020年より大阪大学(社会技術共創研究センター、通称ELSIセンター)招聘教授を兼任。