デジタル政策フォーラムアジェンダ2023
デジタル政策フォーラムは、2023年度にフォーカスするデジタル政策領域について「デジタル政策フォーラムアジェンダ2023」を発表しました。
詳しくはこちらをご覧ください。
アジェンダ2023(日)
Agenda 2023(Eng)
デジタル政策フォーラムは、2023年度にフォーカスするデジタル政策領域について「デジタル政策フォーラムアジェンダ2023」を発表しました。
詳しくはこちらをご覧ください。
アジェンダ2023(日)
Agenda 2023(Eng)
2024年12月6日
デジタル政策フォーラム(DPFJ)は、「AIガバナンスの枠組みの構築に向けて(Ver 2.0)」と題する提言を公表した。本フォーラムにおけるAIガバナンスに関する提言は、本年7月に公表した第一弾に続く“第二弾”。本稿では今回の提言の問題意識などについてご紹介したい。
AIガバナンスを巡る政府の議論は、これまで内閣府・総務省・経済産業省を中心に進められてきた。本年4月には、総務省と経済産業省が既存のガイドラインを統合・更新した「AI事業者ガイドライン(第1版)」を策定・公表した。このガイドラインは基本的なアプローチとして、「AIがもたらす社会的リスクの低減を図るとともに、AIのイノベーション及び活用を促進していくために、関係者による自主的な取組を促し、非拘束的なソフトローによって目的達成に導くゴールベースの考え方」(P2)を基本としている。これに対し、EUのAI法が本年8月に施行され、AIのリスクを4段階に分類して規制と連動させる新たな枠組みが始動している。こうした中、「AIガバナンスの領域において日本はソフトローを継続するのか、それとも新たにハードローを選択するのか」、そして「仮にハードローを選択するとすればどのような内容を盛り込むべきか」という点について、政府のAI戦略会議をはじめ各所で議論となっている状況にある。
本フォーラムは第一弾の提言において、AIガバナンスを巡る主要論点を整理した。その後、有識者の皆様のご意見を伺うとともに十数社に及ぶ企業関係者のインタビューを行い、またフォーラム内での議論を進めてきた。その結果、今回の第二弾の提言では、AI基本法を制定するとともに、具体の規律は民間を主体として運用し、過度の規制を回避するという「ガードレール的規律」を模索する方向性を示している。
第一弾の提言では、(1)AIリスクの最小化、(2)AIの利便性の最大限の享受、(3)こうした環境を自律的に実現する市場の創出という3つの目的を設定した上で、論点を9項目に整理したが、これは今回の提言でも維持している。
このうちリスク管理のあり方として、EUのAI法はリスクを4段階で評価するものだが、リスクの管理手法、リスク判断の主体、第三者への説明責任など運用面での不透明感(懸念)が、少なくとも現時点では拭い切れない。このため、AI開発におけるリスク管理については先回りの規制を回避するネガティブリスト方式とし、「人権・民主主義・法の支配」という基本原則にそぐわない開発活動は行わないという点をベースとしてリスクを自己評価(社会的に重要なサービスに密接に関連する場合は第三者評価)することを提案している。また、AIを実装してサービス提供などに利用するAIサービス提供事業者についても、AIを使っていることを契機として追加的な規制を課すのではなく、既存の業法など利用者保護のための現行の枠組みを活用することを基本とし、AIによる不当な差別的取り扱いの禁止等を提案している。その他、AIに対するサイバー攻撃対策、データ空間の健全性維持等の課題についても言及している。
一方、AIの利便性の最大限の享受という観点からは、国内企業での利用実態が試行的かつ部分的なものに留まっていることが企業インタビュー等から伺えることを踏まえ、こうした殻を打ち破り、地域が抱える課題、例えば教育や医療、さらに環境問題や防災・減災などの分野でAIを積極的に活用することとし、所要の政策支援を提案している。
また、AIが人間の雇用を喪失させるという議論について、新技術の登場により既存の雇用が失われるのは産業構造が変化する中では自然であり、既存の雇用形態や産業領域に固執するのではなく、AIを労働生産性の向上や新市場領域の創生に集中投入することが必要であり、こうした方向転換のための政策支援が必要としている。
さらに、健全な市場の育成という観点からは、例えばAI市場及び隣接市場において巨大AI企業による優越的地位の濫用を防止するための競争政策の能動的な展開、異なるAI間の相互運用性(interoperability)を確保するための国際連携、AIガバナンスに関する国際的なコンセンサスの醸成の必要性も指摘している。加えて、近い将来に登場するであろう汎用人工知能(General Artificial Intelligence)を念頭に置きつつ、「AIに自意識を持たせること」や「自己複製・改変能力を持たせることの是非」といった倫理的問題への対処についても、引き続き重要課題の一つとしている。
今回の提言はAIガバナンスを巡る活発な議論のための一つの「試案」であるが、本フォーラムでは、AIガバナンスをデジタル政策の主要議題の一つとして、引き続き検討を続けていく。そして、2024年というグローバルな選挙イヤーを経て多くの国で誕生した新政権がAIガバナンスの領域でどう動くのか、AI関連技術はどう進化するか等を踏まえつつ、2025年夏を目処に第三弾の提言をまとめたいと考えている。