第427回 消費者委員会本会議 議事録
日時
2024年3月26日(火)13:00~15:31
場所
消費者委員会会議室及びテレビ会議
出席者
-
- 【委員】
- (会議室)鹿野委員長、黒木委員長代理、小野委員、中田委員
- (テレビ会議)大澤委員、柿沼委員、原田委員
-
- 【説明者】
- 内閣府科学技術・イノベーション推進事務局 菅田参事官
- 総務省情報流通行政局 山野参事官
- 経済産業省商務情報政策局情報経済課 橘情報政策企画調整官
- 消費者庁消費者政策課 尾原課長
- 一橋大学大学院法学研究科 生貝教授
-
- 【事務局】
- 小林事務局長、後藤審議官、友行参事官
議事次第
- 消費者基本計画の検証・評価・監視(AIと消費者保護)
- 消費者をエンパワーするデジタル技術に関する専門調査会の設置について
- その他
配布資料 (資料は全てPDF形式となります。)
- 議事次第(PDF形式:89KB)
- 【資料1】 内閣府科学技術・イノベーション推進事務局提出資料(PDF形式:1124KB)
- 【資料2】 「AI事業者ガイドライン案」に対するご意見及びその考え方について(総務省・経済産業省提出資料)(PDF形式:922KB)
- 【資料3】 AIと消費者保護:EUのAI関連法制の観点から(生貝氏提出資料)(PDF形式:1341KB)
- 【資料4】 消費者をエンパワーするデジタル技術に関する専門調査会設置・運営規程(案)(PDF形式:127KB)
- 【参考資料1-1】 答申書(PDF形式:240KB)
- 【参考資料1-2】 答申書(PDF形式:199KB)
- 【参考資料2】 消費者委員会に寄せられた要望書・意見書・声明文等一覧(2月分)(PDF形式:180KB)
- 【参考資料3】 委員間打合せ概要メモ(PDF形式:130KB)
《1. 開会》
○鹿野委員長 本日は、お忙しいところお集まりいただき、ありがとうございます。
定刻になりましたので、ただいまから、第427回「消費者委員会本会議」を開催いたします。
本日は、黒木委員長代理、小野委員、中田委員、そして、私、鹿野が会議室にて出席しております。
また、大澤委員、柿沼委員、原田委員が、オンラインにて御出席されております。
本日、今村委員、星野委員、山本委員は、所用のため御欠席です。
原田委員は15時頃、所用のため御退室予定と伺っております。
それでは、本日の会議の進め方等について、事務局より御説明をお願いします。
○友行参事官 本日もテレビ会議システムを活用して進行いたします。
配付資料は、議事次第に記載のとおりでございます。もし、お手元の資料に不足等がございましたら、事務局までお申し出くださいますようお願いいたします。
以上でございます。
○鹿野委員長 ありがとうございました。
《2. 消費者基本計画の検証・評価・監視(AIと消費者保護)》
○鹿野委員長 本日の最初の議題は「消費者基本計画の検証・評価・監視」の一環として、AIと消費者保護について御議論いただきます。
AI関連技術の利用機会と様々な可能性は、非常に拡大をしてきました。特に近年台頭してきた対話型の生成AIによって、多くの人がAIを様々な用途に容易に活用できるようになっており、いわゆるAIの民主化が進展しているとも言われるところです。
AIの技術の進化は、消費者の利益の増進につながる一方で、消費者問題の増大や多様化と新たなリスクや課題を生む恐れもあります。
このような急激な変化への対応には、多様な主体の連携による重層的な体制やルールの整備が重要です。また、消費者のAIリテラシーの向上も課題として考えられるところでございます。
そこで、本日は、AIに関する関係府省庁の取組の状況や、海外の規制等について確認し、消費者保護の観点から必要な方策等について意見交換を行いたいと思います。
本日は、関係省庁として、内閣府科学技術・イノベーション推進事務局の菅田参事官、総務省情報流通行政局の山野参事官、経済産業省商務情報政策局情報経済課の橘情報政策企画調整官にオンラインで、御出席いただいています。
また、有識者として、一橋大学大学院法学研究科の生貝教授にもオンラインにて御出席いただいております。
さらに、質疑対応として、消費者庁消費者政策課の尾原課長に会議室にて御出席いただいております。
皆様、お忙しいところ、誠にありがとうございます。
本日の進め方ですが、内閣府、総務省と経済産業省、生貝教授の順でそれぞれ御説明いただき、その後、全体としての質疑応答の時間を、予定としては40分程度とりたいと考えております。
それでは、まず、最初に内閣府の菅田参事官から15分程度で御説明をお願いします。
○内閣府科学技術・イノベーション推進事務局菅田参事官 内閣府科学技術・イノベーション推進事務局の菅田でございます。
本日は、AIのメリット、それに伴って生じるリスク、それから、これまでのAI戦略会議での議論の動向、最近、設立しましたAIセーフティ・インスティテュート、こちらは、AIの安全性の評価を検討する機関ですけれども、これらについて御説明させていただきたいと思っております。
まず、1ページ目のAIのメリット、リスクでございますが、これは、皆様御案内のとおり、先ほども御説明がありましたように、AIというのは、日本の社会、産業の至る分野で、今、使われ出してきております。
金融、医療、教育、行政等、様々な機関でこの技術が使われていまして、特に最近、生成AIというものが出てくることによって、飛躍的なイノベーションが起こりました。
一方で、リスクにつきましても、市場等で様々なリスクがあるということが指摘されています。
具体的には、図に書いてありますように、例えば、AIのメリットとしましては、コールセンターで労働力不足を解消する、あるいは事務作業として、要約、議事録、こういったものをAIにやらせて効率化する。あるいは医師の診断を補助するような形で、病気の早期発見など、こういった検討がされています。
今後さらに、素材とか新薬の開発に、このAIが活用されていく。また、さらには災害予測、こういったところの地球規模の課題解決に向けても、検討が進められているところであります。
一方で、先ほど申し上げたリスクにつきましては、例えば、機密情報の漏えいとかです。犯罪の巧妙化、それから、偽情報による社会の不安定化、こういった様々な懸念が出ております。
そこで、2ページ目でございますけれども、政府としましては、AI戦略会議を昨年5月に立ち上げまして、生成AIの登場による劇的なAIの技術変化、これを踏まえた検討をするということと、並行いたしまして、国際的な議論も急速に進展しており、例えば、G7広島サミットで、信頼できるAIの実現に向けた議論を開始しております。これは、いわゆる広島AIプロセスというものでございます。
こうした動きを踏まえまして、AI戦略会議では、昨年5月26日に、暫定的な論点整理を行いました。この中で、大きく3つのカテゴリーを分けていまして、1つは、国際的議論とリスクへの対応、これを喫緊の課題としてやるべきであるとされ、オレンジ色の部分でございます。
それから、緑の部分で、AIの利活用を進めていこうということ、3点目が、もちろん日本の産業競争力強化のために、AI開発力を強化しなければいけないと、こういった大きな論点ごとに議論を重ねてまいりました。
一番下段に書いてあります、紺でハッチングしてあるところでございますが、それを踏まえましてAI戦略会議には、関係省庁が多く集まっていますけれども、それぞれ担当する省庁において、具体的な取組を加速させていっているところでございます。
例えば、オレンジのリスクの部分に関しましては、個人情報保護委員会が、生成AIサービスを利用する際の注意喚起をしています。また、先ほど御説明した広島AIプロセスを進めていまして、昨年12月、包括的な政策枠組みに合意しています。
それから、この後に説明します、AIセーフティ・インスティテュートを設立しましたといった話もございます。
さらに、今、著作権あるいは著作権以外の知財に関する取りまとめが行われているところでございます。
後ほど説明いただくAI事業者ガイドラインも、今、取りまとめ中でございます。
続いて、AIの安全性につきまして、AIセーフティ・インスティテュートをAISIと言っておりますけれども、この設立につきまして、若干補足させていただきます。
AIの安全性は、国際的に非常に関心が高まっておりまして、当初は昨年の11月の英国で開催されましたAI安全性サミット、こちらを発端といたしまして、アメリカ、そして日本と、安全性評価を進めていかなければいけないという機運が高まりました。
日本では、具体的には2月14日にAISIを設立しまして、実際は、IPA独立行政法人情報処理推進機構にその機関を置きまして、現在、AIの安全性評価に関する基準や手法を確立すべく検討を開始しているところであります。
所長には、元日本IBMで、現在、損保ジャパンのCDOでいらっしゃる村上明子氏が就任されました。
実際どういう業務をやっていくかと言いますと、安全性評価に関する調査、基準等の検討であります。
より具体的には、標準を検討したり、安全かどうかをチェックするツールを検討したり、それから、行く行くはAIのテスト環境を構築することも含めて検討していくものです。
このAIの安全性につきましては、英国、米国、こういった先進国あるいは今後設置されるであろう他国との協力関係、国際連携が重要になって、こういったところの連携を強めていくことが重要かと思っています。
関係省庁には、10省庁、非常に大きな広がりのある分野をAIは使われますので、そういった意味で10省庁が参加しての検討となっており、また、技術的な要素は多く含まれるため、関係する省庁の4機関からも参加いただいております。
次に4ページ目でございますが、具体的にどういう体制かと言いますと、AISIというのは、先ほど申し上げましたIPAの下に設置されておりますけれども、真ん中の上のところのAISI関係府省庁等連絡会議を設置しております。こちらは、どういう機能かと言いますと、AISIの活動に、政府として大きな方針を示す会議ということで、関係省庁と関係研究機関が構成員となりまして、方針を示し、AISIは、その方針のもとに運営していただくということになっております。
最後に各国の動向ですけれども、次のページでございますが、同様に英国と米国にAIセーフティ・インスティテュートができており、英国のAI安全性サミットが最初に開催され、英国でUK AISIが設立され、これを受けて、米国でもUS AISIという形で設置されました。
英国の場合は、どちらかというと、技術評価自身を検討していくということでございますが、米国の場合、安全性評価のためのガイドラインあるいはツールを実際に作っていくといったものでございます。
日本も英米の動きをウオッチし、連携しながら安全性評価に関する調査や技術的な検討を行っていきたいと考えております。
以上でございます。
○鹿野委員長 ありがとうございました。
続きまして、経済産業省の橘情報政策企画調整官より、15分程度で御説明をお願いします。
○経済産業省商務情報政策局情報経済課橘情報政策企画調整官 代表して経済産業省から御説明いたします。経済産業省の橘です。よろしくお願いいたします。
今年度、総務省と進めてきましたAI事業者ガイドラインの取りまとめ状況につきまして、これまでの経緯に加えて、先日行った意見照会、パブリックコメントの結果について、簡単に御説明いたします。
先ほど内閣府からも説明があったとおり、生成AIの出現によりまして、AIのリスクに関心が高まり、政府としましてもAI戦略会議を立ち上げ、昨年5月にAIに関する暫定的な論点整理を発表いたしました。
その中で、AIは便益とリスクの双方をもたらす存在でありまして、イノベーション促進と規律の確保のバランスを取ることの重要性が書かれております。
幅広い事業者がリスクに応じてAIを使いこなせるよう、後押しするために、総務省と経済産業省が事務局となりまして、既存の事業者向けのガイドライン、すなわち総務省の、小さく書いてありますが、AI開発ガイドライン、AI利活用ガイドライン、そして経済産業省のAI原則実践のためのガバナンスガイドライン、この3つの単位を統合し、アップデートすることに着手いたしました。
なお、このガイドラインの対象はAIを活用する事業者を幅広く対象にしているものとなります。
ガイドラインでは、AI開発者、AI提供者、AI利用者の3つに分けておりますが、いずれも事業者となります。
いわゆる消費者は、本ガイドラインの対象には含まれませんが、事業活動においてAIを活用する者が考慮すべき消費者への必要な対応や、配慮事項は記載しております。
下の線表にあるように、2023年に広島AIプロセスが立ち上がり、国際的な議論も始まりました。
本ガイドラインを取りまとめるに当たり、重視したことの1つとしまして国際的な議論との協調がございます。
本ガイドラインの議論を広島AIプロセスの議論にもインプットしてまいりましたが、同時に、本ガイドラインにも、広島AIプロセスの議論を踏まえて取りまとめております。
その他、米国や欧州の枠組みなど、様々なものを参照して取りまとめております。
また、もう一つ重視したことですけれども、マルチステークホルダーの議論でございます。開発者、提供者、利用者、それぞれの立場の産業界の声だけでなく、アカデミアや市民社会といった多様な意見を反映しつつ、取りまとめております。
昨年12月の第7回AI戦略会議の取りまとめ案を報告し、公表いたしました。
そして、今年に入って赤枠の中ですけれども、1月20日から2月19日までの31日間、パブリックコメントを実施いたしました。
先々週になりますけれども、3月14日には、総務省と経済産業省、それぞれの会議体の検討会を合同で、そして公開で実施いたしました。今後、それらの結果を踏まえ、第1.0版として取りまとめ、公表してまいりたいと思っております。
もちろん、その後は、リビングドキュメントとして、AIを取り巻く環境の変化を踏まえ、随時更新をかけてまいります。
次のページをお願いいたします。
このページは、策定方針になります。日本で2019年になりますけれども、人間中心のAI社会原則というのを取りまとめまして、それを土台としつつ、3つのガイドラインを統合し、さらに諸外国の動向を踏まえ、取りまとめたという絵になります。
これまでのガイドラインと整合性を担保することで、事業活動を支えるAIガバナンスの仕組みとして、連続性がある発展を遂げていくことが期待されます。
次をお願いいたします。
基本的な考え方です。事業者の自主的な取組を後押しするものであること、国際的な議論との協調を図ること、そして読み手にとって分かりやすいものであること、この3つが挙げられます。
それに加え、先ほど申し上げたとおり、マルチステークホルダーでの議論を進めるとともに、つくって終わりではなく、リビングドキュメントとして随時アップデートしてまいります。
次をお願いいたします。
昨年6月頃から作業を行っておりますけれども、草案に当たりまして実務家を中心とするワーキンググループメンバーの献身的な協力もありました。そして、案をつくっていくのに、100名以上の有識者に照会をかけ、いただいたコメントに基づき、事務局で修正を重ねてまいりました。
なお、有識者の中には、消費者団体としては、これまでも経済産業省の検討会に参加いただいていました、全国消費生活相談員協会や、サステナビリティ消費者会議、また、総務省の会議体ですと、主婦連合会、情報通信消費者ネットワーク、そういったところからも御参加いただいております。
そのような多種多様な有識者への照会は10回以上行いましたが、皆さん、毎回積極的に参加いただきまして、毎回数百件のコメントをいただいております。まさにマルチステークホルダーで取りまとめてきたものと言えると思います。
次をお願いいたします。
そのような議論を重ねまとめましたのが、この構成となります。本編では、ステークホルダーからの実態を鑑みつつ、どのような社会を目指すのか、これは基本理念whyに当たるものですけれども、そういったものを踏まえつつ、AIに関して、どのような取組を行うべきか、これは指針Whatに当たるもの、そういったものを本編で示しております。
また、別添、この右側になりますけれども、では、その指針を実現するために、具体的にどのようなアプローチで取り組むか、実践のHowになりますが、そういったものについて、本編と対をなす構成で示して、1部から150ページを超える大部とはなりますが、実践するための参考資料として御活用いただければと思っております。
この本編の中身を少し御説明しますと、まず、本編の第2部のところに、グレーになっているところを見ていただくとお分かりのとおり、AIの活用による目指すべき社会の実現のために、各主体が取り組む事項をB原則として取りまとめております。
その上で、その原則から導き出される共通指針を、Cの「共通の指針」として整理しております。
したがって、この中では、先ほど御説明したとおり、人間中心のAI社会原則を土台としつつ、諸外国における議論の状況や、新しい技術の新たなリスクへの対応についても反映しております。
さらに、Eの「AIガバナンスの構築」でございますが、これまで経済産業省が企業に提唱してきましたAIガバナンス、つまり、アジャイルガバナンスの考えに基づく体制構築になりますけれども、これをベースにして構成されております、これまでのガイドラインとの整合性を担保する内容となっております。
その上で、第3部から第5部に、各主体別でさらに重視すべき事項を示しております。
なお、国際的な議論等も広島AIプロセスの成果でございますので、その想定も含まれていることが分かると思います。
右側は、別添の方になりますが、第1部から第5部、これは申し上げたとおり、本編と対をなす構成となっており、今回新たに追加しております別添7のチェックリスト、別添8、主体横断的な仮想事例、そして別添9には、参照した海外ガイドラインのリストと対応表を新たに加えております。
なお、このチェックリストに関しましては、事業者の取組状況を簡易に確認できるため、先日の検討会では多くの賛同の声をいただいております。
次のページをお願いいたします。
こちらで最後のページになりますが、最後にパブリックコメントの結果について御説明いたします。
先ほど申し上げたとおり、実施期間は1月20日から2月19日までの31日間になります。開発者、提供者、利用者といった幅広い法人、業界団体から450件弱のコメントが寄せられましたし、個人の方からは無記名のものも含めると約3,500件のコメントをいただき、合計で約4,000件ほどのコメントをいただいております。
主な意見は、大きく3つに分けられて、こちらに書いてありますけれども、1つ目、「記載のさらなる充実、明確化」に関するものでございます。これが大体約2割ございました。
下のほうに小さな字で恐縮ですが、参考として抜粋を示しておりますが、ガイドラインを活用する観点から、例えば、記載内容の明確化・具体化・さらなる充実といったコメント、また、記載の平仄を揃えるべきといったコメントがございました。適宜修正しております。
2つ目は「AI政策一般に関するもの、その他」と書いてありますが、これも約2割ございました。
ソフトローベースのアプローチに賛成、ガイドラインの普及・促進が重要、海外のガバナンスの枠組みとの相互運用性を検討していくべきといった声のほか、生成AIのリスクへの懸念、また、ここには記載しておりませんが、人材育成の期待、先ほど冒頭に御説明があったとおり、リテラシー向上につながるような期待であったり、先ほど内閣府からも説明がありましたが、先月設立されたAI Safety Instituteへの期待といった声もございました。
こちらに関しましては、御意見を踏まえ、ガイドラインの運用や、更新を含む今後のリスク対応の検討に活用してまいります。
3つ目は「著作権に関するもの」で、こちらは約6割ございました。現状の著作権法に関する懸念、例えば、製作者の許諾なくAIに学習されてしまうことへの懸念であったり、実在の製作者に酷似した画風を生み出してしまうことへの懸念などが多く寄せられました。
その一方で、現状の著作権法の考え方がAIのモデル開発に、むしろ望ましく維持すべきといった御意見などもございました。
本ガイドラインは、法制度に従うことを前提としておりますので、著作権法のほか、知的財産権に関する法令等の遵守を基本として明記するとともに、最新の関連する検討状況等についても記載するように対応しております。
そして、著作権など知的財産系に関しましては、文化庁や知的財産戦略本部で議論が進められておりますので、その状況をURLとともに追記いたしました。
もちろん、今後、技術の進展や社会の需要度の変化、規制の在り方の議論など、世の中の変化に応じて適宜更新されるものと理解しております。
事業者ガイドラインではございますが、事業者の声のみならず、消費者の声も取り込みつつ、マルチステークホルダーで検討し、リビングドキュメントとして、しっかりと最新状況を反映していければと思っております。
御説明は以上です。ありがとうございました。
○鹿野委員長 ありがとうございました。
続きまして、生貝教授から30分程度で御説明をお願いします。
○一橋大学大学院法学研究科生貝教授 それでは、私のほうから御説明させていただきます。
専門分野は、いわゆる情報法でございまして、特に消費者保護を中心の専門としているわけではないのですけれども、これまで、特にデジタル技術に係る論点というところで、こちらの会議でも2回ほどお話しさせていただいたほか、過去には、オンラインプラットフォームに関する取引の専門調査会で委員をさせていただいたりもしていたところでございます。
そして、実は私自身、今、橘様から御案内のありましたAIガイドラインの策定にも少し委員として関わらせていただいている部分があるのですけれども、本日は、特にこの議論が様々な意味で非常に活発になっている、そして、実際の法制もつくっている、私自身専門の研究対象の1つともしております、EUにおける、特にAIに関連する法制等を全体的に御紹介しつつ、それを補助線として、最後に、特にこうした消費者委員会様で様々このAIと消費者保護という議論をされていく中で、こういったところを論点として特に考えていく価値があるのではないかということを話していきたいと考えております。
1枚おめくりください。
まず、これは、総論のところといたしまして、最近、特にAIに関するルールですとか、規制に関する議論に関わらせていただくときに、こういった話をすることが多いのですけれども、AI、例えば最近、それがハードであれ、ソフトであれ、何かしらルールや規制のようなものが必要だと言ったときに、そうであるからには、恐らくまさに何か焦点を置いている、対応したいリスクといったようなものがあるはずであると言ったときに、これは、実は特に僕が専門としているような情報法の分野からは、生成AI以前と以降、これは、よくビフォー・アフターと言ったりもするのですけれども、かなり焦点リスクというものが変わってきた、あるいは、もちろん以前というものが重要ではなくなったということは一切なく、2022年以降の生成AI以降、かなり新しい論点というものが非常に焦点化されてきたなというものを感じています。
御案内のとおり、生成AI以前、特に2010年代の前半に、いわゆるディープラーニングの技術が非常に拡大をしてきて、そういったものを受けて、OECDですとか、あるいは総務省、経産省様の日本国内でのガイドラインの議論が本格化してきたのも2016年頃であっただろう。
そうしたときに、このときに焦点になっているAIというものを一言で表現するのであれば、対比的に言うのであれば、情報を処理するAI、それに関するルールというものを果たしてどういうものであったのかということ。
少なくとも、この当時は、EU以外はソフトローを重視して、ソフトローで行くのだということを、基本的に大きな共通事項として、そして、そこでの主な焦点リスクというのは、特にこの後、欧州の議論を参照しながら、具体を少しお示ししていこうと思うのですけれども、いろいろなリスクが議論されていて、もちろんこれだけではないのですけれども、大きく2つであったのだろう。
1つは製品安全、AIを組み込んだものの、まさに製品の安全性といったようなこと。
もう一つ、今日は、山本龍彦先生は御欠席でいらっしゃいますけれども、まさにプロファイリングというものが持つ差別ですとか、あるいは不利な取扱といったようなこと、そうしたことにどう対応していくかというのが、まさに2大焦点であったのだろうと考えているところでございます。
そうしたときに、2022年の後半から、ChatGPTの登場によって非常に大きな変化というものがあった。そのことというのは、まさにそのままずばり、情報を生成するAIというものをどのように考えるか、このことというのが、なぜ、特に情報法をやっている人間にとって重要かと申しますと、やはり処理するAI、まさにそれがどういう判断をしたりすることに、ある種問題がとどまっていた以前の時代から、まさにAIが情報を生み出す、生成する時代というものに変わった。その情報というのが、様々な形で流通したり、人に働きかけたり、社会に影響を与えたり、それはつまり、これまで、いわゆる情報法が対象としてきた法的あるいは規範的議論全体に関わってくることに、このモーメントからなったということを、あまり誇張ではなく、言えるのではないかと思います。
そうしたときに、今日は、外国はEUの話に閉じるのですけれども、例えば、アメリカの大統領令でありますとか、我が国でも少し議論が出てきているように、やはりある程度ハードローというものも考える必要というものが出てきたのではないかということになってきたことも御承知のとおりかと思います。
そうしたときの焦点リスクというのは、やはり以前とは異なる、それはやはり、世界的に議論がされているのは、まさに偽・誤情報、ディスインフォメーションあるいはフェイクニュースと呼ばれるような問題群。
そして、それを含む情報環境全体への影響というところでございますね。これは、まさしく情報と消費者、それ全体に関わるところでありましょうし、あるいは、昨今、著作権の問題というのが大きな議論になっていることというのも、本当にAIが情報を生成するようになってきてしまったので、やはり既存の情報ビジネスのエコシステムというものに非常に大きな影響を与えるように、まさに以降になって初めて大きく、ある種、現実味が出てきたということ。
まさにこういったところに広く焦点が当たるようになり、そして、そのことが関連して、例えば偽情報、誤情報あるいは危険な薬物等の生成といったようなところを受けた国家経済安全保障でありますとか、また、今日は扱いませんけれども、競争政策の全面化といったようなところも非常に大きなところかと思います。
そして、次に「EU AI法案」というところでございますけれども、これについては、恐らく先生方も様々なところで御覧になられているとおり、もともと2021年の4月に欧州委員会がその提案というものを公表して、そして、様々な経緯を経て、まさに生成AIの勃発というモーメントも経て、ついに、恐らく近々には正式に公布され、発効するというタイミングでありまして、今日のテキストというのは、前のページにも少し書きましたとおり、3月13日に欧州議会の本会議で採択して公表されたときのテキストというものを前提にしているものでございます。
そうしたときに、まず「EU AI法案:生成AI以前」と書いてあります。これはまさしく4月に、2021年に提案された段階というのは、もちろん、生成AIというのは、全然焦点化されておりませんでしたので、広く、まさしく情報を処理するAIというものをどのようにリスク低減していくかということに焦点が置かれていた。
そして御案内のとおり、許容できない禁止されるAI行為、これは極悪AIと表現したりもしますけれども、そういったところを設けつつも、ハイリスク、限定的リスク、低リスクという形に分類をして、そして、分けてもハイリスクというところに関して、非常に様々なリスク低減のための義務を課すといったつくりになったことは、よく御承知の方も多いかと思います。
そうしたときに、ハイリスクのお話に入る前に、実は、禁止されるAI慣行、禁止されるAI利用行為というのも、かなり消費者保護という観点から、重要なことが含まれているかと思いまして、例えば、判断能力に著しい影響を与えて、それで本人に著しい損害を与えうるようなサブリミナル技法、操作的、マニピュレーティブあるいはディセプティブな技法というもの、これは、一番上の禁止事項として含まれてくるわけでございます。
さらに、年齢、障害、特定の社会的・経済的状況に起因する脆弱性を悪用して、これも著しい損害を与えるようなAIの利用、こういうものもまさに禁止されていると。
まず、こういった論点と消費者保護との関係というのも、今後深めていく価値があるのではないかということがあるわけです。
そして、その下が、やはり社会的にも非常に関心の高いハイリスクAIというものでありますけれども、ここで果たして何がリスクとして、まさに念頭に置かれているかというのが、まさに先ほどのところと関わります。
上のカテゴリーが、もともとEU法で製品安全のための適合性評価義務があったもの、これは機械ですとか、玩具ですとか、船舶ですとか、リフトですとか、爆発性雰囲気装置ですとか、これは何かと言いますと、やはりAIがそこに組み込まれることで、例えば製品が爆発したり、BtoCといいますか、コンシューマー製品の場合は、おかしな挙動をしたときでありますとか、これはBtoBですとか、医者が使うものなども含まれますけれども、やはり広く、まさにその製品がAIという、しばしばブラックボックスが含まれて、本当にそれは消費者などにとって安全なのかといったような論点。
そして、2つ目がAI法で新しく指定されたカテゴリーというものが幾つもあるわけでございますけれども、ここでの焦点リスクというのは、これもいろいろありますけれども、例えば教育や職業訓練での合否の判定ですとか、雇用、労働管理、あるいは司法で有罪、無罪と決めるような場合、こういったことというのは、まさしく、これはAI法案の前文の中でも繰り返されておりますけれども、ヨーロッパではGDPRで規定されているプロファイリング、それはまさに差別であるとか、あるいは、個人データに基づく不利な扱い、そういったものを永続化させてしまったりするリスクといったようなものを、GDPR上乗せで規律しようといったようなことです。
主として、このハイリスクAIというところで指定されている、想定されていたリスクというのは、最初の段階から、そして実際にそろそろ成案に至るまで、まさしくこういうものであったというところかなと思います。
次のページをお願いいたします。
そうしたときに、このハイリスクAIというもののカテゴリーに含まれるようになりますと、まさにリスクマネジメントシステム構築、データとデータガバナンスですとか、ログの保持ですとか、安全性ですとか、そういったことがまさしく、これは製品安全でも必要でありますし、また、プロファイリングというところで言いますと、GDPRという個人情報保護法制の中ですと、リスクマネジメントを広く構築するですとか、データガバナンスをちゃんとするですとか、そういったことまでを個情法の中で求めるわけにはいかないといったときに、上乗ってきている部分というものがあると理解できるだろう。
そして、ハイリスクAIシステムを提供する人たちには、まさにそういうことをちゃんと守ることでありますとか、ちゃんと適合性評価を必要な場合には第三者のチェックというところも含めて「Conformité Européenne」、CEマークというものを付与して、ちゃんと市場に出さなくてはいけない。
それから、ハイリスクAIの配備者、これは、実際にそのサービスなどに適用していく人たちに関する義務として、これは最後の段階で、途中の審議過程の中で入ったのですけれども、基本権影響評価、インパクトアセスメントをしなければならないといったような義務も入るようになった。
この基本権、御案内のとおり、これはまた後でも触れるのですけれども、基本権と言いますと、これは生存権ですとか、表現の自由ですとか、あるいは我々ですと、7条8条のプライバシー、個人データ保護の基本権を意識することが多いのですけれども、しかし、ヨーロッパで言うときの基本権、EU基本権憲章の中には、38条にしっかりと消費者保護のことが含まれているということも、ここで1回想起されるべきかなと思います。
そして、4つ目は何かというと、これはまさにヨーロッパの製品安全規制でずっと使われてきた手法なのですけれども、やはりこういった非常に複雑性の高い製品に対して、様々な要求事項を法律で細かく書き切ることには、やはり限界がある。
そうしたときに、たしか40条くらいに、AI法の中で規定されていたかと思いますけれども、これを具体化するために、欧州委員会がCEN、CENELEC、ETSI、これは、日本でいうところのJISのような、要するに標準化機関なのですけれども、それに基づく、具体化するための技術規格というものをつくるように要請する。その規格が官報でお知らせされて、その規格にちゃんと準拠していれば、EU法を守ったことになりますよといったような仕組みでございまして、このことというのが、まさにこのAI法の具体的な部分を決めるといったような形で、今この分野で非常に注目されているところでございます。
次のページをお願いいたします。
こういったプロセスを、まさに、例えばCENとCENELECが出したものですと、EU法はWhatを決めて、そして、標準化機関がHowを決めるのだと、こういう共同規制的手法というものが、EU法の、AI法の中核に置かれているという書き方をされるのですけれども、ここで少し右下を見ていただきたいのですけれども、これもやはり様々なところで、ある種の批判的な議論も含めて出てきているのが、やはり立法プロセスと違って標準化機関での標準化プロセスというのは、なかなか消費者ですとか市民社会の入り込む隙間というのが、非常に少なかったりする部分がある。
そうした、まさに民主的な、まさに先ほど橘様のお話の中でありましたマルチステークホルダー性をどのように担保していくのかといったようなことが1つの大きな論点になっているところでございまして、我が国とは少し違った仕組みではございますけれども、少し視野に入れる必要もある参考部分かなと思います。
次をお願いいたします。
そして、生成AI以降でございます。以降になりますと、まさに途中から何とか生成AIの問題というものを、しっかり枠組みの中に入れなければならないと欧州の立法者たちも思うようになった。
そして、それが2023年頃に非常に大きな動きがありまして、最終的に先ほどの4類型とは基本的には別立てとして、彼らはGeneral-purpose AI models、汎用目的AIモデルという言葉を使いますけれども、それは生成AIをその典型として含む概念でありますが、そこに対して様々な特別な義務といったものを課すこととしたわけでございます。
幾つかのレイヤーがあります。例えば、汎用目的AIモデル、これはコンテンツ生成AI提供者を含む義務というところでは、例えば、これは次とも関わりますが、出力がちゃんと機械可読形式でマークされて、それが人為的に生成または操作されたことを検知可能とする、これはAIでつくられたものだということを、別途人間がちゃんと確認できることとも併せて、マシーンでちゃんとチェックして検出することができるようにせよということ。
それから、下のところで汎用目的AIモデル提供者の義務というところでは、これは大小に関わらず、設計や学習等の技術文書作成、当局への提供、これは一定の透明性、それからバリューチェーンの中での情報開示というものもあるほか、著作権に関する透明性などの条項というのは、広く汎用目的AIの規律には含まれるという形になる。
そして、これは後でDSAのところでも改めて触れる概念でございますけれども、システミックリスクを有する、つまり、例えばここでは、基準として「10^25FLOPs以上」という閾値をまずは設けています。これは、あとで動いたりもしますけれども、提供者の義務として、つまり特に大きい影響力があるものとして、システミックリスク特定と軽減のために、どんな敵対的テストをやったのかといったようなこと。それから、まさにそれを評価して、どんなリスクが、自分たちの提供するAIシステムにはあり得るのかということを評価して軽減する。
それから、インシデントの対応、報告、サイバーセキュリティーなどもあったりいたします。システミックリスクの定義というのは、下に仮訳を載せていますけれども、まさに公衆衛生ですとか、安全ですとか、治安、基本権もしくは社会全体に対する影響といったようなことをかなり広く決めているわけでございます。
そうしたときに、ここにも恐らく様々消費者保護に関わる議論というのも含まれてくるであろうし、ただ、これは非常に広い義務であるので、具体化しなければ、なかなか事業者様も守りづらいということで、それぞれの義務は、先ほどお示しした整合規格のプロセスによって具体化されてくるのですけれども、それは時間がかかるし、マルチステークホルダー性もあまりないねということで、それまでの間は、まさに欧州委員会主導で様々なステークホルダーでつくる行動規範、codes of practiceで遵守するというつくりになっていることがあります。
次をお願いいたします。
さて、そうしたときに、「EU AI法案」を見ていただくと分かるのですけれども、非常に様々な形で消費者の保護といったようなことが、前文を含めて出てくるところでございます。例えば、生成AIに直接関わるところでは、前文の、恐らく最終段階でも133で固定されると思うのですけれども、そうしたときに、まさに人間が生成した本物のコンテンツと見分けることが難しくなっている。
こうしたことというのは、まさに我が国でいうと、どちらかというと、まさに民主主義ですとか、国家安全保障ですとか、あるいは自然災害の文脈で議論されるような、こういった生成AIコンテンツといったようなことも、例えば詐欺、なりすまし、消費者へのディセプティブな行為といったような新しいリスクを引き起こす、であるから、例えば、ちゃんとそういったようなものが、しっかりと人間の目によって、あるいはちゃんとシステムによって判別できるようにしなければならないのだ、だから、ああいう規定を置いたのだ、そういうことが書かれているわけでございます。
こちらの下にありますのは、こういったまさに立法プロセスの中にも、非常に積極的に消費者団体等、提言をしてきたわけでございますけれども、特に去年の6月にノルウェーのコンシューマーカウンシルが出した「GHOST IN The MACHINE」という、なかなか面白いタイトルがついているのですけれども、ジェネレイティブAIがどうコンシューマーに悪影響を与え得るのかというレポートで、これはかなり包括的なものでございますけれども、例えばその中では、人間の行動をエミュレートする能力、このことというのは、恐らく様々な形で、まさに人間行動に対して大きな影響を与えるリスクというものがあるのではないかということが、特に強調されている。
これは、例えば、典型的には、つい最近ですと、ちょうど去年ぐらいからビデオ通話で同僚ですとか、友人そっくりの生成AIの動画からお金を振り込めと言われて、実際に振り込んでしまったとか、そういった問題というのが、これは外国ですけれども様々報じられるようになってきております。
あとは、まさにヨーロッパのイタリアで、個人情報保護当局が、生成と言っていいのかあれなのですけれども、Replikaという、いわゆる仮想友人、恋人サービスに対して、個人情報保護法制であるGDPRを使ってサービス停止を一旦したということを、御存じの方はいらっしゃると思います。
あれというのは、やはり、そういったAIとの対話というのがすごく没入性を高めていく、言われたら、やはり人間以上に人間が言っているような形で影響を受けるような形での語りかけというのを、例えばするようになってくる。実際、イタリア等で非常に広くはやっていたようなのですけれども、そういったことが、まさしく消費者の行動というところに、これは恐らくマーケティングですとか、そういうところも含めて使おうと思ったら、いろいろなことが、これからイノベーションの中でもできるようになってくるであろう。そこにどうガードレールをつくるかといったようなことが、例えば消費者保護の関係では論点化されてきているところがあるのかなと思います。
次のページをお願いいたします。
ここから少しプラットフォーム規制というところについて、若干、また別の話を一瞬させていただくように見えるのですけれども、直接関係してまいります。
これは何かと言いますと、やはり特に、今、デジタル環境の中で、AIを様々な形で使う、あるいはAIで生成されたコンテンツが流通する場というのは、やはり様々な意味でのデジタルプラットフォームなわけでございます。
そこにおいて、彼らがどのような役割を果たしていくかということが、1つの大きな論点になり得る。
そのことに関する一番大きな法令として、これは既に発行して、今年のちょうど先月に全面適用が開始されたものでございますけれども、非常に様々なレイヤーのデジタルプラットフォームの事業者の方々に対して、ちゃんと利用者に安全に使っていただけるための義務というものを課すのですけれども、そして分けても、広く報じられているとおり、EU域内で4,500万人以上使うようなVLOPでありますとかVLOSEに対しては、偽情報、誤情報対策なども含めて非常に重い義務を課すということになっているわけであります。
非常に大きな法律なのですけれども、要点としては3つありまして、下にあるとおりなのですけれども、これは中を見ながら簡単に、次のページをお願いいたします。
1個目の要点として、これは簡単に大体どんな鏡餅になっているかの図でございますけれども、次をお願いします。
まず、1つ目の肝というのが、コンテンツモデレーションに関することであります。
御承知のとおり、コンテンツモデレーション、違法、有害な商品ですとか、サービス、情報というものを、ちゃんと削除したり、見えにくくしたりするということは非常に重要なまさにプロセスになってきているわけでございますけれども、それもやはり本当にアルゴリズム、AIで行われるようになってきている。例えば、コンテンツモデレーションのポリシーとして、まさにそういうAIをどう使って、人間、ヒューマン・イン・ザ・プロセスがどのように、まさにつくられているのかといったようなことをちゃんと透明化したりするほか、そして、実際に行ったコンテンツモデレーションの結果といったようなものが、果たしてどうなっているのかということ、これは、VLOPは年に2回ですかね、加盟国の27か国語で出さないといけない非常に大きなレポート、もう1回目が出ているので、御時間があれば、中を見ていただきたいのですけれども、例えば、どのぐらいのエラーがあったのかですとか、そういったことも含めてしっかりと開示をしていく。
あるいは、AIによって、例えば削除してくれなかった、あるいは削除を間違ってされてしまったという利用者側、彼らがちゃんと反論をできるように、その理由というものをしっかり説明する。そして、その理由の説明というものをちゃんと欧州委員会が集約するという面白いことも、匿名化した上でしているのですけれども、やはりこれを見ると、ほとんどの削除した、しないの判断というのが、オートメイテッド、完全にAIに任せて行われているといった状況も非常に広く見えてきているわけであります。
そうしたような、モデレーションにおけるAIと利用者の保護ということも1つの論点になっているところでございます。
2つ目、次のページを御覧いただきますと、例えば、プラットフォームの上で、様々なターゲティング広告、あるいはレコメンダーシステム、こういったことも、まさにAIを使って、多くの場合は個人情報をプロファイリングした上で、この人だったらこういうコンテンツに飛びつきそうだ、あるいは場合によっては、何かすごく影響を受けやすそうだといったような人たちのところに、いろいろな情報を出したりするわけでございますけれども、そういうことについて、ちゃんとパラメータを明示する、透明性を確保するといったことのほかに、あるいは特定のプロファイリング、これは、AIを使って非常に高度な操作ができてしまう可能性があるといったときに、例えば、日本で言うところの要配慮個人情報については、プロファイリング広告に使わない、青少年個人データについては、そういうことについて使わない、こういったことも、まさにプラットフォームレイヤーにおけるAIの消費者リスクというところと様々な形で関わってくるのだろうと思います。
次をお願いいたします。
そして3つ目、これが先ほどAI規則で出てきたところのシステミックリスクの基になった条項なのですけれども、これは非常に面白くて、偽情報、誤情報は、当然西側では、その表現自体を直接規制できないし、規制するべきでもありません。
ただ、やはり民主主義への影響を含めて、様々な対応をしなければならない。そうしたときに、彼ら、特に大きいサービスが、自らのサービスがもたらし得る様々なリスクというものをちゃんと特定して、低減する措置を取る、その具体的な内容というのは、行動規範などを通じて具体化する共同規制メカニズムという形になっている。
そうしたときに、この文脈は、広くどちらかというと、選挙ですとか、民主主義ですとか、そういったことに焦点が当たりがちなのですけれども、これは先ほど申し上げたとおり、基本権憲章の中では38条で消費者保護がございますので、そうしたことも含めた特出しもちゃんと条文上されているところですけれども、リスクを減らしていかないといけないと。
そういったことを、まさにVLOPレベルで設けていたりする。それはやはりアルゴリズムの調整などを、そういう問題を増幅しない形でちゃんとやるですとか、ちゃんと問題のあるコンテンツにフラグを立てるですとか、そういったことも含めて求めていると、そういった形なわけでございます。
このページをキープしてください。ありがとうございます。
そうしたときに、特にこれはAIでも、プラットフォームでもそうなのですけれども、やはりこういった様々な形で、彼らは自主的なり、あるいはこういった包括的な法的枠組みの中でリスク低減というものを求められるといったときに、現在のAIにせよ、プラットフォームにせよ、最大の問題というのは、果たして、それが実際に、具体的にどのようなリスク低減の取組というものが行われているのか、例えば、アルゴリズムの調整などはどのぐらい工夫をして頑張っているのかといったことを、消費者あるいは政府を含む外側からは、なかなか観察できないというのが、この時代のルール枠組みの最大の課題であるわけでございます。
そうしたときに、彼らのルールづくりとして、非常に特徴的なところとして、実際にこの法と行動規範をどう守っているかということを、ちゃんと独立監査を受けるようにする。その結果というのは、ちゃんと欧州委員会等に報告をする。
さらに、そういうことが、問題がどのように起こっているのか、どの程度改善したのかということが分かるように、外部の認定された研究者に対してデータをアクセスさせて、ちゃんとモニタリングをいろいろな主体ができるようにする。そうした枠組みを取っているのが、この仕組みの非常に大きな特徴であります。
最後に、次のスライドをお願いいたします。
以上、やはり欧州だけでも、こういったAIに関わる規律は、非常にいろいろなものがある中、特に主たるものの焦点というのを挙げてきたところでありますけれども、幾つかの我が国の示唆になり得る論点というのを少し挙げております。
まず、申し上げましたとおり、いろいろな消費者リスクが、多分、AIにとって起こり得る。
他方で、そうしたときに、どういうリスクを想定しているのかということは、少なくとも幾つかのカテゴリーに分けて考える必要というものがあるのだろう。
例えば、まさしく、今日の大きな枠組みという形で言いますと、やはり爆発したら困る、怪我させたら困るという製品安全、これは生成AI以前からありますけれども、これはやはりすごく重要であります。これは分野ごとにしっかり見ていく必要があります。
また、これも生成AI以前からの議論として、プロファイリングがもたらす消費者への影響というのは、これだけでも、まさに非常に大きな論点に引き続きなり続けているわけであります。
しかし、それに加えて、やはりこの生成AI以降は、彼らは情報を生み出すわけでございます。人に働きかけることもあるわけでございます。そうしたことを、先ほどの偽・誤情報という問題、それは極めて重要であり、しかし、いろいろなマニピュレーションあるいはディセプティブなことにも使われてしまい得るのではないか、このことはこのこととして、しっかりAI Safety Instituteのようなところも含めて、ちゃんと技術的なところも含めた検討を深めていく必要があるのではないか。これが1つの論点であります。
そして、2つ目として、まさに今日後半で御紹介したようなプラットフォームレイヤー、これは、引き続き極めて重要でございます。これもまさに2つの分け方をいたしますと、AIとレコメンダー、プロファイリング、コンテンツモデレーション、まさにこういったことで非常に我々に働きかけるわけでございます。それがソーシャルメディアでも、あるいはeコマースのショッピングサイトでも、あるいはそれぞれのマーケティングのような形でも、この問題を考える必要もあるし、そして、やはりAI生成コンテンツは流通するわけでございます、彼らの上で。しっかり彼らにどのように頑張ってもらって、例えば、まさに消費者被害を起こし得るようなAI生成コンテンツのようなものをどう減らしていくかといったようなこと。
最後に、規制アプローチ、このことというのも、多分また新しいいろいろな方法を考えないといけないのだろうなと。
今まで、例えば、自主・共同規制と言いますと、これも引き続き重要ですけれども、例えば業界団体をつくって、しっかりその中でルールをつくって守っていただいたりでありますとか、あるいは製品安全に関するプレッジというものをして、みんなでちゃんとこれをそれぞれ自主的に守りましょうといったような仕組み、こういったものは引き続き重要でありつつ、しかし、やはりAI、あるいはそれを支えるプラットフォームのようなものといったようなことについては、先ほど申し上げたとおり、透明性、何をどういう形で彼らは安全対策をしているのか、技術的に、アルゴリズム的に、あるいは先ほど少し出てきたような、レッドチームテストをやった結果、果たしてどんなような問題が見受けられたのかですとか、あるいはコンテンツモデレーションとして、どういったようなことがたくさん流れていて、AIでどういう対応をしているのか、そういうことをやはり頑張って透明化をしていただく。でも、情報が出ているだけですと、当然それだけではなかなか誰も理解できませんので、モニタリングというものを誰がしっかりやっていくのか、これはまさにAI Safety Instituteというようなところを含めて重要な役割になってくるのかなと思います。
そして、さらに、それに加えて例えば、広く社会全体に引き起こすリスクといったようなものを、まさに影響力のあるサービスを提供する人たちのデューデリジェンスの責務として、しっかりと特定・緩和することも求めていく。
こういったようなことというのは、ソフトローでやるかハードローでやるかというのは、様々な選択肢はあると思いますけれども、その具体化プロセスを含めてしっかり考えていくということは、まさにこの消費者問題の文脈でも非常に重要になってき得るところなのかなと思います。
ちょうど御時間でございますので、私からは以上です。御清聴ありがとうございました。
○鹿野委員長 ありがとうございました。
以上で説明は、全て終了いたしました。ここから質疑応答と意見交換をお願いしたいと思います。
最初に申しましたように、時間は40分程度を予定しております。いかがでしょうか。
それでは、質問が出てくるまで、まず私からお伺いします。とても興味深いお話をいただいたので、それぞれにお聞きしたいことがたくさんあるのですが、まず、基本的なところから幾つか確認させていただきたいと思います。
まずは、内閣府さん宛てへの質問なのですけれども、AISIを設立して、安全性評価に係る調査検討を進めるというお話を伺いました。
そこにおける安全性という概念について、もう少し教えていただきたいと思います。安全性、具体的には、ここでは消費者委員会ですから、消費者に関わるような安全性というもので、どういうことが含まれているのか、物理的な安全性などは当然入っているのだろうとは思いますけれども、それ以外のものについてです。例えば、生貝教授の3ページなどで紹介がありましたとおり、EUで禁止されたAIというところには、欺まん性とか、脆弱性の悪用などが挙げられていましたが、こういうものは安全性という概念に含まれているのかということについて、お聞かせください。
それから、続けますと、経済産業省様に対してです。AI事業者ガイドライン案についてお話をいただきました。これは、事業者が事業活動を行うにおいてのガイドラインだということではありますけれども、マルチステークホルダーの意見をお聞きしてつくられて、消費者への配慮もなされているということでございました。
そこで、消費者への配慮ということで、策定のプロセスで消費者団体等の御意見を伺われたということは分かりましたが、消費者への配慮として、具体的にどの辺りが重要なポイントということでありましょうか。
3ページ辺りに、実効性、正当性などが掲げられていますが、もう少し中身で、消費者関連のことについて、御説明いただければありがたいと思います。
それから、これはガイドラインですから、ソフトローアプローチということなのですが、これの見直しの予定について教えていただきたいと思います。
お話の中でも、適宜更新していくのだというお話がありましたが、具体的にどういうタイミングで見直しを図るという予定があったら教えていただきたいと思います。
それから、現在は、ガイドラインということでありますけれども、このガイドラインのルールがどこまで守られているのかという実態調査等は、当然行われるのだろうなと思いますが、その実態を検証して、もし実効性に欠けるところがあるというようなことであれば、今後、法的なルールを設ける予定などはあるのでしょうか。そこをお聞かせいただきたいと思います。
生貝先生にも質問したいことがあるのですが、まずは、内閣府様と経産省様に質問です。よろしくお願いします。
○内閣府科学技術・イノベーション推進事務局菅田参事官 内閣府でございます。
先生御指摘のAISIで扱う安全性の概念でございますが、まさに安全性というのは、非常に広い広義の意味がございます。それで、海外のAISIとも連携しながら具体的な安全性の範ちゅうというのを調整していくということになりますけれど、一般的に当然、製品安全のことから、人が安全・安心という意味で安全は含まれますし、御質問をいただきました、EUの法案で書かれていますような脆弱性の悪用、これも場合によっては人への危害を加える場合は、その安全性という概念の範ちゅうになる場合もあろうかと思います。
ただ、EU法案でカバーしている全てのものが、安全性というカテゴリーに入るかどうかというのは、今後の議論ではないかと考えております。
以上です。
○鹿野委員長 ありがとうございます。
経産省様、お願いします。
○経済産業省商務情報政策局情報経済課橘情報政策企画調整官 御質問ありがとうございます。
まず、1つ目、消費者への配慮の具体的箇所というところなのですけれども、今ガイドライン案を映すことができないのですが、ガイドライン案自体はホームページに公開されておりますので、また、今後取りまとめ後、アップデートされることになると思うので、後で見ていただければと思うのですけれども、その中で述べられている事項としまして、これは会議というか、有識者から得られたものの1つで、問合せ窓口を設けるようにということがありましたので、事業者の中の利用者というのですかね、より一般的な消費者に近い立場の事業で利用する方のところに、関連するステークホルダーからの問合せに対応する窓口を合理的な範囲で設置してくださいということも含まれております。
もちろん、そのほかにもいろいろなところで触れられてはいるのですけれども、例えばAIシステムを提供する者においては、バイアスが含まれてしまうような可能性について検討するとか、当然、消費者を含む業務外利用者の判断を恣意的に制限するようなバイアスが含まれてしまうところを検討して、システムを提供してくださいとか、そういったところは触れられております。
そのほか、消費者への配慮というよりも、ここの中で取りまとめているリスクの考え方であるとか、そういったところは別にその事業者だけではなくて、消費者にも非常に参考になるものなのではないかなと思いますので、配慮事項プラス、ぜひ、こういうリスクがあるのだなというところの確認とか、そういったことは全然事業者だけではなく、消費者にも、ぜひ御利用いただければなという内容になっております。それが1つ目の御質問のお答えになります。
2つ目は、見直し予定なのですけれども、リビングドキュメントとして更新していくわけなのですけれども、具体的にどのようなタイミングで更新していくかというのは、今のところ答えは持っていないのですけれども、もともと経済産業省と総務省でそれぞれ会議体を持っております。
経済産業省では、今年度はAI事業者ガイドライン検討会という名前で回していましたし、総務省では、AIネットワーク社会推進会議というところで行っております。この会議体は、また継続することになりますので、そういったところで、マルチステークホルダーで議論した上で、その検討内容を反映していくということも、1つあり得るかと思っております。
もちろん随時細かなところが変わるということもあるかと思います。そういったところは随時更新していくのかなと思っておりますが、今、年に1回とか、そういったタイミングでとか、そういうことはまだ決まっていないということでございます。
もう一つ、今後、これがどう変わっていくのか、法規制とかルールになっていくのかという御質問ですけれども、今、取りあえず、先ほど御説明したとおり、イノベーションの推進と規律のバランスというところで、ソフトローのガイドラインとしてお示ししているという立場でございますので、今のところ、これのルール化というところまでは考えておりません。
当然、こういったソフトローで進めていく上で、既存の情報であるとか、そういったところで対応し切れない部分がもし出てくるのであれば、そういったところの法規制というのは、政府としてはあるとは思うのですけれども、このガイドラインをそのまま法規制にするかどうかという議論ではないのかなと思っております。
もちろん、実態調査というのは、今後も行っていくことになりますし、それをフィードバックしてガイドラインの方針につなげていくことになると思います。
○鹿野委員長 御説明ありがとうございました。
○経済産業省商務情報政策局情報経済課橘情報政策企画調整官 総務省の山野さんが、報告ありますかね。
○鹿野委員長 お願いします。
○総務省情報流通行政局山野参事官 総務省の山野です。一言だけ補足させていただきます。
経産省の橘さんが御説明されたとおりなのですけれども、このガイドラインは、AI事業者向けということで、AIの開発者、それからサービスの提供者、それからAIを使って事業をする方、これは利用者でございますが、ただ、その中には消費者と言われる方々のカテゴリーも当然利用者の中に入ろうかと思ってございます。
ただ、その中で、例えばですけれども、たくさん書いてあるのですけれども、例えば偽誤情報対策をちゃんとしなさいとか、あと多様性ですとか、包摂性を確保してくださいということで、利用者が分かりやすいようなAIサービスを提供する、それは分かりやすい説明をするとか、どういう中身であることをきちんとステークホルダーといいますか、利用者に対して情報を開示していくことも含まれておりますので、そういったことが、利用者保護につながることかなと思っております。
さらに、これはガイドラインなので、どこまで強制力があるかということはありますけれども、例えば、AIの開発者、提供者に対しましては、リテラシーを高める、AIリテラシーを確保していくこととか、そういったことも正しく、AIはこういう限界があって、こういう使い方をするものですよ、このサービスはこういうものですよということも、きちんと伝えるような措置を講じることも、ガイドライン中で求めておりますので、そういったことが、ひいては利用者のAIの知見を高め、ひいては利用者保護と申しますか、より安全・安心に信頼できるAIを使える環境づくりにもつながっていくことかと思っております。これは、AI開発者、提供者、利用者の全てが取り組むことによって実現することだということで、このガイドラインにも書いているところでございます。
先ほど橘さんが申したとおり、これはあくまでガイドラインでございますけれども、各業界、様々AIを使う業界はありますけれども、そのリスクに応じて、このガイドラインはベースになる包括的なものでございますので、業界によってこのガイドラインを深掘りして、さらに色を濃くして、特化型にしたようなものとかも出てくることを、我々は推進していこうと思ってございますので、そういった取組の中で、きちんと守っていただくことを進めながら、どうしても法的なものを検討する必要があるということになれば、そこは改めて検討することになろうかと思ってございます。今、何かあるわけではございません。
すみません、総務省から補足でございます。
○鹿野委員長 補足も含めて、ありがとうございました。
今の最後の話と関連して、生貝先生に、2つだけ先に質問をさせていただいていいでしょうか。
それでは、生貝教授に質問をさせていただきます。
お話によれば、EUあるいはその他の国でも、もともとはガイドラインベースで、ソフトローベースで進んできたけれど、ある時期から、ある程度はハードローが必要だというような認識に変わってきたのだということで、具体的には、本日はEUのAI法案を中心に御説明をいただいたところでございます。
それで、今、御説明があったこととも関連するのですが、やはりどこの国でもイノベーションの推進ということとのバランスをどうやって取っていくのかということが、悩ましい問題として存在するのではないかと思うのですが、EU等の近時の傾向が、ハードローを一部取り入れるということになってきたという背景には、ガイドラインアプローチだけでは、最低限の確保すべきリスク回避というのが、難しいという認識があるということでしょうか、その点確認をさせていただきたいと思います。
それから、もう一点だけ、これは今のとは別の話ですけれども、デジタルプラットフォームの役割について、お話しいただきました。特にDSAについては、お話にもあったとおり、デジタルプラットフォームの種類、規模等に応じて、義務ないし責任を課しているというところですが、AI関連でも、その点が注目されるということで、より具体的なお話をいただいたところでございます。
日本では、極端な表現かもしれませんけれども、プラットフォームは、言わば場貸しといった捉え方を出発点として、それで、プラットフォームの役割も最小限のものに抑えられているような、そういう印象も受けるのです。もちろん近年、透明化法とか、あるいは取引DPF消費者保護法とかが制定され、議論も多少は変わってきているかとも思いますけれども、EUとは大分出発点が違うような印象を受けるところでございます。
そこで、特に今日はAIが話題になっているのですが、EUは、プラットフォームの役割について、やはりこういうAIの問題などを正しく規律していくためには、デジタルプラットフォームの役割が欠かせないという認識と理解してよろしいでしょうか、確認になりますが、以上、2点、お願いします。
○一橋大学大学院法学研究科生貝教授 御質問ありがとうございました。
まず、1点目につきましては、まさしくこのハードローという形でつくってきたということの理由には、おっしゃるとおりの、特に彼らが重視する基本権との関わりで、しっかりとハードローの枠組みをつくっていく必要はあるのではないか、そういう意思決定はなされたということがある。
他方で、同時にそれと加えまして、やはり27か国のプラスの連合体で、御案内とおりございますので、各国がいろいろな立法をばらばらと始めると、単一市場が実現されないこと。また、あるいは、やはりしばしばブリュッセル効果と言われるように、まさにルールのところでしっかりと世界的にイニシアティブを取っていこうと、そうした、やはり欧州連合独特のメカニズムというのも一部は働いているのだろうとは認識しているところではあります。
そして、おっしゃっていただいたとおり、イノベーションと消費者、いわゆる安全性のバランス、両立というのは、やはり非常に様々この分野ですと特に議論になるところであり、このAI法案の実際の策定プロセスの中でも、かなり激しい議論があったところであります。
その中で、やはり非常に様々な工夫がされている、1つは、この法律全体の中でも、例えばイノベーションのためのサンドボックスでありますとか、あるいは法律の外側で、しっかりとこのイノベーションの投資というものも欧州全体でしていくということと、これはやはり並行しながら、すごくやっているというところがございますし、また何よりも、特に今日申し上げた共同規制的手法、つまりイノベーションのルールというものを法律で細かく決めてしまうのではなく、例えば整合規格のような形で、具体的なところは規格に委ねたり、あるいはシステミックリスクへの対応というのも、それをどういう手段でやるかというのは、行動規範等でモデルを示すことはあるけれども、かなりの程度、基本的には事業者様の選択に委ねると。もちろん法の枠組みのもとでというところではありますけれども、そういった枠組みを全体として非常に重視しているのが、このAI規則やあるいはデジタルサービス法の特徴というところでもあります。まさしく、そういったところは参照すべき部分もあるのではないかというのが、1点目。
それから、まさしく、プラットフォームのルールの変革ということ、これは非常に大きなところでございました。これは何かと言いますと、まさしく、もともと2000年代初頭に、本当にインターネットの黎明期につくられた電子商取引指令、日本で言うとプロバイダ責任制限法のようなことが書いてあった指令というものを、非常に全体的にオーバーホールというか、バージョンアップしたものであるのですけれども、やはり当時基本的には、場貸しとして乗ってきたコンテンツに対して、問題が起きたら後から対処すればよいというスキームであったのが、まさしく、よくこれはプラットフォーム法制2.0と、いろいろ論文でも書かれますけれども、基本的な転換がDSAの間にはあるわけです。
そのことというのは、やはり彼らは、社会的に非常に重要な役割を果たしているからこそ、デューデリジェンスの義務というものが非常に強く存在している、2020年代においては。そして、そのことというのは、よく私は、ライアビリティレジームからレスポンシビリティーレジームへと表現をしたりするのですけれども、しっかりとその能動的な役割というものを果たしていかなければならない、そういう大きな転換が、少なくともプラットフォームのレイヤーにはあり、そのことというのが、まさにAIというところにも直接的に波及してきているということなのかなと思います。
そして、直接のというところでは、まさに申し上げましたとおり、プラットフォームはAIの、まさに非常に主要なつくり手、使い手であることと同時に、AIでつくられたコンテンツというものの流通することが、大半は、当然プラットフォームの上のわけであります。まさに最大のある種のルール形成者として、あるいは、非常に大きな影響力のあるサービス提供者としての彼らの役割というのは、非常に大きいと認識をしているところです。ありがとうございます。
○鹿野委員長 ありがとうございました。
すみません、今日は司会の役割であるにもかかわらず、委員より先に質問をさせていただきました。
オンラインで原田委員、それから大澤委員からお手が挙がっていますので、順にお願いします。
まず、原田委員、お願いします。
○原田委員 生貝先生、本日は大変興味深いお話をいただきまして、ありがとうございました。
生貝先生のおっしゃっている内容は、非常に共鳴して伺ったのですが、お話の中で、単純に知りたいと思ったことを2点お伺いしたいと思います。
1点目は、マルチステークホルダーを取り込むというのは、非常に重要なことかと思いますけれども、それと民主主義というのは同じなのでしょうか。つまり、ガイドラインとか自主規制を使うのはいいのですけれども、AIのリスクを考えた場合に、国の立法過程を経た法律というものが要るのではないかという気がしておりまして、その点について御意見を伺えればと思います。
2点目ですけれども、これは、途中のところでおっしゃった製造物の安全性について、生成AIとの関係を比較されていたと思いますけれども、EUでは製造物の安全性について、第三者認証が以前からされていると思います。
AIの場合にも、確かにリスクベースアプローチで、一定のリスクのものについてはそういうことを要求するというルールであったかと認識しているのですが、AIの場合のリスクと製品安全の評価の場合のリスクというのは、同じように考えることができるのか、あるいはAIにおける認証というのは、一体何を認証しようとしているのかというのが、以前からよく分からなくて、その辺り、もし御存じでしたら教えていただければと思います。
以上です。
○一橋大学大学院法学研究科生貝教授 ありがとうございます。
まず、1点目、非常に重要で難しいところでございますけれども、やはりマルチステークホルダーは、民主主義が実現しようとしていることというものを、果たしてどのように実現していくのかということが非常に中心にある概念だと、これも定義がなかなかない世界なのですけれど、大きくは認識しているところでございます。
そうしたときに、まさしく私も、民主主義に基づいてルールをつくるという意味ですと、少なくとも例えば法の枠組みをつくった上で、その中で、まさにマルチステークホルダー性を担保した形での、まさにプロセスをやはりしっかりと民主主義によって合意した上でのルールづくりというのが、1つはやはり望ましい形態であり、実際に今日御紹介したような欧州のプロセスというのは、まさしくそういった形が非常に出てきているのかなと思います。
また、他方で、全ての社会問題や生じ得るリスクということについて、法律がカバーできるという状況というのも、また、なかなか存在しない。法がないから何もしなければよいのかというと、やはり、まずはガイドラインでしっかりソフトロー、しかし、それはちゃんと規範性とマルチステークホルダー性をしっかり持たせていかなければならないという領域というのは、やはり常に存在し続けるのだと思います。
その中で、まさにマルチステークホルダー性、民主的正当性あるいは透明性といったような概念を、まさに政策枠組みの中でどのように実現していくのか、それはやはり法に限らず、まさにこうした場でも、提言の中などでも重視をしていただきたいなというのが個人的な考えでもございます。
そして、2つ目といたしまして、まさに、既存と新しいAIの製品安全リスクは何が違うのだろうということについては、これも本当に、まさに類型によるのだと思います。例えば、まさに爆発しかねないような製品の中に、いろいろな意思決定回路の中にAIのようなブラックボックスが例えば含まれてきたとき、その安全性をどう担保するかというのは、これはかなり既存の製品安全の議論と延長線で考えられる部分はあると思いますし、他方で、プロファイリングの問題を、例えば雇用などの問題で論じたいのであれば、これはやはり既存の議論とは大きく一線を画す、どちらかというとGDPRのまさに延長あるいは上乗せという議論になってくる、その区分けというのは極めて重要かなと思うこと。
それから、何を認証するのかということについては、まさに興味深いところなのですね。少なくとも2つのカテゴリーを一括した形で、ハイリスクAIに対する要求事項ということで、データガバナンスをちゃんとやるですとか、人間の監視をしっかりするですとか、リスクマネジメントシステムをしっかり構築するですとか、そういったことの要求事項、その具体化を整合規格という形でした上で、場合によって第三者機関が認証をするといったスタイルを取っている。直接的なお答えとしては、まさに要求事項の内容を認証するという形になるのかなと思います。
○原田委員 どうもありがとうございました。
○鹿野委員長 それでは、大澤委員、お願いします。
○大澤委員 どうもありがとうございました。
私も生貝先生に伺いたいのですが、先生の御報告を伺っていて、生成AIが出る前と後とで、問題状況が少し変わってきているというか、多分違った形の問題も出ているのだろうなと、ぼんやりとではありますが思いました。
生成AIが出る前だと、例えばプロファイリングですとか、あるいはそれを基にしたターゲティング広告とか、そういうものが消費者の意思決定にどういう影響を与えるかということに、関心はどちらかというと持っていたのですが、生成AIが出たことで、経済産業省さんからの御報告にもあったと思いますが、やはり著作権とか、情報の問題が出ているということが分かってきたのですけれども、そうすると、今後は消費者も、今までだと取引をするときには事業者からもらった情報を見て判断してくださいというときに、その情報が基本的に正しいということを前提にしていたと思うのですが、生成AIの出現によって、例えば先ほど言ったように、いわゆる偽情報が出てきたりとか、消費者がそういった中で、つまり、もしかすると間違った情報があるかもしれないという状況の中で、消費者がどのようにやっていけばいいのかという、今まで以上に情報に対して消費者がどう向き合うかという問題があるように思います。私個人のことを考えても、実は生成AIが勝手につくったニュースでフェイクニュースなのだけれども、それを見分けられるかというと、正直自信がなくて、そういうときに、どういう対応をするのがいいのかなというのが悩ましいと思いました。
以前、私は消費者法の専門家ということで、NHKの情報空間に関する小委員会に出させていただいたのですが、その際に、これから消費者も情報を消費するというのか、いろいろな情報を消費するときに、それが要は正しい情報なのか、そうではないのかというのを見分けなくてはいけないけれども、しかしそれを消費者だけに任せるわけにいかなくて、やはり例えば、もう少しハードな形で情報をコントロールすることが考えられるのかどうか、気になりました。もちろん、どこが情報のコントロールをやるのかという問題はあり、政府が行うとなると、国民への介入ということになってしまうので、あまり望ましくないのかもしれませんが、一体どういうハードな方法というのが考えられて、それがいわゆる表現の自由とかと抵触しない方法があり得るのかという、ものすごく初歩的な質問をさせていただければと思います。
すみません、よろしくお願いします。
○一橋大学大学院法学研究科生貝教授 ありがとうございます。
まさしく、この判別可能性というのも非常に難しい、正誤を含めてと言ったときに、やはり完全に正しい情報を出してくださいというのは無理だけれども、しかし、それをできる限り頑張っていく努力を、どのように法や政策によって推し進めていくのか、このことを、やはり継続的にしっかりと枠組みをつくりつつ、しかし、まず入り口としては、やはりそもそもそれがAIによって生成されたものであるのだということを、あらゆる文脈でしっかり識別可能にしていこう、消費者としては、少なくともこれはAIが言っているのだということを判別できるようにやっていこうといったことが、まず、彼らのつくりとしても、我らが必要なつくりとしても、あるのかなというのが前半部分ということ。
それから、やはり、まさしく情報の中身ということについて、法が直接介入するというのは非常に難しいし、望ましくない場合というのも多いといったときに、これもいろいろなアプローチがあると思うのですけれども、1つは、僕は最近よく、先ほどの原田先生とのお話との続きでいうと、策定プロセスだけではなく、ルールの執行、運用、モニタリングプロセスにおけるマルチステークホルダープロセスの重要性の拡大という表現を結構使うのです。
これは何かというと、例えば、まさにDSAの中で御紹介したとおり、例えば、そのシステミックリスクの軽減がちゃんと十分なのかということは、外部の監査の第三者を入れたりする義務であるとか、あるいは外部の研究者がちゃんと一般公開されていないプラットフォームのデータにアクセスをして、そして、どういうことが起こっているのか、対策は十分なのかということをちゃんとチェックすることができる。あるいは、そのほかにも、やはり偽情報に関する、システミックリスク軽減の行動規範の中などですと、やはり様々なファクトチェック組織との協業のようなことが広く言われているところでございますし、やはりこのルールを実際に策定するプロセスにおいて、まさにAIガイドラインを策定するプロセスにおいても、非常にマルチステークホルダーを重視して、しかし、それをどう運用して、ちゃんと事業者の方々がこうやって頑張ってくれているのだということをモニタリングする仕組みというのを、マルチステークホルダーでどうつくっていくか、そのことが特に重要なのではないかと最近感じております。
○大澤委員 どうもありがとうございました。
先ほど申し上げたNHKの情報空間に関する小委員会の中でも、やはり国が直接介入するというのはあまり望ましくなくて、情報空間の担い手であるマスコミとか、例えばプラットフォーマーとか、そういったいろいろな人たちが集まって、取引DPF法の官民協議会に近いのかもしれませんが、そういった形でガイドラインをつくったり、あるいはその評価をしたり、モニタリングをする、そういう組織とかは考えられないかという話が、実は出たことがあって、少しその話を思い出しました。ありがとうございました。
○一橋大学大学院法学研究科生貝教授 おっしゃるとおりで、常にそういうマルチステークホルダーをどうエンパワーするかというのが、多分、新しい法の役割の1つであるかもしれず、欧州委員会の法律は、かなりそこを重視して、まさにその中で、場をつくってしっかりと声を届けるというものも、これは法の枠組みで日本法でもやった重要な取組でありますし、そこから先をどう考えていくかというのが大変重要かなと改めて感じたところです。
○大澤委員 どうも御教示いただき、ありがとうございました。
○鹿野委員長 ありがとうございました。
先ほどから黒木委員長代理からお手が挙がっていますので、黒木委員長代理、その次にオンラインで柿沼委員、お願いします。
まずは、黒木委員長代理。
○黒木委員長代理 ありがとうございます。
まず、今日お越しいただいている尾原課長にお尋ねします。消費者庁では、令和2年7月に消費者のデジタル化への対応に関する検討会AIワーキンググループというのを組織化されておりまして、報告書も発表されています。
先ほど生貝先生もおっしゃっていただきましたが、生成AIの前後で、このAIをめぐる議論というのは大きく変わっているということが、本日の議論の前提だと思います。消費者庁では、生成AIに関する今後の検討を続けていかれるのでしょうか。このAIワーキンググループ以降、生成AIを踏まえて御検討になっているのかという点が、まず第1点です。
それから、第2点ですけれども、これは経産省と、それから総務省の出されているAI事業者ガイドラインの案の7ページの図です。これは図を共有したいと思います。
この図がAI事業者ガイドラインの中に含まれておりまして、ここでは業務外利用者という概念が図に書かれています。恐らく業務外利用者として示されているグループが、消費者も含むAI提供者、AI利用者以外の者、これは一般的な事業者も消費者も個人も全部含むのだということだと思います。この図とマルチステークホルダーの議論との関係についての質問です。この矢印は、灰色のところに一方向の矢印が出ているだけですが、他の関係者のところは影響し合うことを意味する矢印付の円表示がなされています。業務外利用者から、一方的な矢印だけが表示されていることからして、どういう形でこのガイドラインの対象となっている事業者に対してフィードバックしていくのかということについて、よくこの図だけでは分からないのです。この図をどう読んでいって、先ほどのようなフィードバックシステムというのが、どこに入ってきていると読んでいったらいいのか、この2点をお知らせください。
以上です。
○鹿野委員長 それでは、尾原課長、お願いします。
○消費者庁消費者政策課尾原課長 消費者庁でございます。
今、黒木委員から御質問があったものというのは、まさに今日の生貝先生の言うところの生成AI以前のものでございまして、そのときに、要は物に組み込まれたようなAIをどう活用するかと、そういう時代のものについて、消費者庁の中に有識者の懇談会をつくって、消費者にとって普及・啓発というか、リテラシーを高めるような教材をつくったところでございます。
御質問は、その後、そういう検討会をつくるかということでございますけれども、消費者庁としては、我々は生成AI、すごいデジタル技術の発展もある中で、各省が取り組まれている中で、我々としては、独自に、それとは別につくる予定はございませんけれども、2020年に公表いたしましたAI利活用の消費者向けの啓発資料につきまして、今、生成AI部分を踏まえた改訂作業を行っているところでございます。その策定に当たりましては、有識者の皆様から、当時検討会に入っていただいた先生方などの御意見を参考にさせていただきながら、今、改訂作業をしておるところでございます。
以上でございます。
○黒木委員長代理 後でまたまとめて、その辺りの追加の質問はしますけれども、次のこの図面についての見方を教えてください。
○経済産業省商務情報政策局情報経済課橘情報政策企画調整官 経済産業省でございます。
今、映していただいている図なのですけれども、これは一般的なAI活用の流れというのを絵で表しているもので、データがこういう形で流れていって、AIが活用されていきますと、AI利用者というところ、これは事業で活用する利用者ですけれども、そこからアウトプットが、例えば業務外利用者に行くこともありますよという、一般的な流れを表しているものであって、マルチステークホルダーの議論というところとは、別な表現になっております。
マルチステークホルダーの議論は、こちらには図としてはなかったかもしれないのですけれども、あと先ほど申し上げたとおり、経済産業省と総務省のほうで、それぞれ会議体を持っておりまして、その中でも声を聞いておりますので、そういったところから拾って、こういったガイドラインに反映していくというプロセスを取っている。
もちろん、先ほど申し上げたとおり、パブリックコメントも行いました。そういうこともあります。
さらに、先ほど私が補足で説明したとおり、例えば、AI利用者のところなのですけれども、事業で利用して、そのアウトプットを業務外利用者が享受する場合もあると思います。そこで窓口をつくることによって、業務が利用者からのフィードバックというのを受けることも当然あり得ることだと思いますので、そういったところで声を拾うのかなと思っております。
○黒木委員長代理 ありがとうございました。
今の御回答に加えて、その窓口というものですけれども、先ほど生貝先生からプロファイリングも含めて様々なAIの問題に関するお話もいただきました。
AIに関して、消費者のいろいろな問題点に関する統一的な窓口というのを、消費者庁というのが役割として担うということは、現在検討されているのでしょうか。
○消費者庁消費者政策課尾原課長 御質問ありがとうございます。
生成AIのところで、いわゆる統一的な窓口を消費者庁でという検討はしておらないです。といいますのは、それぞれの、このAIであれば今、総務省さん、それから経済産業省さんのほうで、様々な御議論をされて、事業者向けのガイドラインをつくって、その中で、先ほどガイドラインの御説明がありましたように、事業者のほうで窓口を設けたほうがいいねという動きがあります。消費者問題というところの観点であれば、消費者行政は、それぞれ各地の消費生活相談窓口で行うものでございますので、特定の事業者に対して消費者庁のほうで統一的な窓口を検討するということはしておりません。
○黒木委員長代理 分かりました。時間があったら、またいろいろ質問したいのですけれども、ほかの方もいるので。
○鹿野委員長 では、ひとまずということで、柿沼委員、お願いします。
○柿沼委員 柿沼です。よろしくお願いいたします。
2点質問があるのですけれども、1点目です。これは、内閣府さんに教えていただきたいのですが、このAISIの設立の中の関係省庁に消費者庁が入っていないのは、なぜなのかという少し疑問がありましたので、そちらを教えていただきたいのが1点目です。
もう一つが生貝先生になのですけれども、国民として、まずAIについてどのようなリテラシーが必要なのかということと、それから生成AIを悪用して、偽情報を作成し、それで広告収入を得たり、ダークパターンなどにより消費者を混乱させて、利益を得ている者がたくさんいます。
実際に、現場では、そのような消費者トラブル相談を受けているという状況です。
生成AIを用いて解決方法を探った場合に、入力方法によっては、適切な回答が得られずに諦めてしまうような消費者も、今後増えるのではないかという懸念もあります。
国民生活センターのホームページにもFAQがあるのですけれども、そちらの結果を見て、自分はクーリングオフには該当しないから諦めなくてはいけないのかなと思われる方もいるのではないかなというところが、私としては不安です。
ですので、そういう消費者に対しては、どのようなリテラシーが必要なのか、また、これを誰が担う必要があるのか、先生の御意見をお聞かせいただきたいのと、あとは、このEUなどでは、どのようなステークホルダーが、このリテラシーを構築する上で行っているのか、御知見がありましたら教えていただければと思います。
以上です。
○内閣府科学技術・イノベーション推進事務局菅田参事官 それでは、内閣府のほうから、関係省庁の件ですが、お答えしたいと思います。
実はAISIの創設に当たって、昨年の11月に急きょ、英国のほうでAI Safety Instituteは、今後必要だということで、高らかに宣言して設立されました。機を同じにして米国も追従しました。
そのときに、日本も、これはやらなくてはいけないということで、急きょ立ち上げたというのが経緯でございます。
そこで関係省庁としましては、ソフトウエアということで経済産業省、また、ネットワークを活用するということで総務省という形で、コアな関係省庁ということで、最初は構成することを考えておったのですけれども、いやいや、やはりAIを利活用するという意味では、非常に広範な関係省庁があるということで、むしろ関係省庁のほうから、ぜひ参加させてほしいという形で、どんどん拡大していって、現在で10省庁が担当しているということでございます。
消費者庁さんが、これに入るかどうかでございますが、もちろんここで限定しているわけではございませんので、もし、参加したいということでございましたら、もちろんそれは可能でございますので、そういった枠組みでございますので、今後、よろしくお願いします。失礼します。
○一橋大学大学院法学研究科生貝教授 では、私のほうから、ありがとうございます。
まず、国民としてのAIリテラシーで、EUで誰が担っているかということと併せてという形になるのですけれども、これは、本当に永遠の課題というところでは、どうしてもありつつ、やはり、まずはしっかりとその教育の段階というところも含めた形で、いかに変わり続ける技術というものに関する理解を含めていくかということの必要性というのは、これは、やはり常にコストをかけて、政府も含めて取り組んでいかなければならないのだろう。
そうしたときに、恐らくそれとプラスで、先のある種のマルチステークホルダーというところとも深く関わるのですけれども、やはり実際問題として、今、AIの中身あるいはプラットフォームの中身、どんな安全対策をやっていて、実際どんなリスクがあってというのは、実は我々みたいな研究者でも正直分からない部分があまりにも多い。
それは、やはりこれは企業秘密というところも含めて、ブラックボックスになってしまっている部分というのが非常に大きい中で、しかし、それでもやはり社会全体に重要な情報はしっかり出していただこうというのが、例えば、デジタルサービス法の透明性レポートにおける非常に詳細な様々な情報であったりとか、あるいは生成AIの、特にシステミックリスクを有するような方たちに出していただく、レッドチームテストの結果でありますとか、どんなリスクがサイバーインシデントの問題としてあるとか、そういったような情報の公開がされて初めて分かる。
そして、それを一人一人の消費者が読むことができなくても、やはりそれをメディアですとか、我々みたいな研究者を含めて理解して、それを伝えるというプロセスが初めてできるようになるわけでありますね。
そうでありますから、まさに透明性というのか、このモニタリングの枠組みをしっかりと、まさに技術の中身というところも必要に応じて、含めて担保していくかというのが、まさにリテラシーというものを実際に意味のあるものにしていく非常に重要なプロセスなのかなと感じているのが1つです。
それから、2点目の、まさに消費者を救済するための様々な法的知識といったようなもの、最近やはり各国でも生成AIを使って、実際に答えを出してくれるような取組というものも始まっていたりするようでありますけれども、やはりいろいろな課題が多いという中で、他方で、やはり法律はどうしても複雑であり、そして、どうしても実際に電話を受けて答えてくれる方々という人的リソースもある中で、他方で、いろいろな可能性は非常にあるのだと思います。
そうした中で、やはり国としても、すごくAI開発にいろいろな投資というものをしっかりしていく中で、やはり経済発展ですとか、そういうところに役立つものも重要であるけれども、これは、別途議題にもなっている、ちらっと見たのですけれども、まさにそういう消費者、一般国民をエンパワーする、これはまさに消費者主権、あるいは民主主義をエンパワーするような、まさに生成AI等の技術開発というところに、非常に力を入れて投資していただく、そういうことがすごく大事なのだろうなと、直接お答えになっているか分かりませんが、重要なことだと思いました。
○鹿野委員長 ありがとうございました。
それでは、小野委員、お願いします。
○小野委員 御説明ありがとうございました。
もう既に、私がさせていただきたい質問などは出ているところではございますけれども、私の消費者教育が専門ということもありまして、最初に内閣府科学技術・イノベーション推進事務局様のお話を伺って、文科省だけではなくて、消費者庁も門戸が開かれているということですので、ぜひ入っていただいて、さらに消費者庁や国民生活センター、消費生活センターに寄せられる情報も追加するかたちで、新しいAI事業者ガイドラインの策定にも加わっていただきたいと思いました。
それから、これはコメントでございますけれども、経済産業省と総務省様の御説明の資料でいうと4ページ目、やはり私もこちらのマルチステークホルダーとの連携ということで、連携主体は4つありますけれども、とても大切だと思いました。
一方で、市民団体・一般消費者だけではなくて、実は、消費者教育は、やはり学校教育というのも重要でございますので、ここでは、文科省をはじめとする学校関係者を入れていただきたいと思いました。
専門家でも今後どうなるか分からないといった情報についていろいろな省庁の垣根を越えて集まって、得た情報であったり知見といったものを、今度はまたフィードバックしたり拡散をしていくというときには、そのチャンネルは幾つあってもいいと思います。既に取り組まれていることをよく承知いたしましたし、一方で、今後期待をしたいと思いまして、私からはコメントということにさせていただきます。ありがとうございました。
○鹿野委員長 ありがとうございました。
中田委員、お願いします。
○中田委員 私も手短にコメントと、少し御質問をさせていただきます。
経済産業省の橘様のお話で、消費者と事業者からの生成AIに関する問合せの窓口をより充実していくことのお話がございましたが、やはり消費者としては、生成AIに関しましては生貝先生のお話にもございましたように、やはり気持ちよくマニピュレートされている状況であるとすると、自身がリスクにさらされていることすら、なかなか認識しづらい状況があると思います。
そういった状況の中で、どのように実際の被害の状況というのを、声を上げていただくように、国民の意識を向けていくのかという具体的な策があれば、少し教えていただきたいと思いました。
例えば、メディアの巻き込み、先ほどパブリックコメントでは著作権法の懸念が結構多く出たというお話がございましたが、私はメディアの報道でも、著作権法については、結構見たことによって自分の意識が変わったということもございますので、まずはそういったことを御検討されているかということを、1点伺いたいと思います。
2点目としては、AIの活用については各業界で、これから細分化されて具体的に活用されていくと思いますが、業界によって、様々なリスクが発生してくると思われます。
その上で、業界団体との連携、業界団体の中で、例えば、それぞれの業界の中のリスクの洗い出し、自主モニタリング等の流れ等を促していく、あるいは上場企業の中のコーポレートガバナンスの中の要件に取り入れていくような、そういった動きをされる御予定はございますでしょうか。
以上、2点です。
○鹿野委員長 今の御質問は、経産省にですか。
○中田委員 はい。
○鹿野委員長 それでは、経産省様、お願いします。
○経済産業省商務情報政策局情報経済課橘情報政策企画調整官 御質問ありがとうございます。
多分、2個目の質問に答えると、大体我々の考えがお示しできるかなと思うのですけれども、今回ガイドラインをつくるに当たりまして、先ほどチェックリストというのを御説明したのですけれども、さらに詳細版のワークシートというのがございまして、各項目について盛り込まれているエクセルシートみたいなものを、今、作成しております。
1つ採用AIをサンプルにしまして、開発者、提供者、利用者それぞれの立場で、どういったリスクが生じ得るのか、そういったところをウォークスルーという形で、一度実験的に当てはめてみました。それを、たしか別添8につけております。
そういったことを、例えば採用AIだけではなく、ほかの業界に広げていくことによって、各業界のリスクというのが洗い出しできるのかなとは思っておりますし、それは、まさにガイドラインの普及・啓発につながることになりますし、さらに言うと、もしかしたら消費者のリテラシー向上にもつながっていくことになるのかなと思っております。
当然、マニピュレートされていると認識しにくいというのは、もしかすると、リテラシーの向上で対応できる部分もあるのではないかと思っておりますので、我々としては事業者ガイドラインの普及・啓発を通して、そういったところに対応していくのかなと、今のところ思っております。ありがとうございます。
○鹿野委員長 それでは、黒木委員長代理、お願いします。
○黒木委員長代理 まずは、生貝先生に質問させていただきます。まず質問の前提となる問題意識として、技術というのは価値中立的でありまして、どのようにも使えるものだと理解しています。そして、神戸大学の中川丈久先生の事業者の3分類というのがすごく有名であり、事業者を従順層と中間層と極悪層と分けていらっしゃいます。そして、極悪層は、法規範に従うことに価値を見いださない事業者であり、彼らは法規範を無視してでも短期的な利益を得ることに注力している層が確実にいるという理解です。私は弁護士として、そういう極悪層を裁判所に呼び出して、極悪層が法規範を逸脱していることの問題点を追及するというのが、1つの仕事なものですから、大変極悪層に対する感性というか問題意識が強いと思っています。
その観点で、先生のレジュメの13ページの幾つかの論点のところについて、マトリックス的にこれを読ませていただけないかなと思っていますが、対応すべき消費者リスクの区分特定として、製品安全については取引とはあまり関係ないのかもしれませんが、プロファイリングについては、ケンブリッジアナリティカみたいな形でプロファイリングして、いろいろな形で民主主義の基本にまで影響を与えたというのが、2016年にあったのではないかという報道がなされているのですが、これがより精巧になってくると。
そして、ケンブリッジアナリティカの場合は、これが膨大な報酬になっていたわけでありまして、今後このAIを使って、そういうプロファイリングと偽情報というのが、ある意味ではマーケットとして非常に魅力的なものとして一部の事業者に映る可能性がある。
その場合には、これをソフトローだけで規制できるのか、あるいは新しい自主共同規制アプローチだけでできるのか、すぐは技術の進展との関係がありますから難しいかもしれませんけれども、ハードローによる規制という点も、将来的にはこういったものについても検討していくべきではないか、この辺りのところについての先生のお考えを教えていただければありがたいと思います。
以上です。
○一橋大学大学院法学研究科生貝教授 ありがとうございます。
まさに重要なところで、多分、2つの軸で考える必要があるのかと思っておりまして、実は、先ほどEUのAI規則の禁止されるAI慣行を極悪AIと呼びましたのは、あれはまさに中川先生の分類を拝借したものであったのですけれども、まさしく事業者の性質というのも、それぞれある。そして同時に、また、やっては明らかにいけないですねという、やはりプラクティスというのが明らかに存在する、それは例えば、EUのAI法であれば、少し御紹介したとおり、脆弱性につけ込む、そして危害を与え得るであるとか、あるいはまさにサブリミナル的なものであるとか、そういったものをしっかり特定して、まさにハードローでちゃんと対応をしていくということ、そのことというのは、まさにリスクベースアプローチの心として極めて重要なのだろうという、この軸がまず1つ。
もう一つは、ホリゾンタルとバーティカル、別の言葉で言うと、やはり一般的な規律と、そしてセクタースペシフィック、あるいは問題特有の規律といったようなことを分けて考えること。
今回AI法案は、非常に広く様々なリスクに関わること、DSAでもそうなのですけれども、例えば、EUのほうですと、DSAのほかに、これは、AI法とも関わる形で、政治広告に関するターゲティング等を使った広告に対する規律というのは、これは、まさにちょうど別途、ある種バーティカルな法制として存在するところでございますし、あるいは、例えばディープフェイクのようなものに関しても、これは、まさに女性への暴力撲滅指令案というのが、今ちょうど審議も終盤に差しかかっているところですけれども、そういった形でまさしく深刻な問題に関しては、しっかりハードローとして対応していく。
まさにホリゾンタルとバーティカルの両面からどう考えるか、今回恐らく、AI事業者、日本のガイドラインは、かなりホリゾンタルなところを意識しているところ、バーティカルの問題というのは、これはこれでしっかり考えていく必要がある、そういうことかなと思います。
以上です。
○黒木委員長代理 ありがとうございました。
○鹿野委員長 ありがとうございました。
まだ、御質問が本当はあるかもしれませんけれども、かなり時間も経過しましたので、御質問については、これで打ち切りたいと思います。
皆様におかれましては、御説明と質問に対する御回答をいただき、ありがとうございました。
本日の委員からの御意見等を踏まえて、少し私の意見も加えながら、本日の議論を簡単にまとめてみたいと思います。
まず、全体としてですが、生成AIの登場は消費者一人一人の生活の質を向上させる存在となる可能性を含んでいるところだろうと思います。
しかしながら、AIの急速な進展に対して、消費者が抱いている不安も現在存在しており、また、AIによって消費者に、本日も出てきたように、新たなリスクがもたらされる可能性もあると思われます。
そこで、これに真摯に向き合い、これを可能な限り解消していくことが必要であると思います。
一般の消費者は、例えば、AIの普及に関しましてプライバシーの問題であるとか、偽情報、誤情報だとか、あるいは、それにも起因するところの差別とか偏見など、それから透明性とか公正性を欠くのではないかということだとか、あるいは自律性が失われることになるのではないかと、本日、没入性という言葉も出てきましたが、そういうことだとか、あるいは安全性、製品とかあるいはロボット等による事故などの狭い意味での安全性の問題もありますし、あるいは犯罪への悪用などについても、不安を感じており、実際、そういうリスクが考えられるところでございます。
今、言いましたのは、消費者が感じ、あるいは消費者に起こり得るリスクということでございますが、そうしたことから、AIの議論の場に、消費者行政関係者が積極的に参画して、リスクを低減する仕組みを検討するということとか、あるいは消費者に対してAIの利便性やリスクの情報を周知するということが必要であると考えられます。
そこで、より具体的にですが、内閣府におかれましては、AI戦略会議でまとめられた論点整理や今後の課題事項について、引き続き、議論を進めていただきたいと思いますし、それから、AIの推進について、今申しましたように、消費者、生活者といった視点も重要と思われることから、議論の際には、議題に応じて消費者行政関係者も積極的に参加するように、これは内閣府だけではなくて消費者庁に対してもお願いということですけれども、参画して消費者の観点から必要な議論を進めていただきたいと思います。
それから、本日、AI事業者ガイドライン案について御説明を経産省からいただきました。
このガイドライン案は、事業者がAIを事業で利用するという場合を対象としているものでありましたが、本日の御説明の中にもあったように、消費者と無関係ではないということから、これを策定する際にも、消費者団体等の御意見も反映させたということではございました。
しかし、さらに、消費者に影響が及ぶということでありますから、経産省、総務省におかれましては、消費者に対しても本ガイドラインの重要性の周知をしっかりと行っていただきたいと思います。
それから、本日マルチステークホルダーとの関わりということについて議論が行われました。
その際、生貝先生からは、ルールの策定のみならず、このルールの運用、執行のプロセスについてもマルチステークホルダーが関わることが重要であるというお考えも示していただきました。
そういうことも踏まえて、今後、ガイドラインの、この案が取れて、実際にガイドラインになった後につきましては、その運用に配慮していただければと思っております。
それから、本日、生貝先生からは、EUその他諸外国におけるAIに対する規制の概要を御発表いただきました。
このような問題については、国外制度との調和も重要と思われますので、政府におかれましては、これは、内閣府というだけではないかもしれませんが、政府全体として、このような諸外国の動向を注視して、今後の議論を進めていただきたいと思います。
それから、先ほどのガイドラインに関しては、今回のガイドライン案は、今までの個別のガイドラインを統合してつくるということで、その内容も見直しをされたということでした。それは一歩前進であるとは思いますが、ただ、悪質な事業者をはじめとして、AIガイドラインに従わない事業者も出てくるのではないかとも思われ、それによって消費者問題が引き起こされることになる懸念もございます。
ガイドラインも適宜見直すということでございましたが、その運用状況というか、どれだけルールが守られているのかということをきちんと把握して、検証をし、もしルールの実効性に不十分なところがあるとすると、ガイドラインの見直し、あるいは必要な点があれば、諸外国の動向も踏まえて、それを一部法的なルールに高めるということも含めて、柔軟に今後検討していただければと思います。
それから、先ほどのマルチステークホルダーとかとも関連するかもしれませんけれども、共同規制ということが非常に重要になっているわけなのですが、それを実践するには、やはり消費者のAIに関する相談をきちんと把握して、適切に処理する必要があると思います。そういう消費者ないし消費者側のいろいろな声の把握において、個人で声を上げるのがなかなか難しいのが消費者ですので、消費者団体を通じてということも考えられますし、窓口を整備するなどいろいろな形で、消費者の声を収集しそれが反映されるような体制を、ぜひ整えていただきたいと思います。
それから、さらにリテラシー問題についても、本日、言及がありました。消費者庁におかれましては、令和2年に作成されたAI活用ハンドブックがあるわけですが、生成AIも含んだ内容にこれを改訂し、改めて広く消費者に周知していただきたいと思います。
もう既に改訂作業にも取り組んでいらっしゃるということでございましたので、その改訂作業を進めるとともに、改訂されたときに、ぜひこれを広く周知していただくということを改めてお願いしたいと思います。
それから、改訂に当たっては、消費者が生成AIを利用して消費者問題を引き起こすリスクがあるということも、利便性と同時に、適切に盛り込んで下さい。本日は、様々なリスクということと、その中には判別がつかない場合もあるのではないかという点も指摘されましたし、判別の前提として、一定の透明性が必要であるという議論も出てきたところです。幾つかレベルがあるかもしれませんけれども、少なくとも消費者に対して、そのようなリスクがあるということを周知することも重要であると思いますので、改訂作業においては、その点にも御配慮をいただきたいと思います。
さらに、消費者のAIリテラシーの向上のためには、様々な場での周知とか啓発が必要であると思います。学校教育はもちろんですが、会社とか地域社会とか、いろいろな形でこれに関する学びの場を提供していただくようにお願いしたい。これは、主に消費者庁にということになろうかと思いますが、お願いしたいと思います。
それから、もうこれぐらいでやめますが、本日、私も質問させていただいたように、プラットフォームの役割ということも、特に生貝先生から御紹介いただきました。現在の社会において、デジタルプラットフォームが、もはや場貸しという立場を超えて、非常に重要な役割を果たしていること、特にAIにおいては、非常にかなめ的な存在であるということが確認できたところでございます。
これについても、今後、プラットフォーム関連の法律の見直しのときには、ぜひ御考慮いただきたいと思います。
消費者委員会としましては、本日、委員から出された意見も踏まえて、次期基本計画に盛り込むべき、中長期的な課題等について検討し、取りまとめを行っていきたいと思います。
本日御参加いただいた皆様におかれましては、大変お忙しいところ、審議に御協力いただきまして、誠にありがとうございました。
それでは、どうぞ退室ください。
(菅田参事官、山野参事官、橘情報政策企画調整官、生貝教授 退室)
《3. 消費者をエンパワーするデジタル技術に関する専門調査会の設置について》
○鹿野委員長 続いての議論は「消費者をエンパワーするデジタル技術に関する専門調査会の設置について」でございます。
デジタル化の進展に伴い、様々な新しいデジタル技術がサービスとして消費者に提供され始めています。
デジタル技術は、Society 5.0の実現にも資するものであり、消費者にとっては利便性が向上するという点で、メリットも大きいものでございます。
他方で、本日、先ほどから話題になっておりましたように、デジタル技術の活用に当たっては、あるいは普及においては、消費者にとっての新たなリスクが懸念されるところでありまして、そのようなリスクが現実化しないように、何らかの仕組みを用意することが必要であると思われます。
特に消費者契約の場面において、消費者を支援することに活用できるデジタル技術の現状と見通し、個々の消費者にパーソナライズした支援を可能とするAIと、その社会実装に向けた課題等の整理、検討を行うことが重要だと思われます。
そこで、この点に関する調査審議を行うため、今回、消費者委員会の下部組織として、新たに消費者をエンパワーするデジタル技術に関する専門調査会を設置したいと考えております。
お手元に資料の4として、この専門調査会の設置運営規程の案を配付しております。これについて、事務局から御説明をお願いします。
○小沼企画官 企画官の小沼でございます。
それでは、資料4を御覧いただけますでしょうか。
委員長から、今、御紹介がありましたように、消費者をエンパワーするデジタル技術に関する専門調査会の設置・運営規程案でございます。
第2条の専門調査会の設置、第2項から第4項及び第4条の調査会の設置から第9条の準用4までは、現在設置されております公共料金等専門調査会や、消費者法制度のパラダイムシフトに関する専門調査会の設置・運営規程で規程されているものと変わりはございません。
残りの第1条の総則、第2条の専門調査会の設置、第1項及び第3条の専門調査会の所掌につきましても、公共料金等専門調査会等の設置・運営規程の規程を踏まえまして、第1条につきましては、消費者委員会の消費者をエンパワーするデジタル技術に関する専門調査会の設置、所掌事務、会議及び議事録の作成等について、この規程の定めるところによる。
第2条第1項につきましては、委員会に消費者をエンパワーするデジタル技術に関する専門調査会を置く。
第3条につきましては、専門調査会は、委員会の求めに応じて、消費者を支援するデジタル技術に関する重要事項について調査審議をすると規程しております。
設置・運営規程案につきましての説明は、以上でございます。
○鹿野委員長 御説明ありがとうございました。
それでは、ただいまの議題につきまして、御質問、御意見等ございましたらお願いします。いかがでしょうか。
この専門調査会を設置するということについて、同意していただけるということでよろしいでしょうか。
少なくとも会場にお越しの皆様方は、大きくうなずかれましたので。
○大澤委員 異議ありません。
○鹿野委員長 どうもありがとうございます。
それでは、消費者委員会の下に、ただいま御説明いただきました、消費者をエンパワーするデジタル技術に関する専門調査会を設置することとし、資料のとおり、設置・運営規程を決定したいと思います。
《4. その他》
○鹿野委員長 続きまして、その他としまして、新開発食品調査部会から報告事項がございます。
それでは、中田部会長代理から御報告をお願いいたします。
○中田委員 それでは、今村部会長に代わり、特定保健用食品の表示許可に係る答申について御報告いたします。
令和6年1月26日に開催した第66回新開発食品調査部会及び2月14日に開催した第67回新開発食品調査部会の議決について、新開発食品調査部会設置・運営規程第7条に基づき、委員長の同意を得て委員会の議決とし、令和6年2月28日付及び3月18日付で、3品目について内閣総理大臣へ答申を行いました。
まず、参考資料1-1の答申書を御覧ください。
内閣総理大臣より諮問を受け、第67回新開発食品調査部会において、安全性及び効果について審議を行った結果、了承することとされ、1品目を特定保健用食品として認めることといたしました。
次に、参考資料1-2の答申書を御覧ください。
内閣総理大臣より諮問を受け、第66回及び第67回新開発食品調査部会において、安全性及び効果について審議を行った結果、指摘事項を確認の上、了承することが部会長に一任され、申請者からの回答書を確認し、2品目を特定保健用食品として認めることといたしました。
私からの報告は以上になります。
○鹿野委員長 ありがとうございました。
今の点は、御報告ということでございます。よろしいでしょうか。
それでは、続きまして、その他の2つ目は、新開発食品調査部会及び新開発食品評価第一調査会の廃止についてでございます。
先月28日の本会議において、特定保健用食品の許可等の審査手続の見直しについて、消費者庁から御説明をいただき、委員会として了承したところでございます。
これに伴い、新開発食品調査部会及び新開発食品評価第一調査会を廃止することとしたいと考えております。
詳細につきましては、事務局からお願いします。
○友行参事官 本日、特に資料はつけておりませんけれども、健康増進法にも規定する特別用途表示の許可等に関する内閣府令におきまして、特定保健用食品の許可等に当たりましては、調査委員会の意見を聞くこととされており、これに対応するため、当委員会にこれまで下部組織として、新開発食品調査部会及び新開発食品評価第一調査会を設置し、内閣総理大臣から諮問を受けて調査審議を行っていただいておりました。
消費者庁から令和6年度より、特定保健用食品の許可等の審査手続の場を消費者庁で行うように見直したいとのことで、先の425回本会議におきまして説明をいただき、この方針について、委員会として御了承いただいたところでございます。
つきましては、同部会、調査会は、令和5年度末をもちまして役割を終えたということで、3月31日付で廃止するという御提案でございます。
以上です。
○鹿野委員長 御説明ありがとうございました。
この点につきましては、実質的には、2月28日の本会議において御了解いただいたものと認識しておりますが、ただいまの事務局からの御説明に関しまして、何か御発言等ございますか。よろしいでしょうか。
それでは、御異論ないと理解させていただきました。
以上をもちまして、新開発食品調査部会及び新開発食品評価第一調査会を廃止することについて決定いたしました。
来年度以降は、当委員会において特定保健用食品の個別製品に係る調査審議を行うことはなくなりますが、消費者行政全体の監視役としまして、トクホや機能性表示食品を含む保健機能食品制度が国民の健康の維持、増進に役立つものであるように、より大きな視点から、引き続き、消費者委員会としては、動向を注視してまいりたいと思います。
この点も、先月28日の本会議でも申し上げたところでございますが、改めて確認させていただきました。
続きまして、その他の3つ目として、消費者委員会に寄せられた意見書等の概要につき、事務局から御説明をお願いします。
○友行参事官 それでは、参考資料の2を御覧いただけますでしょうか、2月に消費者委員会に寄せられた要望書、意見書、声明文等の一覧となっております。今月は団体からは2つの御意見をいただいております。
まず、最初の第二東京弁護士会からいただきました、高齢者の不動産押買被害解決に向けた法改正等を求める意見書でございます。
こちらは、背景といたしましては、国民生活センターなどの統計によりますと、契約当事者が60才以上の方から寄せられた、こうした高齢者が事業者から訪問を受けまして、不動産を買い取られてしまうといった高齢者の自宅売却トラブルといった相談が、毎年600件から700件程度寄せられております。
また、第二東京弁護士会さんが、昨年、2023年の5月15日に相談会というのを開催いたしまして、そのときにも12件の相談があったということでございます。
具体的な内容は、買い取るという契約をしたけれども、不動産業者から強引に勧誘されて、安価で自宅を売却する契約をしてしまったとか、自宅を売却する契約をしたが、やはり解約したいと申し出たところ、高額な違約金を請求されたといった内容となっているということでございます。
この不動産の買取りをめぐるトラブルには、完全に買い取るという場合と、もう一つリースバックという形がございます。これは、お聞きになったことがあるかもしれませんが、住宅を売却して、現金を高齢者に渡すと、売却後は、毎月賃料を支払うことで、今まで住んでいた住宅に引き続き居住し続けると、これをリースバックといいますが、そうすると、表面上はそのまま住んでいる形になるので、発覚しにくいといった問題もございます。
これに対する意見書のポイントでございますが、右側のところを見ていただきますと、特定商取引法というのが、まず1番目にございます。特商法の中には、こういった訪問購入といったことが行われた場合には、クーリングオフという規定がございますけれども、これは、物品に対してのみ適用されるものでございまして、不動産には適用されないということでございます。
そういったことから、最初の御意見は物品といった動産のみならず、不動産の取引もクーリングオフの対象とすべきではないかということでございます。
もう一つ、こういった事柄を規制する法律として宅建業法がございます。この宅建業法というのは、宅建業者が、住宅の売買契約をするといったことについて、厳しい規定がかかっているものでございますけれども、これが、例えば(1)のところを見ていただきますと、このクーリングオフの規定が、宅地建物取引業者が売主となった場合には、クーリングオフの規定があるけれども、買主となった場合にはないと。それで、宅建業者が買い取った場合にも、クーリングオフの規定とするよう、適用範囲を拡張してはどうかという御意見が1つ述べられております。
それから(2)のところは、高裁判決が引かれておりますけれども、これを要約しますと、宅建業法の場合は、媒介契約の場合は厳しい規制があるということなのですけれども、売買契約になったときには、そういった規制がないと。現状そうなっているのだけれども、それは、媒介契約にある厳しい規制の潜脱ではないかということで、それの穴を埋めるような規制を置くべきではないかといった内容となっております。
寄せられた御意見についての内容は、以上でございます。
2つ目が、全国消費者団体連絡会様からいただいた、地方消費者行政充実・強化のための意見となっております。
右側のところが意見のポイントでございますが、地方版消費者基本計画をつくること、消費生活相談のDX化については、現場の状況を把握することなどを寄せられております。
また、以上は団体からの意見でございますけれども、下のところにございますように、個人から16件の意見等も寄せられております。内訳としては、取引契約関係が10件、表示関係は1件、その他が5件となっております。
以上でございます。
○鹿野委員長 ありがとうございました。
委員から、この点について何か御意見等ございますか。
よろしいでしょうか。
毎回そうではございますが、貴重な御意見をいただき、ありがとうございます。これらの意見書等につきましては、当委員会で参考にさせていただき、必要に応じて消費者委員会の調査審議において、また、改めて取り上げることといたしたいと思います。
《5. 閉会》
○鹿野委員長 本日の議題は以上になります。
最後に事務局より、今後の予定について御説明をお願いします。
○友行参事官 次回の本会議の日程などにつきましては、決まり次第、委員会ホームページを通してお知らせいたします。
以上です。
○鹿野委員長 それでは、本日は、これにて閉会とさせていただきます。
お忙しいところ、審議に御協力いただきまして、ありがとうございました。
(以上)