第5回 消費者をエンパワーするデジタル技術に関する専門調査会 議事録

日時

2024年7月30日(火)15:00~17:15

場所

消費者委員会会議室・テレビ会議

出席者

(委員)
【会議室】
橋田座長、坂下委員、原田委員
【テレビ会議】
森座長代理、荒井委員、田中委員、鳥海委員、松前委員、山口委員
(オブザーバー)
【会議室】
黒木委員
【テレビ会議】
柿沼委員、山本委員
(参考人)
【会議室】
大須賀晋氏 株式会社アイシン先進開発部サイバネティクス開発室長兼名古屋大学非常勤講師
有島真史氏 artience株式会社R&D本部長
丸山健二郎氏 artience株式会社R&D本部グループリーダー
【テレビ会議】
兼保圭介氏 日本電気株式会社事業開発統括部ディレクター
(事務局)
小林事務局長、後藤審議官、友行参事官、江口企画官

議事次第

  1. 開会
  2. 議事
    ①橋田座長プレゼンテーション
    ②事業者ヒアリング(株式会社アイシン、日本電気株式会社)
    ③事業者ヒアリング(artience株式会社)
  3. 閉会

配布資料 (資料は全てPDF形式となります。)

≪1.開会≫

○橋田座長 本日は、皆様、お忙しいところをお集まりいただきまして、ありがとうございます。

ただいまから、消費者委員会第5回「消費者をエンパワーするデジタル技術に関する専門委員会」を開催いたします。

本日は、坂下委員、原田委員は会議室で、森座長代理、荒井委員、田中委員、鳥海委員、松前委員、山口委員はテレビ会議システムにて御出席いただいております。

原田委員は、少し遅れて参加されます。

なお、本日は所用により、相澤委員が御欠席との御連絡をいただいております。

消費者委員会からはオブザーバーとして、黒木委員は会議室で、柿沼委員、山本委員はテレビ会議システムにて御出席いただいております。

本日は、所用により、星野委員は御欠席との御連絡をいただいております。

また、本日は、事業者ヒアリングとして、株式会社アイシンの大須賀様、日本電気株式会社の兼保様、artience株式会社の有島様、丸山様に御発表をお願いしております。

では、本日の会議の進め方等について、事務局より説明をお願いいたします。

○江口企画官 議事に入る前に、配付資料の確認をさせていただきます。

お手元の議事次第に配付資料を記載してございます。もし不足等がございましたら、事務局までお知らせください。

本日は、報道関係者を除き、一般傍聴者はオンラインにて傍聴いただいております。議事録については後日公開いたします。

以上でございます。

○橋田座長 前回までに、消費者をエンパワーするデジタル技術の活用例や社会実装するに当たっての課題などについて、関係者のヒアリングを行い、更なる活用について意見交換を行ってきました。

今回からは、今後期待される消費者をエンパワーするデジタル技術の活用について、関係者のヒアリングや、委員のプレゼンテーションを行った上で、意見交換を行いたいと思います。

今後期待される活用の1つとして、今回はパーソナルAIを取り上げたいと思います。全体を通じ、委員からの積極的な御発言をお願いいたします。


≪2.①橋田座長プレゼンテーション≫

○橋田座長 まずは、私からパーソナルAIとサービスのガバナンスということで、お話をさせていただきます。

では、こういうタイトルで御説明いたします。

もともと、この話を考え始めたのは、人間の認知バイアス等につけ込んで行動を操るという悪習がはびこっていて、それがアテンションエコノミーとか監視資本主義という形で広がっていると。

それがだんだん昂じてくるというか、AIの進歩に従って、それは個人の利益を毀損したり、選択の自由を侵す、あるいは民主主義を損なうという問題がますます大きくなっていくのではないかと。特にAIが高性能化して、人間を洗脳したりするというリスクも発生しつつあると思います。

ということなのですが、パーソナルAIというのをうまく使えれば、そういう問題は解消できるのではないかというのが、この絵なのですけれども、現在このサービス提供者がサービスを提供するだけではなくて、いろいろな行動操作をユーザーに対してかけているわけです。何かついついサブスクのボタンを押してしまうとか、あるいはサブスクを退会するボタンがどこにあるのか分からないみたいな、そういう話は、この調査会でも何回も議論になったところです。

そこで、利用者と提供者の間にパーソナルAIが入って、このパーソナルAIが客観的根拠のみに基づいてサービスを選ぶという形でサービスの仲介をするということになりますと、サービス提供者による消費者の利用者の行動操作は、かからないということになって、そもそも行動操作はできませんので、注意経済とか監視資本主義が成り立たなくなるというのがこの絵なのですけれども、もちろんこのパーソナルAI自体が悪さをするリスクは大いにありますので、その問題を解決しなければいけないという話になるわけです。

それで、パーソナルAIとは何かというと、一昨年の末頃に生成AIが現れてきて、今や人間とAIが話をして、AIが人間のニーズを理解して、そのニーズを満たすようなサービスを引っ張ってきて実行するということは、ほぼ技術的に可能になってきていると思います。

そうすると、人間はアプリとかウェブサイトを操作する必要がなくなる。AIと話をするだけでいろんなサービスが受けられるということですので、いわゆるデジタル・デバイドとかITリテラシー・デバイトが解消すると期待されます。その仕組みにサービスがつながりますと、今までサービスをデジタルなやり方で使ってくれなかった人たちが使ってくれるようになるので、サービスの利用が激増するわけです。

それから、ここにパーソナルデータストアというのがあって、こいつがサービスの間でパーソナルデータを融通できるということになりますと、各サービスのクオリティーが高まりますので、併せてサービス提供者の収益が増大するということが期待されますから、大多数のサービス提供者は、このパーソナルAIの仕組みにつながろうと思うのではないかというわけです。

そういうものは、結構皆さんイメージがわきますね、この手のロボットとかAIというのは、いろいろなSF映画とか、アニメなどでよく御存じだと思うのですが、こういうことが既に可能になりつつあるというわけです。

どういうサービスの仲介があるかというのを、少し例として挙げてみましたけれども、例えば、このサブスクはあまり使っていないからやめたいというと、はい、解約しましたとすぐにやめてくれるわけですね。AIは、サブスクボタンのURLを知っていますので、いきなり押すことができるわけです。

あと、去年の所得が少なかったので児童手当をもらえますよと、申請しておきましょうかと、はい、お願いと。みずほ銀行でいいですかと、いや、ゆうちょ銀行にしてというと、それで申請しましたと、来月から2万5000円もらいますという感じで、少しAIと話をすれば、面倒くさい申請手続が簡単に終わるということです。

あと、これは小売の例で、もう少しややこしいのですけれども、この左側にあるようなことは、恐らくすぐに実装できて、これだけでもデジタル・デバイドを解消するというには十分であろうと思います。

そういうメリットはいろいろ想像できて、確定申告しておいてと言えばしてくれるとか、フライトと宿の手配をして出張申請もやっておいてと言うとやってくれるとか、いろいろな明示的あるいは暗示的なナッジをかけて私をもっと勤勉にしてほしいとかということも可能になるだろうということなのですけれども、リスクも大きいわけですね。

AIにそそのかされて怪しげな壺を買わされたりとか、謎の団体に高額の寄附をさせられたりとか、洗脳されたり、脅迫されたり、勝手に有料サービスにサブスクしてしまったりということが、ないとは言えないということです。

しかも、暗示的なナッジみたいなサブリミナルなやり方で介入してきたりしますので、それによって出てくる結果がいいことだろうと悪いことだろうと、ユーザーはそれに気づかないということがありますから、何らかの補助的な手段が必要になってくるというわけです。

今までの話をまとめますと、このパーソナルAIをうまいことちゃんと管理しながら広めていくと、いろいろないいことがあります。

まず、パーソナルAIがサービスを仲介することによって、サービスそのものは通すけれども、行動操作を通さないということで、アテンションエコノミーとか監視資本主義を終わらせることができるけれども、その前提として、パーソナルAIの管理がちゃんとなされていなければいけないということです。その管理というのは、あらゆるサービスを仲介することによって、そのサービスに関連するデータが本人に集約されて、分散管理が成り立って、本人がそのデータを自由に使うことができるので、それを誰かが集めて分析することで、PAIを含むいろいろなサービスのクオリティーとかリスクを管理するということではないか。

さらに、本人のところに集約されたデータをパーソナルAIがフル活用すれば、パーソナルAIの提供者と利用者の共有価値が最大化するわけですけれども、そのときにもやはり、PAIのリスク管理が前提になっているというわけです。ですから、この管理が非常に重要で、それをどうやって実装するかということは、今、AIのガバナンスの議論が盛んですけれども、そういう文脈の中で、ちゃんと考えなければいけないテーマであると思います。

その管理というのは、パーソナルデータを集めて分析するという二次利用の一環として、クオリティーとリスクの管理ができるであろうと考えているわけです。この一番下のところで、各データ主体、個人のところに様々なサービスのデータ、パーソナルデータが集約されて、それをパーソナルAIがフル活用して、本人にサービスするという一次利用の世界があります。ここで各個人のパーソナルデータの名寄せは完了しておりますので、二次利用のためにそのデータを提供するときに、生データを渡す必要はなくて、様々な匿名化の技術を使って、生データが二次利用する人たちに渡らないようにすることが可能になりますから、開示の本人同意の敷居が低いということが期待されます。

ここでサービスの評価者とか研究者とかという人達がパーソナルデータを集めて分析するということで、パーソナルAIの管理だけではなくて、商品やサービスの開発とか、人間や社会の研究とか、政策の立案と検証など、いろいろなことに使えて非常に喜ばしいわけです。

さらに、上側にたくさんデータ利用者がいて、下の方にデータの主体がたくさんおりますので、この両面市場の仲介をするための何らかの機能が必要で、それがこのメディエータという二次利用の仲介の機能です。それが今までのデータの仲介の仕組み、例えば、情報銀行とか、ヨーロッパで言うと、データ利他主義組織とか、そういうものに比べると、はるかに安全で安価で、付加価値が高いであろうと見込まれます。

その二次利用の一環として、サービスの評価及びメタ評価ができるのではないかというわけです。メディエータを経由して、サービスの評価者が、たくさんのパーソナルAIの利用者からデータを集めて分析することによって、各パーソナルAIの評価をする。

さらに、複数の評価者が評価結果を互いにチェック・アンド・バランスするというメタ評価によって、評価自体が正しいという社会的な信用を築いていくということができるのではないかというのが、パーソナルデータの二次利用の一環としてのサービスの評価、それに基づく、パーソナルAIの管理という話です。

今日は詳細を御説明する時間はないのですけれども、そういう規格を、今、国際標準化しようと考えております。

CEN/CENELECというのはヨーロッパの標準化団体で、その中のジョイント・テクニカル・コミュニティ21というのがAIに関する標準化を扱っています。

一方、国際標準化機構として、ISO、IECのJTC1の下のSC42というサブコミティが、やはりAIの標準化を担当しています。ここでECからJTC21に、ヨーロッパのAI法の整合標準、ハーモナイズ・スタンダードをつくってくれという要請が行っていまして、全部やるのはJTC21の手に余るので、SC42に協力してくれという協定が去年成立しているのですが、それに基づいて一部の整合標準の開発をSC42が引き受けて、それでいい標準ができたらJPC21が採用するとなると、それがAI法の整合標準になるという寸法です。

整合標準というのは、その標準を満たせば、AI法を満たしているとみなしますよという標準なのです。

ですので、もちろん満たさないことも可能なのですけれども、その場合には、独自の規格をつくって、これでいいでしょうということを、ヨーロッパの規制当局にアプルーブしてもらわないといけないわけですが、そんなの大変ですね。

ですので、事実上、この整合標準が、法律とほぼ同じ強制力を持っているということです。

私は、このSC42に参加しているので、AIエージェントやPAIの管理に関する規格を、このSC42がつくろうとしている標準に入れようという寄書を今日にでも出そうと考えております。

そのようなシナリオなのですけれども、バックグラウンドとして、このパーソナルAIの付加価値は結構大きいという話と、もう既にPAIは現れているという話をしたいと思います。

いろいろなサービスを仲介するというのが、PAIの一番素直なビジネスモデルだと思いますけれども、BtoCサービスの仲介業で、恐らくGDPの10パーセントぐらいの市場規模ができると考えられます。

BtoCサービスは、大体どの国でもGDPの7割ぐらいの市場規模を持っていますけれども、仲介手数料がサービスの値段の15パーセントだとすれば、大体GDPの10パーセントぐらいということになります。その根拠として、エクスペディアの手数料は、大体宿泊料の20パーセントぐらいですね。これは、予約を代行するだけではなくて、来月のその地域での宿泊需要予測はこうですよみたいな、経営支援を含むということなので2割取っているわけです。

あと、小売業も一種の仲介ですけれども、小売業の粗利は、一般に売上の25パーセントとか30パーセントということなので、全体をならすと、恐らくBtoCサービスの仲介手数料は15パーセントぐらいかなと思います。

一方、BtoBサービスの市場規模は重複してカウントしますので、GDPの2倍ぐらいありますから、その仲介手数料はGDPの2割ぐらいかなということで、合わせてGDPの3割ぐらいいくのではないかと思います。

一方、パーソナルAI自身によるサービスもいろいろ考えられて、パーソナル・ドクターとか、パーソナル・チューターだとか、パーソナル・メンターとか、助手とか秘書とかありますが、これでどれぐらいもうかるかは分かりません。何パーセントとか、何十パーセントとか行くのかもしれませんが、ちょっと私には分からないので、取りあえず30パーセントというのがベースラインになるのではないかと思います。

そのようにもうかるので、もう既にPAIが商品化されてしまっているわけですね。

まだ、そこまでいろいろなサービスを仲介するところまでは行っていないのですが、既にPAIの商品はあります。

一番上はウェブベースのPAI、下の2つは、小さなデバイスですね、まだ、いずれも中途半端です。もっとサービスの仲介に集中したほうがいいのではないかと思います。

一方、オンデバイスの小さめのラージランゲージモデル、スモールランゲージモデルも、いろいろ出てきているというのは御存じのとおりです。

それで、このパーソナルAIがどのように広まっていくかということですが、最初は単に対話をするというだけのサービスから始まるのかもしれませんが、そのうちいろいろなサービスの仲介を始めて、それから仲介されるサービスのバリエーションも増えていくというように進むのではないかと。

最初は恐らく、自治体のサービスとか社内手続みたいな、一つ一つのサービスの利用を簡単にするだけでも十分な価値があるというものから仲介の対象になっていくのではないかと。

自治体サービスも社内の手続も一遍にたくさんサービスにつながりますので増やしやすいですね。それでパーソナルデータの融通がしやすい、再利用がしやすいという意味で、最初に仲介されるサービスになるだろうと思います。

医療とか、金融とか、購買みたいなサービスは、もう少しややこしい仕組みが必要ですし、現在、こういうサービスは、積極的にパーソナルデータを利用者に提供しようとしていないので、前者のようなサービスに比べると参入が遅くなるのではないかと思いますが、2050年頃になれば全部つながっているのではないかと想像しております。

つながるサービスの個数nに対して、システム全体の付加価値がnに関して非線形に増大します。

これはnイコール2の場合ですけれども、アマゾン安心メールというのは御存じの方はいるかもしれませんが、アマゾンでおむつとハチミツを買うと、あとでアマゾンからメールがやってきまして、赤ちゃんにハチミツをあげては駄目ですよと、乳児ボツリヌス症というやばい病気になるので危ないですよという注意喚起をしてくれるというサービスがありますが、それは、おむつも、ハチミツも両方アマゾンで買わないと、メールが来ないわけですね。

しかし、パーソナルAIがあらゆる購買データを知っていれば、例えば、おむつをアマゾンで買って、ハチミツを楽天で買っても同じような注意喚起をしてくれるというのが、この話です。

これは、もう少しややこしくて、購買の例ですけれども、例えば、アパレルメーカーから、この知識提供者という一種のデータ利用者が、その既製服の採寸データとか、色とか生地みたいな情報を集めて、既製服のカタログをつくって、それを個人のパーソナルAIがダウンロードして、個人は、仕立屋さんに行ったときに、採寸データなどをもらってきて、いろいろなデータを自分で持っていると。

そのデータと、既製服のカタログの中身をパーソナルAIが突き合わせて、本人に対して、これがいいのではないですかという推薦をします。

それを本人が気に入ると、アパレルメーカーから買って、代金を知識提供者経由で支払います。知識提供者が代金から手数料を抜いて、アパレルメーカーに送金すると、手数料分はもうかりますが、そのもうけには仕立屋さんも貢献しているので、分け前をあげましょうと。すると、仕立屋さんは、パーソナルデータをお客さんに提供することによってもうかるということで、エコシステムが回り始めるという話です。

もう少し一般的な行動支援として、これはパーソナルAI独自の行動変容サービスみたいなものですけれども、利用者本人はあまり健康診断に行きたくないのだけれども、パーソナルAIは、本人のスケジュールとかを熟知しているので、来週水曜日の朝暇でしょうと、もう予約してしまったから行ってくださいというと、普通の人は断れないですよね。こんなことができると非常に便利ですが、明らかにやり過ぎると危ないですね。

まとめますと、パーソナルAIは、10年ぐらいで普及するでしょう。それは誰も止められない。個人端末のスモールランゲージモデルでもって、サービスの仲介を実現できると思うので、ビッグテックが特に有利というわけではありません。スタートアップみたいなところでもPAIを開発できます。

そのPAIがデジタル・デバイドを解消することによって、サービスの利用が増大するのでサービス提供者のメリットにもなるということですが、利用者本人の手元にパーソナルデータを集約することで分散管理が成立して、そのパーソナルデータを本人がフル活用できるので、いろいろな付加価値が生まれると。

特に、パーソナルデータの分散管理に基づいて、パーソナルAIなどのサービスの品質・リスクの管理もできます。そのリスク管理を同時に普及させる必要があるので、国際標準化を進めているというところですが、それはうまくいけば、あと20年ぐらいでいわゆるアテンションエコノミーなどを終わらせることができるのではないかと。

このパーソナルAIの付加価値はものすごく大きいので、どんどん新しい事業者が入ってくるのではないかと。だけれども、その大きな付加価値を生むということは、品質・リスク管理に基づくトラストが前提になりますよというお話です。

ということで、早口になってしまいましたが、今の私のお話について、御質問、御意見等をお願いしたいと思います。

御発言のある方は、挙手またはチャットでお知らせください。よろしくお願いします。

田中委員、お願いします。

○田中委員 田中です。御説明どうもありがとうございました。

品質管理のところについて、教えていただけますでしょうか。パーソナルAIの利便性を生かすには、リスクを抑えるということと両輪なのかなと思ったのですが、パーソナルAIは、現行サービスの行動操作を阻止するということが1つの機能として期待されているかと思います。パーソナルAIそのものが行動操作をしないということのチェックや担保というのは、先ほど御説明いただいたような法律や国際標準化で、実現可能であるという見込みなのでしょうか。

これについて理由が2つありまして、1つは、先ほどの具体例、サービスの仲介例で御紹介いただいた対話の例、6ページの例2で、利用者は、はい、お願いというだけで、非常に楽になって、その利便性が非常に高まるなと思う一方で、その次に、パーソナルAIは、児童手当の振込先は、みずほ銀行でいいでしょうかと言います。このように、最初に出された候補は、現状維持バイアスを引き起こす可能性がありまして、それは、新たな認知バイアスとみなされる可能性があります。ここで客観的にサポートをするというのは、どういうことになるのかなというのが1点です。

パーソナルデータを本人に集約して、品質・リスク管理をすることで、担保ということだったのですけれども、この例で言うと、どういったことになるのか、よく分からなかったので、もう少し御説明いただけると有り難いです。

もう一つ関連する理由が、最近、LLMが人間のデータを学習して人間のデータに認知バイアスが含まれるので、ハルシネーションを起こすみたいな話と、LLMの認知バイアスの挙動を測定するようなベンチマークに関する論文をちらほら見るようになったのですけれども、LLM自体が認知バイアスを超こしていないかみたいなものをチェックして保証するのも、こういった先ほどの法律や国際標準化で実現できるという見通しなのかという点について教えていただけますでしょうか。

○橋田座長 ありがとうございます。

品質とリスクの管理というのは、データを集め続けて分析し続けることによって行われるということを前提にしています。

例えば、先ほどのみずほ銀行ですと、いつもみずほ銀行を先に言っているねという、そういう偏りが見受けられるとか、そういうことは、ユーザーとAIの対話のログを分析することによって分かるだろうと。

今のは割と単純な例だと思いますけれども、どういうリスクが発生するかというのは、あらかじめ、そのリスクの種類を数え上げることが、恐らくできないと思うので、常にデータを集め続けて、それを様々なやり方で分析しながら、未知のリスクにも対処できる仕組みを運営するというアジャイルなガバナンスのやり方しかないのではないかというのが基本的な考え方です。

それで、2つの御質問にお答えしたことになるでしょうか。

○田中委員 ありがとうございます。

○橋田座長 では、次に、森座長代理、お願いします。

○森座長代理 ありがとうございました。大変、橋田先生が、このテーマでお話になるのを楽しみにしておりましたけれども、私の期待をはるかに超えるすばらしいお話をいただいたのですが、本当にやはり、そういう消費者主権の回復みたいなことに、そのAIを使うことができる時代が来たのだなと改めて思いました。

私がお尋ねしたいことは2点ありまして、言語化ができているものとしては2点ありまして、1つは、アテンションエコノミーの終えんということですけれども、最初のほう、3枚目のスライドで少しお話をさせていただければと思いますが、ユーザーが何か誤った行動をするときに、誤ったといいますか、操作されて、非操作性のある行動をするときに、AIが介入すると、過激な投稿をSNSにしようとしていて、それはフィルターバブルとか、エコーチェンバーによってもたらされた操作の結果なのですけれども、それをパーソナルAIが防いでくれるということはあると思いますし、例えば、フェイクグループみたいなものに登録しそうになったときに、それはどうなのということは、もしかしたら言ってくれるかもしれないのですけれども、そもそものアテンションエコノミーによる操作自体、そういうことについては、なかなか防ぎ難いといいますか、どうなのでしょう、ウェブサイトについて、そんなものばっかり見ていてはいけないよ、みたいなことを言ってくれる、何となく、それは先ほどのやり過ぎ問題にもつながってくるような気がしますし、操作されて、その結果として、何か過激なことをする、フェイクグループに登録するということは、パーソナルAIが防いでくれるのではないかと思うのですけれども、もともと操作されることそれ自体は、果たして防げるのかなと、少し思いました。もし何かありましたら、教えていただければと思います。

それから、もう一つ、これまたすばらしいなと思ったのですけれども、手元で名寄せができているから、匿名化が可能であるという9ページ目のスライドです。

これもなるほどそうだよなと思ったのですけれども、他方で、ユーザーのことを知りたいと思っている人は、たくさんいまして、それが今みたいなことにつながっているわけなのですけれども、そのような状況で、つまりネットワークの向こう側では、一人一人のことを知りたい、一人一人にIDをつけて、その人たちがどのように行動しているのか知りたいという要求があるときに、手元のパーソナルAIが、それなりに工夫をして、匿名化して情報を出してくれるのだと思うのですけれども、そのネットワーク側からすれば、それは、クッキーなり何なりによって、それはAIとは別のブラウザとかサーバーとか、枯れた仕組みでIDをつけることはできるわけですので、もしかしたら、それをAIが消してしまうのかもしれませんけれども、何となく追跡可能といいますか、今行われている追跡みたいなことは、やはりできてしまうのではないかと思うのですけれども、それを困難にするような、もし仕組みというか、機構というか、そういうものがあれば教えていただきたいと思います。よろしくお願いします。

○橋田座長 ありがとうございます。

2つ御質問をいただきましたけれども、恐らく、これは1つの問題だろうと思います。

どういうことかというと、パーソナルAIが広まると、あらゆる商品、サービスと各消費者、利用者の間の仲介をしてくれるという仕組みなので、そもそも広告がなくなるわけですね。広告がなくなるということは、例えば、ほとんどのSNS、フェイスブックでもXでも、インスタでもいいのですけれども、ほとんどのSNSは、広告モデルによって成り立っているわけですが、そのモデルが崩れますので、何か別の収入源に基づいて運用するという全く異なるビジネスモデルに基づくものにならざるを得ないということになって、そうすると、ウェブの向こう側で各個人を操作しようというモチベーションを持つ人が、そもそもいなくなるかもしれないと想像します。これは、今から確かなことは言えないのですけれども、かなりそういうモチベーションを持つ人の数そのものが減っていくのではないかと思います。

あらゆる個人に対する個別の介入が、パーソナルAIを介してしかできないということであれば、個人情報を手元に持っていてもしようがない。それを全部パーソナルAIに使わせたほうが効率的だし、付加価値も大きいと思いますので、あまりいろいろな事業者が、利用者の個人情報を持ちたいと、そもそも思わなくなるのではないかということを期待しております。これは、半分希望的観測なので、どうなるか分かりませんが、そちらの方向に行ってほしいなというので、お答えになっているでしょうか。

○森座長代理 ありがとうございました。橋田先生のお考えがよく分かりました。

しかし、同時に、広告がなくなって、本人に対して商品を勧めたりすることは、全てAIがやるということになったとしますと、そこにはAIが本人に対してどういう勧め方をするかということについての公正競争というか、そういうことが非常に深刻な問題として現れてきて、場合によっては競争秩序みたいなこと自体が変わるといいますか、全く経済の様相が変わってしまうのだと思うのですけれども、そのAIは何に基づいてユーザーにレコメンドをするのでしょうか、それはやはりユーザーの行動履歴とか、そういうことになるということですかね。

○橋田座長 そうですね、行動履歴とか、広い意味でのニーズだと思います。本人が、例えば将来自分がどうなりたいかとか、そういうものを含むニーズをよりよく満たすような介入をしてくれるというのが理想ですけれども、先ほどの例でも少しお話ししたように、やり過ぎるとまずいので、どこでとどめるかという、割とややこしい議論になっていくのだと思います。

○森座長代理 なるほど、事業者側の情報は、AIはどこから取得してくるのですか、これはウェブではないのですか。

○橋田座長 それは、先ほどの、おむつとハチミツの例とか、あと、アパレルの例とかで、知識提供者というデータ利用者がいて、その人が匿名化されたパーソナルデータとか、事業者からのいろいろな情報を集めて、何らかのデータ、コンテンツをつくって、それをパーソナルAIに提供するという仕組みを想定しております。この知識提供者が、今、おっしゃったようなことをやるということを考えています。

○森座長代理 なるほど、そこに事業者間の優劣みたいなことも入っているということですかね。なるほど、分かりました。大変勉強になりました。もう少し考えてみたいと思います。ありがとうございます。

○橋田座長 では、鳥海委員、お願いします。

○鳥海委員 非常に面白いお話といいますか、大変参考になりました。我々も今まさにアテンションエコノミーに対して、どうしていくのかということを研究のテーマとしていまして、パーソナルAIのようなものを実現していくことはいいのではないかということを、まさに議論をしていたところですので、パーソナルAIについてのいろいろな話は非常に勉強になりました。

少しお伺いしたいのは、パーソナルAIが全て利用者の代わりに、ウェブサイト等を操作させないで、全部やるという前提のお話になっているかなと思うのですけれども、やはり先ほどの森委員の御質問と似ているのですけれども、結局このサービスをどうやって選ぶのかというところで、今のお話ですと、パーソナルAIに全てを委ねてしまうという感じなのかなという気がするのですけれども、そこでどういうサービスを好んでいるのかといったところを、全てAIが勝手に判断するのか、それともAI自身がある程度、自分で自己決定できる要素を残しておくのかというところ、私自身は自己決定がきちんと入らないと、いろいろまずいのではないかという気がするのですけれども、その辺はいかがですかというのが、まず1点目。

もう一点は、パーソナルAI自体が、これも複数の事業者が、恐らく参入してくるサービスになるのではないかという気がしておりますので、様々なサービスをつなぐもの自体の競争というのを、どのように行っていくのかという辺りについて、少しお伺いできればと思います。

○橋田座長 まず、自己決定ですけれども、先ほど児童手当の例を挙げましたが、まず、みずほ銀行でいいですかというと、いや、ゆうちょ銀行にしてみたいに、そういうインタラクションは可能になるだろうと考えています。

いろいろなパーソナルデータをパーソナルAIは使えるという前提ではありますが、PDSに蓄積されたデータが、個人の全ての情報を含むわけではないので、やはりそういう対話によって、PAIが知らないような本人の意思を反映させるということは必要になるだろうと考えています。

それから、その自己決定の範囲が、実は、パーソナルAI提供事業者と、あと先ほどの知識提供者などの間の競争ということもあり得るわけですけれども、そういう関連する事業者の間の競争によって管理が成り立つ、市場原理によって管理がなされるということも想定しています。

つまり、手元に蓄積されたデータはパーソナルAIが持っているのではなくて、PDSの中に蓄積されるという前提です。

ですので、あるパーソナルAIの評価が低くなってしまったという場合には、そいつを捨てて、別のパーソナルAIを使う、あるいは手元に複数のパーソナルAIを置いておいて、適材適所に使い分けるということを前提にしています。

だから、先ほどパーソナルAIによるサービスのメリット、デメリットに本人が気づかないことがあるというお話をいたしましたけれども、その本人の気づかないところをデータ分析によってカバーして、各AIの評価をしてくれる、そういう主体がいて、その評価を参照することによって、各パーソナルAI利用者が、よりよいパーソナルAIに簡単に乗り換えることができるということも自己決定の一環として想定しています。それがクオリティーとリスクの管理の重要な1つの手段でもあるということを考えております。

○鳥海委員 何かパーソナルAIに対して、満足しているかどうかということ自体が、ほかのものを使っていなければ分からないのではないでしょうか。要は、このサービスを与えられてしまった時点で、それを使うようにならないでしょうか。我々ウェブサービスとかを選ぶ場合は、最初の段階で、これとこれとこれと比較して、その上で選ぶという行動を基本的にはしていると思うのです。

現状、お話しいただいた内容ですと、そういう比較をして、では、これにしようという決定権というのが、あまりないようなイメージだったのですけれども、その辺はいかがなのでしょうか。

○橋田座長 いろいろなパーソナルAIの付加価値というか、メリット、デメリットの比較評価が、別の種類の事業者によって提供されると考えています。

それは、この絵だと少し分かりにくいのですけれども、このPDSを中心とする一種のアプリがあって、それがパーソナルAIとか、いろいろなサービスの間のインタラクションをつかさどっていると考えているわけですけれども、その仕組みの中で、パーソナルAIが1人の手元に複数あってもいいし、パーソナルAIをすげ替えてもいいと。

その根拠として、パーソナルAIの管理を支援してくれる事業者が、様々なパーソナルAIの評価をしてくれているというのが全体像です。

○鳥海委員 ありがとうございます。

別の事業者が評価してくれるのを見て、自分で決めるということなのか。

○橋田座長 そういうことです。

○鳥海委員 なるほど、そうすると、その評価機関が、どのような視点で評価するかみたいなことも、きちんと決めていくということなのでしょうか。

○橋田座長 ええ、様々な機関が、様々な観点から評価をして、どの評価が正しいのだみたいなことは、チェック・アンド・バランスでやるしかないかなということです。

○鳥海委員 例えば、評価に関して、個人の好みみたいなものがどうしても出てくると思うのですけれども、そういったものに関しては、考慮されるということでよろしいのですかね。

○橋田座長 そうですね、評価のためのアプリが各個人に提供されて、そのアプリに本人の好みとかを入れると、本人に合わせた評価をしてくれるみたいなことも考えられると思います。

○鳥海委員 なるほど分かりました。それでしたら、私も何かイメージと合致しているなという気がいたしました。

ありがとうございます。

○原田委員 遅れて申し訳ございません、後半のほうしか聞いていなかったのですが、資料を拝見させていただいて、何か物すごい、すばらしいなと本当に思って、本当に全部聞いていないので、感想的な話で申し訳ないのですけれども、やはり6ページの例示に出てきたような、いわゆる消費者問題として出てくるものに、契約と解約というのがあるのですね。

契約をすること自体は、どこも入り口が簡単なのですけれども、やはり解約の部分に関して問題が発生したり、解約しづらかったりとか、その解約の部分について、消費者トラブルというのが発生しやすいというところがあります。

逆に言うと、今の、残念ながらAIみたいなもので、消費者契約の解約を聞くと、大体ちんぷんかんぷんな回答しか、ChatGPTも教えてくれなくて、そこら辺が消費者問題は、少しAIが弱いなみたいな感じがしているので、逆に解約がすぐ自分のAIで簡単にできるということになれば、物すごくいい未来だなと個人的に思いましたので、ここら辺が現代だと、特に消費者問題に関しては、AIが少し弱い感じがしていて、自分が使っている限りなのですけれども、特に契約関連、消費者契約は、すごく多様化しているものですから、サブスクを解約しておいてと言って、解約ができればいいのですが、なかなか解約しづらいサブスクもあったりとかして、それがAIとかで複雑な契約関連が、こうやって解約がすぐできるようになるとしたら、非常に消費者にとってもメリットがあるかなと感想として思いましたので、その点の分析というか、リスク管理ということが必要にはなってくるかと思いますけれども、この解約という部分で注目していくと、非常にいいなと思いました。

以上でございます。

○橋田座長 ありがとうございます。

解約以外にも、契約したはずなのに、契約の内容が利用者に知らされないとか、そういう問題もあったかと思います。そういうことを含めて、契約が成立して、その内容がどうで、解約をするにはどうすればいいかみたいなことが、全て各利用者に明らかになるということが実現できるといいのではないかなというのが一般論で、それには、いきなりパーソナルAIに行かなくても、いろいろなサービスが、そういうものが提供されるようなAPIとして公開されるというのが第一段階かもしれません。

○原田委員 ありがとうございます。

○橋田座長 では、手短に。

○坂下委員 坂下です。

先生の資料の5ページ目に、ドラえもんが出てきていて、ドラえもんと、のび太の関係を見ると、ドラえもんは事業者で、のび太はユーザーですね、これは、非対称性があります。ドラえもんは、2112年に生まれて、1979年に日本に来ますから、のび太と情報の非対称性を持っています。また、のび太は、ドラえもんに依存性を持っています。空飛ぶタケコプターをもらったり、暗記パンをもらったり、依存性を持つわけです。

ドラえもんは、そこで何を主張するかと言うと、僕はおまえのためにやっているのだという信頼性を主張するわけです。この3要素の中で、いわゆる信任とか、忠実義務とかというものが、ドラえもんには求められてくる。

だから、こういうものを社会実装しようと思ったら、そういうものを考えなければいけないと思うのですけれども、CENやISOで、そういう議論はされているのですか。

○橋田座長 全くなされていないと思います。

先ほど、AIの標準でSC42のプロジェクトに提案しようというということを考えているという話をしましたが、まさにそういうことを打ち込もうとしていまして、特に、パーソナルAIのように、いろいろなサービスの仲介をすることによって、それにひもづく様々なパーソナルデータにアクセスできるような立場のAIについては、どれぐらいそのデータがリッチであるかにもよりますけれども、ある程度以上リッチな、つまり本人が制御し切れないぐらいのリッチなデータにアクセスできるAIに関しては、本人との間の情報の非対称性が明らかなので、今おっしゃった信認義務が当然課されるべきであろうということだと思います。

そういう規格を入れられたらいいなということを考えております。

山本委員、よろしくお願いします。

チャットにコメントいただいているようですが、今、チャットを見つけようとしているので、御発言いただければと。

○山本委員 すみません、時間がない中で、もし、時間があればということでした。

御報告の中で、お話があったかもしれないのですけれども、このPAIは、非常に魅力的なお話だなと思って、以前から拝察しているのですけれども、これは本人がお金を払ってこのサービスを使うのか、いわゆる広告モデルのような形で本人は無料で使えるのか、それとも、本人が要するに、経済的なインセンティブがどれぐらい本人にあるかどうかなと思うのですけれども、本人があまりこれについて導入したくないと、お金を払ってまで導入したくないという場合に、政府が、例えば幾らか肩代わりしてもらうとか、あるいはこれを提供する企業が税制上何か控除というか、優遇を受けるとかという形で、政府の支援というものがあるのかとか、最初はそういう話で、後半は本人決定ですけれども、どれぐらいの頻度で本人の決定の見直しというか、本人の最初の選択思考のプリファレンスのアップデートを本人がやるのかとか、もう一つ、肝になりそうだなと思って伺ったのは、アテンションエコノミーの話は、大変重要なお話ですけれども、本人が、例えばフィルターバブルとか、エコーチェンバーのような状況を積極的に望んだ場合に、このPAIというのは、それを支援する形になるのか、それに対して、それは民主主義的にはよくないですよ、みたいな形で、パターナリスティックに何か、これは、まさに過剰な問題なのかもしれませんけれども、そういうことになるのか、そこだけ教えていただければと思いました。すみません、よろしくお願いします。

○橋田座長 代金に関しては、ちょうどこのスライドの上半分、つまり、サービスの仲介業の部分は、各利用者には、直接あからさまに使用料を払うということが生じないと思います。つまり、何かサービスを使ってお金を払ったり、商品を買ってお金を払ったりしたときに、その中に手数料が含まれているという形になるので、従来と変わらないわけですが、下のほうのパーソナル・ドクターとか何とかというパーソナルAIそのものによるサービスの場合には、何らかの代金が発生するのではないかと思います。政府がそれを肩代わりするかどうかというのは、ちょっと難しくてよく分かりません。

それと、本人の決定がどの程度の頻度でなされるのかとか、それは、フィルターバブルの問題とも絡んでくると思いますけれども、本人の自己決定とか、あるいは、逆に積極的に偏った考え方に安住したいみたいなときに、そこから引き剥がすべきかどうかみたいな話は難しいですねということで、すみません、引き続き議論をさせてください。

○山本委員 ありがとうございました。すみません。

○橋田座長 すみません、時間が過ぎておりますので、この件は以上にしたいと思います。

次に、対話AIシステムSayaと言いますか、Sayaはマルチモーダルインターフェースですね、それについて、株式会社アイシン及び日本電気株式会社さんから御発表をお願いします。

では、アイシンの大須賀様とNECの兼保様、合わせて20分程度でお願いいたします。


≪2.②事業者ヒアリング(株式会社アイシン、日本電気株式会社)≫

○大須賀氏 では、マルチモーダル対話と生成AIの消費者サービス応用の意義だとか、課題だとか、展望について、私はアイシンの大須賀といいまして、あと、ロンドンから参加いただいているNECの兼保さんと一緒に報告させていただきます。

アジェンダですが、前半はデジタル技術の活用例ということで、先ほど出ていたパーソナルAIのようなものというのは、どういう技術でつくられているのかという点を、私から説明させていただいて、後半の社会実装に向けた課題というところを、NECさんから話していただきます。

まず、私のいるアイシンという会社ですが、愛知県を拠点としたグローバルな自動車部品サプライヤーということで、自動車の機能だとか、部品だとか、システムだとかというものを開発して提供しているという会社になります。

特に私のいる部門では、サイバネティクス開発室といいまして、センシングだとか、制御だとか、コミュニケーションを行う自立的なAIシステムを開発しております。

左から、いわゆる車が自動で走行するために必要なAIだとか、あと、真ん中が人、乗客だとかを認識するためのAIです。

最後に、人とコミュニケーションをするためのAIシステムの開発を行っております。

AIを使った人とコミュニケーションをするためのシステムをつくっている一番シンプルな絵としてはこちらでして、車が自走して、運転手がいなくなって、例えば、バスの運転手がいなくなって、中でカメラが人の様子を監視しているときに、非常にモビリティーとして寂しいものになってしまうので、そこでAIが人の形をして応対してくれるというところを開発しております。

それで、開発している対象としては、車だけではなくて、ここに出している1つの例として、羽田のイノベーションシティ、天空橋にあるスギ薬局さんの中で、AIと対話する、対象として見習い店員Sayaというものを開発していまして、これがお客さんに対して、適切な商品を対話だとかAIだとかというところを基に、リコメンドするというシステムになっています。

こちらは、上部についているのがカメラで、手前にあるのがマイクです。左にいる人がお客さん想定で、ここにいるSayaというコンピューターグラフィックのエージェントが応対するというようなビデオになります。

今、環境上、音が出ないのですけれども字幕が出るので、よろしくお願いします。

こちらのカメラでは、お客さんの年齢だとか、性別だとかを判定して、裏にスギ薬局さんのお勧めしたい商品群というのがあるのです。そのお勧めしたい商品群の中から、相手の属性だとか、会話の流れからお勧めしたいものをお伝えするということになります。

この方は、今、スキンケアが気になるということ、女性の方が言われているのです。

それで、お客さんがお勧めを聞くと、スギ薬局さんがプライベートブランドでつくられている、プリエクラシリーズというのが、化粧品としてありまして、こちらを、内容を説明しながらお勧めするいうようなシステムになっていて、今もこれは羽田で実際に動いております。

これと類似したシステムとして、今、ゼネコンさんの建物OSという、いわゆる建物全体のソフトウエアとつながったシステムとして、受付Sayaシステムというのをつくっていって、受付のところに、同じような機械が置いてあって、誰々さんに会いに来ましたと言うと、誰々さんをスラックだとかで呼んでくれるというシステムになっております。

カメラとマイク、ビジョンと音声両方を使って、2つのモダリティーを使って対話するエージェントということで、私たちは、これをマルチモーダル対話エージェントと呼んでいるのですけれども、視覚や聴覚等の情報をシステムが統合解析して、さらに制御して、ユーザーと自然な対話を行うと、それによって、事業者にとってのよいサービスをお客さんに行うということが目的になっております。

構成としては、左側のマルチモーダルインタラクションと書いてあるところが、インターフェースの部分に、人とのユーザーインターフェースになりまして、画像認識AI、ビジョンAIでユーザーの動向を見ながら、音声AIで何を言っているかを聞くと、これをマルチモーダルダイアログエージェントというところが、両方のモダリティーを勘案してバーチャルヒューマンを制御して、人と話すことをするというようなことになっています。

さらに裏側に、右側にサービスウィズジェネレイティブAIというところが、生成AIが存在して、実際このブレインになるのがここで、ユーザーにとって必要なサービス、例えば一番右側のスギ薬局さんであれば、お勧めの製品だとか、商品だとか、受付であれば、呼び出すべき社員だとかというのを呼び出してくれるということを、LLMを通して行うことになっております。

これらは、今、実証実験レベルでやってはいるのですが、社会実装に向けた課題としては3つあると考えております。

1つ目が、上からユーザーの受容性。

2つ目が、どういったところで使うかという活用シーンです。

3つ目が、コンプライアンスだとか、倫理だとかの問題だと考えていまして、アイシンの私のほうからは、今日はユーザーの受容性についてお話させていただいて、残り2つをNECの兼保さんからお話ししていただきます。

受容性としては一番右にあるのですけれども、いかにユーザーに機械としゃべれるかということを周知するかということです。

あと、機械自体が自然にインタラクションして、ユーザーに受け入れてもらえるということ。

あと、ユーザーが、先ほどドラえもんのように信頼してくれるというところ、気持ちとして信頼してくれるかというところが、受容性としては課題になってくると。

周知活動は、周知が必要ですということで、次の自然なインタラクションを実現するためにも、かなり技術的なハードルがいろいろあって、頑張らなければいけないですと。例えば、ユーザーとChatGPTが会話するような場合というのは、普通にやると結構間ができます。ユーザーが何かしゃべってから返ってくるまで、3秒から5秒、10秒だとか時間がかかるのですけれども、こういったシステムは、対話システムとしては相手にされない、人が話すと、すごくいらいらしてしまうので、対話の間を最大でも1秒以下に抑えるような必要性があります。

これは1つの課題でして、1秒以上人の会話では、沈黙時間は続かないとか、あらゆる言語で、間は500msを下回るだとか、人間は予測しながら話しているので、非常に短い間で話せると。

それで、500ms以上の間があるときは、答えたくないと、ネガティブな印象を持たれてしまうというような問題があって、間を抑えなければいけない。これは非常に大きな、現在も、大学とかでもやられている非常に大きなチャレンジでして、あと、ビジュアル情報を使うというところです。

あと、人間は、人と人で話すときは、相手の顔を見ながら、視線移動だとか表情変化というのを使って上手に会話をすると。こういったものを、音声とビジョンを組み合わせてやるということが技術的には、機械にとっても必要ですというところで、私たちは、こういったところに力を入れて、間のところであったりだとか、カメラとマイクの両方を使ったインタラクションというのを実現しておりますというところです。

次が、バーチャルヒューマンの制御、見栄えとしての人らしさがいかに重要かという話になるのですが、科学的に、より人らしく見えるキャラクターが、人間にとって心を持って知性があると認識されると、知覚されるということが言われております。

その研究結果は左でして、これは、玉川大学にいらっしゃったタカハシさんらが研究していた内容なのですけれども、より人らしいキャラクターが、意識を持っていたり、親しみのような心を持っていると感じられると同時に、知性ですね、いわゆるIQで示されるような知性というものを持っていると、両方を知覚させたというような実験結果が出ております。

下のグラフは、結局人、この場合はアンドロイドですけれども、動物キャラとかロボットとか、PCだとかと比べて、アンドロイドがより人と近いような知性だとかを感じさせたということが言われております。

このことから私たちも、このバーチャルヒューマンのSaya、これは、日本でつくられたバーチャルヒューマンのSayaというのがもともとありまして、もともと表彰だとかも受けている、ある種有名なキャラクターを使って、この非常にリアルなキャラクターで人と対話するというエージェントをつくっております。

これらの開発、こういった人のように話すキャラクターというか、AIの開発はアイシンだけではできないので、様々なロボットだとか、通信だとか、心理学だとか、エンターテイメントだとか、あと、対話AIであったりとか、様々な分野のトップクラスの研究者の方々に協力いただいて開発をしております。

最後に、こういったものを利用して、目指す世界、最終的に目指したいところというのは、やはりAIのメリットをなかなか享受しにくいような子供だとか、高齢者を含む誰もがAIのメリットを受けられる社会というところを目指して、例えば、AIの授業を群馬県さんと協力して、Sayaと子供が対応するだとか、あと、介護施設で、おばあちゃんだとか、おじいちゃんの話し相手になれるかというところを、アルソックさんと協力して介護施設で実証実験をしたり、こういった分野でも広めていけられるように進めております。

では、次に兼保さん、お願いします。

○兼保氏 そうしましたら、NECの兼保から発表いたします。

おめくりいただきまして、会社のプロファイルは、このようになっております。後ほど御覧いただければと思います。

私どもNECでございますけれども、ITサービスをなりわいとしておりますので、企業や政府、自治体が直接のお客様になることは多くございます。

私ども、そのようなお客様とお話しする中で感じるのは、自社の製品とか、サービスとかを最終消費者に理解してもらうということが、すごく大事で、それに努力しているお客様は数多くいるというか、ほとんどそのようにされているということです。

最終消費者と、私どものお客様との接点ですが、ここは業種業態によってもいろいろな形があるのですけれども、近年、例えばユーザーインターフェースでは、その場では特に重要なことを中心に説明して、続きはウェブサイトに誘導して、疑問点をチャットで相談するとか、あるいはユーチューブとかの動画を活用して説明するというような方法が見られるかと思います。

こういう顧客接点、これを点として見るのではなくて、一連のユーザー体験として捉える、これがカスタマーエクスペリエンス(CX)といいますが、こういう観点で捉えますと、いわゆるユーザーインターフェースとか、ユーザーエクスペリエンス、UXのトータルコーディネートが非常に大切になると考えております。

従来、最終消費者との理解促進を促すようなものというのは、店頭にいる店員さんとかが、様々な創意工夫を持ってやってきたわけですけれども、これが近年、技術の発展によって、人の代わりになり得るデジタルヒューマンが利活用され、あるいは着目されていると承知をしております。

デジタルヒューマンの特徴は、先ほど大須賀様からお話しがありましたように、単なるテキストチャットのようなバーバルコミュニケーションでコミュニケーションするということだけではなくて、人に近しい姿を見せて、その表情とか、視線とか、態度とか、そういったノンバーバルコミュニケーションが可能だという点にあるわけです。

単なるユーチューブの動画のように、誰が見ても同じものがくるというようなことではなくて、一人一人に対してカスタマイズして、リアルタイムに返信ができるということが特徴になると思っております。

こういう特徴を生かすことで、今日、私どもの顧客企業が最終消費者に対して、より分かりやすい説明をすることができるようになってきたと捉えております。

おめくりください。

デジタルヒューマンの幅広い利活用がいろいろなところでできると考えています。

例えば、ここにあるモビリティー、マニファクチャリング、トランスポート、ファイナンス、サービス、リテールなどがあります。ここに書かれていない業種もいろいろ考えられます。例えば、テキストによる説明だけでは理解が進みにくい、先ほどの大須賀様にもありましたけれども、高齢者とか、児童とか、こういう人にはテキストだけでぱっと契約書を読めというのは、少し難しいので丁寧な説明が必要であるというときに、ノンバーバルコミュニケーションが可能なデジタルヒューマンが適していると考えられます。

実際、海外での取組を中心に、医療とか介護、先ほど国内での事例もありましたけれども、導入とか各種実証実験が見られます。実利用の面で海外の先行事例とかを見ましても、ゲームやエンターテイメントはもちろん、商品の説明から販売をする用途とか、携帯電話のプランを相談するとか、教育をする、英会話とかの教育をするとか、あるいは面白いやり方ですと、多国語に対応するために、行政窓口として利活用するということも見られます。

こういったことを考えますと、日本、我が国においても、多くの社会実装が行われると考えておりまして、私どもは、おおむね今から約10年で、市場規模1000億円くらいに育つのではないかなと見込んでおります。

おめくりください。

個人情報、プライバシー、あるいは先ほどの御発表にありましたけれども、ダークパターンとかスラッジのようなもの、こういったものに加えて、各種ガイドラインや法規制などに、事業者自ら配慮していくという前提にすれば、国内においても最終消費者に寄り添った、プライベートの相談を高度な専門知識をもとに受けることが可能と考えております。

データの管理手法については、先ほどの橋田座長のおっしゃるところまで、行けていませんけれども、少なくともこういうことができれば、パーソナルAIによるサービスが、あるいは可能ではないかと考えております。

なお、本資料については、公開しているものに加えて、補足資料が書かれておりますので、先生方におかれましては、御確認いただければと思います。

おめくりください。

デジタルヒューマンの人間でないという特徴を生かすことによって、更にその発展的に消費者をエンパワーメントすることが可能だと考えます。

例えば、デジタルヒューマンはプログラムですので、休日とか深夜とか、こういった時間も全然変わりなく働く、動かすことができると考えます。教育も、人間みたいに小学校から大学生まで、教育を施す必要はないわけですね、プログラム一発で動くという特徴があります。

こういった特徴がある一方で、先ほど申し上げましたように、デジタルヒューマンの社会実装には、非常にUX/UIみたいなところが重要になってくるのですけれども、これは、まさしくELSIみたいな倫理的観点も重要になってきます。

UXとかUIとか、そういったものとELSI、これは相反する概念ではなくて、すごく隣接していると、私ども事業者としては考えておりまして、今後の技術的な研究開発とか、技術開拓が望まれる一方で、AIガバナンスとかと同様に、このデジタルヒューマンの倫理面についての検討が必要ではないかと感じております。

この際、代表的な論点として幾つかここに書かせていただいています。先ほど大須賀様からお話がありました消費者の受容性や、技術的実現度を踏まえた適切な利用シーン、あるいは各種透明性、プライバシーの配慮といった点が挙げられると思います。

おめくりください。

最後に御参考までに、これは、NECのグローバルの各種法規制とともに、ガバナンスに関する取組を数多く行ってまいりました。

こういった経験からも、先ほどのような感想を持っております。

おめくりください。

時間がございませんので、これで最後にしますけれども、最後に御紹介ということで、NECが立ち上げたデジタルヒューマン協議会という事業者による団体がございまして、この協議会の中では、そのデジタルヒューマンの社会実装について議論するというようなことをやっております。

この団体の中でも技術的なこととか、どういう利用シーンがいいかということも話しておりますが、先ほど御紹介した倫理的な検討も行っておりまして、その一部は協議会のほうから無料で公開させていただいていますので、御紹介させていただきます。

私のほうからの説明は以上となります。御清聴ありがとうございます。

○橋田座長 ありがとうございました。

ただいまの大須賀さん、兼保さんからの御発表内容を踏まえて、質疑応答、意見交換をしたいと思います。

御発言のある方は、挙手またはチャットでお知らせください。

では、私からでいいですかね。

今、御紹介いただいたユースケースでは、デジタルヒューマンは、事業者側に属していたのだと思いますけれども、各エンドユーザーというか、個人の側にデジタルヒューマンが属しているほうが、利便性とかELSIとか、いろいろな点で望ましいことがあろうかと思います。その点に関しては、いかがでしょうか。

○大須賀氏 その点も十分あり得ると思っていまして、私たち、同じシステムをスマートフォンで動くように設定、これも対話AIでしゃべるのですね。ですので、必要だと思っております。世界観としては、家でスマホでどこかに行きたいということを決めて、車に乗り込んだらまた、また、AIがサポートしてくれて、行った先の、例えばデパートでもサポートしてくれるというのが、据え置きと携帯、両方で存在するというイメージでおります。

○橋田座長 ありがとうございます。

ほかの方、御意見、御質問がありましたら、では、坂下委員。

○坂下委員 御説明ありがとうございました。とても興味深く伺いました。

質問が2つありまして、最後の資料のページに御参考というので、表が載っているのですけれども、プライバシー保護というところがまずあって、こういうAIというのは、先ほど御説明にもあったように、例えばフレイルになりかけている高齢者の方とか、年少の小学生とかという人に寄り添っていくものになるので、やはり似たようなデータを学習しなくてはいけないと思うのですね。

そうすると、そのときに取った利用者のデータというものを、どうやって同意を取って使っていくのかということについて、何かUI/UXを含めて考えていることがあるか、これが1つ目です。

2つ目は、3番目に倫理的問題というのがあって、先ほどの、のび太君とドラえもんではないのですが、ここには、情報受任者としての法的、倫理的な契約が何かしらなくてはいけないのだろうと思っていまして、事業者が考えている倫理的なガイドラインの倫理というのは、どのようなものを例えば指すのか、これは2点目です。

お答えできる範囲で結構ですので、よろしくお願いいたします。

○橋田座長 兼保さんから御回答をお願いしてもいいですか。

○兼保氏 御質問ありがとうございます。

1点目、データの保護みたいなところですけれども、これは近年、LLMなどでも同じような問題になっているかと思いますけれども、相手との会話、データの保護とか、こういったものをどこまでプロテクトするのかということに近しい問題かなと思います。

一方で、少し視点を上げますと、先ほど私、トータルコーディネートと申し上げたのは、単なる点としてのデータの保護という、そこで利用者に今から使いますよとか、使い回ししますよ、みたいなことだけを言うのではなく、もう少しデジタルヒューマンと接するという体験自体を、もう少しコーディネートしたほうがいいのではないかと考えております。

具体的に申し上げますと、この協議会の中では、例えば、先ほど大須賀さんはスマホでという使い方を御紹介いただきましたけれども、例えば、大型のスーパーに案内版、デジタルサイネージみたいなところにデジタルヒューマンが出てきて、これと会話をするというようなときに、自分がそのデジタルヒューマンにしゃべるわけです。しゃべるといういうことは、デジタルヒューマンだけが聞くのではなくて、通りすがりの人たちにも聞こえてしまうと、デジタルヒューマンが音声で回答してくるとしたら、これは、周りの人たちにも聞こえてしまう。

こういったことが、利用者にとって今までチャットでプライバシーを守りながらやっていたことと、少し体験自身が違ってくるだろうと思われます。

ですので、そういう全体的な体験自身に対して、新しいものですよと、これに対して、いろいろなプライバシー、こちらは排除しますけれども、それを超えたいろいろな出来事がありますよということを教育していくというか、ユーザーとの対話の中で少しずつお互いやれることを増やしていくという視点を持ってございます。

倫理的問題点を申し上げますと、今みたいなことを事業者自ら考えていくということが望ましいと考えております。

お答えになっているでしょうか。

○坂下委員 ありがとうございます。大変よく分かりました。

○橋田座長 では、鳥海委員、お願いします。

○鳥海委員 興味深いお話をありがとうございました。

資料の11ページ目のところに関しまして、少しお伺いしたいのですけれども、ユーザーの受容性と、バーチャルヒューマン制御ということで、ヒトらしいキャラクターが「ココロを持ち、知性がある」と知覚されるというのは、そうかなというところはあるのですけれども、心を持ち、知性があると知覚されなければいけないというのは、どういった理由からなのかなというのが、少しお聞きしたいところであります。

特に、心を持ち、知性があると、実際には存在しない、心と知性を感じてしまうことによる弊害というのが逆にあるのではないかという気がするのですけれども、その辺についてはいかがでしょうか。

○大須賀氏 回答いたします。

例えば、1つのアイデアとして、介護施設での問題というのは、おばあちゃんとかが、転んで足の骨を折ってしまっても、ヘルパーさんが忙しそうで言えないみたいなことなのですね。忙しそうで言えなくて、介護施設には、実は骨が折れている人がいっぱいいるというのは、割とあるあるらしくて、そういった声を拾いたいというのが思いのわけです。

そのときに、より知性だとか、心があると、入居者の方々が思ってくれれば、もしかしたら、私は少し足が痛いのだけれども、何とかならないかなというのを、真剣に相談してくれるというところ、例えば、一例としてはそういうことを目指して、知性がある、心を持つようなエージェントを開発しているというところです。

もちろん、何らかの方法で、そういった印象を悪用するということは可能だと思いますので、そこはまた倫理のほうで考えていかなくてはいけない問題だろうなと思っております。

○鳥海委員 今のは、例があまりよく理解はできなかったのですけれども、心があり、知性があるように感じると、相談をするように、骨が折れている、足が痛いということを言うようになるということなのですか、ちょっと知性と心と、それとがあまり私の中ではリンクしていないのですけれども。

○大須賀氏 ここでいう知性というのが、他人の、例えば、マインドホルダーとマインドリーダーという、マインドリーダー側としては、例えば相手側に関して、ちゃんと理解してくれるというものが、まず、マインドリーダーです。

骨が折れると痛いから病院に行かなくてはいけないという、そういうロジカルなことを理解してくれるということと、あと、親身になって話を聞いてくれるという、例えば子供だとか、おばあちゃんとかが、この機械は親身になって話を聞いてくれて、自分に害をなすものではないのだという思いを持ってくるっていうのが、マインドホルダーでして、その両方を持っていないと、例えば、子供だとか高齢者が相談したいと思わないのではないかと考えております。

○鳥海委員 そこについては、こういう心と知性があると、知覚されるというところまでは分かっているけれども、その先については、まだ。

○大須賀氏 そうですね、恐らく研究が必要なのではないかなと思います。

○鳥海委員 それが必要であるということは、まだ分かってはいないというところですかね。

○大須賀氏 はい、少し勉強いたします。

○鳥海委員 個人的には、親しみなどは、結局、どのぐらいの間、接点があるのかとか、接触時間の長さとか、そういったところで決定される要素のほうが大きいのではないかなという気がしましたので、必ずしも、あまりリアルな人間ではなくても、実はいいのではないかなというのがありましたので、質問させていただきました。

○大須賀氏 そうですね、相手のことを覚えているとか、それに基づいた関係性がつくれるとかというのも、もちろん必要なパーツだとは思いますので、そういったものも開発を進めていくという立場であります。

○鳥海委員 分かりました。学術的には、人間の形にこだわらなくても同じことができるみたいなことが、結構、人間の形をつくり出すのは、人間であるからこそ、人間そっくりではないと、人間と同じような行動しないといけないという、制約ができてきてしまうので、むしろ、キャラクターとかのほうが、そこまで厳密に人間に似なくてもいいのではないかということで、開発の負荷等も大分減らせるのではないかなと思ったのですけれども、いかがなのでしょうか。

○大須賀氏 経験的には、例えばロボットみたいなものだと、介護施設では怖がられて置きたくないと言われるようなことが結構ありますので、形状をどうするべきかというのは、まだ議論が要るとは思うのですけれども、引き続き、心理学の先生とも一緒にやらせていただいているので、知見を深めていきます。

○鳥海委員 分かりました。ありがとうございます。

○橋田座長 先行研究によると、映像などで擬人化されたエージェントが、利用者のパーソナルデータを使って個人適用してくれるとトラストが増すというようなこともあるようなので、その方向の研究開発はありなのだろうという気がいたします。

では、森座長代理、お願いします。

○森座長代理 ありがとうございます。大変興味深く伺いました。

デモも、すごい好感が持てるといいますか、前から更に進化しているのだなと思いました。

私、坂下さんと同じことをお尋ねしようと思うのですけれども、それは、先ほどのお答えに若干納得しなかった部分があるものでございまして、スライドとしては17枚目ぐらいですかね。

プライバシーの問題ということなのですけれども、デジタルサイネージのようなところに投影されてやり取りをするので、会話を仄聞されるかもしれないというお話がありまして、それがチャットと違うというお話だったのですけれども、それはそうだと思うのですが、チャットと違うことは、デジタルサイネージと話している人間にとっては、それは自明のことでございまして、大きな声を出せば、人に聞こえるのだろうなと、恥ずかしいことは言わない、叫ばないでおこうという自制は当然働くのだと思います。

むしろ、デジタルサイネージに出てきて、その人と話すときの問題は、人間との違いなのではないでしょうか。実際に人と道で会話をするときに、恥ずかしいことを言わないでおこうとか、立ち入ったことを言って、通りがかりの人に聞かれたら大変だということは同じように警戒するわけですけれども、相手は人間ですから、そんなにいろいろなことが分かるわけではないと思うのですけれども、スライドを見ますと、例えば、顔、特徴情報を取ることもできる、全然センサー機能も違いますし、また、バックグラウンドで、目の前にいる人の、場合によっては、DMPのデータベースみたいなものも参照できるかもしれない。広告IDをスマートフォンから取って、そのような目の前の女の子と話していると思いきや、物すごいセンサーとか、物すごい自分に関するデータベースを持っているというところの違いが、デジタルヒューマンにおけるプライバシーの課題なのかなと思ったのですけれども、そういうお話はないものなのでしょうか。

○兼保氏 御質問ありがとうございました。

兼保のほうからお答えしますが、実際、今、問題になっているのは、そこというよりは、実装の中で先ほど申し上げたような、音が漏れるとか、そういうところのほうが、より問題になっているということでございます。

では、今、問題になっていること、例えば事業者にしてみると、雑踏の中におきますとマイクの感度が非常に悪いものですから、お客さんの話が聞こえないというか、拾えないのです。あるいは、雑踏の中で、スピーカーでやるときの音量はどれぐらいが適切なのかとか、こういったところが、今、問題になっているのですが、これが解決できたとして、おっしゃっていただいたようなセンサーをどこまで取るのかとか、どこまで企業にシステム、カスタマーとのリレーションシップを、管理しているシステムとつないでいくのか、ここはもちろん、おっしゃるように問題だろうと思います。

これは、従来、コールセンターとかでも同じことが起きていまして、お客様の情報は全部記録していて、それが、次の問い合わせのときにも活用されますよというようなことは、従来システムでも行われているものなので、これが大幅に超えるようなことがあっては、もちろん、森先生がおっしゃるように、ユーザーにとっては、期待というか、想像とか予想に超えるものであろうと思います。こういったところも、どこまでやっていいのかというのはあろうかと思います。

○森座長代理 分かりました。ありがとうございます。

やはり人と話しているような体験をしますけれども、人とは違うセンサーであったり、データベースであったりというところが、少し課題かなとは思いましたので、また改めてお話を伺うことができればと思います。よろしくお願いします。

○兼保氏 はい、分かりました。ありがとうございます。

すみません、もしかしたら、僕が質問の意図を間違えていたのかもしれないですけれども、そういう意味で言うと、ここに表示されているのが、リアルな人間ではなく、デジタルヒューマンというCGですよということを表示すべきかどうかという話でいうと、そこは、また議論の余地があるとは思います。

○森座長代理 いえいえ、ごめんなさい。全くそういうことではなく、センサーの話です。人間では到底知り得ないようなことが、それはデジタルヒューマンのそれ自体の問題というよりは、その周辺機器の問題のわけですけれども、やはり本当にいろいろなことができると思いますので、人間との会話のアナロジーでは、到底考えられないような形でデータを取られている、そのことをユーザーにどのように伝えるのか、どのように納得してもらうのかという、そこが問題かなと思いました。

○兼保氏 ありがとうございます。

○橋田座長 では、次に山口委員、お願いします。その次に原田委員、お願いします。

○山口委員 貴重なお話をありがとうございました。

鳥海委員の御質問と近しいところになるかもしれないのですけれども、サービスを進めていく上で、近年サービスマーケティングの分野ですと、いかに失敗をしたときにどうリカバリーするかそのものが、失敗をしていないときに何かよい体験を与えるよりも、その後のユーザー体験をよりよいものにするというような研究が進んでいまして、この専門委員会でも話題になっているような、例えば、意図せぬ契約をさせられてしまったとか、自分では買うつもりがなかったのに買ってしまったというようなものは、基本的には、どちらかというとネガティブな経験になるかなと私自身は思っています。

そうなったときに、例えば、あくまで現在でのお考えで構わないのですけれども、ポジティブに何かこういうサービスを利用したいけれども、どうしたらいいのだろうというようなときの共感と、いわゆる失敗体験に対する共感というのが、現在どれぐらい使い分けることができる、少なくともデジタルヒューマンの文脈において使い分けることが可能なのかどうかということ。

もう一つは、そういった失敗してしまったということに対する体験をデータとして蓄積されるということに対して、現在、この映していただいているスライドでいくと、それは現在、UX/UIの観点から考えるべきことなのか、それとも、やはり人間が失敗してしまったというネガティブなことを記録されたくないという、尊厳を生かすという倫理的観点をどちらから議論されるべきなのかということに関して、お考えをお聞かせいただけると幸いです。

○兼保氏 ありがとうございます。これも私がお答えしますね。

失敗体験をというところは、直接は私も事例を申し上げられないのですけれども、ネガティブな面で言いますと、例えば、デジタルヒューマンにクレーム処理をさせるとか、あるいはクレーマーの役をさせるみたいな利用用途はぱっと頭に浮かびます。実際、そういう用途で使われているというシーンも聞いております。

では、これがどの程度記録されていいのかというのは、先ほどのコールセンターの話などと同じように、お客様との録音データというのは記録されて、今後のサービス向上に利用しますということが、一般事業者の中で行われていることかと思います。デジタルヒューマンもそのような側面があるのではなかろうかと思います。

これが、おっしゃるようにUX/UIの観点なのか、プライバシーとか、人間のライツの問題なのかというのは、これは事業者というよりは、法学みたいなところにお任せしたいと思いますが、いずれにせよ、事業者としては、そういったことをダークパターンとかスラッジみたいな形で、悪用してお金を稼ぐというようなことは避けるべしと思っております。

○山口委員 ありがとうございました。

○原田委員 御説明ありがとうございます、私、原田のほうから少し要望といいますか、お願いなのですけれども、非常にデジタルヒューマンのお話、興味深く拝見いたしました。

15ページのところに、やはり消費者契約に係るデジタルテクノロジーへの期待ということで、こういったデジタルヒューマンを介して、いろいろな対話ができたり、対話式で契約をしたりとかというような支援に役立つかなという点では、よいと思うのですけれども、先ほどの御意見にもあったように、意図せぬ契約といいますか、少なくとも消費者に不利な内容というか、そういうものは倫理的なところで、きちんとやっていただきたいというのが大前提で開発をお願いしたいと、本当に思っております。

アシモフの「ロボット3原則」みたいに、まず、最初に人間に対して逆らってはいけないみたいな、反してはいけないみたいな、それと同じように、これを利用するのは事業者側の、先ほどのスギ薬局さんみたいなこういうケースだと思います。ただ、事業者様側のほうがこういったデジタルヒューマンを使って、いろいろな消費者と接点を持っていろいろな会話をしたりとか、御契約まで至るというような話になるときに、少なくとも消費者側に不利になるということは、倫理的には避けていただきたいということを大前提に、開発をしていただくことを、是非お願いしたいと思っております。

○大須賀氏 ありがとうございます。

今の問題は、別にバーチャルヒューマンに限った話ではなくて、契約窓口とかで、今、音声とかを録音して、書き下し文にして、カスハラだとか、逆に誤った販売とかをしていないかというのは、記録を取って解析が始まっていると思うのですね。

バーチャルヒューマンの場合は、より人間、全てが記録されるわけですから、非公正なことが行われたかどうかというのは必ず分かる仕組みになるわけですから、人と人がやっているよりも、公正な部分ができると思っております。

ですので、だまして契約してしまうみたいなのがよくないのは分かるのですけれども、それは、人でも機械でも起こり得ることで、ログが残るという点では、バーチャルヒューマンのほうが、透明性があるという考え方ではあります。

○原田委員 ありがとうございます。

多分バーチャルヒューマンだからこそ、先ほどの御発表の内容でいきますと、やはりより信頼性が高くなるとか、信用したくなるとか、知的だというところで、消費者が信用しやすく、単なるテキストよりかはしやすくなるという点では、勧められたときに、普通のテキストで勧められるよりかは、はるかに消費者側が従ってしまうという点があるので、そういったフレンドリーなものであるからこそ、逆に言うと、ほかのAIに比べて、やはり倫理的な部分というのをしっかりお願いしたいと思います。

○大須賀氏 よく分かりました。ありがとうございます。

○橋田座長 では、最後の質問ということで、松前委員、お願いします。

○松前委員 大変貴重なお話を、どうもありがとうございました。

すみません、兼保様に1つお伺いさせていただきたいのですが、先ほどの森先生とのやり取りの最後におっしゃったことで、そこに乗っかるようで大変恐縮なのですけれども、人間でないことを知らせるべきかどうかというようなお話が、最後に少しあったかと思います。

そこについてなのですけれども、やはり、例えば個人情報保護の観点などから言いますと、これは知らせるべきで、通知などをはっきり、明確にすべきだという要請がある一方で、技術の社会への浸透、空間への溶け込み度、あるいは社会的受容性のようなものを考えたときに、何かマーク・ワイザーのユビキタス・コンピューティングではないですけれども、技術という観点からは見えないほうがよいのではないか、例えば、AIだったら人らしさが追求されて、機械であることがあまり悟られないほうがよいといったような面もあるかと理解しているのですけれども、こうした、特に法制度などで可視化せねばならないという要請と、他方で技術のほうでは、可視化は必ずしも望ましくないかもしれないというような要請、仮にあるとしてなのですけれども、その辺りについて、もし何かお考えがあれば教えていただければ大変勉強になるかと思いまして、御質問させていただきました。よろしくお願いいたします。

○兼保氏 ありがとうございます。

まさしく、今、おっしゃっていただいたように、法あるいは規制といいますか、そういったもので申し上げますと、やはりAIであることを示せというようなガイドラインや、法規制が多くございます。

ですので、事業者としては、そこに従うということでございますけれども、例えば、先ほどおっしゃっていただいたような利用シーン、あるいはいろいろな利用シーンが考えられると思うのですけれども、あえてここでAIであるということを言わないほうがいい、例えば精神疾患を治すようなものに対して、あるいは先ほどのクレームを受けるAIみたいなものに対して、本当にどこまで出すのかとか、強調するのかというところは、出さなくていいという法制度になっていないので、出すには出すとして、どれぐらいまでを目指すのかという問題があります。「俺のクレームは人に聞いてほしいのだ」とか、「AIに聞かせるのではない」みたいな、そういうクレームをより大きくしてしまうみたいなリスクもあり得る。

一方で、どれだけ長い時間クレームをいただいても「こういう論点ですね」と、それこそ冷静に分解することが機械では可能ですし、あるいはそのクレームを受けるというカスハラみたいな話も先ほどありましたけれども、店員といいますか、事業者サイドの雇用者を守るという意味合いでも、そういう使い方を、どこまでユーザーに示すべきかというところは、やはりあろうかと思っております。ここは、まだ葛藤の中にあると考えております。

○松前委員 どうもありがとうございました。

○橋田座長 ありがとうございました。

大須賀様、兼保様におかれましては、貴重な御報告をいただきました。

この後、関連する議論もあろうかと思いますので、もし差し支えなければ、引き続き御参加いただけますと幸いです。

次に、パーソナルAIエージェント等について、artience株式会社様から御発表をお願いしたいと思います。

artience株式会社の有島様、丸山様、20分程度で御発表をお願いします。


≪2.③事業者ヒアリング(artience株式会社)≫

○有島氏 では、よろしくお願いいたします。

まず、最初に、有島のほうから簡単に会社紹介と開発の狙いみたいなところをお話しして、それから、このパーソナルAIエージェントの開発の内容を丸山のほうからお話ししたいと思います。

次のページをお願いします。

artience株式会社なのですけれども、もともと東洋インキグループでありまして、この1月から会社名を変更しました。

狙いは、アートとサイエンスの造語でありまして、ここに込められたメッセージは、メーカーですので、テクノロジーとかサイエンスに基づいて、プロダクトとかソリューションをつくっていくと、当たり前のことをきっちりやるのですけれども、それ以外のアプローチとして、やはり人間の感性に直接訴えかけようと、そういう製品とか、サービスをつくっていこうという会社としての狙いがあります。

ですので、今回御紹介する、このパーソナルAIエージェントに関しても言えることで、それをまさに結晶化したもの、テクノロジーをしっかりつくるということと、それを全世界の様々な人々の感性に直接訴えかけようと、そういった願いで、我々は取り組んでおります。

次のページをお願いします。

会社は東洋インキグループですので、こういった事業構成になっています。

内容的には、印刷インキを創業としてやってきたので、そこに含まれるような色をつける材料ですとか、ポリマーですとか、そういったケミカル製品を中心に事業展開してきたのですけれども、それをベースにいろいろな、近年ですと、エレクトロニクスとか、モビリティーとか、そういったところに事業を広げてきました。

次のページをお願いします。

こちらは、色材とポリマーということで、例えばディスプレイの材料とか、ポリマーなどは、スマートフォンの機能性フィルムなどにも使われています。

次のページをお願いします。

これは、従来からある印刷インキ事業ですので、食品のパッケージですとか、情報誌などの印刷インキに使われています。

次のページをお願いします。

グローバルでは、アジア圏が多いのですけれども、中国ですとか、東南アジア、欧米などにも販売拠点と生産拠点を持っています。

次のページをお願いします。

従来からある完成した製品ですとか、そこを少しベースとした改良の製品は、事業会社、ホールディング体制を持っていますので、赤、青、緑の事業会社で担当しているのですが、私どものR&D本部は、そこからもう少しジャンプアップしたような先端のテクノロジーを中心に開発をしています。

次のページをお願いします。

ですので、基本的には、やはり我々はケミカルですとか、材料をつくっていくのですけれども、R&D本部でも、その先端の材料ですとか、そういったマテリアルの研究開発が中心なのですが、やはりもっとチャレンジングな開発をしていこうというのが、この丸山のグループの狙いで、デバイステクノロジーですとか、データテクノロジー、それに基づいた、今回のソリューションサービス、プロダクトの研究をしているところであります。

続いて、丸山のほうから開発の中身について御紹介したいと思います。

○丸山氏 それでは、パーソナルAIエージェントについて説明していきます。

次のページをお願いします。

まず、開発背景なのですが、R&Dですので、新規事業の創出のために新たな技術獲得というところで、新たな研究開発を行っております。

ここに書いてあります、Fichvitaとありますが、これは、その1つとして、データですとか、デジタル、そういった技術を活用した領域での事業創出というところで活動している総称になります。

ですので、artienceグループのデジタルテクノロジーソリューションの総称として、Fichvitaという活動を行っております。

下の図にありますように、弊社はケミカル素材を既存の事業の核としておりますが、そこから発展しまして、独自のセンサーデバイスを開発しまして、これは介護市場などで実際に実用化されているものにはなります。

さらに発展しまして、データを活用して、新たなソリューションをつくる、さらには、AIを活用してソリューションをつくるという活動を行っておりまして、その中の1つとして、パーソナルAIエージェントという開発を行っております。

次をお願いします。

我々が開発していますパーソナルAIエージェントのサービスコンセプトをここに書いております。

AIが便利なのは分かっているのですが、なかなかうまく生かせないなとか、ハードルの高さを感じる、また、様々なAIのサービスがあり過ぎて、どれを使っていいか分からないと、そういった課題感を持っている方に対して、我々のパーソナルエージェントがユーザーの状況や状態を把握しまして、必要なときに適切なアドバイスができるようなものというところで開発を進めております。

下にコンセプト図を書いておりますが、パーソナルエージェントに、様々なデータですとかサービスが連携して、必要なときに必要なタイミングでアドバイスができるものを開発しております。

次のページをお願いします。

これまで開発してきましたパーソナルAIエージェントの実施したデモの概要というところで、このページはまとめております。

音声認識ですとか、音声合成によってエージェントと会話ができるようなものになっておりまして、連携しているサービスとしましては、健康チェックですとか、電車の経路検索、天気検索、あとは会社情報ですとか、技術紹介、ウェブにないような情報も検索できるような形になっております。これは、デモというところで実施したものになります。

右の図には特徴をまとめているのですが、日常生活での活用を想定しまして、実際には椅子が設置してありまして、その椅子に着座センサーを設置しております。その検知をトリガーとして会話が開始するような仕組みになっておりまして、①で着座検知をして、そのトリガーとしてエージェントが自己紹介して、さらにユーザーが質問を繰り返してという形で、センシング技術の活用によって、AIエージェントへのアクセス性を向上させているという事例になっております。

次のページをお願いします。

これらパーソナルAIエージェントの開発を進めている中で、課題と感じていることをここで書いております。

AIに関しましては、機能性や精度にこだわっており、使いやすさを求められる人間中心の設計というのがかなり求められているという現状であります。

本来のAIエージェント、相互にやり取りをするというところの本来の価値提供が行われていないというのも感じておりまして、1つの例としまして、生成AIにより、会話は上達したのですが、そこに期待する期待値が過剰に高くて、実際の成果が追いついていないということを考えております。

こういったことがありまして、開発の方向性としまして、我々としては、AIをシステムと捉えて頼るのではなくて、AIを人の行動や意識を変えるきっかけ、そういった存在にしたいという形で開発を進めております。

それを実現するための技術としまして、人とAIの共存を研究するHAI、Human-Agent Interactionの活用を検討しております。

次のページをお願いします。

HAI、Human-Agent Interaction、これはどういったものかという説明のスライドになります。

人間とエージェントとのインタラクションを対象にした研究領域になっております。

このアプローチなのですが、これまで検討されてきた人と人の関係を扱う社会学ですとか、社会心理学、その知見や理論を新たに発生しています、人とエージェントの間にも適用するというのが、HAIのアプローチとなっております。

AIの活用が日常で一般化してきている、そのために、やはり、新たなビジネスを切り開く上では、このHAIの視点を取り入れて、人とエージェントとの相互体験を設計することが重要だと考えておりまして、AIをどうビジネスにしていくかというところで、HAIは重要な要素だと、我々は考えております。

次のページをお願いします。

これまでのAIの活用と、HAIの違いというところをここで説明しております。

左に、これまでのAIの使われ方、捉えられ方というところを書いておりますが、一般的にはツールとしてのAIとして捉えられておりまして、機能性ですとか、精度、自動化というのが求められているものになります。

我々が考えているAIエージェントといいますのが、右に書いてあるような図になります。

人とAIエージェントの協調が働くような関係性を求めていまして、弱点の相互補完ですとか、協調タスクの実行、相互にやり取りをする中で、こういったことができるということを目指しております。

やはり、人だけですとか、AIだけというわけではなくて、協力することによってより大きなことが実現できるということを目指しております。

この会議のテーマでもありますが、HAIは人、消費者を、エンパワーするデジタル技術かと考えております。

次のページをお願いします。

こういったHAI、Human-Agent Interactionの社会実装に向けて、我々の取組、活動としまして、これは、弊社のリリースになるのですが、日本大学文理学部の大澤研究室とともに、HAIの社会実装を目指す共同研究を行っております。

大澤先生は、ドラえもんを本気でつくるということに取り組んでおりまして、先ほどまでも会議の中で出てきました、ドラえもんとのび太の関係ですね。こういった関係というのは、AIと人とのよい関係性ではないかというところで、そういった世界観ですとか、それを実現する研究に共感しまして、我々、一緒に共同研究を行っております。

次のページをお願いします。

目指すエージェントのデザインコンセプトをここに書いております。

2つ両立することを考えておりまして、心を想定されることと、役に立つこと、この2つを両立させたものをつくろうとしております。

1つ、左の心を想定されることなのですが、これはペットロボットが、もう既にあるように、デジタルの技術ですとか、テクノロジーを使って心を想定されるものというのはあるとは考えております。

右の役に立つというのは、例えば、家電のようなものの、役に立つというところになります。

なのですが、やはりペットロボットはペットロボットで、なかなか役に立っていないというものがありまして、我々は、この心を想定されると更に役に立つという両立するものをつくろうと考えております。

小さなことでもよいので、まずは心を想定されて、役に立つものができると、日常的に、継続的にユーザーに使ってもらうことができると考えていまして、そうなってくると、その人にとってとても重要なことになってくると考えていますので、非常に価値のあるものができるのではないかという考えのもと、この2つを両立させるサービスをつくっていきたいと考えて、現在、共同研究を進めております。

次のページをお願いします。

ここからは、これまでのHAI、Human-Agent Interactionの一般的な研究から考えられる活用想定というところの紹介をしております。

1つは、心を読むというところになります。人が対象の振る舞いですとか、予測をするときに、3つのスタンスがあると言われておりまして、物理スタンス、設計スタンス、意図スタンスになります。

これをたとえのお話で説明させていただきますと、例えば、寝ている人を起こすときに、目覚まし時計があったときに、電池で動いて、水晶で時間を刻んで、スピーカーでアラームが鳴ると、そういった物理的な現象で捉えるのが物理スタンスで、起床するタイマーの時刻を設定すると、その時間に目覚まし時計が鳴るというのは設計スタンスで、時間になったら家族の誰かとか、人が起こしてくれるだろうというのが、意図スタンスという形に分類することができます。

それで、人が起こしてくれるときに、人がどういう動力で動いて、どういう形で動いてというのは、本来、人は気にしないので、エージェントをそういった意図スタンスで捉えることができるようになると、よりよい関係になるのではないかというところで、HAIの研究では、そのようなモデルですとか、機構というのが検討されております。

実際には、文脈を読んだコミュニケーションですとか、意図を読み合う関係の構築というのがされております。

こういったモデルですとか、機構を利用することによって、実際は右の図にありますように、人がこの部屋寒いねと言ったときには、エアコンが寒い設定になっているのだなというのを意図して、エアコンを調整しようと思ったりですとか、例えば、消費者の場面になった場合、アカウント情報の入力方法があって困っている人に対して、そもそもそれは、入力の必要がないのではという環境を読み取ってサポートすることができるのではないかと考えております。

この文脈を読むというところも結構重要だと考えておりまして、例えば、アカウント情報の入力方法が分からないと、エージェントに、今、あるLLMに問い合わせをすると、恐らくアカウントの入力情報、やり方を教えてしまって、悪い方向に進んでいくと思っているのですが、やはりこういった環境ですとか、状況、意図というのを読んで、自発的な提案ですとかサポートをすることによって、心を感じるエージェントデザインができるのではないかと考えております。

次のページをお願いします。

もう一つの活用の紹介になります。

ITACOシステムという考え方、研究がされておりまして、これは、エージェントが各端末ですとか、システムに乗り移ったように人が認識することができるシステムになります。

右に書いてありますように、活用想定としまして、各端末に自分のパーソナルエージェントがそれぞれ乗り移っていくことによって、端末やネット、または非ネット空間に依存することなく、日常生活のあらゆる場面で、ユーザーがパーソナルエージェントから支援を受けることができます。

このよいところとしましては、存在を身近に感じ、信頼感、親近感が持てる、エージェントデザインができる。また、スマホだけではなくて、ユーザーが使いやすい場面や状況でエージェントとやり取りができるので、非常に有効な技術なのではないかというところで検討を進めております。

次のページをお願いします。

実際、これまで説明いたしましたパーソナルエージェントの意図を読むというところと、あらゆる端末に乗り移るという技術を使って、消費者支援の活用想定としまして、例えばアプリですとか、近年、接客DXでカート専用デバイスなども普及していますし、無人レジ端末もどんどん増えてきていますので、こういったそれぞれのアプリですとか端末間に、自分のパーソナルエージェントが乗り移ることによって、パーソナルデータの端末間共有ですとか、買い手のニーズの理解、意欲把握ができることによって、様々なサービスですとか、信頼感を得て個人の最適な消費行動の支援が可能になるのではないかというところで検討を進めております。

次のページをお願いします。

これまで説明してきましたように、パーソナルエージェントの活用想定というところは、日常生活のあらゆる場面で、このHAI、Human-Agent Interactionの視点で、サービスをデザインしながら様々な事業に向けて検討していきたいと考えております。

次のページをお願いします。

ここには、社会実装に向けた課題を挙げております。

やはり、データの扱いですとか、正しい精度の問題、また、セキュリティの問題などがあるかと考えております。

発表は以上になります。

○橋田座長 ありがとうございました。

では、ただいまの有島様、丸山様からの御発表を踏まえて、質疑応答、意見交換をしたいと思います。

御発言のある方は、挙手またはチャットでお知らせください。

では、田中委員、お願いします。

○田中委員 御説明どうもありがとうございました。

特に関心を持ったのが、スライド19ページの文脈を読んだコミュニケーションとか、意図を読み合うというところの技術開発で、非常にチャレンジングなことだと感じました。

少し観点はずれるのですけれども、このコンセプトのところで、心を想定されるというお話があったかと思うのですけれども、これは、HAIに対してユーザーが心を想定すると理解したのですけれども、それで合っていますでしょうか。

○丸山氏 そうですね、ここは、この左の図に書いてありますように、エージェントに対して心を想定する、システム的に動くのではなくて、やはり意図として動いていると思えるようになるというのが、心を想定すると考えております。

○田中委員 ありがとうございます。

それについて、なぜ、それを必要条件としているかというと、心を想定されると、日常的にユーザーが使ってくれると想定するからというロジックが、御説明があったかと思うのですけれども、私は心理学を専門としておりまして、心を想定するから逆に使いたくないというパターンもあるのかなと思ったのですけれども、それではなくて、むしろ使う方向に行くと想定する実証的なものとか、理論的な基盤のようなものがあれば、教えていただけないでしょうか。

○丸山氏 やはり、ここは全ての人が当てはまるわけではないと思っていまして、どういった対象の方が心を想定して使っていただけるかというところは、今後調査しながらサービス設計していく必要はあると考えておりますが、例えば、自動で夜電気がつく、足元のライトがあったときに、単純に人を検知してライトがついたのだというよりも、エージェントがつけてくれたのだと思ったほうが、人として心が動くかなということを考えておりまして、やはりそういった温かいシステムというのを我々はつくっていきたいと考えております。

○田中委員 なるほど、そういったことに対して一定の需要が見込まれるということですね。

○丸山氏 はい。

○田中委員 ありがとうございました。

○橋田座長 ほかの方、いかがでしょうか。

今の話は、エージェントに心があると、人が想定するということでしたけれども、もちろん逆もあるわけですね、エージェントが人の心、感情と意図を推測するというところもあると思うのですけれども、先ほど少し申し上げたように、ヨーロッパのAI法の整合標準に関わっているのですけれども、AI法では、生身の人間、自然人の感情と意図を推定するようなAIはハイリスクであるということになっているので、割と厳しめの規制がかかると思われますというか、その規制に関する標準化を、今、やっているわけですけれども、その辺りに関して、どのように捉えられていますか。

まだ、規制の内容がよく分からないので、法律に書いてある限りのことでしか判断できないと思いますが、その辺りはいかがでしょうか。

○丸山氏 やはり、そこをシステムですとか、デジタル的にどう定義するかによって、その範囲から外れたような指標をつくるですとか、そういった考え方も出てくるかと思いますが、今、我々が考えていることとしては、やはりこれまで蓄積された認知科学ですとか心理学というところで、人の心理モデルですとか、心の理論は考えられてきており、そういった中に感情ですとか、願望ですとか、アーキテクチャーに機構として入ってきていますので、そういったものは入れられるような形で、人の意図を読み合う形でAIエージェントと相互作用をできるようなものをつくっていきたいと考えております。

○橋田座長 それと関連して、先ほどのドラえもんとかの話とも関連するのですけれども、このエージェントが、物すごいリッチなパーソナルデータを持つというか、アクセスできるということになると、利用者本人のデータに関してなのだけれども、本人よりも優位に立つというか、非対称性が生じるということになるので、先ほど議論に出ていたような信託法でいうところの、いろいろな義務が発生すると考えるべきではないかと想像しているのですが、そうすると、例えば、そのデータをパーソナルAIの提供事業者にも開示しないとか、いろいろな安全措置というか、信認の根拠になるようなガバナンスといいますか、管理が必要になってくると思うのですが、その辺りは、技術的にはどのように捉えていますか。

○丸山氏 やはりデータの管理に関しましては、恐らく、しっかりどの程度までやるかというところと、サービスの自由度といいますか、提供のしやすさというところが、トレードオフになってくると考えています。

やはり決まりができた中では、決まりに沿ったシステムをつくるべきだと思いますし、あとは、提供者側がどこまでシステムを強固につくり上げていくかというところは、様々な視点があると思っていまして、例えばコストですとか、先ほどのサービスの提供のしやすさですとか、そこは、まだ答えは出ていないのですが、複数の視点を持ちながら、今後検討していかないといけない、とても重要な課題だと認識しております。

○橋田座長 国際標準化の場でも、その辺りの議論が収束しているわけではないので、まだまだこれからではあるのですけれども、恐らくパーソナルAIエージェントのようなものに関しては、ユーザーが自分のあらゆるデータをエージェントに委ねるためには、全幅の信頼が必要なので、そのエージェントから、エージェントの提供事業者にすらデータが漏れないみたいなことが大きな安心感につながって、パーソナルAIが利用者のデータをフル活用することで最高のサービスが提供できるという、むしろポジティブな効果が、その管理にはあるのではないかと、私は想定しているのですが、その辺りはいかがでしょうか。

○丸山氏 そういった形で、1つは、そういった仕組みを利用者がしっかり認識して安心感を持ってもらうことがとても重要だと思っているのですが、やはりそのデータをどこで管理するかとなると、やはりクラウドになってくると考えていまして、そうなったときに、どういった形で、どう利用者が認識して、安心感を持ってもらえるかというのは、やはり今後どう決まりをつくって、それを学習に使うか使わないかとか、いろいろな課題はあると思いますので、そこもとても重要で議論をしていく必要があると考えております。

○橋田座長 ありがとうございます。

ほかに、では、原田委員、お願いします。

○原田委員 御発表ありがとうございました。

パーソナライズされるAIというのは、非常に重要な視点だと、前々からずっと思っていて、そのパーソナライズというのは、消費者問題のほうなので、すみません、あらゆる消費者に、その人に合わせたAIという形が究極の形だと私も思っているのです。

消費者というのは、非常に多様化をしていて、中には、いろいろな属性以外にも、例えば、体とか心とかにいろいろな障害とか、問題を抱えていらっしゃる方というのも消費者問題を発生するパターンのケースで結構いっぱいいらっしゃる。

そうすると、その方々にもパーソナライズするというのは、究極の目標ではあるのですけれども、そういう心をというワードが出てきたときに、やはりその心にそもそも問題があるような方々が、この研究で対象になるのかどうかというところを教えていただければと思います。

○丸山氏 このHAIの研究の中で、やはり発達過程で障害のある方に対する、そういった心の状態を研究する研究事例とかがあったりしますので、やはりそういった方々も、1つサービスの対象者として入ると考えております。

○原田委員 ありがとうございます。非常に心強いと思いました。

○橋田座長 本人がどういう状況にいるかによって、いつだったか、生成AIと対話して自殺してしまったみたいな話がありましたし、またそういうことがないとは言えないので、結構難しい問題をはらんでいるような気がしますけれども。

○丸山氏 やはり、1つの視点として依存性というところも重要だと思っていて、あまり依存し過ぎずに、自己判断とか、自己の行動をしっかり保てるというところも1つ重要な視点だと考えております。

○橋田座長 ありがとうございました。

では、森座長代理、お願いします。

○森座長代理 御説明ありがとうございました。大変興味深くうかがいました。

橋田先生からもお話がありましたとおり、やはりかなり内心の深いところに立ち入って、それによって機能を発揮するサービスであろうかと思いますので、それについての一定の自己制約みたいなものは、やはり必要なのではないかと思っていまして、クラウドにということでしたけれども、どこに置くかということはあまり重要ではなくて、むしろサービス提供者として、どういうポリシーをお持ちであるのかということをはっきりさせることが重要なのではないかと思います。

やはり、AIを見るまでもなく、誰もが深いつながりを人間とHAIの間で持つ、それによって様々なことをするということになりますと、誰もが懸念を持つ場に感じるというところはあるかと思いますので、フル活用ということでありましたけれども、必要な制約、事業目的に使わないみたいなことまで含めて、何らかの工夫をしていただかないと、受容性の点からは、少し怖いと思われてしまう可能性があるのかなと、うかがっていて思いました。

以上です。

○丸山氏 ありがとうございます。

先ほどのポリシーというのは、しっかり定めて策定する必要があると思っていますし、このAIエージェントのいい点としましては、やはり相互にやり取りできるので、そのポリシーをAIエージェント側からユーザーに示すことができると思っています。今だとウェブ上のあるところをクリックしないと、自ら行かないと見えないですが、日常のポイント、ポイントとなるところで、サービスのポリシーですとか、AIエージェント自体のポリシーをユーザー側に示すことができるので、そことの関係性というのは、従来よりも深く築いていけるのではないかと考えております。

○森座長代理 ありがとうございます。全くおっしゃるとおりだと思います。

また、同時にインタラクティブ性から、本人によるコントロールということも、かなり自制ができるのではないかと思いまして、要するにここにオプトアウト動線があるからみたいなことではなくて、口頭で、「今日は、立ち入ったことを聞いてしまったけれども、どうする?もう消して忘れてしまった方がいいかな?」という形で選んでもらえると思いますので、そういうコントローラビリティもインタラクティブ性によって増すのかなとは思っています。ありがとうございました。

○橋田座長 ありがとうございます。

全体を通じてでも結構ですので、ほかに何か御質問、御意見等ありましたら、お願いします。

大丈夫でしょうか。では、ありがとうございました。

有島様、丸山様におかれましては、貴重な御報告をいただきました。

では、最後に事務局から事務連絡をお願いいたします。


≪3.閉会≫

○江口企画官 本日は長時間にわたり、ありがとうございました。

次回の会合につきましては、確定次第、御連絡させていただきます。

以上です。

○橋田座長 本日は、これにて閉会とさせていただきます。お忙しいところ、お集まりいただきまして、ありがとうございました。

(以上)