○井上哲士君 日本共産党の井上哲士です。
今日は、四人の参考人の皆さん、本当にありがとうございます。
まず、全体に関わって、AIへの国民意識の問題で四人の参考人にそれぞれお聞きしたいんですが、先ほど大屋参考人からはヨーロッパの方が警戒心が強いというお話がありました。市川参考人の事前の資料を見ますと、例えば日本の映画やアニメでは、AI、ロボット、鉄腕アトムのように友情の対象として描かれているということも言われておるんですけど、一方で、先ほど来出ていますように、世論調査、政府が公表したこの意識調査でいいますと、日本の国民が現在の規制や、規則や法律でAIを安全に利用できると考えているのは僅か一三%、規制強化が、規制が必要だというのが七七%という数も出ているわけですよね。
ここのギャップをどう考えるのかなというのがありまして、なぜ日本の国民の中でこういう安全に利用できるというのが少ないのか、またこれが今回の法律、法改正で改善されていくのか、それぞれお考えをお聞かせいただきたいと思います。
○参考人(村上明子君) お答えいたします。
海外と日本と比べるとAIに対する障壁が少ないというのは、私も肌感覚ではございますけれども、感じております。やはり、AIの暴走であるとか人権侵害ということを考えるのは、日本の方よりも海外の方の方が多いという印象でございます。
一方で、その安全に使えるのが一〇パー、安全だというふうに考えているのが一〇%台、規制が必要だと考えているのが七割を超えているというこの現状でございますけれども、こちらは、やはりまずその安心と安全という言葉の定義をこちらで再定義させていただければと思うんですね。安全であるということと安心できるということには少しギャップがあります。安全であることというのは例えば規制を行ったり、あるいはそのレギュレーションをつくったりということで、リスクが起きないように事前に用意をしておくということが安全につながるんですけれども、それが十分になされているということが周知して、自分が何かをするときに安全にできるんだということを確信すると安心につながるんですね。
で、この世論調査というのは、恐らくこの安心かどうかと、安全に使えますかというのを聞いているんですけれども、主観的に安心していますかということを聞いているので、そこに少しギャップがあるのかなというふうに思っています。
一方で、安全に対する課題というのは、やはり、これは国民の方が感じるより前に、毎日毎日AIの技術が進歩しているので、毎日、安全であるかという状態が変わっていきます。で、ここをしっかりと対応しているということを国民の皆様に知らし続ける啓蒙活動というか、その広報活動というのが、十分にこのギャップを解消していく鍵になるのではないかなというふうに感じております。
以上です。
○参考人(永沼美保君) ありがとうございます。
企業というか、経済界の立場からちょっとお伝えいたします。
政府の役割、それから日本としての安全、安心の考え方というのがあると同時に、今、世界的な一つの流れとしまして、先ほど来から申し上げているガバナンスというものがございます。特に企業、我々のようにサービスを提供するなりの企業ですね、開発者もそうですけれども、その企業は、やはり我々が何を考えていて、皆様に安全な製品、あるいは安心して使っていただけるためにどのような努力をしているか、またどのような仕組みでそれを運用しているのかといったことをきちんと説明をしなさいというのが非常に一つの流れとなっております。
そういった流れがある中で、この法律のあるなしにかかわらず、やはり私どもはそういった流れに合わせた形で皆様に説明をしていくということがどんどん求められている中で、やはり先ほどもありましたけれども、国民の皆様に啓発をしていくというその政府の役目もあります。
私どもも、経済界、企業としてもきちんと説明をして、皆様に使っていただくそのサービスというものを提供すると同時に、我々がそれをいかに担保しながら、担保しながらというか、それを安全に運用するために何をしているのかというところを説明をすると。そういったようなところがやはりこれから求められてくると同時に、それによって皆様の理解というところも深めていかなければならないというふうに考えております。
以上です。
○参考人(大屋雄裕君) お答えいたします。
村上参考人がおっしゃった安全と安心の違いということを前提として、二点ほど考えられようかと思います。
一つは、ある種のバイアスがやはり報道から生じるであろうと。つまり、システムというのは異常動作が起きたときだけ報道されますので、かつての体感治安の問題と同じでございます。
事件が起きると報道される、そのために、犯罪は周りで増えているというふうに思う方はそれなりに市民の中で多いわけですが、実は犯罪は統計としては減り続けているわけですよね。このような形で、やはり、詳しくない方ほど、技術的な実情というのを余り理解しないままに不安感が高じているというところは一つあるのだと思っております。
もう一つは、AIという言葉で何を想像しているのかというところにずれがあるだろうと思っております。
そもそも、AIという言葉を正確に定義するのは各種の行政文書が全て失敗しているのですが、例えば、古典的な例ですけれども、映画の「二〇〇一年宇宙の旅」ですか、あれに出てきたHAL9000みたいなものを考えると、あれがやはり人類に反逆するのではないかという不安感を持たれるわけですよね。その一方で、かなり多くの国民の方は日常的にスマートフォンを利用しておられ、そのときは指紋認証とか顔認証という、まさにAI技術で認証を掛けているわけですよね。
その日々日常に浸透して、日々我々が使っているものがAIであるということを我々はすっかり忘れる傾向がありまして、したがって、そういうものではない、自分が使ったことのない未知のものをAIと置いた上で、それは不安だと思っておられるのではないかということも我々は考えていかなければいけないと思っております。
以上です。
○参考人(市川類君) 御質問ありがとうございます。
先ほども説明した話とこれまでの参考人と重なる部分ございますけれども、やはりまず、海外、特に欧米の方々と、これはAIガバナンスとか政策の議論とかに関わっている方たちと話をしてみると、欧米の方で、特に市民団体の方も含めて、やはりAIが今後人類を破滅させるのではないか的な発想を持っているのが、日本ではほとんど議論されないんですけど、海外、もちろんニュースとか見ていただいたら分かりますが、海外ではその議論が真面目にされています。そのために、非常に怖いよな、したがってAIを規制しなければいけないという話があると思います。
一方、日本でも、内閣府の資料ではやはりAIに対する不安感があるというふうな話がありますが、これちょっと原典を私も見てみましたけれども、確かに日本は非常に低い。でも、先進国は結構押しなべて低いんですね。
不安感が低いところ、すごく安心して使っているというのは、これはやはりブラジル、インド、中国という、要は、私の理解だと若者が非常に多い国なんですよね。日本も、一九七〇年くらいは、世界から言われると、非常に新技術に対して受容性が高い、若い世代がどんどんどんどん冷蔵庫とかそういうのを使っていって世界を変えていったという世界的な評価だったと思うんです。
そういった意味でいうと、先ほども申しましたように、やはり世代によって、新しい技術が出てきたときに、まずはちょっと拒否感を持ってしまう。何かリスクが起きるんじゃないか、今まで使ったことがない技術なのでよく分からないよねというところが非常に大きな要因になっているんではないかと私は見ています。
したがって、やはりここについて、AIって使ったらやっぱり、さっきもお話ありましたように、指紋認証も含めて便利ですよねというところも含めて、そこをちゃんと日本としてその改革を進めていくと安心な使い方ができるような社会になっていくのではないかなと、こういうふうに認識しております。
以上です。
○井上哲士君 指紋認証なんかも含めて今ある問題と、一方で、先ほど来ありますように、非常にデジタル、このAI技術の発展が非常に急速だと。アジャイルで対応するというお話も出たわけですけども、一方で、被害が起きてからでは遅いという議論もあるわけですよね。
例えば、日本の今の個人情報保護法は個人の権利利益の保護を目的とするということで、日弁連などは、非常にこれが余りにも漠っとしている、もう少しきちっと規定をして、そして、このいわゆる予防的な観点も含めて権利保護の強化やリスクに応じた規制を行って、適切な規制を行うということが必要だという議論があるんですが、これは大屋参考人と市川参考人、いかがでしょうか。
○参考人(大屋雄裕君) ありがとうございます。
個人情報保護の世界で申し上げますと、やはり明確な悪用を意図している事業者とか個人がおるということを前提に我々は法規制を考えていかなければいけない、いわゆる名簿屋問題などがそれに当たると思っております。
他方で、AI技術についていいますと、例えば人類を滅ぼす結果を生み出すようなAIを開発しようとする事業者というのがどこにいるかと考えると、余りいなさそうなんですね。先ほど申し上げましたが、やはり基本的には、事業者は、我々が喜んでその事業者の提供するサービスを使ってお金を落としてくれることが大好きなのであって、そのようなウィン・ウィンのインセンティブを持っていると考えることができます。
ただ、それにしても、こういう問題についてはきちんと注意しなさいよというその安全性検証の枠組みを提供していくことは重要なわけですけれども、第一義的には、彼ら自身が自らの商売に真面目に取り組んでくださることを期待して、それが可能になるような枠組みを用意しておけば一応は足るであろう。一応はと申し上げたのは、AIの世界にもそういうことを考えるやからがいないとは限らない。というのは、安全保障の問題になってくるからでして、これについてはやはりこの法案のスコープをちょっと外れたところで別に議論していただければ、いただかなければいけない課題だというふうに認識をしておりますということです。
○参考人(市川類君) 御質問ありがとうございます。
私は個人情報保護法そのものの専門家ではございませんが、やはり技術とこういった権利関係に係る制度という意味でいうと、やはり技術が変わってくるとその制度の在り方も変わってくるのかなと、こういうふうに思っています。
プライバシーに係る議論というのは元々、昔はなくて、一八〇〇年代後半になって新聞とか書籍とかいう技術が出てきたときに、それに対してプライバシーというのが守らなきゃいけないんじゃないかということで、まずは新聞関係の規制として始まり、その後、一九六〇年代くらいに、日本でいうと、いわゆるプライバシーのあの有名な判決、ちょっと失念しましたけど出て、それが憲法上の概念として位置付けられ、その後デジタル技術が出てきて、それに対してまずは何かデータベースというものを保護しなきゃいけないよねということで、欧州でデータ指令が出てき、その後、今度はデータベースというよりはもう今やデータの時代という話になり、個人情報保護法が改正されGDPRができてと、こういう流れになる。で、この中でAIというのが出てきて、恐らくこれは、利用の側面も含めて、今までなかったようなやはりプライバシーに係る、社会規範に係るようなものが出てくるわけです。そういった意味でいうと、利用すべき点については、ここは余り被害を受けないんじゃなくていいんじゃないか、一方、ここのところは新たに対象にしなきゃいけないんじゃないかという問題が出てきているものではないかなというふうに認識しています。
じゃ、一方で、予防原則を全てやるというのはこれはちょっと、まあ考え方はいろいろありますが、やはりバランス論というのがありつつ、一方で、被害を受けた人に対してどう補償するかという事後的な仕組みもどうつくっていくかという、そこら辺の議論が今後議論になっていくんではないかなと、こういうふうに認識しております。
以上です。
○井上哲士君 ありがとうございます。
国民のいろんな不安の一つに、AIによる人事採用や評価でいわゆるこのブラックボックスやバイアスの問題ということがいろいろ出ております。
先日、私、この問題質問しますと、政府の答弁では、新たな指針で、生成AIが格差、差別を助長するような出力をしないような措置をAI開発者が講じることについて盛り込むことを検討していると、こういうお話で、一般的なお話だったんですけどね。そういうものを出力しないようなことをAI開発者が講じるというのは、具体的にどういうことになるのか。これ、村上参考人と永沼参考人、それぞれお願いします。
○参考人(村上明子君) お答えいたします。
まず、ブラックボックス化というところですけれども、これブラックボックスには実は二つありまして、一つはその中身を、ロジックを公開したくないというブラックボックス、それから、生成AIを利用したものによくあるんですけれども、そのシステムをつくった者ですらなぜその出力が出てくるのか分からないという、そういうブラックボックスが両方ございます。
それをちょっと一緒に議論をしてしまうとややこしくなるので、今その人事採用のところでいうと、例えば効率化で、この送られてきたレジュメに対して、何万とある中から面接が可能あるいは人が読むのに可能な人数のところにあるルールを持って絞り込むというようなことに利用する場合と、採用に近いところに、割と比較的採用したら活躍してくれる人をAIのモデルをつくって選別するというような、そういう形でつくるような、そういうモデルがありますけれども、今、前者の方に関して言うと、実はその各社がどういう人をフィルタリングするのか、どういう人を選ぶのかというルールはその会社の戦略そのものなんですね。なので、それを公開しろというと、そこは会社としては難しいということになります。
一方で、後者のようなものというものは、例えば先ほど申し上げたような差別の再生産であったり、これ今採用の話をしていますけれども、例えば、自治体で例えば何か補助金を出すときの判断にAIを使うなんていったときには、どういう基準でそのシステムをつくって動かしているのかというのを透明性にするべきというのはしっかりとやっていかなきゃいけないことになります。
なので、オープンにできるかどうかというのに、そのまず技術的な二つの区別があるということ、それから、戦略的なのか、それとも戦略的でないところでそのロジックを使っているのかというところというのを分類して考えて、公開するべきところ、公開しなくてもよいところというのを見るべきではないかなというふうに思います。
以上です。
○参考人(永沼美保君) ありがとうございます。
ここは、今お話にありましたように、各社のちょっと戦略というか、その中の内部の話になるところがありますが、一般的な話として考えたときに、各社の中ではやはりそのデータの扱いのところについては、やはり、以前の御質問のときにも申し上げましたが、ルールというものをやはり設けております、私どもの中でも。そのときに、各社の中でその入力データに関して出力データに関して、その扱いに関してというところのやはりルールにのっとった形でどうしていくかというところが戦略になってくると思いますけれども、そういったところで、実はどのくらいのことがやはり決められていかなければならないのかと。その扱いのところというのは、やっぱりどうあるべきなのかといったような議論は、これは業界の中でもやはり横断的にあってしかるべきことで、そうすることでまた業界の中で少しずつやっていいこと悪いことというところがクリアになっていくと、そういうようなその段階を踏んでいくというところになってまいります。
以上です。
○井上哲士君 今の問題も含めて、大体政府はこの間、基本的には既存法とガイドラインを組み合わせて対応と、こういうことなんですが、結局その事業者任せになってしまうんじゃないかという、こういうおそれもあるわけなんですが、ヨーロッパなどでやっているような、いわゆる第三者のチェック体制というのも必要ではないかと思うんですが、これ、村上参考人と大屋参考人、それぞれお願いします。
○参考人(村上明子君) ありがとうございます。
今、既存法とガイドラインでしっかりと見ていくといったところは、まさにこの法案での指針なんですけれども、例えばその人事採用であるとか、そういったその人の選別にあるようなものというものに関して一定のガイドラインを設けたときに、そのガイドラインに従っているかどうか、あるいはガイドラインに従っていることを透明性高くしているかどうかということは、何らかの外に分かる形で示すということで対応ができるのではないかなというふうに思っております。
以上です。
○参考人(大屋雄裕君) ありがとうございます。
各事業者には、基本的には適切な人材を採用したいというインセンティブがあると思います。なので、不合理な差別については競争環境の中で淘汰されていくということが期待できようかと思います。
他方で、ダイバーシティー・アンド・インクルージョンが最も適切な例だと思いますけれども、過去の経緯で例えば男女間に効率の差が生じてしまっているけれども、それは本来不当なのであるというケースがあり得ようかと思います。そのような場合には、逆にAIを利用することによって効率的な採用が行われた結果、既存の差別が拡大再生産されるということになりかねないというのは事実であります。
これについては、結果に対する監査をやるという方向しか恐らくは対策はないわけでして、それを第三者機関でやるのか、あるいは、まあある種の監査AIみたいなものでやることを義務付けるとか、あるいは、そういう点に注意して採用活動をやらないと結局は損をするのはあなた方ですよということを事業者の自覚においてやってもらうのかというような、いろいろな選択肢がありようかと思いますが、典型的に生じ得る問題なので、一定の対策は必要であるというふうに認識をしております。
以上です。
○井上哲士君 どうもありがとうございました。
時間ですので、終わります。
内閣委員会(AI推進法案の参考人質疑)
2025年5月22日(木)