AIとフェイクニュース-新時代のデモクラシーとは- NHKマイあさラジオ「社会の見方・私の視点」
NHKマイあさラジオ「社会の見方・私の視点」6月6日放送
解説:北海道大学法学部教授・遠藤乾
キャスター:ここのところ国際的な政治の舞台、具体的には選挙なんですけど、フェイクニュースの影響が問題視されることが増えてきました。
遠藤:昨年、イギリスのEU離脱の国民投票に始まって、トランプ大統領選出と非常に驚きのニュースが世界をめぐったんですけど、そこで何が起きたのかという原因分析がやっと始まったところです。
その一因として、当時から注目されていたんですけど、フェイクニュースというのがあって、これは文字通り偽りの情報を流すものあるいは世論を誘導するために偏った情報を流すものというのがあるんですけど、これが投票の時に決定的な影響を与えたのではないかという調査結果が徐々に出始めているところです。
キャスター:具体的にはどういうことになるんでしょう。
遠藤:私が最初に注目したのはイギリスのオブザーバーというガーディアンと一緒になった高級紙の長大な記事なんですけど、ここの検証によりますと、たとえばフェイスブックを我々が日常的に使いますね、そこで「いいね」を押したりするんですけど、その「いいね」をどこに押したのかというデータがフェイスブックに集積するわけです。
それをスモールデータというらしいですけど。
それと心理分析の2つを掛け合わせて、そこに人工知能なんかが介在して、個人の政治的な志向性のプロファイルが簡単にできてしまうということのようです。
ちょっとこれはびっくりしたんですけど、150の「いいね」でパートナー以上、300の「いいね」で当人以上にその人の個性を予測できるというふうに専門家は言っています。
おそらく、最初は市場調査から入ったんだと思うんですけど、それが最近は政治の方向に応用されて、さらにはそのデータ・調査結果・個人のプロファイルの結果が、選挙を回す人たちの方に買われて、それを専門にやる会社が出てきているようです。
キャスター:そういった会社が、ブレグジットですとかアメリカの大統領選挙で活躍したわけですか。
遠藤:デマや虚偽を含むフェイクニュース・評論・世論調査にわざと誘導して、それぞれの人が持っている怒りとか不安に形を与えて行っちゃう、そのことによって特定の投票行動を促してしまうと、そういう役割を果たすという会社が出てきているということのようです。
一番有名なのは、ケンブリッジ・アナリティカルという会社で、ブレグジットやトランプ選出にかかわったと言われています。
これはもともとケンブリッジ大学の精神測定研究所から派生した会社なんですが、ロバート・マーサーという大金持ちが10億円以上の資金を提供して影響力を増していきました。
このマーサーという人は、非常にリベラルに敵意を持つ大金持ちで、トランプ大統領の側近のスティーブ・バノンとブライト・バート社、フェイクニュースで有名な会社ですけど、を共同で出資して設立した経営者です。
このロバート・マーサーが、ブレグジットを主導したイギリス独立党のナイジェル・ハラージュという政治家と非常に親しくて、イギリスのブレグジットの投票の時には離脱派を指南したと言われています。
このケンブリッジ・アナリティカルだけがやったものかというのは、まだ検証できたいないらしいですが、イギリスの例を取りますと、国民投票前のツイッターの3分の1が、自動化されたボットというものによる、ボットというのは人間に代わって作業を行うコンピュータープログラムで、まるで人間がやったかのように自然につぶやいているように見えるものなんですが、自動化されたAIによって行われたもので、イギリスEU離脱の方向に流れを作っていったと、それが先ほど言ったように個人に合わせてEUの規制が嫌な人にはその人向けのニュースを提供すると、移民が嫌な人にはその人向けのものを打っていくというかたちで細かくやるのと同時に、全体にばらまくボットを作って、世論を誘導していくと、そういうメカニズムでやっていたようです。
アメリカの大統領選挙の時にも、同類のボットが5対1でトランプ大統領に投票するのを促すものだったと言われています。
有権者の趣向・テイストに合わせて、それが打たれていくというのが怖いところですね。
キャスター:ではですね、誰かの意見ではなくて、機械の意見、作られた意見で私たちは選挙行動をとっているということになるんですか。
遠藤:それが難しいところです。
我々の自意識としては民主主義・デモクラシーというのは、原理がもともと民衆の力ですから、自分たちの意思で政治家を選んで、指導者を選んで、というふうに考えているわけなんですけど、投票行動を決める時に自分の意見というもの自身が、もうすでに自分のパーソナリティを把握されているAIによって相当ねじ曲げられたものになっているという、そういう可能性があるわけです。
これが、怖いところでして、ここまでテクノロジーが自分たちの投票行動に影響するという状況になったのは多分初めてだと思いますので、そこのところは昔ながらのデモクラシーのイメージでいいのかという問題を突き付けているのかなと思います。
キャスター:そんな時代の中で、じゃあその正常なデモクラシーを保つ方策というのはあるんでしょうか。
遠藤:難しいですけど、もちろん人間には理性が備わっていますので、これは嘘だと見抜ける能力はもちろんありますが、同時に人間というのは見たいものを見て信じたいものを信じる存在で、不安も同時に抱えているので、その不安が増幅されるニュースに飛びついてしまう性格もあるわけですね。
そんな中で、人間というのを前提にすると、いろんな制度上のメカニズムが必要なんだろうと思います。
私自身が注目しているのは、アルゴリズム説明責任という言葉で語られているようなんですけど、要するに自分が「いいね」をしたデータがフェイスブックとかに集積されて、そのデータがどこかに回るということを意味してますね。
ですので、フェイスブックならフェイスブックが、どういうかたちで自分のデータを集積しているのか、取り分けて仕分けをしているのか、その仕分けられたデータが誰の手に渡っているのか、そういうのを可視化するという作業が必要なんだろうと思います。
キャスター:ここまでは、ブレグジットですとかアメリカ大統領選挙で見られた世論の操作というんでしょうか、フェイクニュースについてお話しいただいたんですけど、日本ではどんな状況になっているんでしょう。
遠藤:まだブレグジットとかアメリカ大統領選挙のような衝撃的な事態には至っていないんですけど、この手のテクノロジーというのは、あっという間に政治現象として輸入されて、おそらくもう使われているんだろうと思います。
実は先月、日本でも改正個人情報保護法なるものが施行されまして、ここでは個人を特定できないように情報を確保する、それを条件に本人の同意なしでもデータを外部に提供できるようになってしまったんです。
私自身、施行された時には、全く意識していなかったんですけど、現場では本人の同意なくてもデータが分析会社に回ったり、特定の政治勢力に回ったりということが可能になってしまったということを意味します。
だから、日本でもこの問題は人ごとではなく、消費者保護とかそういった観点から、自分自身が生み出したものがどこでどう使われていくのか、これについては敏感になる必要があろうかと思います。
キャスター:まさにアルゴリズム説明責任というものですね。
遠藤:自分自身の情報がどのように仕分けられてどこにどう使われていくのか、これを消費者としては見る権利があるだろうし、知る権利があるだろうし、それが政治行動に響くとなると、それはデモクラシーの根幹に関わる問題だろうと意識すべきかと思います。