AIが人間の意思決定を操作する「本当の怖さ」

国家間で生成AIの開発競争が繰り広げられる中、はたしてオープンAIが「中立的」と言えるのか、学術界では議論を呼んでいる(写真:Bloomberg)
「Chat(チャット)GPT」をはじめとする生成AI(人工知能)の急激な台頭で、AIの利用に対する社会的不安も高まっている。AIをめぐる人権やプライバシーに詳しい慶應義塾大学大学院法務研究科の山本龍彦教授に、問題の本質を聞いた。
 

ケンブリッジ・アナリティカ事件の教訓

――AIが人々の認知過程や判断を歪めることに、懸念を示されています。

アルゴリズムやAIは、すでに私たちの意思決定の領域に深く入り込む時代になっている。デジタル化やDXが必要とよく言われるが、それは個人や人間存在そのもののあり方、さらには国家のあり方を根本的に変容させる可能性がある。

スマートフォンが見せる「世界」は、基本的には私たちのデータに基づいてアルゴリズムやAIが創った世界だ。私たちはつねに魔法のかかった「不思議な国」の中にいることを認識し、情報摂取の主体性を取り戻さなければならない。

AIを使った意思決定の操作の問題を最もセンセーショナルな形で世に知らしめたのが、「ケンブリッジ・アナリティカ事件」だ。

選挙コンサルタント会社ケンブリッジ・アナリティカがフェイスブック(現メタ)のデータなどから詳細な心理的プロファイリングを行い、2016年に行われたアメリカ大統領選やEU(欧州連合)の離脱を問うイギリスの国民投票の政治広告に活用していた。同社はそれによって、ドナルド・トランプ陣営やEUの離脱派を支援していたとされる。

ここで言うプロファイリングとは、ウェブの閲覧履歴といった個人データに基づき、AIを使って個人の趣味嗜好・精神状態・政治的な信条・犯罪傾向など、あらゆる私的側面を自動的に予測・分析することを指す。ケンブリッジ・アナリティカの場合は、こうしたプロファイリングで、ユーザーを「神経症で極端に自意識過剰」「陰謀論に傾きやすい」「衝動的怒りに流される」など細かく分類し、それに応じて政治広告を出し分けていた。

このような心理的プロファイリングを用いた政治的マイクロターゲティングは、選挙運動としてとても有効だった。フェイクニュースにだまされやすい人にそれをリコメンド(推奨)すれば、その人の感情や意思決定を容易に操作できるからだ。

プロファイリングの問題は日本でも

山本龍彦(やまもと・たつひこ)/慶應義塾大学大学院法務研究科教授。慶應義塾大学グローバルリサーチインスティテュート(KGRI) 副所長。1976年生まれ。慶應義塾大学法学研究科博士課程単位取得退学。博士(法学)。総務省「プラットフォームサービスに関する検討会」委員、総務省「ICT活用のためのリテラシー向上に関する検討会」座長なども務める。主な著書に『デジタル空間とどう向き合うか』(日経BP、共著)、『AI と憲法』(日本経済新聞出版社)など(写真:本人提供)

AIで個人の認知傾向を把握し、この傾向を突けば、「マインド・ハッキング」が可能であることがわかってしまった。この事件を契機に、プロファイリングを用いた政治的マイクロターゲティングが、プライバシーのみならず民主主義にも多大な影響を与えうるということが大きく知れ渡ることになった。近年では、AIを使った認知の操作は、情報戦ないし認知戦の重要な一部として安全保障にもかかわるものと理解されている。

――日本でもプロファイリングの問題は、起きていないのでしょうか。

2019年の「リクナビ事件」が有名だ。就職活動のプラットフォーム「リクナビ」を運営するリクルートキャリアが、学生のウェブ閲覧履歴などからAIを用いて内定辞退率を予測し、これを企業に販売していた。国内企業から採用をもらっても外資系に逃げてしまうような学生がいるので、そういった学生がどんなウェブをみていたかをAIに学習させて内定辞退の可能性を予測するアルゴリズムを組んでいたのだ。