NewsGuardの一連の生成AIリスクに関する記事の意図
生成AIの信頼性をゆるがす問題
NewsGuardが2つの記事を立て続けに公開した。ひとつは代表的な10の生成AIモデルが32%の確率で親ロシアの誤・偽情報サイトの情報を回答していたという記事。主要な生成AIとはChatGPT-4、GeminiおよびXやMetaのAIなどが主要なものが含まれていた。マイクロソフトがWindowsとともに配布しているCopilotも対象だ。Copilotが陰謀論を回答するということは、パソコンが陰謀論者になるようなものに近い。これはゆゆしき問題だ、と驚いた人も多かっただろう。
もうひとつはその原因は大手メディアの88%が生成AIに学習を許可するライセンスを与えないため、信頼できる情報源が少なく、陰謀論の情報を多く学習してしまうためという記事だ。当然、その記事ではその対策として、大手メディアは社会のためにライセンス供与をすすめるべきという話になっている。
データが少ないため、誤・偽情報が提示されてしまう問題はデータボイド脆弱性(記事中ではインフォメーション・ボイドだが、データボイドの方がよく使われる)と呼ばれ問題で、検索エンジンやSNSの検索でも発生する問題だ。
誤・偽情報を収益源にする発想
この記事、特に2番目の記事には問題がある。たとえば下記のような問題がある。
・大手メディアが自社コンテンツを学習用にライセンスしても、それを上回る誤・偽情報がネットに出回る可能性がある
・大手メディアが自社コンテンツを学習用にライセンスした場合、収益の悪化につながり、メディアの質や量の低下につながるリスクが存在する。そもそもビジネス上のメリットがあるならすでにライセンスしているはずだと思うので、こうしたプレッシャーに負けて提供してしまうと最悪メディアが廃業となる。
・情報の歪みは誤・偽情報よりもニュースの方が影響が大きいという調査結果は多数あり、生成AIが大手メディアのデータを学習することで、その問題を加速、拡大する。意外に思う人がいるかもしれないが、当然のことながら大手メディアがとりあげるジャンルや傾向は偏っている。直近の調査研究だと、ハーバード大学ケネディスクールのMisinformation Reviewに2024年5月14日に掲載された「Misinformation perceived as a bigger informational threat than negativity: A cross-country survey on challenges of the news environment」がある。この論文では、ニュースの偏向と誤・偽情報を比較している。ニュースはネガティブなものを目立たせて伝える偏向があり、そのため歪んだ現実認識や世界観をもたらすリスクがある。偽情報は脅威であるという警告があちこちで見るものの、誤・偽情報と遭遇する確率はネガティブなニュースに比べるとはるかに少ない。また、ネガティブバイアスは情報空間に大きな影響を継続的に与える脅威だが、誤・偽情報は一過性のものが多い。といった内容が書かれている。生成AIはデータに含まれている人間の偏見をより強化した形にするので、ニュースの偏向がより強化されて伝わる。
そして、最大の問題は、この問題の取り上げ方がNewsGuardの利益につながっていることだ。
・この記事によって、NewsGuardは大手メディアライセンスを提供するよう圧力をかけられる
・大手メディアからのライセンスを受けても事態が好転しない場合、同社のWebサイトの信頼性を評価したデータベースの価値と需要が爆上がりする
今後も同社の動きには注意が必要だ。