生成AI(人工知能)の普及により、メディア・リテラシーの重要性が増している。生成AIは、非常にリアルな文章や情報を生成することができるため、真実と虚偽を見分けることが難しくなる可能性がある。そのため、メディア・リテラシーがますます求められるようになっている。
生成AIを使用することで、ニュース記事やブログ記事、ソーシャルメディアの投稿など、さまざまな形式の情報が自動生成される可能性がある。しかし、生成された情報が必ずしも事実に基づいているとは限らない。生成AIを悪用して誤情報やフェイクニュースを拡散することも懸念される――。
ここまでの文章、実は筆者が書いたものではない。生成AIとメディア・リテラシ―との関係について、対話型AI「Chat(チャット)GPT」に質問をしたところ、戻ってきた回答だ。ですます調の語尾は修正したものの、それ以外は修正していない。いかがであろうか。AIが書いた文章であることを見破るのはかなり難しいと感じるのではないか。
パブコメ捏造 1800万件
チャットGPTの回答が指摘するように、生成AIを使用することで、さまざまな形式の情報を自動生成することが可能となる。
それを先取りする動きがすでに起きている。ニューヨーク州司法長官が2021年に公表した報告書によると、米連邦通信委員会(FCC)が17年に受け取ったネットワーク中立性の撤廃の有無に関するパブリックコメント2200万件のうち、1800万件近くが捏造だったことが明らかになった。このうち、撤廃を支持する大手通信会社が資金提供する企業が関与したコメントは850万件にのぼった。一方、撤廃に反対する19歳の大学生は770万件の偽コメントを捏造していた。FCCは同年、規制を撤廃した。
日本新聞協会は「看過できない」
生成AI時代になり、文章の自動作成が容易になれば、低コストで世論を操作することも可能となる。
日本新聞協会は5月、「生成AIによる報道コンテンツ利用をめぐる見解」を公表。その中で「AIが短時間で大量の記事を生成できることを悪用し、偽情報や有害情報、政治的意図を持った世論誘導情報等をインターネット上の言論空間に大規模に拡散することも可能だ」と指摘した。言論空間の混乱が進めば社会の動揺を招くとして、「民主主義を守る意味でも看過できない」と強い懸念を示している。
筆者が所属する北陸大学経済経営学部は5月、生成AIの利便性と危険性を理解してもらうために、1年生を対象にチャットGPTを使ったグループワークを実施した。授業ではチャットGPTがもっともらしい嘘をつく事例を実際に見てもらった。
行動経済学の知見を生かして
生成AI時代のメディア・リテラシー教育はどうあるべきか。これまでの研究では、メディア・リテラシーがあると自負している人ほど、偽情報を見破れないという研究結果もあり、単にリテラシーを身につければ解決する問題ではない。
ファクトチェックの普及を進める一方で、自分の「事実を見る目」がいかに曇っているかを理解してもらうことも必要だ。自分の見方が偏っている「認知バイアス」を学ぶには行動経済学の知見が役立つ。事実の確認を仕事とする記者の手法も参考になるだろう。こうしたものを取り入れた新たなメディア・リテラシー教育を早急に構築する必要がある。
JCJ月刊機関紙「ジャーナリスト」2023年6月25日号
2023年07月12日
この記事へのトラックバック