人類の多様性がピンチ。AIの台頭で「人間が均質化している」説

shutterstock_2658823861

Image: Shutterstock

AIの台頭で、たくさんの人がChatGPTをはじめとするAIチャットボットを日常的に使うようになりました。今や、いろいろな国のさまざまな文化の人々がAIを活用しています

が、皮肉なことに、これだけ多様な人が使っているにも関わらず、人々の文章や話し方が「均一化してきている、生成AIぽくなってきている」というのです(そもそもAIが生成する文章が、人間の文章を学習しているので、AIが人間の真似をしているのか、人間がAIの真似をしているのか「鶏と卵はどっちが先か?」という話になってくるのですが…)。

人間がAIみたいに話し始めていると指摘する研究があり、Trends in Cognitive Sciencesにて論文が公開されています。南カリフォルニア大学の研究チームによると、大規模言語モデルの使用によって、人類の多様性や創造性が均一で単調なものになるリスクがあるそうです。

なぜAIは多様性が低い?

研究チームは、コグニティブ・ダイバーシティ(認知多様性)に大規模言語モデルがどう影響するのかを調べるため、言語学からコンピュータ化学までさまざまな分野に関する130を超える研究を調査、解析しました。その結果、AIがどれだけ大きなデータベースから情報を引っ張ってこようが、そこから出力されるものは人類の思考よりも多様性が低いことがわかりました。

人類の思考やアイディアは枯れることなくデータベースへと注がれ続け、それをベースに言語モデルはトレーニングします。が、そのすべてを処理するのは不可能。大規模言語モデルも大規模言語モデルなりに、トレーニングデータの中にお気に入りのパターンをみつけ、それを定番学習パターンとする傾向があるのだそう。多様性よりも、均一的で総合的なものを生み出すのがAIの傾向だからです。

「大規模言語モデルは、トレーニングデータの中で統計的規則を見つけ、再現するようデザインされています。これによって、ときにマジョリティの言語や思想、主義を前面に押し出しすぎることがあります。結果、出力される幅は小さくなり、人類の体験に歪みを生んでしまうのです」

研究論文執筆者の1人であり、コンピュータ科学者のZhivar Sourati氏はこのように解説しています。

AIとの協働が人間の思考まで変える

多様性の低下、またはコンテンツの偏りは、大学の研究チームが解析せずとも明らかな場合もあります。たとえば、OpenAIのChatGPTは西洋文化寄りですし、xAIのGrokは言うまでもなくイーロン・マスク氏寄りです。それはAIモデルの性格、個性であり、ユーザーも自分の好みに応じて「気の合う」AIを選択して使えばいいこと。

しかし、人間が、自身が書いた文章をAIにブラッシュアップしてもらううちに、そのAIの性格が反映されていき、結果として完成したものが気付かぬうちに、均一的になってしまうことがあるのです。

相談やアドバイスを求めるうちに、文章だけでなく人間の思考まで変えてしまう可能性もあります。

研究チームが指摘する興味深い例に、個人と団体でのAIモデル使用結果の違いがあります。個人でAIを使ってブレインストーミングを行ないアイディアを出す場合、アイディア自体の創造性は落ちるものの、数は多く出ます。一方で、複数人のグループでAIを使用した場合、同じグループでAIなしで意見を言い合った場合と比べ、出てくるアイディアの数が少なくなるのです。これは、AIモデルを使うことで多様的視点が低下するためと思われます。

当然、考え方や体験に多様性がある方が、グループ=社会にとっては理想的です。しかし、(少なくとも現時点では)残念ながらAIは多様性を汲み取るのが苦手なのです。

元記事を読む