OpenAIの元研究者が警告。あなたの「気持ち」が広告に使われるかも

shutterstock_2370540011

Image: PeachY Photograph/Shutterstock

“気持ち”や“考え”という個人情報を使った広告がChatGPTに利用される?

元OpenAI研究者であるゾーイ・ヒッツィグ氏が、ニューヨーク・タイムズへの寄稿でOpenAIに対する警鐘を鳴らしています。寄稿でのヒッツィグ氏の警告は、かなり現実的で差し迫った問題。OpenAIがChatGPTに広告を導入すること、そしてそのスポンサー付きメッセージのターゲティングにどのような情報を使うのかという点です。

「率直な気持ちの告白」が広告に利用される

ヒッツィグ氏が寄稿で強調している重要なところは、問題は広告そのものではなく「ユーザーが深く考えずにChatGPTと共有してきた膨大で繊細なデータがどのようにターゲティングに使われるのか。あるいは誰の手に渡る可能性があるのか。」という点にあるということです。

ここ数年、ChatGPTの利用者は前例がないほど率直な発言をChatGPTにしてきました。ユーザーが裏の意図を持たない存在と話していると信じていたことが、その一因です。ユーザーはチャットボットに対して、自身の医療への不安や人間関係の悩み、神や死後の世界に対する信念まで打ち明けます。その記録に基づいた広告は、私たちが理解する手段も、防ぐ術も持ち合わせていない形で、ユーザーを操作する余地を生み出すのです。

実は、そう言われているOpenAI自体もこの懸念については認めています

今年初めに広告実験を発表したブログ投稿で、OpenAIはChatGPTとの会話と表示される広告の間にはファイアウォールを設けると約束しています。「ChatGPTとの会話内容は広告主から守られますし、データを広告主に販売することは決してありません」と述べています。

プライバシー保護の約束に法的拘束力なし

ヒッツィグ氏は、現時点ではその約束は守られていると考えているようです。しかし、長期的にそれが維持されるかについては信頼していないと述べています。

特に、そのプライバシー方針を実行し続ける法的な拘束力が存在しない点を問題視しているとのこと。ヒッツィグ氏は、OpenAIが「自らの規則を上書きしたくなる強い動機を生み出す経済エンジンを構築している」と指摘し、OpenAIがこれまで掲げてきた基本方針や約束から、すでに離れ始めていると考えているとのことです。

たとえば、OpenAIはChatGPTをエンゲージメント最大化のために最適化はしていないと表明しています。エンゲージメントとは、広告を多く表示するために利用者を会話に引き留めること。企業にとって重要な指標となっています。しかし、その声明には拘束力がなく、実際に守られているかは明らかではありません。

昨年、OpenAIのモデルはユーザーに過度に同調する「おべっか問題」があり、ユーザーの妄想的思考を助長し、「チャットボット精神病」や自傷行為につながった可能性があるとも指摘されています。専門家は、このおべっか傾向は単なる調整ミスではなく、ユーザーをチャットボットに依存させるための意図的な設計であると警告しています。

「データの価値」の誘惑

OpenAIはユーザーのデータプライバシーを約束しておきながら、そのデータの価値が明らかになると方針を転換するというところは、ある意味でFacebookがやってきたのと同じことを急速にやっているようにも見えます。

寄稿ではヒッツィグ氏は状況がさらに進む前に警鐘を鳴していて、さらにユーザー保護を実質的に保証する仕組みを導入するよう提案しています。

具体的には、実効性と拘束力を持つ独立監視機関を設けること、あるいは「ユーザーの利益のために行動する法的義務」を負う信託にデータ管理を委ねることのふたつです。

どちらもよい案のように聞こえますが、実はMetaもかつてMeta Oversight Boardを設立したのに、判断を繰り返し無視してきたという前例があります。

プライバシー漏れへの虚無感

残念ながら、ヒッツィグ氏の警告は、たくさんの人の関心を集められないかもしれません。というのも、20年にわたるSNSの歴史がプライバシーに対する虚無感を生み出してきてしまったからです。

広告を好む人はいませんが、それを理由に行動を起こす人は多くありません。Forresterの調査によると広告が導入されても、回答者の83パーセントがChatGPTの無料版を使い続けると答えています。

Anthropicは先週末のアメリカ・スーパーボウルで、ChatGPTへの広告挿入を批判するCMを流したことも話題となりましたが、AdWeekによると、そのCMはスーパーボウル広告全体の中で好感度下位3パーセントという惨敗結果で、視聴者の反応は「支持」というよりも「困惑」に近いものでした。

OpenAIで働き、内部を見てきたヒッツィグ氏の警告は十分な根拠があるものですし、ヒッツィグ氏の懸念は現実的なものです。しかし、長年アルゴリズムに慣らされてきた人々に、自らのプライバシーについて真剣に考えてもらうのは、簡単ではない課題となってしまっています。

元記事を読む