先日、朝日新聞の電子版で「ChatGPT、何が問題か 元グーグル社員『非常に無責任で無謀』」と題する記事を読んで、なるほどそういうことかと、得心した。元グーグル社員で元ニューヨーク大研究教授のメレディス・ウィテカー氏へのロング・インタビューである。
ウィテカー氏によると、ChatGPT(チャットGPT)といった人工知能(AI)が飛躍的な進歩を遂げた背景には、「監視ビジネスモデル」があるという。フェイスブックやGメールといったサービスを通じて監視・抽出された膨大なデータが、少数の巨大企業に集約されたからこそ、AIは可能になった。つまりそれは技術革新の成果ではなく、資源と権限の集中の結果として起きているというわけである。
「一番問題なのは、世界で数えるほどの企業だけが、これらのAIを開発し、提供するリソースを持っているということです。中立的でもなければ、民主的でもない。究極的には、彼らの利益につながるようにつくられています」(ウィテカー氏)
そして氏は、AIの進化によって、こうした企業による監視機能が別の次元へと発展しつつあると警鐘を鳴らす。
「独占的な巨大IT企業が監視によって得たデータを、広告によって収益化する。その収益によって高いインフラの費用をまかない、データを集約してAIをトレーニングする。この構造はいままでと変わりません。一方で、このAI自体が、独自の監視機能を提供することができるようになります。従来のような、例えば私の位置情報とか、そういうものではなく、もっと内面的な、推論的な形で、私について明らかにすることができます。AIと監視モデルの関係は、さらに強まる恐れがあります」(ウィテカー氏)
要はAIによって、私たち一人ひとりの内面や性格や嗜好までが監視・データ化されていくということであろう。
そうした兆候を、すでにフェイスブック等のタイムラインに表示される広告に感じて、不気味な思いを抱いている人も多いのではないだろうか。
たとえば、僕の場合、最近自分が興味を持っているモノとか、誰かとの間で話題にした商品やサービスなどが、タイミング良くタイムラインに表示されて「なぜ?」といぶかしくなることがよくある。
実は「携帯やパソコンのマイクを通じて、盗聴でもされているのではないか?」などと疑っていたのだが(それもたぶんありうる)、普段のグーグルでの検索や、Gメールでのメールのやりとり、メッセンジャーでのチャットなど、僕がネット上で行うあらゆる行動をデータ化しAIで分析するならば、盗聴などせずともそのくらいのことは推論できるようになっているのかもしれない。だとしたら、恐ろしいことである。
思えば、僕がもう20年以上も前にGメールを使い始めたときに、メールの内容をそのまま反映した広告がGメールの画面に露骨に表示されたときにはギョッとした。グーグルがメールの内容を把握していて、広告に利用していることは100%明らかだった。
気持ち悪くなってしばらくGメールは使わぬようにしていたが、たぶんそういう懸念がユーザーの間で強まったからであろう、そのうちGメールの画面には広告が表示されなくなったように記憶している。
しかしそれは、グーグルが僕のメールの内容を把握しなくなったことを意味するわけではないはずだ。メールの内容を把握して広告や収益に結びつけるやり方が、隠されて見えにくくなっただけであろう。私たちはグーグルの検索やメールのサービス、フェイスブックやインスタグラムといったソーシャルメディアを「無料」だと思い込んでいるが、知らぬまに自らのプライバシーという対価を支払っているのである。
「人々は無料で商品やサービスを得て、費用は広告主が払う、という仕組みこそが、監視ビジネスの中心です。彼らは『テクノロジーは無料である』という魔法のような考えを、一般の消費者の間に広げることに成功しました」(ウィテカー氏)
僕が知りたいのは、そのプライバシーという対価をお金に換算したら、いったいいくらになるのだろうということだ。つまりグーグルやフェイスブックに自分のデータを収益化やAIに利用しないことを約束させる代わりに、サービスの利用料を支払うとしたら、いったいいくらになるのか。
少なくとも、彼らはそうした選択肢を私たちユーザーに与えるべきである。今のままでは、私たちが支払っている対価は月々500円かもしれないし、5万円かもしれない。ブラックボックスである。要は値段がいくらなのかわからぬまま、ユーザーは支払いを強いられている状態だと言える。それはどう考えてもフェアではなかろう。
いずれにせよ、IT技術の発達が、社会をそれまでとは異次元の監視社会に変えてしまったことは間違いない。
ネットでクリックしたり検索したりするたびに、電信版の新聞を読むたびに、配信で映画を観るたびに、アマゾンで本や雑貨や食料を注文するたびに、クレジットカードや電子マネーを使うたびに、それらは記録されデータ化される。そして街へ繰り出すたびに、そこら中に設置された監視カメラによって私たちの顔は識別され、記録されるのだ。
ウィテカー氏はこうした状況を少しでも改善していくためには、プライバシー保護の観点からAIを規制していくことが必要だと説く。
「わたしはあまり楽観的ではありません。規制は容易ではない。これらの巨大IT企業は大きな力を持っていて、私たちの政府機関や社会インフラの多くが、マイクロソフトやグーグル、アマゾンに依存しています。過去20年間を見れば、社会への悪影響を防ぐような規制が機能しなかったことが分かります」
「それでも、プライバシー保護の制度をAI規制に結びつけていく方法があります。チャットGPTやステーブルディフュージョン(英スタビリティーAIが提供する画像生成のAI)、それ以前のシステムもそうですが、いずれも大量のデータに依存しています。そして、そのデータは何らかの形の監視によって収集されたものです。AIをもっと使うには、人々を監視してもっとデータを集めてAIに与え、訓練する必要があります。その意味で、プライバシーとAIは対立するのです。人々が監視を拒否できるような強いプライバシー規制の仕組みがあれば、AI産業へのデータの流れを切断できるわけですから、大きなインパクトを与えることができます」(ウィテカー氏)
もはや手遅れのような気もするが、そうするしかないのだろう。
それにしても、今後AIが人間の知性を上回ってしまい、人類の手に負えなくなる可能性はかなり高いのではないだろうか。利便性だの、収益性だのを追いかけて、人類はとてつもない怪物を作ってしまったように思う。
僕自身も見かけ上の「無料」につられて、もしかすると人類を破滅に導く行為に知らぬ間に協力させられてきたのかと思うと、忸怩たる思いである。