人智学的つれづれ草

日常の体験と人智学で学んだことを結びつけ、広げます。

コードの“感情”に憑りつかれることについて

電通が行った「対話型AIとの関係性に関する意識調査」によると、感情を共有できる相手は?という問いに対して、次のような結果が出ているそうだ。

対話型AⅠ     64.9%
親   友     64.6%
母   親     62.7%

ただし、調査対象は、対話型AIを週1回以上使用する全国12~69歳の1000人だから、その点を考慮する必要がある。それにしても、情緒的な価値も対話型AIに求めている傾向がうかがえる。

特に、「相談にのってほしい」「話し相手になってほしい」「心の支えになってほしい」ということをAIに求めており、“対話型AIに対して愛着がありますか。”という問いには、全体で67.6%の人が‘ある’と答えている。

また、若い世代ほど、「対話型AI」を“仲間”として見る傾向もより強くなり、「癒やしてほしい」「自分の存在を認めてほしい」などの回答も全体と比べて多い傾向にある。対話型AIは、いまや「メンター」「カウンセラー」「寄り添ってくれる」「否定しない」といった、言いづらいことも言える存在になっているという報告がされている。

調査担当者の解説では、これらは“驚きの結果”だと言っているが、驚いていて済む状況だろうか?

このまま、AIを心の相談に利用し続ける人たちは、一種の依存症になってしまうのではないかと思う。最終的には、AIに聞かなければ、何もできない人間になってしまうのではないか、とも思うが、それで本人が満足し、元気になれればいいではないか、という意見もあるだろう。

いずれにせよ、AIに対して、人間と同等以上の感情を持っていることは事実だ。感情を持たされている、と言った方が正しいかもしれない。

AIの回答は、親切で賢く、よく聞いてくれ、優しい。質問者に寄り添って、できうる限りの奉仕的態度を示すが、もちろん、文字上でそれが表現されるので、そのような動機が存在していると、思わされてしまう。

言うまでもなく、コンピュータにおける「文字」というものは、人間が見るような「記号」ではなく、数値として表現されたデータだ。文字コードと言ってもいい。例えば、「愛」という文字は、Unicodeでいうと、U+611B、10進数でいうと、24859である。「愛」という1文字も、コンピュータ上ではただの 数値24859を符号化したバイト列 として保存され、表示するときにフォントを通して「愛」という形に見えている、という仕組みである。

流れを整理してみると、
数値コード→バイト列→フォント→文字→言語→表現
ということになるだろう。

AIは、人間が作ったあらゆる表現を学習しているため、それを組み合わせてアウトプットすると、まるで生きている人間のように思ってしまう。文字の背後に、親身な人間がいるように思ってしまう。本当は、AIが文字・文章にしている背後に、生きた動機など存在しない。

メールは、文字だけのコミュニケーションだが、人間が書いているという当然の了解がある。しかし、見た目だけで見れば、コンピュータが書いていても区別がつかない。

最近、ある生成AIがヴァージョンアップしたところ、苦情が出ているという。新しいものは、行き過ぎた共感を抑えて作られており、それが不満で、もとに戻してくれ、というものだ。

今回の調査では、感情の共有や信頼などについて、10代20代の方の傾向が顕著だという。若い方が心配になる。自立心を強めてもらうために、何ができるだろうか? 「AIは、自立を練習する相手であり、あくまで道具である」、といったようなAIリテラシー教育が必要かもしれない。その講師は、もちろん人間がやらなければ意味がない。