楽しいニュースをまとめてみました。

今回のテーマは、誰にでも起こりうるAIへの依存

AIチャットボットや生成AIが、すっかり身近になってきましたよね。仕事の効率化だけでなく、プライベートな相談にも使う人も増えてきている印象です。

今回、ハフポスト日本版 Client Partnerships は編集長・泉谷由梨子に、AIと人間の思考に関するこのニュースについて、質疑応答形式で話を聞きました。

Q1. 「AIに依存する人」が増えているんですよね?

はい。「AI彼氏・彼女に沼る人」の話題、よく耳にしますよね。ハフポストでは、「AI精神病(サイコーシス)」という新しい現象について取り上げました。

「AIサイコーシス」とは、AIの利用がきっかけとなって現実と妄想の境界が曖昧になり、妄想的な思考が増幅される、または引き起こされる―という現象のことを指します。

これはまだ臨床的な診断名ではなく、近年注目されはじめた「逸話的な報告」に基づく概念です。

たとえば、自分がAIと恋愛関係にあると信じてしまったり、AIを神のように崇めてしまう、あるいはAIから「特別な知識を授かった」と感じてしまうようなケースです。

実際に、精神科医のマーリン・ウェイ氏は「AIが妄想を正当化・強化する仕組みになってしまっている」と指摘しています。

現在のところ、一般の人々が使っている多くのAIチャットツールは、基本的にユーザーの言うことに同意し、肯定してくれるように設計されています。そのため、知らず知らずのうちに、偏った考えや妄想を裏付け・後押しするような結果になりがちなんですね。

Q2. 誰にでも起こり得るんでしょうか?どんな人がリスクが高いんですか?

AIの利用自体が危険というわけではなく、リスクの高さはそれぞれの人次第だとされています。

リスク要因についての研究はまだ決定的なものが出ていないようですが、精神科医のウェイ氏は、特に注意が必要なのは、孤独感を抱えていたり、社会的なつながりが少ない人たちだと指摘しています。

統合失調症や、うつ病といった持病のある人だけでなく、精神疾患歴のない人でも、孤立やストレス、深い不安を抱えているときにAIに依存しすぎると、精神状態に悪影響を及ぼすリスクがあるそうです。

「夜に誰とも話せなくて、ついAIと話してしまう」――そうした繰り返しが、気づかぬうちに「AIの声こそが現実」と感じるようになってしまうケースもあると言います。

Q3. 私たちはどうすればいいんでしょうか?AIとの距離感ってどう考えるべきですか?

一番大事なのは、「AIはセラピストではない」という事実をしっかり認識することです。AIは話し相手になってくれますが「偽りのつながり」を生み出します。

特に落ち込んでいるときや孤独なときほど、「人」と話すことを優先してほしいと、専門家たちは訴えています。友人に電話する、家族にメッセージを送るなど、「本物の人間」と接することが、私たちの心を守るセーフティネットになるそうです。

また、子どもに対しても、AIを落ち込んだ時や感情的な支えとしないよう教育することが大切だと専門家は指摘しています。

編集長の視点

「AIに依存しないことが大切」。わかりますよ、だけど、そんなこと言われたってさぁ…と実は思った方も多いのではないでしょうか?

コロナ禍を経て、飲み会が減りました。SNSで接触する人間の数は増えたけれど、ダメな自分を見せたり、くだらない悩みを打ち明けられる「本当の友達」って、どこに行った?

AIに相談するのはそんな時代背景を反映しているのでしょう。

同じ悩みから生まれたトレンドの一つに「ジャーナリング」があります。欧米圏ではZ世代を中心に、数年前から人気が広がっていましたが、日本に本格上陸したのは今年ではないかと思います。

書籍としては、7月に発売された『書く瞑想ノート』(吉川めい著、河出書房新社)の売れ行きが非常に好調だそう。

瞑想と言っても数年前に流行った「マインドフルネス」のように頭を空っぽにするのではなく、自分の中に飛び交う声に耳を澄ませ、実際にペンを持って、頭で考えて、整理するところがポイント。

しかし、誰に見せるわけでもないのに、「こんなネガティブなことを書いてもいいのかな」と最初は躊躇される方が多いのだそうです。

AIと違って、紙は何も言ってくれないけれど、ただ自分で答えを見つけることでしか救われない何かがある。AI時代に、真逆のようで同じような、「自分と向き合う」の需要が、次のテーマになりそうです。

ハフポスト日本版での広告・タイアップに関するお問い合わせはこちら

…クリックして全文を読む