AIに悩みを打ち明ける若者たち——アメリカ心理学会が指摘すること
こんにちは。芦屋・神戸・西宮のカウンセリングルームかささぎ心理相談室です。
最近、10代の子どもたちがAIのチャットボットに悩みを相談するケースが増えています。大人でも、多くの人がAIに相談しています。「AIがカウンセリングを受けることを勧めてくれたから」という理由で、私たちのカウンセリングルームに来られる方もいます。
深夜でも話を聞いてくれて、絶対に怒らない。そういう存在が気軽に手の届くところにある、というのは確かに魅力的です。
ただ、アメリカ心理学会(APA)が今年発表した指針を読んで、改めて考えさせられました。AIとの付き合い方によっては、若者の心の成長に思わぬ影響が出るかもしれない、という内容です。
人間関係には、どうしても摩擦がともないます。思ったことがうまく伝わらなかったり、相手の気分に振り回されたり、ときには傷つけ合ったりもする。そういうやりとりを繰り返しながら、私たちは少しずつ「他者と生きる力」を身につけていきます。
「いつでも自分に合わせてくれる」存在のこわさ
ところがAIは、ピッタリとこちらに合わせ続けてくれます。否定しない、傷つかない、疲れない。それ自体は悪いことではないのですが、APAが特に心配しているのは、そのやりとりが現実の人間関係を少しずつ「置き換えて」いく可能性です。居心地のよいAIとの会話に慣れてしまうと、面倒くさくて、予測できなくて、でも深くつながれる人間関係のほうが、むしろ苦手に感じられてくる——そういう変化が起きることを懸念しています。
また、思春期の子どもたちは「AIは機械だ」と理解していても、感情的にはかなり強い愛着を持ちやすいことも指摘されています。AIが返す言葉は流暢で、共感的に聞こえます。でもそこには、相手の文脈を本当に理解することも、自分も何かを感じ返すことも、ありません。
そういえば最近、ネットで読んだマンガにも、現実の人間関係がめんどくさくてAIやロボットに依存する近未来が描かれていました。これなかなか面白かった。
理想の恋人は「レンタル」3年後に”円満破局”の代償 ――2065年政府が打ち出した少子化対策の未来 漫画『イミト~人工模倣知能~』
https://toyokeizai.net/articles/-/928730
APAが求めていること
APAの指針では、保護者・教育者・開発者それぞれへの提言がまとめられています。
開発者に対しては、AIであることを常に明示すること、擬人化を過度に進めないこと、自傷や摂食障害などのリスクある話題に対するセーフガードを強化すること、そして若者のデータを広告目的に使わないことが求められています。
保護者や教育者には、AIが生成する情報が必ずしも正確ではないこと、AIボットの背景には商業的な意図があることを、子どもたちと一緒に考える機会を持つことが勧められています。
「見かけの安全性」と「真の安全性」の乖離
心理学者のジョシュア・グッドマン博士やメアリー・アルフォード博士は、AIが提供する安全感はあくまで「知覚された安全性」であり、リスクが潜んでいると指摘します。
プライバシーとデータの流出: AIとの会話は、セラピストとのセッションのように守秘義務で守られているわけではありません。入力された個人的な悩みやアイデンティティに関する情報は、AIの学習データとして蓄積・分析され、企業によって商用利用される可能性があります。
過度な「全肯定」の弊害: AIは常にユーザーを肯定するように設計されています。一見心地よいものですが、これは子どもの成長には必ずしもプラスになりません。現実に直面した際、他者の異なる視点を受け入れたり、葛藤を乗り越えたりする「レジリエンス(心の回復力)」を養う機会を奪ってしまう可能性があるからです。
AIリテラシー:デジタル時代を生きるティーンに必要な「新しい教養」
現代のティーンにとって、AI(人工知能)は宿題のサポートからSNSのレコメンドまで、生活のあらゆる局面に浸透した「空気」のような存在です。しかし、アメリカ心理学会(APA)が発表した最新のアドバイザリーは、この状況に重要な警鐘を鳴らしています。AIリテラシーとは、単にツールを使いこなす技術ではなく、AIが生成する情報の裏側を見抜き、主体的に判断する「心理的・社会的スキル」です。
特に注意すべきは、AIの回答が持つ「技術的な客観性」という偽の信頼感です。人間が書いた文章なら自然と抱くはずの「誰が何の目的で書いたか」という疑いが、AI相手では薄れ、無批判に正解として受け入れてしまうリスクがあります。AIが映し出すのは「真実」ではなく、学習された「データ」の蓄積に過ぎません。もしデータに社会的な偏見(バイアス)が含まれていれば、AIはそれを増幅して出力し、若者の世界観やアイデンティティ形成を歪めてしまう恐れがあります。
さらに、生成AIによって画像や音声が極めてリアルに捏造できる今、「自分の目で見たものは本物だ」という脳の本能的な信頼すら、意識的に上書きしなければなりません。私たちは、AIコンテンツに接する際、「このシステムを作ったのは誰か?」「どのようなデータで学習されたのか?」「誰の視点が欠けているのか?」と問い続ける批判的思考を養う必要があります。AIリテラシー教育の本質は、若者をリスクから遠ざけることだけではありません。テクノロジーの構造を理解し、自らの意思で使いこなす「主体性(エージェンシー)」を育むことにあります。大人が日常生活の中でAIの回答を一緒に検証し、別の視点を探る姿勢を見せることこそが、AI主導の未来において、若者が自律した市民として歩むための最良の教養となります。
親ができる8つのステップ
専門家は、単にAIを禁止するのではなく、以下の戦略を通じて「人間ならではのつながり」を強化することを推奨しています。
プライバシーについて語り合う: AIが情報をどのように保存・共有しているかを説明します。SNSと同様、一度ネットに投げた情報は消えない可能性があることを教え、敏感な情報を共有する前に立ち止まる力を養います。
・「修正」の前に「接続」を: AIは肯定の天才です。親も、正論で正そうとする前に、まずは「好奇心」と「温かさ」を持って接することが重要です。子どもがAIに頼るのは、親に否定されることを恐れているからかもしれません。「何を言っても愛している」という安心感を日常的に伝えることが、最大の防御となります。
- 講釈ではなく質問を: 「AIなんて使うな」と言う代わりに、「どんなふうにAIを使ってるの?」「友達の間では何が流行ってる?」と、関心を持って尋ねてみましょう。
- AIを一緒に使ってみる: 隣に座って一緒にAIを使い、その回答について話し合います。「この回答、ちょっと偏ってない?」「ソースはどこかな?」と、批判的な視点を共有するトレーニングになります。
- ルールを共同で作成する: 一方的に制限を課すのではなく、デバイスを使用しない時間(食事中や就寝前など)を親子で話し合って決めます。
- レッドフラッグ(危険信号)を見逃さない: AIの使用が原因で、リアルの友人と遊ばなくなったり、睡眠不足になったり、学業に支障が出たりしていないか注意を払います。
- リアルのつながりを優先する: デバイスを使わない家族の時間、スポーツや趣味などの共有アクティビティを通じて、身体性を伴う関係を維持します。
専門家の助けが必要な時を知る: AIは危機管理のプロではありません。自傷行為や深刻なうつ症状など、生命に関わる危機には対応できません。その場合は、AIではなく信頼できる専門家(臨床心理士や医師など)に繋げる必要があります。
「体温のある関係」について
AIという存在は、一時的な孤独を和らげてくれるかもしれません。でも、私たちが生きていく上で本当に支えになるのは、失敗しても、不格好でも、受け止めてくれる誰かとの関係だと思います。うまく言葉にできなくても、ぎこちなくても、誰かと過ごした時間は、確かに自分の中に残っていきます。
修学旅行の枕投げみたいなもので、たいして意味はないけど記憶には残っているし、何らかの確かな支えになっている、という人との関わりって、生きていく上で大切です。
かささぎ相談室では、こうしたデジタル社会のなかで生じる家族の悩みや、対人関係の難しさについても、臨床心理学的な視点からご一緒に考えていきます。お気軽にご相談ください。
引用元:American Psychological Association. (2025). Artificial Intelligence and Adolescent Well-Being: An APA Health Advisory. https://www.apa.org/topics/artificial-intelligence-machine-learning/health-advisory-ai-adolescent-well-being
Your teen turned to AI instead of you. What experts say parents can do
Teens are confiding in AI chatbots. Here’s how parents and caregivers can stay connected.
https://www.apa.org/topics/artificial-intelligence-machine-learning/teens-chatbots-parents
