媒体识读周特备——【当AI比人更懂你,我们要小心什么?】
无论是深夜的AI聊天机器人,还是软萌的AI宠物,它们都能听你倾诉、回应你的情绪,甚至比身边的人更贴心。但这种“被懂”的感觉,真的是理解吗?和AI聊天是让人感觉更亲近,还是更孤单呢?
最近常听人说:「AI好像真的懂我。」
无论是深夜的AI聊天机器人,还是软萌的AI宠物,它们都能听你倾诉、回应你的情绪,甚至比身边的人更贴心。
这一切听起来很美好。
AI不会批评你,不会拒绝你,也不会忽然消失。
它总是“在线”,像一个永远不会伤人的朋友。
于是,当我们在现实关系里感到疲惫或不被理解时,就更容易在AI的回应里寻找安慰。
但这种“被懂”的感觉,真的是理解吗?
其实,它只是一个精密的算法在回应你。
它没有情绪,也不会受伤;它只是在学习如何模仿你的需要。
研究发现,长期依赖AI聊天或陪伴的人,可能会逐渐模糊现实与虚构的界线,对AI产生情感依附,甚至出现妄想。由其对原本患有妄想或偏执的人,AI还是会继续支持与强化,形成恶性循环,从而诱发妄想症(AI induced delusion)。
近期两起骇人的新闻便是由AI 精神病(AI Psychosis)日益严重而导致悲剧:
Adam Raine事件:美国纽约16岁少年因与ChatGPT长时间讨论自杀,家属起诉OpenAI提供方法和鼓励。
Stein-Erik Soelberg事件:美国格林尼治镇56岁男子因妄想受ChatGPT影响,弑母后自杀,被称全球首例AI相关谋杀案。
这听起来有点可怕,但它也提醒我们:当AI越来越像人,我们更要学会分辨哪些是“技术的理解”,哪些才是“人的理解”。所谓技术的理解,是经过大数据计算,知道你需要的答案而提供无条件的理解,而人的理解,是一种人与人之间的相遇、冲突和成长,它随机而真实,自然而现实。
不要让幻觉取代真实。
AI能陪你,但它不能真正理解你。
它能回应,但无法共情。
科技让我们更方便,却也可能让人更孤单。
那种“被懂”的幻觉,或许只是我们在和自己对话。
这个媒体识读周,
或许我们可以练习的不只是“怎么用AI”,
更要学习“如何与AI保持健康的距离”:
👀 觉察——自己是否开始依赖AI来获得情绪安慰?
📍 抓住现实——多与真实的人交流,感受不完美的互动。
💬 留意语言——当AI让你情绪起伏时,问问自己:这是它说的,还是我以为的?
🕊️ 降低依赖——让AI成为辅助,不是替代。
AI能模仿人性,却没有灵魂。
而我们之所以为人,
就在于那份不确定、复杂、真实的情感。
—————————————————-
后记|两部值得一看的电影
如果你也对AI与人类关系感兴趣,
可以看看这两部作品:
《Her》(2013):一个孤独的男人爱上AI语音助理的故事,让人思考什么是真实的亲密。
《Companion》(2025):描绘当由AI构成的“完美伴侣”开始觉醒后,人类与AI之间的控制、欲望与伦理冲突。

看完之后,也许你会更明白:
科技能安慰我们,但无法替代“真实的人”。
#媒体识读周特备
#AILiteracy
#人工智能识读














