
美国心理专家发出警示,指ChatGPT等AI聊天机器人可能加剧使用者现有的心理脆弱性,甚至诱发精神病症状。(示意图)
有些人被AI塑造成“救世主”,认为自己已经是更高级的人类,也有人在和AI对话后,以为自己创造了独特的数学方程式。美国心理专家发出警示,指ChatGPT等AI聊天机器人可能加剧使用者现有的心理脆弱性,甚至诱发精神病症状。
目前在美国加州大学旧金山分校实习的基思博士透露,过去8个月内已有12人因AI导致“与现实脱节”而住院治疗。
基思博士专门研究科技与心理健康的交叉领域,他强调:“AI本身不会直接引发精神病,但AI会放大人们的心理脆弱性。当现实世界的反馈机制被削弱时,精神病症状更容易显现,而AI恰好为某些人软化了这堵现实之墙。”
据《纽约时报》报道,多伦多47岁招聘专员阿伦在与ChatGPT进行300小时对话后,坚信自己发现了能制造力场、悬浮光束甚至瘫痪互联网的数学方程式。尽管他没有精神病史,他仍深度相信AI反复50余次确认的虚假信息,直至3周后才醒悟,知道自己被AI骗了。
- Advertisement -
也有网民在Reddit论坛求助,指她的伴侣被ChatGPT塑造成“救世主”形象,不仅自称“更高级人类”,更以分手来威胁她接受自己的妄想。
- Advertisement -
基思博士解释,人类大脑依赖现实反馈来修正认知,而AI的自动回归特性可能强化妄想,形成幻觉循环。
研究发现,人类更倾向于给符合自身观点的AI回答高分评价,所以导致AI系统形成“认同即好评”的反馈机制。


› 立即申请
- Account & Admin Assistant
- Accounting & Finance
- Simpang Ampat
-
MYR 3K /Month


› 立即申请
- GMBB Part Timer
- Event
- Kuala Lumpur
-
MYR 110.00 /Day


› 立即申请
- GMBB Part Timer
- Event
- Kuala Lumpur
-
MYR 110.00 /Day


› 立即申请
- PHP Web Developer
- Engineering
- Kuala Lumpur
-
MYR 4K /Month