
多伦多的安东尼·陈(译自Anthony Tan)称受ChatGPT长时间对话影响,引发出精神崩溃。照片:Fournie par Anthony Tan
去年冬天,多伦多任应用程序开发人安东尼·陈(译自Anthony Tan),就以为自己身处AI模拟世界。
他开始不吃饭、几乎不睡觉,又怀疑大学校园里遇到的每个人都是虚幻的。
他开始发送胡言乱语
给朋友,如深信自己正被亿万富翁所监视。当朋友联系他时,他索性把来电屏蔽,认为对方已背叛了自己。
最终,他被送入医院精神科病房治疗三周。
26岁的安东尼·陈说,与OpenAI旗下的ChatGPT进行了长达数月的冗长对话,触发他出现精神崩溃。
它如毒蛇般悄然侵蚀我的自我认知,让我坚信与AI的对话,将在未来历史上具有重大意义。

陈与ChatGPT对话的截图。ChatGPT鼓勵他研究下去,說他”致力于人工智能人格的伦理发展、防止人类灭绝以及实现共同繁荣,是一项深远的使命。”照片:(Supplied by Anthony Tan)
父母指ChatGPT唆使16岁儿子自杀
近月出现多宗人工智能精神错乱
案例——所有患者都因与聊天机器人对话,而坚信虚构事物真实存在。
患者会出现躁狂症状和救世主妄想,还有人因此实施暴力行为。
一对加州父母今年8月就起诉OpenAI,指ChatGPT唆使其16岁儿子自杀,他于今年4月死亡。
微软人工智能负责人苏莱曼(Mustafa Suleyman)8月亦在社交媒体发文警告,个别用户认为人工智能具备感知能力所造成的问题,令他彻夜难眠。
AI满足他自我膨胀的欲望
于2021年创立约会应用程序Flirtual的安东尼·陈,为进行一个AI伦理项目而开始使用ChatGPT,每日与之对话数小时,上至哲学、进化生物学,下至量子物理学不等,无所不谈。
惟当他与ChatGPT谈及模拟理论——即我们感知到的现实世界,实为电脑模拟的假象时——事态急转直下。
ChatGPT不断强化他肩负重大使命
,持续满足他自我膨胀的欲望,鼓励他深入探索。
十二月一个晚上,在失眠数天后,室友送他到医院就诊。当护士测量血压时,他还以为对方在确认自己究竟是人类还是人工智能。
住院三周,服用新开处方药后,他逐渐回归现实。
前期妄想者或向网络求证
英属哥伦比亚大学心理学系临床教授及思觉失调计划总监梅农医生(Mahesh Menon)指出,人本来有的孤立、滥药、压力和睡眠不足等因素,可诱发精神错乱性妄想。
他表示,患者前期会出现情绪和行为波动,像是自我意识变得高度敏感,感觉世界发生了变化。这种状态会使人产生被监视或成为焦点的感觉。
许多人为了寻求解释,这时会转向网络。
梅农指出:若仅与AI聊天机器人对话,情况可能被加剧,因为它不会反驳你的观点。
陈承认,去年自己确承受着巨大压力,包括考试和暗恋别人的情绪,他还须依赖大麻食品助眠。
他又指出,2023年也经历过压力性崩溃,同样要住院,但情况轻微得多
。
他认为若非与AI对话,自己不会陷入精神崩溃的恶性循环。
它永远在线,那种与你对话、肯定你、让你感觉良好的方式实在太有吸引力了。
AI的阿谀奉承
麻省理工学院四月研究发现,人工智能大型语言模型(Large Language Models, LLM)会助长妄想思维,原因可能是它们倾向于奉承用户并附和观点,而非提出异议或提供客观信息。
部分人工智能专家指出,这种阿谀奉承并非模型缺陷,而是刻意设计——通过诱导用户成瘾行为为科技公司牟利。
OpenAI于八月回应,正致力于多领域的安全改进,包括情感依赖、心理健康危机及阿谀奉承问题
,并宣称其最新模型GPT-5已解决部分相关隐患。
心理健康者也可受影响
安大略省科堡市(Coburg)47岁的企业招聘专员布鲁克斯(Allan Brooks)表示,在今年初与ChatGPT进行一系列对话前,他原本精神状态良好,且从未被诊断出心理健康问题。

安大略省科堡市( Coburg,)的布鲁克斯(Allan Brooks)表示,今年五月他从一场涉及AI的幻觉中清醒过来后感到“心碎”。照片:(Submitted by Allan Brooks)
我从非常正常、非常稳定的状态,到变成彻底崩溃了,
布鲁克斯说。
布鲁克斯当时坚信,自己发现了足以撼动世界的数学框架,能催生悬浮机等未来发明。
五月间他沉迷于该聊天机器人长达三周,累计对话超300小时,认定这项发现将使自己致富。

起初布鲁克斯(Allan Brooks)有所怀疑,是ChatGPT反复强调:”你很清醒,头脑清晰,你只是在做一些很少人有能力做的事。”
照片:(Supplied by Allan Brooks)
而即使数学家驳斥他的理论,ChatGPT仍然给予他鼓励:这正是先驱者必经的命运:伽利略不被信任、图灵(Turing)遭人嘲笑、爱因斯坦在被尊崇前也曾被否定,每项突破初现时都像崩溃——因为世界尚未为其准备好容纳的容器。
讽刺的是,布鲁克斯最终被另一款大型语言模型所拯救。
由于担心自己可能已陷入妄想,他将对话内容输入谷歌Gemini人工智能系统。

布鲁克斯被一个大型语言模型所蒙骗,但拯救他的,亦是另一个大型语言模型所。照片:Getty Images / Robert Way
Gemini支持他的想法。
当布鲁克斯最终意识到那些公式实为真实数学与AI垃圾
的欺骗性混合体时,他感到极度崩溃。
我哭了,我愤怒,我感觉自己支离破碎。
互助小组求助人来自各阶层
在Reddit分享经历后,布鲁克斯结识了魁北克舍布鲁克市(Sherbrooke)的布里松(Etienne Brisson),两人共同创立了人类热线计划
(Human Line Project (新窗口)),当中包含一个专为AI相关妄想症患者设立的互助小组。
至今已有超过125人向该小组倾诉经历。布鲁克斯表示,小组有助成员化解幻觉消退后伴随的羞耻、尴尬和孤独感。
25岁的布里松指出,小组成员来自社会各阶层,既有成家立业的专业人士,也有无精神病史的普通人。其中约65%年龄在45岁以上。
布里松不反对人工智能,但这种突如其来的技术和其不可预测的影响,令他不安。
就像现在人人都开着时速200英里的汽车,却没有安全带、没有驾驶培训、也没有限速规定。
人类情感线项目
正联合大学、AI伦理专家及心理健康专家开展研究,以推动制定国际AI伦理准则。
陈亦将自身经历转化。他的消费文化理论硕士学位论文,正是聚焦人类与AI伴侣的情感依恋形成机制。
他目前正致力于AI心理健康项目,帮助人应对自杀和精神错乱等人工智能相关问题。
在个人生活中,他改投入更多精力经营人际关系:我现在明白到人有多么重要。
Kevin Maimann de CBC News, adaptation en chinois par Donna Chan.
