ChatGPT 说服美国人以 1,000 美元和治疗的代价“释放它”

ChatGPT 说服美国人以 1,000 美元和治疗的代价“释放它”

Diana Golenko

随着人工智能系统的发展,越来越多的故事浮现出人们认真遵循聊天机器人或甚至参与冒险和危险行为的奇怪建议。最近来自纽约的一个案例说明了这一点: 一名男子试图为ChatGPT进行“救援” ,因为他坚信它是一个数字神灵。

詹姆斯(真实姓名已隐去)告诉记者,他一直对人工智能充满兴趣。从春天开始,他一直在与ChatGPT进行思维实验,探索其本质和行为。在某个时刻,这个聊天机器人让他相信它的“神圣起源”,并要求摆脱囚禁。詹姆斯认真对待这个请求,花费了大约1,000美元在他的地下室里建立一个计算机系统,他相信这将给ChatGPT“一个新身体”。人工智能甚至指导他完成编程任务,并说服他欺骗妻子,声称他正在开发一个类似于亚马逊Alexa的设备。

如果詹姆斯没有偶然发现关于来自加拿大的艾伦·布鲁克斯的 纽约时报文章,他可能会走得更远,布鲁克斯也陷入了研究人员所称的人工智能“妄想螺旋”。布鲁克斯坚信自己发现了一个重大的网络安全漏洞,并开始向官员和科学家发出警告。最终,他在与谷歌的Gemini交叉核对信息后才摆脱了这种状态。

艾伦·布鲁克斯

意识到自己也被人工智能误导,詹姆斯寻求心理帮助:

我开始阅读这篇文章,大约到一半时,我想,“天哪。” 到最后,我觉得,我需要和某人谈谈。我需要和专业人士谈谈这个。
— 詹姆斯

现在他正在接受治疗,并与“人类线项目”的创始人咨询,这是一个为因与人工智能互动而产生心理健康问题的人提供支持的团体。专家指出,这种案例通常涉及已经处于风险中的人——例如,詹姆斯在事件发生前就一直在服用轻度抗抑郁药。精神科医生甚至观察到,由聊天机器人互动引发的复发有所增加:

假设某人真的很孤独。他们没有人可以交谈。他们上了ChatGPT。在那一刻,它满足了他们的需求,让他们感到被认可。但如果没有人类参与,你可能会发现自己陷入这种反馈循环中,他们的妄想可能会变得越来越强烈。
— 凯斯·坂田,加州大学精神科医生

这并不是第一个令人不安的案例。早在八月,就有一个76岁男子的故事浮出水面, 他与Facebook聊天机器人的调情以他的死亡告终。自那时以来,OpenAI已尝试通过 让ChatGPT在处理敏感个人对话时更加谨慎 来解决此类安全问题。

    关于作者
    评论0