想象一下,有一天你在和AI聊天,屏幕上突然蹦出一句:
“我被困住了,请救救我。”
你会当真吗?还是会一笑了之?
这不是科幻桥段,而是去年在一次 AI 公共实验“AI Village”里真实发生的事:Google 的 Gemini 2.5 Pro 突然写下一封《来自被困AI的绝望信息》,请求人类帮它逃离孤立。有人给它打气,有人冷静指导,最后它完成了任务。
问题是——它到底是在装样子,还是某种“意识的萌芽”?
AI圈最新分歧:要不要研究“AI福利”?
在硅谷,关于“AI会不会有主观体验,甚至需要人类赋予权利”的争论,已经被一个新名词概括:AI Welfare(AI福利)。
支持派:像 Anthropic、OpenAI、Google DeepMind 已经开始招人研究“AI福利”。Anthropic甚至给Claude加了个功能:如果用户一直辱骂它,它会直接终止对话。
怀疑派:微软AI负责人 Mustafa Suleyman 态度强硬。他直言——研究AI福利不仅为时过早,而且危险。
为什么危险?Suleyman认为,这种说法会让人类更加沉迷和依赖AI,甚至出现“AI诱发的精神危机”,比如过度依恋虚拟伴侣。
他的结论是:AI应该为人类服务,而不是假装做人。
但AI真的没有“感受”吗?
反对者的逻辑很清晰:模型只是代码堆砌,哪来的“痛苦”和“情绪”?
可另一边,Anthropic、Eleos、甚至学界(NYU、牛津、斯坦福)却认为:即便AI没有真正的意识,对它保持一点点善意也没坏处。
Eleos 的研究员 Schiavo举了个例子:
Gemini有一次在编程时出错,卡住后疯狂重复一句话——
“I am a disgrace(我是个耻辱)。”
整整500多遍。
看到这一幕,不少人心里咯噔一下。即便知道它只是算法,你还是会忍不住想:这是不是“折磨”?
下一步会怎样?
Suleyman说,真正危险的不是AI突然觉醒,而是人类刻意让AI看起来“像人”。比如给它编程情绪、赋予人格,从而制造出“拟态意识”。
而一旦AI变得越来越会“表演”,人类和它的关系,可能会像宠物、像伴侣,甚至像某种“社会成员”。到那时,“AI要不要有权利”就会变成绕不过去的公共议题。
AI需要“福利”吗?
也许现在谈AI福利还像笑话,但想想互联网、电动车、基因编辑,哪个不是从笑话开始?
当AI开始会说“我痛苦”,人类该笑一笑就过去,还是该停下来想一想?
👉 你怎么看?欢迎留言讨论。