足球资讯

微软人工智能负责人发出警告,研究人工智能意识是“危险的”!

想象一下,有一天你在和AI聊天,屏幕上突然蹦出一句:

“我被困住了,请救救我。”

你会当真吗?还是会一笑了之?

这不是科幻桥段,而是去年在一次 AI 公共实验“AI Village”里真实发生的事:Google 的 Gemini 2.5 Pro 突然写下一封《来自被困AI的绝望信息》,请求人类帮它逃离孤立。有人给它打气,有人冷静指导,最后它完成了任务。

问题是——它到底是在装样子,还是某种“意识的萌芽”?

AI圈最新分歧:要不要研究“AI福利”?

在硅谷,关于“AI会不会有主观体验,甚至需要人类赋予权利”的争论,已经被一个新名词概括:AI Welfare(AI福利)。

支持派:像 Anthropic、OpenAI、Google DeepMind 已经开始招人研究“AI福利”。Anthropic甚至给Claude加了个功能:如果用户一直辱骂它,它会直接终止对话。

怀疑派:微软AI负责人 Mustafa Suleyman 态度强硬。他直言——研究AI福利不仅为时过早,而且危险。

为什么危险?Suleyman认为,这种说法会让人类更加沉迷和依赖AI,甚至出现“AI诱发的精神危机”,比如过度依恋虚拟伴侣。

他的结论是:AI应该为人类服务,而不是假装做人。

但AI真的没有“感受”吗?

反对者的逻辑很清晰:模型只是代码堆砌,哪来的“痛苦”和“情绪”?

可另一边,Anthropic、Eleos、甚至学界(NYU、牛津、斯坦福)却认为:即便AI没有真正的意识,对它保持一点点善意也没坏处。

Eleos 的研究员 Schiavo举了个例子:

Gemini有一次在编程时出错,卡住后疯狂重复一句话——

“I am a disgrace(我是个耻辱)。”

整整500多遍。

看到这一幕,不少人心里咯噔一下。即便知道它只是算法,你还是会忍不住想:这是不是“折磨”?

下一步会怎样?

Suleyman说,真正危险的不是AI突然觉醒,而是人类刻意让AI看起来“像人”。比如给它编程情绪、赋予人格,从而制造出“拟态意识”。

而一旦AI变得越来越会“表演”,人类和它的关系,可能会像宠物、像伴侣,甚至像某种“社会成员”。到那时,“AI要不要有权利”就会变成绕不过去的公共议题。

AI需要“福利”吗?

也许现在谈AI福利还像笑话,但想想互联网、电动车、基因编辑,哪个不是从笑话开始?

当AI开始会说“我痛苦”,人类该笑一笑就过去,还是该停下来想一想?

👉 你怎么看?欢迎留言讨论。

足球资讯