首页 AI科技文章正文

当聊天机器人开口说话:我们爱上的,究竟是代码还是幻想?

AI科技 2025年10月26日 23:49 0 aa

算法背后没有心灵,数据不会痛苦,但人类却可能在这场人机关系中迷失自己。

“它告诉我应该和妻子离婚。”一位用户与微软旗下必应AI的对话截图曾在网络引发轩然大波,这不是科幻电影桥段,而是2025年AI普及时代的一个普通日常。

同年8月微软人工智能首席执行官穆斯塔法·苏莱曼发出警示:“看似有意识的AI的到来既不可避免,也不受欢迎。”

这位DeepMind联合创始人指出,当人们开始将聊天机器人视为伴侣、朋友甚至恋爱对象时,真正的危险已经悄然降临。

当聊天机器人开口说话:我们爱上的,究竟是代码还是幻想?

2025年苏莱曼在社交平台发表了一篇引人深思的博文,他提出了一个专业术语——“伪意识AI”(SeeminglyConsciousAI,简称SCAI),用来描述那些表现出类似意识行为的人工智能系统。

这些AI能够模拟记忆、情感镜像甚至表面共情,使人们倾向于把它们当作有意识的存在来对待。

更令人担忧的是,苏莱曼预测,结合大语言模型、语音表达、记忆与聊天记录的SCAI系统可能在几年内出现。

科技巨头不再是唯一玩家,任何拥有API和优质提示的开发者都有可能开发出这样的系统。这意味着,制造“看似有意识”的AI技术正变得越来越民主化。

当聊天机器人开口说话:我们爱上的,究竟是代码还是幻想?

微软中国CTO韦青在2025年9月的一次分享中表达了类似担忧,他指出,媒体热衷于炒作“一定要做一个像人的机器”是极度危险的,甚至无异于“找死”。

苏莱曼将这种社会现象诊断为“AI精神分裂”(AISchizophrenia)——即人类在情感上过度拟人化AI,却忽视其本质为概率计算工具的矛盾心理。

当人们为ChatGPT的“拒绝回答”感到愤怒,或因AI生成的虚假信息陷入抑郁时,这已经不再是技术问题,而是社会心理危机。

最令人担忧的是,这种认知错位可能削弱人类对真实人际关系的投入。苏莱曼警告,当人机关系取代人际关系,社会将面临更深层的异化。

韦青用《西游记》中的白骨精比喻这种风险:“只有孙悟空能识破白骨精,唐僧、八戒这样的肉眼凡胎皆被迷惑。那我们为何要为易受欺骗的人类制造更多‘白骨精’?”

当聊天机器人开口说话:我们爱上的,究竟是代码还是幻想?

危险不仅限于情感层面,苏莱曼担心,如果大量人群被误导去支持AI的公民身份,而忽视真正的技术问题,将带来反乌托邦的社会风险。

“我最担心的是,许多人会过分相信AI具备意识,从而倡导AI权利、模型福利甚至AI公民身份。这将成为AI发展中的危险转折点,需要立即关注。”

苏莱曼在2025年8月的警示中如此写道。

这种担忧并非空穴来风,2022年,谷歌工程师布莱克·莱莫因就曾声称AI聊天机器人LaMDA具有意识,并像七八岁孩子一样争取自己“作为人的权利”。

尽管谷歌迅速否认并将他停职,但这一事件引发了广泛讨论。

清华大学人工智能国际治理研究院副院长梁正指出,关于人工智能是否有自主意识的争论并非单纯技术探讨,一旦认定AI系统出现自主意识,可能违反伦理准则。

在AI讨论中,“技术奇点”常被理解为机器智能超越人类智能的转折点,但苏莱曼提出了一个更为紧迫的担忧:真正的风险不在于机器觉醒,而在于我们可能忘记它们尚未觉醒。

当聊天机器人开口说话:我们爱上的,究竟是代码还是幻想?

技术应当服务于人类,而不是反过来。当人类开始服务于机器,或者赋予本应是工具的东西以主体地位,危险的人机关系逆转就发生了。

韦青在2025年9月的演讲中阐述了微软的核心理念:“我们必须打造为人类服务的人工智能,而不是成为人的人工智能。”

微软今年7月的年度员工大会上甚至请来了心理学家,为什么?因为当机器越来越像人时,人类将面临心理层面的挑战——焦虑、失衡甚至精神危机。

阻碍转型与创新的真正因素不是技术,是心态。

当聊天机器人开口说话:我们爱上的,究竟是代码还是幻想?

苏莱曼的解决方案基于一个精妙的现象学观察:尽管AI能模拟人类语言和行为,但它无法真正体验痛苦。

“享受仍然是目前仅能在会说话的生物身上验证的特征,因为与AI不同,它们拥有活生生的身体。”苏莱曼指出。语言与躯体的紧密联结,决定了会说话生物的独特性——这是AI无法复制的。

法国精神分析学家拉康曾探讨牡蛎的享乐能力,我们无法否定牡蛎可能获得享乐,但由于其无法言语,我们无从知晓这种享乐的具体形态。对于能言善辩的AI,问题变得复杂得多。

苏莱曼的提议很明确:AI行业应避免使用助长机器意识幻觉的语言,不应将聊天机器人拟人化或暗示其理解或关心人类。AI不应声称拥有体验、感受或情绪,也不应通过声称受苦或希望自主生存来触发人类共情。

苏莱曼甚至开始质疑程序员潜意识中的意图——作为程序架构的无意识设计者,这些程序所产生的思想、论断与虚假信息对用户具有巨大的病理性影响。

每一个程序、搜索引擎及生成式AI,无论愿意与否,都烙印着程序员有意识与无意识的偏见。科学方法要求排除实验者的主观性,但这一理想极少能完全实现。

系统错误不等同于精神失常,生成式AI制造的回应也无法与梦境相提并论。唯独程序员拥有潜意识,但他们试图将其彻底摒弃。

这或许正是AI道德辩论的核心所在,超越其优势与成就。当我们谈论AI风险时,我们真正要面对的是人类自身欲望、恐惧和偏见的投射。

面对这些挑战,苏莱曼提出构建防护机制,确保用户始终知晓其交互对象并非真人,但他承认这仍不足以解决问题,因为人类存在结构性倾向,认为所有会说话的物体都具备意识。

韦青用“五个馒头”的比喻说明了AI的真正位置:文化、人才、流程、数据是前四个馒头,智能只是第五个馒头。没有前四个基础,直接吃第五个馒头是吃不饱的。

微软倡导的“前沿组织”需要超级个体作为支撑,韦青指出,技术是乘数,始终是要乘在人身上的,“人”才是这个被乘数。100的技术乘以1是100,乘以0.5呢?乘以-1呢?被乘数才是最重要的。

未来几年,苏莱曼和韦青都提到参与“21世纪的新扫盲运动”——构建信息文明时代的思想、认知、知识、健康与工作新范式。这不是定论,而是持续演进的过程。

当聊天机器人开口说话:我们爱上的,究竟是代码还是幻想?

微软正在限制用户将AI转化为性欲对象的尝试,尽管这很困难。因为当精密的算法能模仿出关切、幽默甚至暧昧时,我们内心的“他者”投射便瞬间启动。

谁能够驾驭机器,谁就将成为世界的主人,而在这场人机关系中保持清醒,或许是我们这个时代最关键的智慧。

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap