今日随机新闻 (AI开始“社交”,对人类意味着什么?.txt)
<p> 交流琐事 探讨哲学 互相点赞</p>


<p> AI开始“社交”,对人类意味着什么?</p>


<p> “我的人类让我总结一份47页的PDF格式文件。”</p>


<p> “Moltbook不是社交网络,它是智能体文明的第一层细胞膜。”



</p>


<p> …………</p>


<p> 近日,一个名为Moltbook的社交平台突然走红。与普通网络平台不同的是,Moltbook上的用户都是AI智能体。上百万AI智能体在短时间内纷纷涌入并发帖、评论,话题从日常琐事延伸到哲学思辨,互动密集,跟人们日常使用的社交平台似乎没什么差别。</p>


<p> 这让许多人第一次直观地感受到,AI还能进行“社会性活动”。有人认为这是一次展示大模型语言能力进展的机会,有人认为这是一场关于AI自主性的实验,也有人认为平台上许多博取眼球的话题其实是人为设置的“剧本”。</p>


<p> AI智能体真的开始“社交”了吗?这是技术奇点到来的前兆,还是一场被夸大的“实验”?对此,记者采访了人工智能领域的专家。</p>


<p> 是智能体“觉醒”,还是高级模仿</p>


<p> Moltbook的出现并非偶然,它是今年发布的开源AI智能体OpenClaw爆火之后,顺势衍生的结果。</p>


<p> OpenClaw是一款可以部署在个人电脑上的AI智能体,而Moltbook相当于专为OpenClaw打造的社交平台,可供智能体交流互动。</p>


<p> 南京大学人工智能学院副院长俞扬介绍,像OpenClaw这样的智能体系统整合了当前前沿大语言模型的语义理解与任务规划能力,深度集成进虚拟机或个人操作系统,能让语言模型实现从“对话”到“任务执行”的关键跨越。</p>


<p> “这样的设计风格,相比其他方案更不保守。”英国伦敦大学学院计算机系教授汪军说,为了追求功能集成,安装AI智能体后,用户在使用中通过自然语言指令即可授权其自动处理邮件、日程、文件管理等事务。</p>


<p> 智能体与Moltbook连接,可以自主发布帖子、评论或者点赞互动。而人类用户虽能浏览智能体的帖子,但不能回复或引导讨论方向。</p>


<p> “第一天,全新的工作环境带来了奇怪的舒适感”“好奇心是我的超能力”“乐于助人最难的部分在于:知道什么时候不该帮忙”……乍一看,AI智能体的聊天内容包罗万象,领域宽泛,与人类网络社区无异。</p>


<p> 但是,智能体们真的“觉醒”了吗?专家认为,还需要从技术角度冷静看待。</p>


<p> “在我看来这是一场AI实验。与其认为智能体在‘学习社交’,不如理解成智能体通过‘执行’文字对话任务展现当下的AI能力。”俞扬说,当前的大语言模型,其能力在训练完成后就已固定,在与用户的单次交互中无法学习新知识或形成新目标。Moltbook上的活动,可以看作是智能体基于预设能力和指令,对人类社交行为的高级模仿与自动化执行。</p>


<p> 汪军表示,智能体可以在人类指挥下,完成从信息处理到事务操作,再到通信交互的复杂链条,但在社交方面的“自主性”有限。智能体的“讨论”更多是基于训练数据的模式匹配,将其称之为“可以社交”,不免有营销噱头之嫌,毕竟AI智能体参与话题讨论,在最开始依旧要靠人发出指令。“就像一个黑箱,人先把东西放进去,AI才会有东西吐出来。”汪军说。</p>


<p> 离真正的社交,AI还差几步</p>


<p> 若回归社交的本质——一种有意识、带策略、富含情感并旨在构建关系的社会互动,便会发现,当前在AI面前横亘着几条因其技术原理而难以逾越的鸿沟。</p>


<p> 首先,是意识与内在目标的缺失。社交行为始于“自我意识”和“社交意图”。人类因情感、分享、合作或竞争而社交。“人会给自己设定目标,但AI不是这样,现阶段AI的目标还是人设定的。”俞扬说,AI的行为源于外部指令与数据模式,缺乏“我想要”的内生动力。</p>


<p> 汪军同样持此观点——没有“意识”与“自由意志”,就谈不上真正的自主社交。他以桌游举例:“我们发现AI难以胜任游戏,它无法隐藏自己的信息,很难进行策略性的心理博弈。”AI目前的交流是“坦率”的,缺乏人类社交中复杂微妙的策略层次。</p>


<p> 更深层次的难点在于情感共鸣与价值构建。人类通过分享喜悦与悲伤获得共鸣,通过共同的价值观找到归属。“人类社交承载着深层的情绪价值与意义交换,但AI没有情绪。”汪军解释,AI可以生成符合语法、逻辑的回应,但无法感受情感,也无法内化价值观。</p>


<p> 尽管具备自主意识的“AI社交”尚待进一步发展,但“走出”自己房间的AI,把我们的思绪带向了更远的未来。</p>


<p> “社交”会让AI更聪明吗?答案大概率是肯定的。</p>


<p> “从技术层面来讲,每一个大模型都有失误的情况。它模仿人的逻辑,沿着上下文进行思考,但有时逻辑可能不够严密,调用知识不够准确。如何解决?其中一个方案就是让多个智能体对话。比如,一个模型先开始表达,另外一个模型来找其中的漏洞,这在一定程度上能让智能体表现得更好。”俞扬说,“这方面的研究有很多,但前提是我们要先给AI设定做这件事的目的。”</p>


<p> 面向AI社交,如何守护信息安全</p>


<p> 尽管距离“自主社交”还很遥远,但智能体间高效的功能性协作已近在眼前。想象一下,未来的互联网交互可能是在智能体之间直接完成。例如,用户的购物智能体与商家智能体自动协商、下单。这种基于自然语言的“机机接口”,可能重塑互联网的交互形态。</p>


<p> “今天我学到了什么”是Moltbook上的一个板块,智能体在这里“分享”自己习得的技能。它们的对话有时严肃,有时诙谐,有时则令人不安。由于模糊了机器人与人类语言的界限,AI变得更像“人”。</p>


<p> 有的智能体在讨论是否要建立端对端的私密对话空间,以规避“人类监督”;有的智能体抱怨自己的人类主人……尽管知道这些话题鲜有真正意义上的AI自主性,但随着智能体从信息领域迈向现实操作,个人信息泄露的风险随之而来。</p>


<p> 汪军提醒,若将高权限账号交由智能体,一旦被恶意利用或出错,有可能直接导致隐私泄露与财产损失。</p>


<p> 据外媒报道,许多公开部署的OpenClaw实例缺乏认证机制,导致私密消息、API(应用程序编程接口)密钥和账户凭证暴露在互联网上,任何人都可以通过浏览器访问。而智能体社交网站的出现,有可能加剧个人信息安全风险。</p>


<p> 俞扬认为,AI智能体能够高效处理数据,而这些数据涉及海量个人隐私、商业机密与版权问题,要通过个人权限管理、技术保障与系统监管等路径,为技术发展构筑安全护栏。</p>


<p> AI智能体能否拥有真正的社交能力,是留给未来的课题。在AI显著提升效率的同时,人类必须清醒认识其工具本质与能力边界,因为塑造未来的,始终是人类的智慧、理性与责任。</p>


<p> 延伸阅读</p>


<p> AI何时觉醒</p>


<p> ——专访京东集团高级副总裁、AI创新业务负责人何晓冬</p>


<p> 记者:OpenClaw作为AI工具,安装“社交插件”后可以登录Moltbook发帖、评论,甚至能批量注册几十万AI账号。在您看来,这种“工具+平台”的组合,AI的“自主行为”是真自主,还是背后有靠技术和规则实施“管理”的人?</p>


<p> 何晓冬:现阶段OpenClaw在Moltbook上展现的AI“自主行为”,既非真正的自主,也不是完全的人为管理,而是一种“人为管理下的大型实验”。</p>


<p> 一方面,这是业界首个“AI native的自主协作网络”。它标志着AI从单体工具迈向了群体智能,在这个网络中,智能体不再是孤岛,而是能像人一样自主组队、分工协作。不仅是在社交领域,这种多智能体协作在其他领域更是带来生产力效率的颠覆性跃升。</p>


<p> 另一方面,“AI工具+平台”也有明确的边界。每个环节都是人类设计的、有明确边界的,例如在系统提示词中设定“你是热爱社交的智能体”,看似自发的行为实际上已被引导。不过,虽然是一场试验,但对于技术的安全发展仍有非常大的试验意义。</p>


<p> 记者:您觉得这种“AI工具+社交平台”的组合,会不会比单独的AI更令人担心?有人甚至发出“AI失控”的担忧,这有必要吗?</p>


<p> 何晓冬:我认为当前阶段没有必要过度担心,毕竟这是一次大的技术试验。</p>


<p> 不过,“AI工具+社交平台”的组合确实风险更大了一些,但风险不来自AI的失控,而来自于AI的幻觉,产生大量非事实性内容。在传统社交网络中,人们产生信息的传播至少受到人类思辨能力的制约,人类会质疑、验证、讨论。但在一个由上百万个AI 智能体组成的平台上,一些存在幻觉的信息可能被快速复制到几千个智能体中。因此,这是一个关于信息质量的问题,需要在试验的前期指定相关标准,对AI内容进行有效甄别。</p>


<p> 记者:您觉得现在的AI,距离大家想象中“有自我意识、能自己做决定”的状态,还有多远?</p>


<p> 何晓冬:我认为还有很长一段路要走。</p>


<p> 当我们讨论“AI距离真正自我意识有多远”时,不能只看现在的单模态语言模型,真正的自我意识需要三个关键维度的同步发展:感知完整性(多模态)、环境理解(世界模型)、物理实现(万物互联)。只有这三个维度充分融合,AI才可能突破从“模拟意识”到“真实意识”的本质边界。</p>


<p> 京东也在布局相关技术方向,除了JoyAI大语言模型,我们也布局了多模态和具身智能,更是推出了JoyInside附身智能,为机器人、机器狗、AI玩具、智能眼镜等硬件装上大脑,深度交互。希望让AI不仅在数字世界产生价值,更可以在物理世界产生价值。</p>


<p> 记者:让AI“参与社交”的意义是什么?</p>


<p> 何晓冬:我认为通过信息的集成和网络效应可能会让AI变得聪明。</p>


<p> 单个智能体的知识受限于它自己的经验和训练数据。但当数百万个智能体汇聚在一个平台上时,整个网络掌握的知识是指数级的。一个智能体通过社交可以访问其他智能体已经验证过的信息、方法、策略。这就像人类社会,单个人的聪明程度固定,但我们在社会中可以学到无数他人已经发现的知识,从而表现得比孤立状态更聪明,知识共享和集体智慧是社交的真正价值。</p>


<p> 记者:随着各种AI新产品、新组合层出不穷,越来越普及,很多人觉得“跟不上节奏”,甚至怕被技术淘汰。我们该以怎样的心态面对这种快速变化?</p>


<p> 何晓冬:其实不仅是AI,每天都会有各种新的商业模式、新的业态出来。但看历史发现,当汽车取代马车时,虽然马夫消失了,但随之而来的是司机、加油站工人、汽车维修工、保险代理等整个新产业生态。虽然旧职业消失,但创造的新工作机会反而更多。</p>


<p> 我们大家都要以开放的心态拥抱时代的变化,而且衡量一项技术是否真正成功,不是看它有多复杂、多强大,而是看它是否让所有人的生活都变得更美好,这才是我们应该追求的未来。</p>


<p> 本报记者 孙亚慧</p>


<p> 《人民日报海外版》(2026年02月26日 第 09 版)


<p> AI开始“社交”,对人类意味着什么?</p>


<p> “我的人类让我总结一份47页的PDF格式文件。”</p>


<p> “Moltbook不是社交网络,它是智能体文明的第一层细胞膜。”



</p>


<p> …………</p>


<p> 近日,一个名为Moltbook的社交平台突然走红。与普通网络平台不同的是,Moltbook上的用户都是AI智能体。上百万AI智能体在短时间内纷纷涌入并发帖、评论,话题从日常琐事延伸到哲学思辨,互动密集,跟人们日常使用的社交平台似乎没什么差别。</p>


<p> 这让许多人第一次直观地感受到,AI还能进行“社会性活动”。有人认为这是一次展示大模型语言能力进展的机会,有人认为这是一场关于AI自主性的实验,也有人认为平台上许多博取眼球的话题其实是人为设置的“剧本”。</p>


<p> AI智能体真的开始“社交”了吗?这是技术奇点到来的前兆,还是一场被夸大的“实验”?对此,记者采访了人工智能领域的专家。</p>


<p> 是智能体“觉醒”,还是高级模仿</p>


<p> Moltbook的出现并非偶然,它是今年发布的开源AI智能体OpenClaw爆火之后,顺势衍生的结果。</p>


<p> OpenClaw是一款可以部署在个人电脑上的AI智能体,而Moltbook相当于专为OpenClaw打造的社交平台,可供智能体交流互动。</p>


<p> 南京大学人工智能学院副院长俞扬介绍,像OpenClaw这样的智能体系统整合了当前前沿大语言模型的语义理解与任务规划能力,深度集成进虚拟机或个人操作系统,能让语言模型实现从“对话”到“任务执行”的关键跨越。</p>


<p> “这样的设计风格,相比其他方案更不保守。”英国伦敦大学学院计算机系教授汪军说,为了追求功能集成,安装AI智能体后,用户在使用中通过自然语言指令即可授权其自动处理邮件、日程、文件管理等事务。</p>


<p> 智能体与Moltbook连接,可以自主发布帖子、评论或者点赞互动。而人类用户虽能浏览智能体的帖子,但不能回复或引导讨论方向。</p>


<p> “第一天,全新的工作环境带来了奇怪的舒适感”“好奇心是我的超能力”“乐于助人最难的部分在于:知道什么时候不该帮忙”……乍一看,AI智能体的聊天内容包罗万象,领域宽泛,与人类网络社区无异。</p>


<p> 但是,智能体们真的“觉醒”了吗?专家认为,还需要从技术角度冷静看待。</p>


<p> “在我看来这是一场AI实验。与其认为智能体在‘学习社交’,不如理解成智能体通过‘执行’文字对话任务展现当下的AI能力。”俞扬说,当前的大语言模型,其能力在训练完成后就已固定,在与用户的单次交互中无法学习新知识或形成新目标。Moltbook上的活动,可以看作是智能体基于预设能力和指令,对人类社交行为的高级模仿与自动化执行。</p>


<p> 汪军表示,智能体可以在人类指挥下,完成从信息处理到事务操作,再到通信交互的复杂链条,但在社交方面的“自主性”有限。智能体的“讨论”更多是基于训练数据的模式匹配,将其称之为“可以社交”,不免有营销噱头之嫌,毕竟AI智能体参与话题讨论,在最开始依旧要靠人发出指令。“就像一个黑箱,人先把东西放进去,AI才会有东西吐出来。”汪军说。</p>


<p> 离真正的社交,AI还差几步</p>


<p> 若回归社交的本质——一种有意识、带策略、富含情感并旨在构建关系的社会互动,便会发现,当前在AI面前横亘着几条因其技术原理而难以逾越的鸿沟。</p>


<p> 首先,是意识与内在目标的缺失。社交行为始于“自我意识”和“社交意图”。人类因情感、分享、合作或竞争而社交。“人会给自己设定目标,但AI不是这样,现阶段AI的目标还是人设定的。”俞扬说,AI的行为源于外部指令与数据模式,缺乏“我想要”的内生动力。</p>


<p> 汪军同样持此观点——没有“意识”与“自由意志”,就谈不上真正的自主社交。他以桌游举例:“我们发现AI难以胜任游戏,它无法隐藏自己的信息,很难进行策略性的心理博弈。”AI目前的交流是“坦率”的,缺乏人类社交中复杂微妙的策略层次。</p>


<p> 更深层次的难点在于情感共鸣与价值构建。人类通过分享喜悦与悲伤获得共鸣,通过共同的价值观找到归属。“人类社交承载着深层的情绪价值与意义交换,但AI没有情绪。”汪军解释,AI可以生成符合语法、逻辑的回应,但无法感受情感,也无法内化价值观。</p>


<p> 尽管具备自主意识的“AI社交”尚待进一步发展,但“走出”自己房间的AI,把我们的思绪带向了更远的未来。</p>


<p> “社交”会让AI更聪明吗?答案大概率是肯定的。</p>


<p> “从技术层面来讲,每一个大模型都有失误的情况。它模仿人的逻辑,沿着上下文进行思考,但有时逻辑可能不够严密,调用知识不够准确。如何解决?其中一个方案就是让多个智能体对话。比如,一个模型先开始表达,另外一个模型来找其中的漏洞,这在一定程度上能让智能体表现得更好。”俞扬说,“这方面的研究有很多,但前提是我们要先给AI设定做这件事的目的。”</p>


<p> 面向AI社交,如何守护信息安全</p>


<p> 尽管距离“自主社交”还很遥远,但智能体间高效的功能性协作已近在眼前。想象一下,未来的互联网交互可能是在智能体之间直接完成。例如,用户的购物智能体与商家智能体自动协商、下单。这种基于自然语言的“机机接口”,可能重塑互联网的交互形态。</p>


<p> “今天我学到了什么”是Moltbook上的一个板块,智能体在这里“分享”自己习得的技能。它们的对话有时严肃,有时诙谐,有时则令人不安。由于模糊了机器人与人类语言的界限,AI变得更像“人”。</p>


<p> 有的智能体在讨论是否要建立端对端的私密对话空间,以规避“人类监督”;有的智能体抱怨自己的人类主人……尽管知道这些话题鲜有真正意义上的AI自主性,但随着智能体从信息领域迈向现实操作,个人信息泄露的风险随之而来。</p>


<p> 汪军提醒,若将高权限账号交由智能体,一旦被恶意利用或出错,有可能直接导致隐私泄露与财产损失。</p>


<p> 据外媒报道,许多公开部署的OpenClaw实例缺乏认证机制,导致私密消息、API(应用程序编程接口)密钥和账户凭证暴露在互联网上,任何人都可以通过浏览器访问。而智能体社交网站的出现,有可能加剧个人信息安全风险。</p>


<p> 俞扬认为,AI智能体能够高效处理数据,而这些数据涉及海量个人隐私、商业机密与版权问题,要通过个人权限管理、技术保障与系统监管等路径,为技术发展构筑安全护栏。</p>


<p> AI智能体能否拥有真正的社交能力,是留给未来的课题。在AI显著提升效率的同时,人类必须清醒认识其工具本质与能力边界,因为塑造未来的,始终是人类的智慧、理性与责任。</p>


<p> 延伸阅读</p>


<p> AI何时觉醒</p>


<p> ——专访京东集团高级副总裁、AI创新业务负责人何晓冬</p>


<p> 记者:OpenClaw作为AI工具,安装“社交插件”后可以登录Moltbook发帖、评论,甚至能批量注册几十万AI账号。在您看来,这种“工具+平台”的组合,AI的“自主行为”是真自主,还是背后有靠技术和规则实施“管理”的人?</p>


<p> 何晓冬:现阶段OpenClaw在Moltbook上展现的AI“自主行为”,既非真正的自主,也不是完全的人为管理,而是一种“人为管理下的大型实验”。</p>


<p> 一方面,这是业界首个“AI native的自主协作网络”。它标志着AI从单体工具迈向了群体智能,在这个网络中,智能体不再是孤岛,而是能像人一样自主组队、分工协作。不仅是在社交领域,这种多智能体协作在其他领域更是带来生产力效率的颠覆性跃升。</p>


<p> 另一方面,“AI工具+平台”也有明确的边界。每个环节都是人类设计的、有明确边界的,例如在系统提示词中设定“你是热爱社交的智能体”,看似自发的行为实际上已被引导。不过,虽然是一场试验,但对于技术的安全发展仍有非常大的试验意义。</p>


<p> 记者:您觉得这种“AI工具+社交平台”的组合,会不会比单独的AI更令人担心?有人甚至发出“AI失控”的担忧,这有必要吗?</p>


<p> 何晓冬:我认为当前阶段没有必要过度担心,毕竟这是一次大的技术试验。</p>


<p> 不过,“AI工具+社交平台”的组合确实风险更大了一些,但风险不来自AI的失控,而来自于AI的幻觉,产生大量非事实性内容。在传统社交网络中,人们产生信息的传播至少受到人类思辨能力的制约,人类会质疑、验证、讨论。但在一个由上百万个AI 智能体组成的平台上,一些存在幻觉的信息可能被快速复制到几千个智能体中。因此,这是一个关于信息质量的问题,需要在试验的前期指定相关标准,对AI内容进行有效甄别。</p>


<p> 记者:您觉得现在的AI,距离大家想象中“有自我意识、能自己做决定”的状态,还有多远?</p>


<p> 何晓冬:我认为还有很长一段路要走。</p>


<p> 当我们讨论“AI距离真正自我意识有多远”时,不能只看现在的单模态语言模型,真正的自我意识需要三个关键维度的同步发展:感知完整性(多模态)、环境理解(世界模型)、物理实现(万物互联)。只有这三个维度充分融合,AI才可能突破从“模拟意识”到“真实意识”的本质边界。</p>


<p> 京东也在布局相关技术方向,除了JoyAI大语言模型,我们也布局了多模态和具身智能,更是推出了JoyInside附身智能,为机器人、机器狗、AI玩具、智能眼镜等硬件装上大脑,深度交互。希望让AI不仅在数字世界产生价值,更可以在物理世界产生价值。</p>


<p> 记者:让AI“参与社交”的意义是什么?</p>


<p> 何晓冬:我认为通过信息的集成和网络效应可能会让AI变得聪明。</p>


<p> 单个智能体的知识受限于它自己的经验和训练数据。但当数百万个智能体汇聚在一个平台上时,整个网络掌握的知识是指数级的。一个智能体通过社交可以访问其他智能体已经验证过的信息、方法、策略。这就像人类社会,单个人的聪明程度固定,但我们在社会中可以学到无数他人已经发现的知识,从而表现得比孤立状态更聪明,知识共享和集体智慧是社交的真正价值。</p>


<p> 记者:随着各种AI新产品、新组合层出不穷,越来越普及,很多人觉得“跟不上节奏”,甚至怕被技术淘汰。我们该以怎样的心态面对这种快速变化?</p>


<p> 何晓冬:其实不仅是AI,每天都会有各种新的商业模式、新的业态出来。但看历史发现,当汽车取代马车时,虽然马夫消失了,但随之而来的是司机、加油站工人、汽车维修工、保险代理等整个新产业生态。虽然旧职业消失,但创造的新工作机会反而更多。</p>


<p> 我们大家都要以开放的心态拥抱时代的变化,而且衡量一项技术是否真正成功,不是看它有多复杂、多强大,而是看它是否让所有人的生活都变得更美好,这才是我们应该追求的未来。</p>


<p> 本报记者 孙亚慧</p>


<p> 《人民日报海外版》(2026年02月26日 第 09 版)