广西家具封边胶厂 薛澜:从“动口”到“动手”:如何为AI智能体划好安全红线?

2026-03-03 03:47:34 56

PVC管道管件粘结胶

  人类如何与AI智能体共处

  编者按

  新质策源刊的二期,我们聚焦AI智能体(AI Agent),不仅仅因为它当下的热度,因为我们看到了它对未来的影响。我们度访谈行业顶、资研究人员、国内外知名企业,尽力描绘当下AI时代的真实图景,展望未来的各种可能,在不确定中寻找确定。

  这个域创新不断,犹如科幻即将照入现实。我们想知道的不只是近在咫尺的明天会怎样,想知道今天我们做的切,会对不远的未来产生什么样的影响,诚邀您和我们起,探索新AI时代。敬请关注本期策划——“人类如何与AI智能体共处”。

  ——访清华大学文科资教授、苏世民书院院长薛澜

  ■经济时报记者 张鸣 ■见习记者 姚俊臣

  岁末年初,国内外多款AI智能体(AI Agent)产品纷纷亮相。从主内容生成的大语言模型,到具备自主决策与执行能力的智能体系统,人工智能正加速从虚拟世界走向现实场景,安全发展的需求随之迫切。围绕技术发展、风险结构和理路径,经济时报记者日前访了清华大学文科资教授、苏世民书院院长薛澜。

  从“动口”到“动手”:AI智能体加速融入现实场景广西家具封边胶厂

  经济时报:近期,国内外涌现出很多AI智能体产品,例如OpenClaw,并且迅速爆火,还出现了所谓的“人工智能社区”。您如何看待这现象?

  薛澜:过去我们常说,人工智能赋能千行百业,但真正的“赋能”,须嵌入现实运行系统。自ChatGPT问世以来,大语言模型的核心能力主要停留在文本与图像生成,本质上仍是对“下个词”的概率预测。但近期兴起的AI智能体则明显不同,它不仅能够生成内容,还能够围绕目标进行决策和执行。从某种意义上说,AI智能体正在从“动口”走向“动手”,不光能够理解语言符号,还能理解环境变化,并据此展开行动。

奥力斯    万能胶厂家    联系人:王经理    手机:18231788377(微信同号)    地址:河北省任丘市北辛庄乡南代河工业区

  至于爆火的OpenClaw,虽然有人指出这个所谓的“人工智能社区”背后是真人在操纵,但从目前人工智能的技术水平和发展规律来看,出现AI智能体之间相互讨论、辩论甚至协作的情况,是可以预期的。这恰恰反映出人工智能发展到定程度后能力的显著提升和自主的不断增强。而这种自主,也是我们在设计AI智能体的时候就期望它具备的特征。我认为,这是技术迭代的然结果,也是种让人喜忧参半的趋势——我们希望AI智能体“善解人意”,但也害怕AI智能体“自作主张”。

  因此,人工智能技术从虚拟空间走向现实场景,从“动口”转向“动手”,就需要我们加小心,止产生新的风险。

  从认知偏差到物理伤害:AI智能体需设置安全护栏

  经济时报:您提到这个阶段需要加小心,相比于大语言模型,AI智能体在提供便的同时产生的风险有什么不同?

  薛澜:在大语言模型阶段,我们主要需要考虑文本层面的风险广西家具封边胶厂,例如法偏见、AI幻觉等。但是,融入现实场景的AI智能体会造成物理的伤害,比如医疗机器人可能操作不慎带来医疗事故,政机器人操作不当引发火灾,等等,这就要求我们在安全机制设计上加谨慎。

  当AI智能体的自主不断增强时,我们也要考虑未来的某天它是不是会出现“不听话”的情况,甚至反过来指挥人类?已经有些研究发现,有的人工智能系统具有“自我保护意识”,当面临被断电、修改数据或替换的时候,会采取策略回应,甚至以泄露隐私相要挟。虽然这种发现还停留在实验室阶段,但它表明了种可能,那就是度自主的人工智能系统有可能会在与人类目标不致时选择与人类博弈。

  经济时报:具体而言,PVC管道管件粘结胶您认为当前我们需要关注哪些风险?

  薛澜:目前主要有三类风险需要关注。类是技术系统自身的风险,包括系统失控、AI幻觉等问题。例如,在医疗等风险场景中,对系统稳定和准确的要求;二类是技术恶用和滥用风险,须范人工智能被用来干坏事,如被用于制造生物威胁、进行网络攻击等;三类是为长远的社会系统风险,AI智能体大规模融入现实生活,可能对就业结构、收入分配和社会认知产生远影响,需要警惕可能引发的社会矛盾。

  经济时报:面对这些风险,我们该如何应对?

  薛澜:任何项新技术要在社会中广泛应用,就须有整套社会技术系统予以保障,包括硬的基础设施和软的制度体系。不妨回顾下汽车的发展历史。汽车刚被发明时,速度不快,影响范围比较小。随着技术不断改进,汽车的速度提升,对好的道路产生需求,要求政府投资修建好的速公路;行驶距离延长又产生了汽车加油的需求,据此政府和市场作逐步建立起加油站网络;但如果开车的人都是“马路手”,事故频出也是很危险的。于是,交通法规、行车驾照考核等制度体系相继出现。

  AI智能体在社会广泛广应用也是如此,我们既要关注像道路、加油站网络这样“硬设施”的建设,也要关注技术标准、管理机制这样“软设施”的进,只有当这些配套体系逐步成熟,技术才能走上安全的发展道路。

  划好安全红线:在“共同知”中进敏捷理

  经济时报:您直倡“敏捷理”,这理念对于当前的AI智能体是否具有现实意义?

  薛澜:人工智能技术发展具有度非线特征,很难通过线思维测其未来形态。我们在企业调研时发现,对于人工智能未来是什么形态、会出现哪些风险,企业本身不是很清楚,政府同样也不清楚。我把这种状态称作“共同知”。

  过去我们谈监管,常将政府比作猫,违反监管的企业比作老鼠,猫的任务是找老鼠、抓老鼠,而老鼠总想着钻空子。大互相范,产生度的信息不对称,很容易陷入大的风险。而且,虽然我们的理体系会尽可能在事前有所预判,但预先把技术应用的所有潜在风险都考虑周全,是非常困难的。

  在这种情况下,政府与企业之间的关系可能需要发生变化。这就需要政府和企业有地作,使我们的理机制具备定的动态适应能力:在技术应用中发现问题,在问题出现后迅速响应,通过规则修订、标准完善和技术优化加以解决。这种在发展中不断优化、不断理的过程就是“敏捷理”。

  经济时报:AI智能体的发展日新月异,对“敏捷理”有没有要求?

  薛澜:从宏观层面看,AI智能体的理逻辑与大语言模型没有本质差异。但不同之处在于,AI智能体进入现实场景,风险类型加多元,也对制度配套提出要求。好的点是,我们并不是从开始,很多域已经逐步建立起完善的法律法规体系。现在要解决的问题是,原来的规制有哪些是理的可以照用,有哪些不理的需要调整。这就要求我们的监管部门提前开展研判评估,对现行法律法规进行系统梳理和动态调整。

  经济时报:对AI智能体,我们是否仍然要坚持“边发展边理”的思路?

  薛澜:我认为广西家具封边胶厂,在现实条件下,这是比较可行的路径。先须划好不可逾越的红线——凡是涉及国安全、生命安全和重大公共利益的域,监管的底线须清晰。但在基本的红线确定后,还是要给予技术充分的探索空间。因为人工智能技术始终处于不断发展、不断变化的过程中,我们只能是在发展的过程中,不断捕捉新问题、解决新问题。“敏捷理”也是希望尽可能缩短从出现问题到理响应的时间差。因为技术发展的速度定是比制度变革的速度要快的,在人工智能域是这样。

相关词条:设备保温     塑料挤出机厂家     预应力钢绞线    玻璃丝棉    万能胶厂家

产品中心

热点资讯

推荐资讯