从信息智能到物理智能,再到生物智能,人类应该如何握住AI发展的缰绳?
3月26日,主题为“AI:如何做到应用与治理的平衡推进”的博鳌亚洲论坛2025年年会分论坛在海南BFA国际会议中心举行。来自中国、芬兰、以色列等多个国家的嘉宾进行了讨论。
“智能体的广泛运用,起码让AI的风险高了一倍。”中国工程院院士、清华大学讲席教授、清华大学智能产业研究院(AIR)院长张亚勤指出,智能体具有自我规划、学习、试点并达到自己目的的能力,是强大的技术工具。但在其运行过程中,中间路径不可控。“虽然智能算法并非完全的黑盒子,但很多运行机理人们并不清楚。”他认为,这种未知因素使得风险大幅增加,比如智能体可能在执行任务时出现不可预测的行为,导致无法预估的后果。
AI正从信息智能走向物理智能和生物智能。在这个过程中,随着智能体应用范围的扩大,AI涉及更多复杂的系统和领域,风险也会相应增加。中国科学院研究员,人工智能安全与超级对齐北京市重点实验室主任、联合国人工智能高层顾问机构专家曾毅坦言,人工智能的发展和“安全护栏”的发展并非互相掣肘的关系。
“我们必须将伦理安全作为人工智能大模型发展的基因,作为第一性原理不可违背。”曾毅认为,只有这样,才能在AI技术不断发展、智能体应用不断深入的情况下,保障其稳健发展,降低因技术扩张带来的各类风险,确保人工智能始终服务于人类的利益。
不过,由于技术的复杂性,在全球范围内人工智能缺乏统一的治理机构和协议。经济合作与发展组织全球关系与合作主任,经合组织七国集团、二十国集团和亚太经合组织协调人绍尔认为需要开发相关标准并在联合国进行讨论,让各国充分发表看法。“我们应该要开展利益相关方对话,促进公共部门和私营部门合作,考虑用户需求。”他说,人工智能的“安全栏”应该使人们在享受AI带来好处的同时,自身也具备相应的智能,适应人工智能发展。
从经济学角度切入,中国社科院大学教授、国务院原副秘书长江小涓指出,过去十年AI治理原则“落地有限”。“技术是否被社会接受,取决于生产力提升与公平分配两大标准。”她表示,AI对就业和分配的冲击需通过社会保障政策缓解,而非空谈“包容性”。
对于中国大模型DeepSeek的开源,江小涓认为DeepSeek最大贡献在于打破垄断:“当AI从寡头游戏变为充分竞争的市场,许多问题会通过自发秩序解决。”
想要建立AI的“安全围栏”,需要技术、市场、政策、伦理的多轨并行。无论是“全球标准”还是“本地实践”,最终目标仍是让AI服务于人,而非凌驾于人。“让AI能力和AI安全一起稳定地发展,这才是我们想要看到的。”曾毅说道。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com