您好,欢迎进入u8国际电动伸缩门有限公司官网!
u8国际|u8国际官方网站|u8国际网址最新

联系我们

邮箱:youweb@admin.com
电话:@HASHKFK
地址:广东省广州市番禺经济开发区 在线咨询

u8国际常见问题

U8国际- U8国际官方网站- 体育APP下载薛澜|全球视野下的人工智能治理——挑战、机制与未来路径

发布日期:2025-07-21 19:15 浏览次数:

  u8,u8国际,u8国际官方网站,u8国际网站,u8国际网址,u8国际链接,u8体育,u8体育官网,u8体育网址,u8注册,u8体育网址,u8官方网站,u8体育APP,u8体育登录,u8体育入口

U8国际- U8国际官方网站- U8体育APP下载薛澜|全球视野下的人工智能治理——挑战、机制与未来路径

  近年来,随着人工智能技术的快速发展,人工智能的治理问题也越来越受到社会各界的广泛关注。人们逐渐意识到,人工智能不仅是一项前沿科技,更是一种深刻影响社会结构、经济体系和全球治理格局的系统性力量。因此,如何在推动人工智能技术创新的同时建立起科学有效的治理机制,已成为当前技术政策研究与实践的核心议题。2025年4月25日,习在主持中央政治局集体学习时指出,人工智能带来前所未有发展机遇,也带来前所未遇风险挑战。他强调,要把握人工智能发展趋势和规律,加紧制定完善相关法律法规、政策制度、应用规范、伦理准则,构建技术监测、风险预警、应急响应体系,确保人工智能安全、可靠、可控。习的重要指示为我们完善人工智能治理提供了重要的努力方向。

  然而,在现实语境中,人工智能治理仍存在一定程度的认知误区。一种较为典型的观点认为,人工智能的发展和应用仍在初始阶段,此时提出治理问题可能会过早地对技术创新形成不必要的束缚。本质上说,这样的看法一方面低估了人工智能技术给社会可能带来的风险和危害,另一方面,也低估了治理机制在引导和塑造技术发展过程中可以起到的关键能动作用。事实上,治理并非创新的对立面,而是实现人工智能健康、有序、可持续发展过程中不可或缺的制度性支撑。

  当前人工智能技术生态系统的核心特征,正在由“工具集成”向“平台统摄”发生根本转变。在早期,人工智能主要以特定应用程序或算法模型的形式存在,具有高度专业化、碎片化的特征。而近年来,伴随大模型(Foundation Models)与多模态架构的发展,人工智能逐渐形成以平台为中心的生态格局。以Open AI、Anthropic、Google、深度求索、字节、百度、阿里、智普等企业开发的平台型人工智能体系,不仅整合了算法模型、数据资源和计算能力,而且通过API接口、插件机制和多边生态合作,逐渐形成集研发、部署、服务、用户交互和治理于一体的完整系统。这种生态结构的重构,使得人工智能不再是单一的技术工具,而成为一个能够持续学习、适应与演化的系统性存在。平台化带来了生态外部性与路径依赖的风险,也对治理提出了前所未有的复杂要求。

  2025年可以被视为人工智能体(AI Agent)发展的关键节点。年初,Open AI推出了名为“Operator”的智能体系统,标志着人工智能从“被动响应式模型”向“主动任务执行系统”的加速转型。这类系统不仅能够执行复杂任务,还具备调度其他模型、记忆上下文信息并与用户持续交互的能力,具备了一定的“类自主性”。与此同时,国内企业也在积极布局。例如,智谱在智能体技术路径上持续探索,推出了能够完成多轮交互、任务拆解与执行的自主智能体,形成了从通用模型到垂直智能体的初步生态链。这一趋势表明,智能体不仅是技术演进的自然延伸,更是平台间竞争的新赛道。

  大模型之间的竞争态势也在不断变化。自2022年以来,针对通用大模型能力的评估框架迅速发展,包括MMLU(Massive Multitask Language Understanding)、Hella Swag、GSM8K和GAOKAO Bench等在内的多项基准测试被广泛使用。不同测试标准常导致模型表现排名的变动,但总体来看,Open AI的GPT系列、Anthropic的Claude以及Google旗下DeepMind的Gemini系列在综合性能上依然领先,国内大模型如GLM、通义千问、百度文心、深度求索等则在特定场景(如中文处理、文档问答)中表现优异。

  (2)政策支持与市场激励维度——治理不仅是限制,更是塑造和激励。政府可以通过财政投入、研发资助、基础设施建设、人才政策与公共采购等方式,为人工智能创新提供制度土壤。同时,也需要通过反垄断政策、数据共享机制、中小企业扶持等手段,维护技术创新生态的多样性与可持续性。例如,2017年发布的中国《新一代人工智能发展规划》提出以“三步走”战略推动人工智能产业发展,强调国家主导与企业协同的创新路径。这是一种典型的政策驱动型治理结构,具有较强的系统组织能力与资源整合能力。

  人工智能恶意使用的风险目前已经比较常见。2023年,英国某知名公司遭遇一起令人震惊的深度伪造诈骗案件。该公司位于香港的一位员工应公司“上级”的邀请参加视频会议,并根据对方指令将约2亿港元汇入多个账户。事后调查发现,除该员工本人外,所有“参会者”皆为由生成式人工智能所合成的虚拟影像,通过深度伪造(Deepfake)技术逼真模拟真实的声音与面貌。这一事件凸显了生成式人工智能在欺诈应用中的巨大风险,传统的语音、视频验证机制在此类情况下几乎失效。从治理角度看,如何在制度层面防范生成式人工智能被恶意利用,亟需得到更高优先级的回应。

  人工智能技术失灵比较典型的情况就是所谓“幻觉”(hallucination)的产生,即模型生成与客观事实不符,甚至完全虚构的信息内容。这在很多对准确性要求很高的应用场景来说至关重要。例如,近年来不少律师事务所尝试将GPT等模型用于法律案件梳理与检索,但结果并不理想。最著名的案例之一是2023年美国某律师在提交诉状中引用了数个根本不存在的“判例”,经查这些判例均由人工智能编造,导致法院当庭指责该律所严重失职。目前包括美国律师协会在内的多个行业协会已发出预警,要求在法律实践中使用人工智能辅助时必须设立严格的验证机制。

  人工智能带来的系统性风险包括对就业、知识产权、社会认知等方面的影响。当前最受关注的风险之一,是生成式人工智能与现有版权保护机制之间日益凸显的冲突。2023年底,《》起诉Open AI和微软,指控其在未经授权的情况下将大量新闻内容用于大模型训练。这一案件触及人工智能治理中极为复杂的议题,包括训练数据的知识产权归属问题,“合理使用”边界如何在训练场景中界定,以及模型生成结果是否构成“衍生作品”等。尽管该案件尚未审结,但已经促使多国监管机构重新审视人工智能与版权之间的关系。

  在上述三类风险中,人类社会面临的最大潜在风险就是技术失灵中的最可怕的失控情况,亦即当人工智能发展到通用人工智能(AGI)或超级人工智能(ASI)的阶段,人类丧失对其控制权。早在1950年,人工智能奠基人图灵就在《Mind》期刊发表的经典论文中提出“child-machine”的构想,预见了人工智能可能具备自我学习与自主演化的能力(Turing, 1950)。机器将通过实验学习不断优化自身,行为结果并不完全由人类预设。今天,图灵这一预测似乎正一步步成为现实。随着人工智能系统拥有代码生成、自我优化甚至模拟人类行为的能力,其“不可预测性”日益显现。牛津大学Bostrom(2014)提出“价值锁定(Value Lock-in)”风险,即早期设计的不完美目标函数可能在AGI中被永久嵌入,带来不可逆的灾难性后果。因此,可控性问题已成为人工智能风险治理领域的最核心问题之一。

  由此引发的一个根本性治理问题是:当人工智能技术发展到某一阶段,是否应该有“暂停”的选项?在生命科学领域,伦理底线的设立已较为成熟。例如,人类胚胎编辑、克隆等研究方向已在国际上形成广泛共识,不少国家设立了明确禁区。人工智能是否也应设定类似的“伦理红线”? 近年来,该问题的紧迫性与争议性显著上升。2023年,超过1000位人工智能专家与科技领袖联合签署《暂停大型人工智能实验公开信》,呼吁对超过GPT-4级别的人工智能系统实施“自愿性开发暂停”,以等待社会共识与治理机制的建立。这一行动虽颇具争议性且在现实中难以实施,但也凸显出科技界内部对于“不可控风险”的现实焦虑。

  人工智能治理的目的,不仅是“应对风险”,更重要的是塑造人工智能的社会-技术系统(socio-technical systems)、支撑相应的制度架构的协同演化,并最终形成一个兼具创新性、安全性与公平性的社会应用生态。正如哈佛大学肯尼迪政府学院科学技术学教授Sheila Jasanoff所指出:技术并非价值中立的工具,它始终承载着规范、制度与权力结构,并在社会实践中被再生产与不断重塑(Jasanoff, 2004)。因此,人工智能治理的意义,绝不仅仅是画出“禁区”,更在于铺设“通道”和“轨道”。技术从来不是“拿来即用”的工具。任何人工智能系统的成功部署,必然依赖于其与社会制度、法律规制、基础设施和文化环境的深度耦合。这就是“社会技术共构”的基本逻辑。

  一个典型的例子是公路交通系统。从汽车技术诞生到广泛普及,人类社会配套建设了道路网络、交通信号及交规体系、驾照制度、保险机制、加油与维修网络等一系列技术及社会运行机制,来保障让汽车真正成为一种社会生产与生活系统的组成部分。长远来看,人工智能的发展同样需要经历一场复杂的“社会适配”过程。无论是医疗、教育,还是政务领域的人工智能应用,其有效落地都依赖于数据治理、伦理审查、接口标准、责任认定等制度要素的协同支撑。这些制度性安排本身,即构成了人工智能治理不可或缺的一部分。以医疗场景为例,即使人工智能系统的诊断准确率优于医生,其应用仍需满足如下治理条件:(a)明确的数据隐私合规机制;(b)医疗责任归属的法律认定;(c)医患之间的信息透明;(d)医保报销政策的对接。虽然在底层算法与模型结构上,人工智能已取得显著进展,但其“落地”往往滞后于技术本身。其根本原因之一,就在于缺乏“场景级治理配套”。如果缺乏这些制度安排,人工智能再先进也难以获得信任和合法性。因此,治理不仅是防范风险的“保护性屏障”,更构成了推动人工智能融入现实社会的“适应性基础设施”。

  除了风险防控和社会建构,治理还担负着人工智能产业市场塑造的功能。人工智能的治理深刻影响市场的形成与演化路径,具备“产业塑造”与“竞争调控”的重要作用。首先,准入门槛的设定直接决定了哪些企业有机会参与人工智能产业的发展。例如,如果高风险人工智能系统必须满足严格的测试认证要求,中小企业可能因合规成本过高被排除在市场之外;反之,则可能引发“劣币驱逐良币”式的无序竞争。同时,人工智能发展中也面临典型的“路径依赖”风险。一旦特定的模型架构、数据资源或工具链取得先发优势,就可能在非最优技术路线上造成事实性的“平台锁定”。因此,有效的治理手段可以通过技术标准开放、公共算力共享、基础模型开源等,来避免路径锁定的问题。

  实现人工智能治理的三重功能——风险防控、社会建构与市场塑造,离不开政府、企业与社会多元主体的协同共治。政府不仅是监管者,更是市场塑造者;企业不仅是人工智能技术创新的领先者,也是人工智能治理的前沿实践者;而社会各界既是人工智能技术的使用者,也是推动其治理理念生根落地的重要力量。只有政府、企业和社会摆脱传统的“猫鼠博弈思维”,转向协同治理和敏捷治理的思路,方能在推动技术广泛应用的同时不断优化治理体系,在制度演进中实现技术创新与社会价值的协同共生。

  各国在人工智能技术发展路径上的差异,不仅表现在技术选择和应用重点上,也体现在对“何种风险应被治理”的认识上存在本质分歧。例如,2024年初,国产大模型DeepSeek在国内引起业界广泛关注,其在搜索增强、中文语义建构与推理能力方面突破显著。这一新路径的发展,也带来治理工具如何适配的现实问题:是否要对具备高能力的国产大模型施加与国外头部模型相当的评估要求?是否要对中文训练语料设定特殊保护机制?这些问题的回答,在不同国家政策中并无统一方案。这说明,全球治理机制之间需要互相学习,互相借鉴,也需要在“原则一致”与“路径多元”之间找到合理平衡,避免以一种技术范式凌驾于他国实践之上。

  人工智能技术发展呈现指数型演进,而治理体系的演进则普遍存在滞后与碎片化现象,导致出现典型的技术发展与技术治理之间的步调不一致。监管政策的制定、立法程序、标准建设等过程均具有特定的周期性与协商性等特征,很难与技术迭代的速度实现同步对接。例如,Open AI发布GPT-4不到半年,国内外即有多款对标模型上线,但多数国家对大模型的法律分类、数据使用边界、能力管控机制仍未落地。在此背景下,“边创新边治理”“沙盒实验”与“敏捷治理”成为现实可行的治理方式。OECD提出的“灵活监管”(Agile Regulation)理念就强调,应以适应性制度嵌入快速演进的技术环境,建立“监测—评估—调试—再立法”的周期型治理流程。

  当前最为严峻的全球治理障碍,是地缘政治冲突对人工智能合作形成的壁垒。原本可以在技术、伦理、标准等层面展开广泛合作的人工智能治理议题,越来越多地被纳入战略博弈的框架之中。例如,从技术与成本角度来看,通用人工智能(AGI)的开发可以效仿国际热核聚变实验堆(ITER)项目的方式,由全球主要国家共建联合实验室,在统一的伦理与安全机制下推进,既可以分摊成本,也可以更好地管控风险。然而,现实却是,AGI 的研发逐渐演变为少数国家主导、大型科技企业牵头的“竞赛型项目”,而全球协同开发与风险共担的路径,在当前地缘紧张格局下,几乎已成为“天方夜谭”。再如开源模型领域,Meta的LLaMA系列与深度求索的Deepseek,其开放性促进了中小企业和社会广大人群采用人工智能技术的积极性。然而,美国部分政策推动限制高参数量模型开放的门槛,同时警惕其被所谓“对手国家”利用,凸显出开源闭源这一商业决策的行为本身也被政治化。在国内,亦有声音担忧全面开源可能削弱技术壁垒、加剧成果外溢,使得本来是企业策略的开源闭源选择被镶嵌进了国际竞争的制度博弈中。

  面向未来,我们可以清楚地看到,人工智能治理如果失去合作性,将无法应对跨境风险;如果失去包容性,将加剧“智能鸿沟”;如果失去合法性,将削弱公众信任。正因如此,人工智能治理必须回归到全球合作的正确轨道上,形成将人工智能治理作为“全球公共产品”的全球共识和制度认知。所谓公共产品,指的是具有“非排他性”与“非竞争性”的公益性产品或服务,而这恰恰就是人工智能治理的本质。与气候安全、国际和平、数字互联等全球性公共产品一样,人工智能治理给国际社会带来系统安全性、公平性与风险防范能力,是全世界所有国家的所有人都应当平等享受的权利。因此,为了改善人工智能的全球治理,国际社会应该采取如下措施:

  人工智能正处于从“工具型技术”向“生态型技术”转型的历史拐点。从早期的算法突破与模型演进,到当下的平台构建与场景深度融合,人工智能技术正在日益嵌入人类社会的运行机制之中。与此同时,其潜在风险亦呈现出更复杂、更系统化、更难预测的特征,深刻挑战现有的治理能力、制度设计与国际协调体系。因此,人工智能的治理并非人工智能技术发展的附属议题,而是与人工智能技术共同进化伴生的“制度生态构建工程”。治理的任务既要面向“安全风险管控”,也要着眼“社会结构塑形”,更要推进“市场机制构造”,只有三者同步协调发展,才能真正保障人工智能以安全、可信、公平的方式造福全人类。

联系方式

全国服务热线

@HASHKFK

手 机:@HASHKFK

地 址:广东省广州市番禺经济开发区

扫一扫,加微信

Copyright © 2002-2024 u8国际电动伸缩门有限公司 版权所有 非商用版本 备案号: