您好,欢迎进入u8国际电动伸缩门有限公司官网!
u8国际|u8国际官方网站|u8国际网址最新

联系我们

邮箱:youweb@admin.com
电话:@HASHKFK
地址:广东省广州市番禺经济开发区 在线咨询

u8国际常见问题

人工智能的U8国际- U8国际官方网站- 体育APP下载社会技术想象与话语封闭——基于中美欧媒介协同治理体制的话语网络分析

发布日期:2025-06-08 01:10 浏览次数:

  u8,u8国际,u8国际官方网站,u8国际网站,u8国际网址,u8国际链接,u8体育,u8体育官网,u8体育网址,u8注册,u8体育网址,u8官方网站,u8体育APP,u8体育登录,u8体育入口人工智能的快速发展使其能够将人、机器、物体等各种事物紧密联结,形成万物互联的社会形态,扮演愈发关键的媒介角色。但各国如何理解、塑造和治理人工智能的媒介应用还有待分析。本研究采取话语网络分析法,以中美欧的人工智能治理政策为研究对象,从协同治理体制的结构和权能配置两个方面分别提炼人工智能社会技术想象的想象内容、主体关系及建构逻辑。研究发现:各国治理目标和治理主体均存在一定差异,面临不同的话语封闭问题。这也说明人工智能协同治理是一种主观的政治决策。为了避免人工智能的社会技术想象因话语封闭而陷入科林格里奇困境,本文认为,我国可以通过观察他国的治理体制,在立足自身国情的基础上,丰富人工智能社会技术想象的内容、促进想象主体的多元化。

  近年来,以大模型为代表的人工智能技术,将人类社会带入到万物互联的新传播图景中。一方面,人工智能可以搜集和使用人、时空、机器、环境等多模态的数据信息,显著提升人类社会的信息生产效率(李卫东,2020;Bilquise,Ibrahim & Shaalan,2022)。另一方面,人工智能也可以提供沉浸式、针对性的传播方式,增强人类的认知水平(Teubner et al.,2023)。这意味着,人工智能的媒介属性及媒介作用愈发凸显。

  学者肖恩·奥·修克鲁(Sean O Siochru)和布鲁斯·吉拉德(Bruce Girard)提出“媒介治理”的概念,认为媒介治理是对媒介进行系统化管理、监督和控制的过程,能维护社会稳定、保护公众利益、促进媒介发展,也是适应数字化时代的必要举措(Siochru,Girard & Mahan,2002),需要政府、企业、社会组织和公众的共同参与(Birkstedt et al.,2023)。然而,人工智能治理面临先验经验不足、技术理解困难、监管资源有限等困境(金永生,张昕,师胜男,2022;Koniakou,2023)。各国虽都已认同并陆续提出人工智能协同治理的理念,但大多还停留在国家战略的宏观层面(陈凤仙,连雨璐,王娜,2024),对治理目标和主体的诠释尚显不足(Van Noordt,Medaglia & Tangi,2023)。这导致各国关于人工智能应该如何设计、如何应用、如何管理的问题产生了不同的想象。这些想象是否契合公众的期待、能否给予人工智能治理有效的指导还有待验证。

  社会想象是人们想象社会存在的方式,涵盖与他人的相处模式、社会运行机制、发展预期,及其背后深层的规范和意象(Taylor,2003)。“社会技术想象”概念建立在人们日益认识到“想象”是一种重要意识形态资源的观点之上。学者Sheila Jasanoff和Sang-Hyun Kim(2009)最早提出这一概念,认为社会技术想象及据此制定的政策,不仅会影响技术设计、公共支出分配,甚至能够决定公民能否享受该技术进步带来的利益。

  政策能在持续的社会实践中得到公众的确认和认可,阐明什么是好的、可取的和值得实现的技术愿景,可以被理解为“社会技术想象”的具象化。“社会技术想象”也可以被理解为对未来社会和技术发展的前瞻性预测,是由权力建立、实施并加以制度化的国家战略或政策文本所体现的价值观(Mager & Katzenbach,2021),能够为政策制定提供思路和方向。因此,社会技术想象与技术治理体制是理念与实践、抽象与具体的关系(Jasanoff & Kim,2015:33)。

  但社会技术想象并不总是发挥积极的指导作用。想象作为一种认知资源,是权力争夺的对象,且通常是隐蔽、无意识的,甚至是可纵和形塑的。社会技术想象的想象主体并不局限于政府,也可以是企业、社会组织、公众(Vicente & Dias-Trindade,2021)。这意味着在同一技术的想象的竞逐中,那些由强大机构支持的愿景往往能够轻易取得突出地位,而少数群体的认知往往会被现有的权力结构所束缚,并体现为无条件的认同。这不仅会窄化技术应用的视野和探索创新的可能性,还可能引发对技术应用的误解或不当操作(Ruppert,2019)。

  Annette Markham(2021)将“某些观点、话题因权力结构、社会规范、话语霸权等社会因素而无法进入主流讨论范围”的现象称为话语封闭。权力机构通过操控社会技术想象,塑造“正常”和“异常”的界限,能够在无形中规训社会公众。这不仅能达到社会控制和维护权力的目的(Markham,2021),还可能引发立法滞后、过度监管、伦理和社会价值考量不足等治理问题(周媛,张晓君,2023;Cath,2018),对其他国家的治理体制造成影响。因为当一个国家在某些技术领域占主导地位时,就可能迫使其他国家不得不适应自己提出的技术规范标准,顺从其提出的社会技术想象及想象的建构逻辑(Leonardi & Jackson,2004)。

  有研究通过解析微信公众平台中多元话语行动者对ChatGPT的想象发现,人工智能的社会技术想象承载着智能时代人们对现实的不满、未来的期待及弱抵抗的自我表达(高鑫鹏,李娜,2023)。有研究通过对25位ChatGPT用户和非用户的深度访谈发现,普通人往往因其外行身份和缺乏紧跟技术潮流的意识,日益丧失对技术想象的参与度和获得感(谭小荷,2023)。也有研究通过分析奥地利官方媒体对人工智能的报道发现:奥地利对人工智能的社会技术想象主要集中在政治影响力、社会舆论、数据资源保护几个方面,互联网平台是这些想象的主要提出者。这种想象将人工智能的风险和责任归咎于技术本身,边缘化了其他参与者的需求、责任与义务(Saurwein,Brantner & Möck,2023)。

  但是当前人工智能社会技术想象的研究存在两个方面的局限:一方面,研究对象或研究方法的限制导致社会技术想象无法被准确呈现。社会技术想象必须是集体讨论和决策的结果,并且经过实践检验(喻国明,苏芳,金丽萍,2024)。换言之,访谈关键参与者、问卷调查、媒体报道的内容分析可能只能展现特定用户群体的技术想象,而无法呈现社会的整体愿景和目标(Rudek,2022)。另一方面,鲜有研究对人工智能的社会技术想象进行跨国比较。尽管跨国比较需要大量的数据分析,但多维度的比较研究更有利于揭示社会技术想象背后的权力分配逻辑,验证其是否存在话语封闭问题并提出应对策略(Sovacool & Hess,2017)。目前,有研究搜集了中国、美国、法国和德国的政策,比较了他们对人工智能社会技术想象的差异。但研究结果仅表明,这些国家之间存在巨大的文化、政治和经济差异(Bareis & Katzenbach,2022)。关于人工智能社会技术想象背后话语封闭的探讨还不够充分。

  为了尽可能全面地搜集政策,本研究根据既有研究梳理的人工智能要素及主要产物,提出政策检索所需的关键词(李白杨等,2023;徐继敏,2023)。包括:“人工智能artificial intelligence”“算法algorithm”“算力computing power”“深度合成deep synthesis”“芯片Chip”“大数据Big Data”。使用这些关键词在上述网站进行标题检索,保留政策文本的全部字段。随后,去除重复的政策文本,初步得到中国44部、美国91部、欧盟22部政策文本。

  信度检验方面,由两位编码员分别对样本政策独立编码。中美欧开放编码的一致性分别为91.18%、93.75%、93.65%。不一致的编码将被集中探讨,最终达成共识。效度检验方面,编码前随机抽取出20%的政策文本留作事后检验。若没有出现新的概念或范畴,证明开放编码已达到理论饱和。经统计,中美欧政策样本中分别提取315、403、330个开放编码(包括治理主体和治理目标)。随后,将表达意义相近的编码进行合并,分别得到55、93、62个主轴编码,用于构建政策话语网络。最后,基于文献综述以及主轴编码的比较分析,得到13、15、14个概念类属,即选择编码,用于分析各国人工智能的社会技术想象及想象主体关系。

  其一,分析中美欧人工智能协同治理的结构体制,提炼人工智能社会技术想象的想象内容及想象主体。协同治理的结构体制可以被理解为,多种治理主体、治理目标通过制度化方式形成的相互协作与制约的互动模式(蒋国宏,宋超,2021:59-60)。分析目标网络的节点类型和节点的特征向量中心度,能梳理治理目标及目标结构。分析主体网络的网络密度、节点平均距离、节点类型及节点的特征向量中心度,能洞察治理主体及主体关系。这是因为特征向量中心度不仅考虑了节点自身的连接数,还考虑了其连接节点的连接数,能准确反映治理目标及治理主体的“影响力”。而网络密度、节点平均距离、节点类型指标,能够在识别出核心治理主体的基础上,进一步揭示它们的协同程度。

  其二,分析中美欧人工智能协同治理的权能配置体制,阐释其想象建构逻辑。权能配置体制是指一个国家或组织中权力的分配和运行机制(向静林,艾云,2023),能够反映每一个治理主体的权力、职能和责任(徐晓林,周立新,2004)。本研究基于治理目标和治理主体的选择编码,统计两者出现在同一政策文本段落中的频次并以表格形式呈现。通过权能配置体制的类别占比分析及跨类别对比分析,能识别协同治理过程中的核心权力主体、边缘权力主体及其各自对应的管理内容,揭示各国权能配置体制中存在的权力冲突、权力失衡、权力垄断等话语封闭现象(郭渐强,袁光,2016),为打破我国人工智能社会技术想象的桎梏和局限提供新思路。

  表1截取了目标网络中特征向量中心度较高的节点,用于分析中美欧各自的治理偏向。中国的目标网络中,中心度较高的节点主要类属于“责任分配”和“伦理规范”,说明中国将治理重点放在人工智能的社会伦理规范及其责任主体上。美国的目标网络中,中心度较高的节点主要类属于“责任分配”和“组织管理”,说明美国遵循协同治理的理念,将治理重点放在不同组织的权能配置上。欧盟的目标网络中,中心度较高的节点较为均衡地涉及“隐私保护”“创新发展”“责任分配”等多个治理目标类型,说明欧盟的治理结构最为均衡,具有较强的稳定性。

  然而,在这种相对一致的想象框架下,中美欧对人工智能的社会技术想象也会因为各自的治理偏向而产生细微的差异。中国认为,人工智能应该是一种可以在既定责任框架内运作,又具有创新发展潜力的公共媒介。人工智能既具备屏蔽信息、过度推荐、操纵榜单或检索结果排序等干预信息呈现的功能,又表现出精准、高效的知识生产能力(张涛,余丽,2022)。为了防止其变成垄断资源、控制用户认知的工具,中国率先在网络新闻、网络舆论等信息传播领域提出特定的伦理规范。同时,政策中明确要求企业平台发挥主观能动性、为用户提供通畅的举报渠道(陈鹏,2019)。这说明中国期望将人工智能打造成服务整体社会的公共媒介。但现有政策中,关于人工智能创新应用的内容较为模糊,缺少具体的奖励标准,显示出中国对如何深化人工智能多场景应用模式的想象还缺乏引导。

  美国认为,人工智能既是一种高危的现代化武器,也是企业争相追逐的专利资产,具有显著的创新价值和商业价值。美国最先在国家安全领域提出人工智能的应用规范标准(Taddeo,McCutcheon & Floridi,2019)。在他们看来,人工智能可用于支持核武器、化学武器或生物武器的开发、生产或使用,并显著增强这些武器的破坏力,必须在国防安全领域建立严格的研发、应用及产品进出口的规范标准。然而,也有一部分观点认为,市场具备一定的自治和调节能力(Roski et al.,2021),政府不应过度干预人工智能的治理,以免扼杀技术创新和市场的自然发展。因此,部分政策中明确限制了政府的监管范围,强调不同企业、研究机构和政府部门之间的沟通机制,还明确指出技术创新可获得的行政便利和财政支持。

  欧盟认为,人工智能应该是一种在尊重和保护个人隐私的基础上,推动技术和社会创新发展的智能系统。欧盟在治理过程中,非常注重人工智能的安全性和可靠性。一方面,在政策中对人工智能企业运营资质提出了一定的考核标准(Fassiaux,2023),期望通过提高行业准入门槛的方式,保障行业自治的有效性。另一方面,欧盟不仅推出了与人工智能研发相关的行政便利措施,还规定企业应定期向员工提供培训和学习的机会。其目的是提升企业员工的专业素养和技能,以确保他们能够安全稳妥地设计、研发、操作和管理人工智能的相关应用。但欧盟目前仅提出人工智能服务的通用性治理标准,缺少适用于专业场景的治理条例,说明欧盟对人工智能的理解和想象更多是理论性和框架性的,缺少实际操作和应用层面的想象(Niet,Van Est & Veraart,2021)。

  表2截取了主体网络中特征向量中心度较高的节点,用于阐明中美欧人工智能协同治理的主体及主体关系差异。中国主体网络中,中心度较高的节点是以工业和信息化部、公安部、国家互联网信息办为主的政府部门,以及行业组织、科研机构等非政府主体。这说明中国治理主体关系是以政府为核心,积极寻求和借鉴产业的实践经验与技术积累,以期能够紧密贴合人工智能的实际应用情况和市场需求。高等院校、科研院所能为政府提供跨学科的研究视野、专业的理论知识、独立的观点,有助于协同治理方案的理论优化和策略完善。这三方共同构成我国人工智能协同治理的核心力量。

  美国主体网络中,企业、高校与科研机构、公众是中心度较高的节点。这表明美国在治理过程中,不仅会参考企业的实践经验,也会赋予科研机构和公众一定的治理权力。这种主体关系能够防止企业为了追求经济效益,利用市场地位或资源优势来压制其他利益相关者,忽视或牺牲一些公共利益(King et al.,2020)。同时,科学、空间和技术委员会等立法机构和独立委员会也活跃于协同治理的过程中,意味着美国意识到“行业自治”的局限性(韩春晖,2022),着力于强化人工智能协同治理的法制建设,旨在维护协同治理的多元性、包容性和公正性。

  欧盟主体网络中,中心度较高的节点大都具有明确的组织身份。这说明欧盟的主体关系相对清晰。观察中心度较高的节点类型发现:欧盟理事会作为立法机构代表,欧洲芯片基础设施联盟作为公私合作体代表,数据利他主义组织作为社会组织代表,以及部分企业代表,都是协同治理的中坚力量。这体现出欧盟不仅会依靠公私合作体的内部协同,还在利用多元主体的外部协同。这种将内部协同与外部协同有机整合的嵌套式主体协同模式,在理论上能够具备更强的复杂性和适应性,可以更快速地应对技术迭代、社会变化、公民需求等现实问题。

  图1—图3分别展示了中美欧的主体网络。对比网络密度和节点平均距离发现,中美欧主体的协同程度也存在差异。中国主体网络的网络密度最高(0.5033)、节点平均距离最短(1.542),证明治理主体间具有极强的相互关联性。但这也可能是因为非政府主体指向性不明确而营造的强互动关系的假象。美国主体网络的节点平均距离最长(2.106),网络密度为0.2105,说明虽然美国治理主体之间存在一些关系紧密的合作群体,但因部分主体(例如独立委员会)表现出较强的独立治理能力,降低了整体网络的协同能力。欧盟主体网络的网络密度(0.1912)是三者中最低的,节点平均距离为1.981,说明尽管欧盟治理主体间的协同频次不高,但存在一些关键的治理主体,能够发挥重要的桥梁作用,提高整体网络的协同能力。

  中国是政府主导的开放式想象主体关系。中国政策中明确提出12个政府部门,其数量优势和网络影响力形成了人工智能协同治理的核心力量。行业组织、科研机构等非政府主体作为高影响力的治理主体的同时,又没有明确的单位指向。这说明中国对人工智能的社会技术想象并不局限于特定的企业或行业组织,而是将多个主体纳入一个广泛的框架内。这种战略上的模糊性,便于不同主体根据自己的利益和立场参与和解读人工智能的社会技术想象,维护这种想象的多样性。

  欧盟采用多主体均衡参与的想象主体关系。欧盟治理主体较多地涉及公私合作体。公私合作体是较为复杂的组织,通常由政府部门、高等院校、企业、行业组织等多种不同类型的单位代表共同组成(Jančiūtė,2020)。通过组织内部的合作协调,公私合作体能够平衡不同群体的利益,提供兼顾人工智能创新发展与有效治理的综合性方案(Rommetveit,Van Dijk & Gunnarsdóttir,2020)。虽然与中美相比,欧盟治理主体的类型较少,但依靠公私合作体这种较为复杂的治理主体,依然保障了社会技术想象的主体多元性。且欧盟的治理主体,大都具有相当的参与度。这再次证明欧盟的人工智能社会技术想象重视各方平等的原则,旨在确保多方利益得到考虑。

  中国人工智能社会技术想象的话语封闭主要表现在以下三个方面:其一,非政府主体的参与性低。美国学者迈克尔·黑勒(Michael Heller)(1998)提出反公地悲剧理论:当一项资源拥有众多所有者时,每个所有者都拥有阻止他人使用的权利,这会导致该资源出现使用不足或无法使用的情况。由于中国政策对“企业、行业组织、各级管理部门、科研所”等主体的描述都较为模糊,使各单位拥有但又难以明确自身的具体职责与义务范畴。这不仅会导致治理主体不作为的消极现象,也会造成社会技术想象的主体失语。其二,治理标准的高度不确定性。作为权威性和强制性的代表,立法机构的缺位会导致其他主体利用自身权力来推动或阻碍某些社会技术想象的发展(胡铭,洪涛,2024)。这在一定程度上加大了治理的不确定性,容易滋生腐败现象,造成社会技术想象的价值偏误。其三,公共利益得不到充分表达。虽然政府在一定程度上能够代表人民利益,但公众缺乏直接参与治理或讨论政策制定标准的途径。同时,企业和科研机构也无法完全代表公共利益(程俊霖,石路,2022)。因此,多元群体的不同诉求可能无法得到充分表达。这同样容易造成社会技术想象无法获得公众的认同,降低人工智能在社会中的使用率和接受度。

  美国人工智能社会技术想象的话语封闭主要体现在以下两个方面。其一,技术发展方向与广泛社会福祉脱节。美国看似构建了多元开放的协同治理体制,但一方面,“企业友好型”及“弱治理”的行业自治模式,使企业拥有更多技术垄断的机会(王彦雨,李正风,高芳,2024)。另一方面,掌控人工智能核心治理权力的依然是少数群体,如立法机构、独立委员会、企业等。这可能导致公众关注的“如何有效利用人工智能服务社会并解决实际问题”的议题被忽视,使社会技术想象的实现受到阻碍或扭曲(赵新峰,程世勇,王治国,2024)。其二,政策与立法滞后。虽然美国认识到人工智能治理的法律建设不可或缺(Ferretti,2022),但社会组织、政府部门、公众的边缘化,可能导致立法机构缺乏足够的市场和社会反馈。这种条件下制定的法规往往难以适应快速变化的现实环境,容易窄化人工智能的应用场景和创新途径。

  欧盟人工智能社会技术想象的话语封闭主要体现在以下两个方面。其一,治理效率和创新动力受限。协同治理过程中,公共科研机构的整体参与度偏低。这可能导致人工智能的治理逻辑更多地依赖短期经验或短期利益,缺乏科学性和前瞻性。同时,政府部门也处于协同治理的边缘位置。因缺乏足够的参与和决策权,政府部门将难以对行政管理流程进行及时的优化和调整,迫使协同治理的整体效率低下(Roberts et al.,2021)。受到这些因素的共同影响,欧盟的人工智能治理可能在技术创新、深化应用方面有所缺失。其二,难以适应复杂多变的场景需求。欧盟较少关注人工智能“产品与应用规范”和“可解释性”的治理目标类型,仅提出适用于人工智能服务监管的通用性规则。这种基础性的规则难以针对具体场景进行情境化、差别化、类型化的指导,容易引发执法困难、处罚不力等管理问题。考虑到人工智能媒介应用场景的多样性和差异化,有必要探索不同场景或专业领域中人工智能的治理标准,进一步丰富人工智能的社会技术想象(Ahmed,Jeon & Piccialli,2022)。

  有学者梳理了社会控制对技术发展的影响,提出技术治理的科林格里奇困境。该理论指出,过早的治理可能抑制技术的正常发展,而技术成熟后,经济体系和社会结构已经对技术产生依赖,技术的治理工作难以开展,甚至面临社会动荡和经济成本大幅增加的困境(Kafaee,Daviran & Taqavi,2024)。换言之,在拟定技术治理的制度前,管理者应该以前瞻性的战略思维审视社会技术想象,不仅要维护社会技术想象的内容多样化,保障技术发展的创新力,也要确保这种想象的主体多元性,以权衡不同群体的利益。

  想象主体方面,立法机构的缺位和公众参与程度低,说明我国需要完善多元主体的参与渠道,确保多方利益能够得到充分表达。面对人工智能媒介应用所带来的生产方式与生产工具的革命性变化,立法机构可以提供明确的行为准则和界限,指导人工智能的社会伦理从道德原则转化为可操作、可预期、可计算的合规实践(李学尧,2024)。其高度的公正性和权威性,也能确保制度公正、明确和可执行性,保障社会技术想象与公共价值相契合。同时,意见表达是现代社会成员的基本自由。社会各界理应做到尊重原子化个体的话语权(于水,徐亚清,姜凯宜,2017)。然而,我国目前主要通过政府部门广泛收集民意。这可能导致部分单位或组织倾向于展示那些与自己利益相符的民意,让少数群体的真实意见被掩盖。对此,我国应当积极构建更加直接且有效的参与渠道,以便立法机构与公众能够融入社会技术想象的塑造过程中,确保不同群体的需求均能得以充分地表达。

  想象内容方面,我国对人工智能“创新发展、可解释性”的两类治理目标类型的关注相对薄弱,说明我国需要丰富与之相关的想象内容,确保人工智能的创新发展动力。创新激励机制是激发人工智能持续进步与深度发展的关键动力(方兴东,2024)。但我国政策大多仅表明,要发展人工智能为引擎的新质生产力,缺乏明确的技术研发或应用的激励标准。这可能造成人工智能创新与社会实际需求、国家长远规划之间产生鸿沟,造成科研资源的低效配置与浪费(沈芳君,2024)。在人工智能可解释性方面:虽然我国提出人工智能“可解释性”的治理目标,但实际相关的文本内容普遍较少。这可能是因为,人工智能缺乏理论逻辑上的可解释性(魏斌,2024)。如何让人工智能在设计、运营、应用的各个环节都能以可解释的方式接受审查、评估和备案仍是一个亟待解决的技术问题。同时,哪些主体有权力确立和掌控人工智能可解释性的标准,也有待商榷。对此,我国应该积极探索人工智能的创新激励机制和可解释性的论证程序。

  通过分析人工智能协同治理体制发现:美国强调企业和公众的利益,追求人工智能的创新商业价值;欧盟倾向于维护多元主体的价值平衡,注重人工智能的安全性和可靠性。但关于人工智能的社会技术想象,美欧依然存在不同的话语封闭问题。因此,我国在探索人工智能的治理路径时,不应直接照搬美欧的治理模式;而是应该立足国内发展需求、自身国情及文化背景,有选择地借鉴他国的人工智能社会技术想象,以期丰富想象内容和想象主体。这种思路既有助于构建契合我国国情、兼具前瞻性和包容性的治理理念,也能够为推动人工智能全球治理体系的完善和发展提供理论指导。

联系方式

全国服务热线

@HASHKFK

手 机:@HASHKFK

地 址:广东省广州市番禺经济开发区

扫一扫,加微信

Copyright © 2002-2024 u8国际电动伸缩门有限公司 版权所有 非商用版本 备案号: