人民日报出版社主管 人民周刊杂志社主办

010-65363526rmzk001@163.com

校准人工智能发展的价值罗盘

苗大鹏    2026-01-15 10:07:49    《人民周刊》

人工智能浪潮奔涌,已深度融入千行百业,走进千家万户。在提升工作效率、革新教育模式、优化生活品质等方面释放出巨大潜能的同时,也对人们的价值观念带来深刻影响。据中国互联网络信息中心发布的《生成式人工智能应用发展报告(2025)》显示,我国生成式人工智能用户规模已达5.15亿人,其中,“利用生成式人工智能产品回答问题”功能的用户最广泛,达到80.9%;从用户年龄结构来看,中低龄用户是主要使用群体,40岁以下的青年群体约合占比74.6%。这进一步凸显坚持“以人为本、智能向善”原则的重要性。展望新征程,党的“十五五”规划建议强调人工智能的战略意义,并着重指出要“加强人工智能治理,完善相关法律法规、政策制度、应用规范、伦理准则”,以确保其发展安全、可靠、可控。这为校准人工智能巨轮的航向,使其始终沿着主流价值的航道破浪前行提供了行动指南。

算法的“精准投喂”在有效提升效率的同时,却也在无形中筑起信息的回音壁,偏好导向的推送机制不断强化个体认知的固有边界,使视野趋于窄化。与此同时,技术滥用的暗流悄然涌动,借助生成式人工智能工具炮制的虚假信息与偏见编排的谣言屡见不鲜,它们不仅扰乱了公共舆论场的正常秩序,更对主流价值的清晰传导构成了严峻挑战。

算法偏差与数据鸿沟的叠加机制加剧“信息茧房”。算法根据用户的浏览历史、点击行为、社交互动等数据构建精准的用户画像,通过协同过滤、内容推荐机制不断推送符合用户偏好的信息,同时将与用户观念相左的信息排除在外。而数据鸿沟的扩大效应则进一步强化了这一过程。老年人、语言弱势群体、文化弱势群体在互联网中活跃程度不高,这也使得算法无法轻松获取这些人的大量数据,客观上导致人工智能在进行“决策”时会忽略这类群体的立场。长此以往,用户会不自觉地认为自己的认知就是真正的事实,导致其接受信息的领域严重受限。

虚假信息泛滥扰乱舆论环境。人工智能技术能够快速生成大量看似真实的文本、图片、音视频内容,其中不乏虚假新闻、伪造的专家观点及虚构的事件报道等,但因其内容往往在语言风格、逻辑结构上与真实信息高度类似,导致真假信息在形式上难以区分,无形中增加了公众辨别真伪的难度。如此造成的信息污染扰乱了良好的舆论生态,很大程度上影响主流价值的传递。例如,《生成式人工智能应用发展报告(2025)》就提到,生成式人工智能大模型的价值观受到其开发者和训练数据的影响,可能导致模型价值观存在偏见,抑或是不符合用户当地的地域文化特征,从而带来不良影响。又如,香港青年协会青年研究中心发布的《生成式AI时代下的就业与挑战》研究报告也提到,“受访青年认为生成式AI广泛应用的风险主要是虚假信息问题”。

当前,要将“以人为本、智能向善”的原则真正转化为人工智能系统的内在逻辑与行为准则,仍面临多重现实挑战。比如,伦理原则向技术规范转化的操作性困境。人类的价值观和伦理规范是复杂且高度依赖情境的,而将其转化为机器可识别、可计算的技术参数本身就极为困难,如同用数学模型来定义和表达“公平”“正义”等伦理范畴通常就显得片面和偏颇。又如,现有法律法规和政策制度等在确保人工智能系统符合主流价值观方面需要进一步完善。虽然先后出台了《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等法律法规,也要求AI服务遵守社会主义核心价值观,但伦理规范在实践层面的具体落实机制有待进一步加强。客观而言,道德、伦理要素的抽象性加剧了算法的模糊性,大大提升了将社会主义核心价值观等价值要求转化为具体算法代码的难度。再如,部门间的联动不足使得人工智能治理在价值导向上难以迅速达成共识。当前,各部门在价值理念上存在差异,难以在人工智能治理方面形成协调一致的价值观。这种碎片化治理模式使得“以人为本、智能向善”的原则在具体实施中难以得到有效贯彻,影响了人工智能发展的价值统一。

因此,构建一套能够融通伦理与技术、衔接法律与标准、统筹部门与社会的治理框架是确保人工智能技术始终服务于增进人类福祉这一根本目标的战略必需。这要求我们以系统思维破解碎片化难题,让人工智能的创新发展与社会主流价值观的弘扬同频共振,为智能时代夯实价值根基。

通过系统化的机制设计,使社会主义核心价值观从理念层面有效嵌入技术研发、应用与治理的全链条,实现价值理念与工程实践的贯通。首先,在技术设计的底层逻辑上,需将社会主义核心价值观转化为可计算、可执行的技术参数与算法约束。这要求超越抽象的原则宣示,通过具体的技术编码使伦理要求具象化。其次,构建“政府引导、行业联动、高校支撑”等多元参与的生态体系。比如政府在出台政策层面要求平台企业在算法设计中纳入公平、向善的价值考量;在行业层面需强化企业的社会责任,将价值观延伸至技术创新的全过程之中;在高校层面应加强科技伦理教育,培养兼具技术能力与价值判断能力的复合型人才,等等。再次,在操作层面推进人机协同,明确人类与智能系统在决策过程中的角色定位与权责边界,落实价值判断这一关键。

确保技术进步与价值规范同频共振,需构建一个兼顾发展与治理、硬法与软法在内的综合性治理体系。其一,加强专项立法。前不久施行的《人工智能生成合成内容标识办法》规定,对生成合成内容要添加显著标识,这对提升我国人工智能安全治理水平具有重要意义。但与此同时,高新技术的发展日新月异,规则在客观上滞后于技术的发展。因此要加快人工智能专项立法进程,特别是针对生成式人工智能等前沿领域,可优先制定“小切口、快节奏”式的行政法规,为未来制定综合性人工智能法律积累经验。其二,健全伦理治理框架,将“以人为本、智能向善”原则嵌入技术全生命周期。例如,在算法设计层面,坚持主流价值导向,优化算法推荐机制,积极传播正能量,防止算法偏见和歧视,避免设置诱导用户沉迷、过度消费的类型。其三,提升主体素养与参与感,培育社会公众的思辨能力和数字素养。通过教育引导和组织开展相关主题活动,讲清人工智能的应用逻辑和潜在风险,不断提高公众客观全面看待人工智能、自觉抵制不良信息的能力。同时,也要强化高质量内容供给,针对意识形态安全等关键领域,系统性地创作和推送符合主流价值观的优质内容,借助人工智能技术打破“信息茧房”,更好引导舆论。

破解“技术超前、治理滞后”的状况,需要从顶层设计、制度架构、要素配置到激励约束进行系统性革新。其一,加强战略层面的统筹规划是凝聚共识的前提。成立跨领域、跨部门的协调机构,动态调整部门权责配置,对跨部门人工智能项目实行全生命周期管理,明确责任清单与共担机制,以解决治理碎片化问题。其二,积极探索针对算法偏见、伦理失范等风险的动态监管工具,如开发统一标准的风险评估模块和合规检测算法工具包,使基层部门的治理实践能与国家规范有效衔接。其三,强化要素支撑与能力建设,培育价值践行土壤。比如在数据与算力资源上,需完善数据要素市场化配置机制,探索数据确权与流通规则,避免因资源垄断加剧数据鸿沟。此外,还需进一步提升公众的数字素养与伦理意识,使其能够理性参与人工智能治理,为价值导向的落实培育深厚的社会土壤。例如2025年5月,教育部发布《中小学人工智能通识教育指南(2025年版)》,通过知识、技能、思维与价值观的有机融合,形成四位一体人工智能素养。

[作者为紫荆学院教研处讲师,本文为2025年度紫荆学院内部课题(编号:2025KTN004)的阶段性成果]

 

(《人民周刊》2025年第23期)

(责编:张若涵)

相关热词搜索:《人民周刊》2025年第23期

上一篇:加紧培育壮大新动能(权威访谈·开局“十五五”)
下一篇:生成式人工智能的意识形态安全挑战与应对

人民周刊网版权及免责声明:

1.凡本网注明“来源:人民周刊网”或“来源:人民周刊”的所有作品,版权均属于人民周刊网(本网另有声明的除外);未经本网授权,任何单位及个人不得转载、摘编或以其它方式使用上述作品;已经与本网签署相关授权使用协议的单位及个人,应注意作品中是否有相应的授权使用限制声明,不得违反限制声明,且在授权范围内使用时应注明“来源:人民周刊网”或“来源:人民周刊”。违反前述声明者,本网将追究其相关法律责任。

2.本网所有的图片作品中,即使注明“来源:人民周刊网”及/或标有“人民周刊网(www.peopleweekly.cn)”“人民周刊”水印,但并不代表本网对该等图片作品享有许可他人使用的权利;已经与本网签署相关授权使用协议的单位及个人,仅有权在授权范围内使用图片中明确注明“人民周刊网记者XXX摄”或“人民周刊记者XXX摄”的图片作品,否则,一切不利后果自行承担。

3.凡本网注明“来源:XXX(非人民周刊网或人民周刊)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

4.如因作品内容、版权和其它问题需要同本网联系的,请在30日内进行。

※ 联系电话:010-65363526 邮箱:rmzk001@163.com