近年来,伴随深度学习、大模型等人工智能技术日益成熟,算法和海量数据、云计算、传感器网络关联在一起,成为社会的“数字底座”。
9月5日至8日,2025世界智能产业博览会在重庆举办。本届博览会聚焦“人工智能+”和“智能网联新能源汽车”两个主题,集中展示了人工智能科技创新与产业创新深度融合等方面的最新成果。图为观众在博览会上参观体验电动空中出租车。 新华社记者 唐奕/摄
从应用广度与深度来看,算法已实现从简单的逻辑运算向深度学习、生成式人工智能的跨越。在社会生产领域,算法广泛应用于自动驾驶仿真测试、工业互联网优化等环节;在数字文化领域,基于用户画像的“算法分发”成为主流,生成式人工智能重塑内容生产模式,实现从辅助创作到自主生成的转变;在公共治理领域,算法嵌入行政决策与资源分配,如智慧城市的交通调度、公共服务的精准匹配,极大提升了治理效能。同时,算法技术也表现出显著的“权力化”与“黑箱化”特征,演变为一种新型权力。它通过代码设定标准、分配资源、评价个体,具有了事实上的规制力。随着深度学习技术的进步,算法的决策逻辑日益复杂,呈现出“不可解释性”和“不可预见性”,即便是开发者也难以完全洞悉神经网络内部的决策路径。这种技术上的“黑箱”导致监管的穿透难度加大。此外,算法还具有动态演化性,其在投入使用后仍会通过与用户数据的交互不断自我迭代,打破了传统技术静态验收即合规的监管逻辑,使其行为后果具有高度的不确定性。
算法在提升运行效率的同时,也暴露出算法歧视、“信息茧房”、诱导沉迷等现象,这些问题本质是算法技术对人的主体性与数字权利的深刻挑战,是技术理性与人文价值冲突的集中爆发。
关于算法歧视,这并非简单的代码错误,而是历史偏见与数据偏差的数字化投射。算法通过对历史数据的学习,往往继承甚至放大了既有的社会不公。例如,在信贷审批、招聘筛选等场景中,算法可能基于种族、性别等特征进行隐性打压。更深层次的歧视体现为“机会剥夺”,即算法通过自动化决策将特定群体排除在优质服务或发展机会之外。这种歧视往往隐蔽于复杂的数学模型之下,受害者难以察觉,更难以举证,导致有的实质上的社会不平等被技术外衣合法化。“信息茧房”与诱导沉迷,反映了算法不当应用对人类自主选择能力的侵蚀。商业平台为了吸引注意力,利用算法“轻推”甚至操纵用户的认知与行为。通过高频次的精准推送,算法构建了用户的决策架构,利用人性的弱点如对即时满足的渴望瓦解人的自律,让用户在不知不觉中丧失了信息选择的主动权,被禁锢于同质化的信息回音室中。这不仅导致认知的狭隘化,还在更深层面上造成人的“客体化”——人不再是具有独立思考能力的主体,而是变成各类互联网平台可预测、可操控的数据节点和流量资源。
因此,正确认识和解决这些问题,必须上升到数字正义与人本主义的高度。算法不应仅追求效率的最优化,必须通过伦理嵌入与法律规制,防止技术对人的异化。我们需要警惕算法权力对个人尊严、自主选择权和平等权的系统性侵害。
更多内容详见:《求是专访 | 怎样科学有效驾驭算法》
(策划:梁佩韵 审核:李艳玲)