算法向善:谁来掌舵“道德自动化”的未来?2022-3-21 编辑:采编部 来源:互联网
导读:本文聚焦大数据与算法的伦理困境,从“大数据杀熟”到“道德自动化”的争议,探讨了技术向善的两条路径:依靠“哲人工程师”的个体自觉,还是依赖制度约束的“设计正义”。文章结合2022年最新政策与专家观点,为科技从业者及关注算法公平的读者提供了前沿洞察。
一、“大数据杀熟”背后:我们究竟在担忧什么?当您打开外卖APP发现会员价比新用户更贵,当您反复浏览某件商品后看到价格悄然上涨,这便是俗称的“大数据杀熟”。这种现象从四年前开始进入公众视野,至今仍是数字社会的顽疾。但公众的担忧早已超越了价格歧视本身,更深层的焦虑在于:算法究竟在多大程度上“指引和控制”了我们的生活? 正如英国大律师杰米·萨斯坎德在《算法的力量》中所言,最重要的革命正发生在实验室和科技公司里。从滴滴顺风车事件暴露出的社交化风险,到算法对个人偏好的隐秘控制,技术已不再是中立的工具,而成为具备政治影响力的权力主体。作为科技行业的从业者或深度用户,您需要理解这场变革的核心矛盾——在算法日益强大的背景下,我们该追求“道德自动化”的技术乌托邦,还是寄望于“哲人工程师”的良知? 二、“道德自动化”能否实现?技术治理的两种路径针对算法如何向善,业界存在两条截然不同的技术哲学路径。为了更清晰地呈现差异,我们将其核心维度对比如下: 对比维度 路径一:道德自动化(技术规制) 路径二:哲人工程师(个体自觉) 核心理念 通过代码和系统架构直接嵌入伦理规则,从源头阻断不道德行为 培养具备人文素养和哲学思维的工程师,在开发中主动融入价值判断 实现方式 设计正义、算法透明度、数据公平审核 价值观教育、企业文化建设、跨学科团队 优势 可强制执行,覆盖面广,不受个人情绪影响 灵活应变,能处理复杂情境,体现人文温度 风险 可能导致“反道德自动化”(如系统被用于种族灭绝的数据围捕),僵化缺乏弹性 过度理想化,面临工程师35岁危机等现实压力,难以规模化复制 适配场景 金融风控、信用评分、公共安全监控等需要高度一致性的领域 内容推荐、创意设计、心理咨询等涉及复杂价值判断的领域 为何两种路径都有缺陷? 萨斯坎德警示,即使实现“道德自动化”也仅是相对的。他设想了一个极端场景:一个意图实行种族灭绝的政府,只需根据购买记录、社交媒体发帖等数据,就能精准识别并围捕特定群体。这说明,技术既可用来行善,也能高效作恶。另一方面,将希望完全寄托于“哲人工程师”也面临现实的骨感。《算法的力量》译者李大白指出,这和柏拉图培养“哲学王”的设想类似,但按照标准培养一个合格的“哲学王”需要50年,而如今代码工程师普遍面临35岁的年龄危机,个体再高尚的伦理观念,也敌不过商业目标和KPI的压力。 三、数据导致的不公正:算法如何放大偏见?算法的“客观性”神话正在被打破。2022年,北京邮电大学互联网治理与法律研究中心学者指出,算法歧视的根源在于算法开发者的内隐偏见、数据偏差以及算法黑箱带来的信息不对称。这种不公正体现在多个层面: 直接侵害权益:同样的商品或服务,老客户价格更高。 加深既有偏见:一项测试显示,全世界60万人发去自拍照由算法评判“最具吸引力”,结果选出的44张照片中只有6张不是白人。 分类与阶层固化:算法越来越多地用于就业、贷款、住房、保险等社会关键物品的分配。当系统通过面部特征将人分类为“高智商”或“潜在恐怖分子”时,它实际上在执行一种数字化的社会阶层划分。 ACM的权威指引 针对这一困局,国际计算机协会(ACM)在2022年11月发布了《负责任算法系统原则声明》,提出了九项基本原则,包括:合法性与胜任力、最小化伤害、安全与隐私、透明度、可解释性、可维护性、可质疑与可审计性、问责制等。这为全球算法治理提供了技术层面的权威框架。ACM特别强调,系统构建者和运营者应遵循与人类决策同等的标准,并应在部署前进行广泛的影响评估。 四、科技向善:谁来掌舵?既然个体工程师难以独自承担伦理重负,责任自然落到企业和制度层面。2022年1月,国家网信办等四部门联合出台《互联网信息服务算法推荐管理规定》,直指大数据杀熟、诱导沉迷、操纵舆论等痛点。该规定要求算法推荐服务提供者不得设置诱导用户沉迷的模型,不得实施差别待遇,并需定期审核算法机制。 两种责任主体的博弈 在算法治理研讨会上,专家们形成了两条清晰的思路。 企业治理派:如阿里、字节跳动等企业代表分享了内部实践,包括搭建科技伦理委员会、建立算法全生命周期治理机制。他们认为,只有公司决策团队将“科技向善”设为共同目标,普通工程师才能在具体工作中嵌入向善的代码。 制度构建派:清华大学、中国政法大学的学者则强调,不能仅靠企业自律,需要形成“治理目标、治理主体、治理对象、治理手段、治理模式”的五要素框架,通过算法备案、算法检查、司法救济等手段形成治理合力。 适配建议 对于科技企业的决策者,建议采取“制度先行、文化并重”的混合策略: 合规底线:立即对标《互联网信息服务算法推荐管理规定》,完成算法备案和自评估,确保不触碰“大数据杀熟”等监管红线。 技术嵌入:引入“价值敏感设计”方法,在系统架构阶段就邀请法律、伦理专家参与,正如学者郭小平提出的,通过自上而下和自下而上的混合路径构建道德算法。 人文培养:虽然“哲人工程师”难以批量生产,但可以通过内部培训、设立伦理官岗位、优化KPI考核(将公平性纳入绩效),逐步提升团队的伦理敏感度。 五、结语:算法的未来是场“共治”实验从“大数据杀熟”到“道德自动化”的争议,本质上是人类在数字时代如何自处的哲学拷问。无论是依赖系统的自动化约束,还是寄望于个体的哲人素养,都不足以单独应对算法带来的复杂挑战。2022年,无论是中国的专项立法,还是ACM的国际准则,都指向同一个方向:算法治理需要建立一套涵盖政府监管、企业自治、公民参与的协同共治体系。在这场实验中,没有旁观者,每一个点击、每一次反馈,都在定义我们想要的未来。 本文为【广告】 文章出自:互联网,文中内容和观点不代表本网站立场,如有侵权,请您告知,我们将及时处理。 推荐产品
经典回顾
|
||