FAC

## 当算法成为法官:FAC系统与数字时代的正义边界

清晨六点,约翰的手机震动起来——不是闹钟,而是FAC系统发来的“行为修正建议”:“检测到您昨晚睡眠时间不足6小时,今日咖啡因摄入量将被限制为150毫克。”与此同时,城市的另一角,一套更复杂的FAC系统正在分析数千小时的监控录像,标记出“异常行为模式”,警察根据这些标记逮捕了一名尚未实施犯罪但被判定“有高犯罪概率”的市民。从健康管理到司法判决,从信用评估到就业筛选,FAC(全自动决策)系统正以前所未有的深度介入人类生活,悄然重塑着正义的边界与内涵。

FAC系统的核心诱惑在于其承诺的“绝对公正”——算法没有情绪,不会疲倦,不受偏见影响,只依据数据做出“最优解”。这种技术乌托邦想象掩盖了一个根本性悖论:算法的“公正”本质上是其设计者价值观的数学化投射。当程序员将“效率最大化”设定为目标函数时,系统自然会倾向于牺牲个体特殊性;当训练数据本身承载着历史歧视(如少数族裔更高的逮捕率),算法只会将这种不平等自动化、合法化。FAC系统不是消除了人类偏见,而是将偏见编码进了更隐蔽、更难以挑战的数字架构中。

更深刻的危机在于“解释权缺失”与“人性维度消弭”。当一位求职者因FAC系统的“人格匹配度评分”过低而被拒绝时,她无法像面对人类面试官那样追问:“究竟是哪一点让我不合格?”算法决策的黑箱性剥夺了个体理解、质疑乃至上诉的基本权利。司法领域的FAC应用尤其令人不安——一些美国法院使用的COMPAS再犯风险评估系统,其具体权重和计算方式竟被开发商视为商业机密。当正义的度量衡被锁进私企的服务器,当“无罪推定”被“数据推定”取代,法治社会的基石正在被悄然侵蚀。

面对FAC系统的扩张,我们必须重建“人机共生”的伦理框架。这需要三个层面的革新:技术透明化(如欧盟《人工智能法案》要求高风险AI系统具备可追溯性和透明度),制度制衡化(建立独立的算法审计机构,赋予公民“算法解释权”),以及价值重定位(将公平、尊严等人类价值置于效率之上)。中国在推行“社会信用体系”过程中引发的全球讨论,正是这种张力的一次集中体现——如何在利用数据治理社会的同时,防止技术理性碾压人的主体性?

我们正站在一个历史性的岔路口:FAC系统可以成为延伸人类判断的工具,也可能异化为支配人类的数字利维坦。其区别不在于技术本身,而在于我们是否还记得一个古老的智慧:正义不仅要有标准的尺度,更要有聆听故事的眼睛和感知温度的心灵。在算法编织的秩序之网中,我们必须为人类的脆弱、复杂与不可计算性保留神圣空间。因为真正的正义,永远需要一场在冰冷数据与温热生命之间的永恒对话——而这场对话的主语,必须永远是我们自己。