算法看似客观,但它学习的是现实世界的数据。如果数据本身存在偏差,AI 可能会在无意识间放大性别、年龄、地域等差异。例如:
招聘算法可能偏向某类简历;
智能审核可能对某些地区的用户更严格;
医疗算法可能更难准确识别少数群体的症状。
这些现象让“算法歧视”成为新的法律难题:
谁来担责?应该如何识别?如何防止它不公平地影响我们?
点赞 (1)
回复
算法看似客观,但它学习的是现实世界的数据。如果数据本身存在偏差,AI 可能会在无意识间放大性别、年龄、地域等差异。例如:
招聘算法可能偏向某类简历;
智能审核可能对某些地区的用户更严格;
医疗算法可能更难准确识别少数群体的症状。
这些现象让“算法歧视”成为新的法律难题:
谁来担责?应该如何识别?如何防止它不公平地影响我们?