1942年,科幻作家艾萨克·阿西莫夫提出了机器人三定律:一是机器人不得伤害人类,也不得因不作为而使人类受到伤害;二是机器人必须服从人类给予它的命令,除非这些命令与第一法则相冲突;三是机器人必须保护自己的存在,除非这种保护与以上两条相矛盾。这为人工智能伦理提供了基础性框架,但其个体中心主义、静态规则设定,以及“人类伤害”“服从命令”等模糊表述不能适应当代人工智能的复杂性,不能解决人工智能系统可能通过算法歧视、数据滥用等方式损害群体利益,如就业公平、隐私权等宏观层面的伦理风险 ;无法有效约束动态演化的人工智能行为 ,不能提供明确的权责划分机制 ,当前亟须通过多种路径校准人工智能发展的航道,构建适应人工智能迭代升级的伦理安全网 。
点赞 (0)
回复