摘要
人工智能伦理规范的制定是人工智能研究领域的重大议题,大多数人都遵循一种“理想规则主义”的设计思路。然而,这种思路在理论上无法成立,在实践中会带来更大风险,其深层预设是看待人工智能的工具主义态度。实际上,基于因果推理模型的人工智能具有真正意义上的自主性,有充分的理由被赋予道德主体的资格。因此,设置一种关系性规则才能更好地处理人工智能的伦理问题,这要求它们能够为自己的行为负责,而重要条件就是人工智能主体拥有一定程度的产权。
作者/吴童立,山东大学哲学与社会发展学院副教授
原载/《文史哲》年第2期,第51-59页
一、引言
长久以来,机器一直作为工具被视为人类能力和心智的延伸。自新千年开始,随着大数据、深度学习、仿生技术、人工知觉等领域的快速发展和不断交叉融合,具有更强自主能力的人工智能产品被不断研发出来并广泛应用。无论是具有一定“判断能力”的无人机,还是能够机智地回答问题的Siri,都已经真正进入到人们的视野和生活中。一个共识正在形成:人类终将制造出外形和行为与自己相似的人工智能,并与它们在同一个世界中共处。这个共识自然地引发了一种担忧:人工智能会给人类社会带来何种风险?这种风险是否可以被人类预测并控制?为了控制这种风险应该对人工智能的研发和使用制定什么样的规范?政府和学术团体已经行动起来:年欧洲议会发布的关于人工智能和机器人的报告,表达了其对于机器人可能给人类带来的风险的