机器人汽车的伦理问题最近成为一个热议话题。特别是,假使它被迫无论如何都要去撞一个人,它究竟该做什么?它会怎么做出这个选择?这是一个在哲学课程的导言部分就会学到的电车悖论的现代版。
想象一辆机器人汽车正在沿马路行驶,两个人跑到了马路上,汽车不可避免地就要撞到其中一个。假设他们中的任何一个都无法逃开,汽车之前也没有察觉到他们。汽车应该撞哪一个?很多思考者对怎样做出这个道德上的选择提出了建议。
机器人汽车可以运行代码做一个随机选择。
机器人汽车可以把控制权移交给人类乘客。
机器人汽车可以根据汽车的设计者或者拥有者事先设定的价值观来做出选择。
最后一项更值得我们思考。这些价值观会是什么样的?
举个例子。他们可能告诉汽车更倾向于去撞一个成年人而不是小孩,更倾向于去撞一个强壮的人而不是一个更弱小的。汽车甚至会尝试用面孔识别来计算一个生命的价值优于另一个,它会去撞刚刚谋杀过他人的罪犯而不是一个正在从事癌症治疗的科学家。
在这些例子里,计算机随机做决定,或外包给他人,又或用事先设定的价值观来做决定。
人类也在做同样的事,当面临选择时,我们抛硬币,请别人来帮我们做决定,或者依靠各种道德权威里的正确答案。然而作为人类,当我们面临艰难抉择时也会做点别的:尤其在模棱两可的情况下,没有哪个选择是明显更好的,我们总有理由为我们选择的决定辩护。大多数时候我们没有意识到,但它总会在我们不得不做出特别艰难的决定时出现。
事实上,世界充满着类似的艰难抉择——机器人汽车或机器人(或一般机器人)将如何恰当地处理类似的选择对开发和应用他们是至关重要的。
要弄明白机器会怎样做出这些艰难抉择,先观察人类抉择的是个好办法。在Ruth Chang博士的TED演讲「怎样做出艰难抉择」里,她主张艰难的选择是由它们的相关备选方案来定义的。
举个例子,在容易做出的决定里,一个可选方案是明显优于另一个的。相比较人造颜料,我们更愿意选择自然颜料,装饰房间时很容易就决定用浅米色而不是荧光桃红。然而,在艰难的决定里,一个可选方案是某些方面优于另一个但是在其他的方面却又不如它。没有任何一个解决方案在总体上是更完美的。
关键是,人类总能找到理由来为我们做出的选择辩护。当整个社会都这这么做的时候,我们创造了法律、社会规范和道德系统。
但是机器没法这么做...对吧?你会被惊到。比如Google最近宣布,他们最近开发了一个人工智能技术,可以学习和掌握视频游戏。程序没有给定的命令,而是连续不断地玩游戏,在经验中学习。有人预测,这项开发会对机器人汽车有用。
它的原理可能是怎样呢?
机器人汽车不是做随机的决定,外包出决定,或根据事先设定的价值观来做决定。而是它会运行云处理,四处搜索大量的基于当地法律、过去的法律裁决和他周围社会和人类的价值观的数据和模式,以及随着时间推移观察其他各种类似的决策过程和结果。
简而言之,机器人会像人类一样,运用经验来创造属于他们自己的理由。
Ruth Chang博士的演讲最吸引人的地方是,她说当人类在从事这样的推算过程时——在艰难的时刻创造和选择理由——我们把它作为人类发展的最高形式之一。
我们只有在洞察了别人的价值观、决策过程以及确信他们会捍卫自己的价值观时我们才会相信他们。对于相信机器,我们也需要对它达到上述相同的理解程度。不幸的是,公众对人工智能如何做决定还是一无所知。机器人汽车、无人驾驶飞机以及其他「会思考」的机器的创造者由于知识产权问题或安全的原因可能会尽可能地保密此信息。许多公众可能会发现人工智能神秘莫测,害怕难以去理解它。
在这里,我们必须回到Ruth Chang博士演讲的结语。公众必须教育自己这些机器如何思考,企业和政府需要让这些信息更加透明。我们必须决定什么对于我们是最重要的,我们希望怎么样书写和机器人共存于一个世界的命运。如果机器人可以做出艰难抉择,这个问题可能不存在,但人类可以做到吗?
原标题:谁能解开智能汽车时代的「电车悖论」?
注:1.车众网转载本文只以信息传播为目的,不代表认同其观点和立场。
(责任编辑:约翰)