机器人三大定律,「机器人三定律」有逻辑缺陷吗( 二 )


比如首先,尤其像人工神经网络这样的技术,它的行为是有一定的这种不可预测性的 。我们怎么让一个有具有不可预测性的这种人工智能算法,让它最后的行为又是能够符合某些确定的规范的呢?其实这背后是有很多科学问题的 。阿西莫夫三原则或者三定律是:第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观.第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾 。
第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾 。我觉得三定律可能是科幻小说家的一个想象而已,但是背后确实有它的哲学的思考,也可以查阅出很多实际的科学问题来 。我觉得这些科学问题,未来是非常值得我们这些研究者去探索的,而且是非常有必要去探索的 。因为毕竟我们去做人工智能的研究,也是为了让人类社会能够有,说白了就是能够大家生活得更幸福 。
携带武器的无人机算不算机器人,如果算的话是否违反机器人三定律?

机器人三大定律,「机器人三定律」有逻辑缺陷吗


所谓的机器人三定律并不是真正存在的,仅仅是艾萨克·阿西莫夫在1942年发表的作品《转圈圈》中的一个设想 。不过只是因为对于人类对智能机器的恐惧,机器人三定律才广为流传的 。但这个东西并不是在工程学上实现的铁律,同时也没有被写入任何一个国家的法律中 。用俗话说就是一句“屁话” 。题主所想的无人机带武器的问题其实还是幼稚了 。
韩国在38线附近部署了一种叫做宙斯盾的武器站 。这其实就是智能机器人 。当这个机器人的传感器发现目标人形的目标的时候会开始自动喊话,制止人形目标的移动,如果喊话三遍这个人形目标还继续移动的话,会直接启动上面的M2重机枪进行扫射 。整个的行为完全是自主的 。并不需要认为干涉 。这就是处于某种目的设计出来的杀人机器 。
不仅仅是韩国,目前很多国家都研制和装备带有武器的战场机器人 。这里面一部分是通过人类利用远程遥控装置进行操作的,算不上是完全的人工智能机器人,还有一部分则是完全利用人工智能工作的自主武器机器人这玩意会自动的判断是否需要开火消灭人类 。如果按照机器人三定律来说,上面的几个例子其实都是彻底的违背了机器人三定律 。
【机器人三大定律,「机器人三定律」有逻辑缺陷吗】但所谓的机器人三定律不是屁话吗?违背了也就违背了,无所谓了 。和机器人三定律相左的则是各个国家军方的需求,军火商在军方的需求框架内提供产品,这本身就是一种“生意” 。生意的最终目的是利益,在利益面前别说这种屁话了,就是很多法律都被践踏 。所以说,可以预见的将来,很可能有全部是机器人组成的军队或者专门从事杀戮的大型机器人出现它们所维护的并不是所谓的机器人三定律,而是购买者的利益和需求 。

推荐阅读