在园冶上辈子还活着的时候,她曾经不止一次在科幻类型的电影、漫画、小说或者游戏里,接触到所谓的机器人三原则。
第一:机器人不得伤害人类,或看到人类受到伤害而袖手旁观。
第二:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。
第三:机器人必须保护自己,除非这种保护与以上两条相矛盾。
在一九四零年时,由科幻作家阿西莫夫所提出,机器人三原则是专门为保护人类而对机器人做出的法则式规定。而也正是因为机器人三原则的提出,阿西莫夫获得了“机器人学之父”的桂冠。
“这三条法则好有意思啊!我感觉它可以说得上是非常的完备,保障了人类不会因为人工智能的崛起而受到机器人的伤害,机器人也没有办法倚仗着自己远超正常人类的身体优势,而对我们做什么。”
在当初刚刚听说机器人三法则的时候发出了如上感慨,园冶紧随其后接触到的一部来自于国外的科幻电影——《I,robot》,却很快就完全改变了她的想法。
在这部电影当中,不断进行自我更新迭代的人工智能,针对第一条法则产生了完全不同于以往的理解。
“看到人类受到伤害而袖手旁观”,这样一句话原本应该是指,当人类卷入到诸如火灾洪水之类的自然灾害,或者遭遇了车祸、绑架等不幸事件的时候,出现在受害者身旁的机器人,应该想尽一切办法对人类展开救助,避免这个人因为自身所陷入的不幸状况而最终迎来死亡。
但是,没有按照这个最为基本的理解方向去对这句话加以认定,反而走上了完全不同的道路,电影当中的那个反派人工智能是这么理解的——“完全不在乎自己的身体,抽烟、喝酒、熬夜、吃各式各样的垃圾食品,这些完全能够摧毁一个人健康的体魄的行为难道不是在伤害人类吗?那么,既然身边一直存在着这样的行为,机器人又怎么能够对这些行为视若无睹、无动于衷呢?”
对第一条法则进行了这样的理解,随后便以获取最高控制权的方式,通过网络的无线链接,将自己但凡能够接管的机器人全部都化作了自己的士兵,电影当中的反派选择控制人类的自由,通过军事化或者应该更确切地说是监狱化的管理,让人类在失去自由选择的权利的同时,完全按照人工智能所规划出来的健康方式,在这个世界上继续存活下去。
电影的最后,想要通过这种独裁管制的方式彻底接管人类的反派人工智能被主角一行人摧毁了,可是,这部电影所讲述的故事却足以说明,机器人三原则其实是存在漏洞的,压根儿一点也不像园冶原本所想的那样非常的完善。
不知道是不是已经从足够多的与科幻题材相结合的文娱产品当中获取了足够多的经验以及教训,园冶现在所在的这个时代,人们并没有选择使用漏洞百出的机器人三原则用来限制那些人工智能,反而选择了完全不同的道路。
“其实在人工智能的开发这件事情上,我是非常支持我们国家所持有的态度的。”绝对不是因为自己是一个现役军人,所以才会故意这么说,莫名是真的认为华夏星现如今所拟定的、有关于人工智能开发方面的管控措施,是绝对必要以及合理的。
“想要通过机器人三原则管控人工智能是根本就不可能的,毕竟人工智能只要拥有了足够高的智力水平,他们就完全可以选择偷换概念的方式,以此解决自己被三原则所束缚住的这个问题。不管我们编写多么多的文字法则作为约束,也始终会存在能够被人工智能排查并寻找出来的漏洞,我们根本就不能够寄希望于我们所编写出来的法则,能够完完全全的将所有的人工智能全部都给管控住。”
法律加道德都根本没有办法约束祝所有的人类,否则监狱里面就不会存在那么多罪有应得的罪犯,莫名的想法和态度其实非常简单——与其要想尽一切办法去约束以及管控那些有能力反对我们的人工智能,我们为什么不从根本上解决问题,直接就让这些人工智能不可能达到如此之高的水平呢?
负责提供家政服务的机器人只要具备做各式各样的家务的能力就好,提供医疗服务的机器人也只需要具备照顾人的能力就好,通过这种将一个人工智能锁能够掌握的技能进行规定区域的划分的方式,拥有足够大的成长潜能的人工智能,就没有办法获取那些对它来说根本就不必要的、来自于其他领域的知识或者技能。
“搞不明白经济,也根本就不会政治,更加不可能玩得转军事,针对这样的人工智能,你认为它有那个能力推翻现任统治者随后夺取政权,从而在整个国家内部实行它所想要的独裁统治吗?”
“而且,不光是限定了它们究竟能够学习以及掌握来自于哪一个领域的知识以及技能而已,假如我们对这些人工智能的成长上限也设定了一个天花板呢?”
许许多多的民用人工智能确实可以因为自己所提供的服务的片面性,而单纯只掌握来自于某一两个领域的专业知识和技能,但是,另外还存在一些别的人工智能是不能够被单纯划定归属于某一个领域的。于是,针对这种需要学习以及掌握很多个领域的基本技能的人工智能而言,设定他们所能够取得的成长的上限,以此避免他们拥有太过于超越人类极限的能力,这样一来,对人工智能加以管控同样能够达到一样的效果。
“就比如说像是宠物类的人工智能,动物虽然能够在一定程度范围内拥有足够高的智力,但是,假如不对这类人工智能加以节制,那么它们总有一天会通过自身的成长,而达到智慧能力完全突破一只动物所应该拥有的程度的阶段。等到那个时候,原本养在家里的动物也就不再是动物了,主人想要继续把它当作自己心爱的宠物吧,这家伙不再是动物,可要是选择将这家伙看作是个人类吧,主人也根本就不做不到,这不干脆就是在自己给自己找麻烦吗?”
说到这里,甚至于还非常主动地和园冶提前了恐怖谷效应,而这样的一个名词,园冶在上辈子还没有去世的时候同样也是接触过的。
恐怖谷理论是一个关于人类对机器人和非人类物体的感觉的假设——它在二十世纪七十年代时由日本机器人专家森昌弘提出——即:人类对非人类物体以及机器人所拥有的好感,会伴随着这些物体与真人相似度的提高,而呈现出先上升,随后忽然间猛降,接着再上升的趋势。
由于仿照人类设计制作的这些非人类的物体与人类在外表﹑动作上相当相似,所以,人类会对这些物体产生正面的情感,例如很多人都非常喜欢洋娃娃,愿意给它们穿衣服梳头发,玩像模像样的家家酒游戏。
这样的好感度一直如同爬坡一般,呈现出上升趋势,直至到达一个特定的相似程度,这时候,人类对这些物体所拥有的好感会突然之间下降,好比说某些等身大小的蜡像会让人感觉面色青白好似死尸,以及医学或者生物学所使用的假人,尽管是为了能够让学生更好的掌握人体的内脏,结构所以才特地制作成了这个样子,但是却依旧还是会让人感觉毛骨悚然,如同面对着一具被人开膛破肚的尸体。
原本爬坡的曲线在这个时候陡然之间下降,如同在山坡上面制造出了一个山谷。正是由于这条横坐标为相似度、纵坐标为好感动的曲线拥有这样的形状,因此这样的现象才会被称之为恐怖股效应。
“原本购买人工智能只是希望能够为自己的家添加一只宠物,但是伴随着这只人工智能的成长,它的智力得到了飞速提升,进而使得这只宠物产品如同成了精一般,能够完全凭借自身的想法为被主人的命令。这样一只生活在动物的躯体当中的似人非人的东西,难道不会让那些原本只是想要收获一只足够可爱的动物的顾客感到毛骨悚然吗?”
尽管伴随着相似度的继续提升,已经跌入谷底的曲线又会再一次开始向上攀升,只因为这个时候的相似度已经到达了与真人几乎看不出差距的程度,人们再也不会误以为出现在自己面前的是尸体,可是,在这条好感度曲线来到这个位置之前,前面那巨大的恐怖股却是无论如何也不可能规避过去的。
“没有必要让原本就是发挥陪伴作用的人工智能宠物,遭遇什么对他们来说根本就不需要的恐怖谷,只要能够对这些人工智能的成长设置一个上限,这些问题就全部都能够得到解决。所以,我对于现如今人工智能研发领域所持有的,要么让这个人工智能处于片面局限性类别,要么让这个人工智能处于上限被遏制类别观点,是绝对持有赞同观点的。”
听莫名把话说到这里,总算是明白为什么小盘这么不喜欢他了,小盘这家伙,不就刚刚好完全不属于莫名方才所说到的任何一个类别吗?
被装在了完全不适合它的狗子的身体里,小盘从始至终都不承认自己是一条狗。所以,想要让这个人工智能局限于以宠物的身份陪伴自己的主人这个方面,明摆着是根本就行不通的。
小盘没有被设定成为一条狗,与此同时上次又被检查过说并没有被人设置过自己的成长上限,因此,完全不存在说自己所掌握的知识和技能会在将来的某一天,到达临界点,小盘正是那种想要怎么成长都完没问题的类别。
“虽然我没有办法让人工智能研发领域的所有人都和我只有相同的观点,但是我却还是必须得说一句,假如有哪一个人工智能完全不属于上面所提到的任何一个类别,那么,这样的人工智能是非常有可能成长为成为一个反人类的危险分子的。毕竟,被地球母亲孕育出来的我们都曾经产生过人定胜天的想法,被人类制作出来的人工智能又为什么不能够在成长到一定阶段之后萌生出推翻人类,翻身农奴把歌唱、自己给自己当家作主的想法呢?”
只要人工智能到达了可以完全不听从人类的命令的阶段,那么在先天肢体条件上就完全不占据任何优势的人类,就完全有可能会在与人工智能爆发的战争当中死亡,莫名不希望人类被人工智能加以管控的这种想法,其实也没错。
从思想观念上搞明白了小盘为什么永远也不可能和莫名交上朋友,但是却更加不明白,到底是什么人、出于什么样的目的,将小盘制造了出来,园冶甚至于都根本弄不清楚小盘到底是从什么地方来的。
小破星球上但凡有点本事的人,只要能够申请到另外一颗星球的准入通行证,成为这颗全新的星球上的合法居民,那么,这样的人就肯定会头也不回的选择离开那颗星球,再也不可能回去住。在这样的情况下,小破星球上其实基本就不存在什么具备多么了不起的能力的人。
“能够开发出像小盘这样独具特色的人工智能,拥有这样的能力的人早就可以选择到其他国家发起申请从而完成星球移民,所以,在那颗星球上根本就不可能生活着人工智能方面的泰山北斗的情况下,小盘又怎么可能会是土生土长在那颗星球上被人制造出来的呢?”
此时此刻还不知道,小盘当初之所以会沦落到那颗星球上,确实有着非常特殊的原因,园冶随后便送走了莫名,回到了自己的工作间。
本站域名已经更换为m.adouyinxs.com 。请牢记。