莱斯利兰伯特的话,十分浅显,方然便点一点头,承认这位科学家说的很有道理。
“强”,不论传统学术界的定义如何,即便被研发出来,缺乏客观条件的支持,也无法凭空推动科技的进步。
“没有,那么这很明智。
但不管怎么说,自主式科研能否推进科技,那毕竟也是一个很长远的问题,眼前的危机,才更值得警惕:
出于种种考虑,研发具有创造性、探索性思维的人工智能,一旦这样的被研究出来,阿达民先生,您是否能确定,凭现有的科技、武器与战力水准,自己必然能掌控这,而不会被自主决策的所消灭?”
“的反叛,是的,这是一个想当棘手的问题,但,可以提前采取”
“没有什么提前采取!
恰恰相反,一旦具有超越人类的科研能力,这样的被制造出来,其行为与动机,就注定会脱离人类的掌控,这并非安保手段、武力强弱的定量问题,而是由双方智力差距所决定的,无解的困局。
试想一下,阿达民先生,您之所以拍板这样宏大的计划,目标,正如刚才亲口所言,绝不是为了获得能够与人相比拟的那种。
投入大量资源,消耗时间,只为了得到一些模仿的产物,根本得不偿失。
此类研究的根本动机,显而易见,是期望获得能力超越人类、甚至远远超越人类的强,目的,并非研究什么自我意识、或者要创造出这样的自我意识,而是要在人类专有的科学技术研究领域,制造出一个碾压现今所有人的利维坦。
这样的东西,一旦真被研究出来,凭你我这种人类的头脑、意识,恐怕连预测其行为、判断其动机都做不到
有怎么能奢望,凭借一些儿戏般的安保手段,便能将其禁锢起来,为己所用。”
滔滔不绝,莱斯利兰伯特的一番直抒胸臆,脸都有些涨红。
至于他要表达的意思,无需聚精会神,方然也能明白,事实上,自从掌控大区之初,自己便一直在琢磨事关重大的难题。
创造性思维,具有这种特质的,先不论通过什么样的手段去研发,一旦成为现实,那么,除非这种的能力与人类相仿,一旦其能力远超人类,再加上其自身“思维”、“决策”的无可预测,人类就会有灭顶之灾。
这种风险,只要着手开展此类研究,就一定会出现。
不仅必定出现,应对之策,事实上也是不存在的,并不会因为一些莫须有的“拉电闸”、“核弹爆轰”的手段而改变。
一切的缘由,完全在于的“自主意识”,其危害之大,只要设想一个能力超卓、却与同类决裂的人类,能对人类世界造成多么大的破坏,然后将这种威胁放大若干倍,便不难想象到时的情形。
面对特立独行、完全漠视人类利益的威胁
一切应对之策,在强的眼里都会十分可笑。
本站域名已经更换为m.adouyinxs.com 。请牢记。