句子大全

句子大全 > 读后感

《I ROBOT》——《银河帝国》前奏 机器人开启星际殖民时代(银河帝国8:我 机器人)书评

读后感 2019-11-22 14:20:01
相关推荐

人类蜗居在银河系的一个小角落——太阳系,在围绕太阳旋转的第三颗行星上,生活了十多万年之久。之前讲其他科幻作品的时候,我们曾经讲过,太阳系其实是位于银河系的一条名为猎户臂的支臂上,不能算是郊区,但也并不是市中心。

人类就在这个小小的行星【地球】上,建立了两百多个不同的行政区域(称之为“国家”),直到地球上诞生了第一个会思考的机器人。

在机器人的帮助下,人类迅速掌握了恒星际飞行和改造外星球的技术,开启了恢弘的星际殖民运动;人类在银河系如蝗虫般繁衍扩张,带着他们永不磨灭的愚昧与智慧、贪婪与良知,登上了一个个荒凉的星球,并将银河系卷入漫长的星际战国时代,直至整个银河被统一。

一个统治超过2500万个住人行星、疆域横跨十万光年、总计数兆亿人口的庞大帝国崛起——银河帝国。

讲到《银河帝国》,我们其实应该从《基地三部曲》讲起的,但是阿西莫夫实在是塑造了一个太宏大的世界观了,如果要全部讲完估计不太现实。所以只能抽其中一本我最喜欢的作品《我,机器人》

简单介绍以下,《银河帝国》的《基地》部分,有七本:

《基地三部曲》讲的是一个微妙的转折发生在银河帝国建国后的12020年,一个重要人物哈里谢顿(川陀大学心理史学系荣誉教授,也是心理史学创始人之一,同时也是基地创始人)的出现。

谢顿通过巨大规模的数学计算,得出了预言:虽然毫无征兆,但已存在一万两千年之久的银河帝国即将灭亡。整个银河注定化作一片废墟,黑暗时期将会持续整整三万年!

为了缩短这个时间,谢顿开启了长达一千年间的谢顿计划,许多预设的历史事件将一环扣一环发生,以促使一个更强大、更稳固、更良善的第二帝国早日实现。帝国覆灭不可避免,谢顿计划只是为了使这个黑暗时期缩短。

《基地三部曲》一环扣一环,一个嗨点接着一个嗨点,真的非常建议阅读,第四部《基地前奏》和第五部《迈向基地》是基地系列的前传,第六部《基地边缘》和第七部《基地与地球》是基地系列的后传。

关于谢顿计划的这一部分,感兴趣的朋友可以去查一下“拉普拉斯妖”是由法国数学家皮埃尔-西蒙·拉普拉斯于1814年提出的一种科学假设。我觉得跟谢顿预言的心理史学有点儿近似。

“我们可以把宇宙现在的状态视为其过去的果以及未来的因。如果一个智者能知道某一刻所有自然运动的力和所有自然构成的物件的位置,假如他也能够对这些数据进行分析,那宇宙里最大的物体到最小的粒子的运动都会包含在一条简单公式中。对于这智者来说没有事物会是含糊的,而未来只会像过去般出现在他面前。” —拉普拉斯

当然这只是一种假说,近代的量子力学和热力学第二定律几乎证明了这种假说是不可能。但我觉得拉普拉斯妖最大的bug,应该是因为长时间的推演,会因为自身额外行为的累积影响而产生巨大的谬误。

谢顿计划同理,他怎么预测未来,他可以预测未来这件事情,是不是也属于【未来】中的一环,预测这件事本身的不确定性也应该在他的预测里,所以,他获取这个世界的信息的方式,也必然会对世界的运行存在影响。

有点儿绕,简单来说,我们长大是每一个决定引发的蝴蝶效应,如果我今天去算命了,算我明年会发生什么,那我今天算命的这个行为,是不是也变成了影响我明年发生什么事情的一个环节。

算命的都是骗人的,因为他一旦跟我说话了,他也变成了我人生中某一环的一个变量。所以,再一次呼吁:

【不要相信算命的,我命由我不由天】哈哈。

而我们今天介绍的这一部《我,机器人》是所有银河帝国系列的开篇,然后是4部关于机器人丹尼尔与人类伊利亚的系列故事。电影名为《机械公敌》,由威尔史密斯主演,但除了”机器人三大定律“以外,和原著关系并不大。

想像一下未来,如果机器人有了主体意识,他们可以思考,可以决策,甚至可以瞧不起人类(你们这些手无缚鸡之力、由蛋白质组成、每天要昏睡八个钟头的家伙),世界将会变得如何?

早在1950年,阿西莫夫就已经设想到了这些情景,并且以超越时代的思维,创建出宏观的未来机器人世界。于是,伟大的“机器人学三大法则”就此诞生,成为科幻界无可撼动的铁律:

一、机器人不得伤害人类,或袖手旁观坐视人类受到伤害。二、除非违背第一法则,机器人必须服从人类的命令。三、在不违背第一法则及第二法则的情况下,机器人必须保护自己。

阿西莫夫笔下的“机器人心理学家”苏珊˙凯文,亲身体验这些事件的演进,也记下了20世纪末到21世纪中的机器人发展史──从简单的褓姆型机器人,一直到全世界只有四台的超级电脑。随着机器人越来越聪明,功能越来越强大,她不得不叹道:“一开始机器人还不会说话,但最后他们却挺立于人类与毁灭之间……”

在这里先推荐一篇我看过的非常有趣的翻译文,只是一篇翻译文,并不是严谨的科普文,但还是很有意思:

为什么最近有很多名人,比如比尔盖茨,马斯克、霍金等,让人们警惕人工智能?

整部小说有九个章节九个故事组成,我们来简单看一下这九个故事。

第一篇 小机

1998年,故事发生在机器人保姆时代,小女孩儿葛罗莉亚把保姆机器人小机当成了她最好的朋友。而母亲威斯顿夫人却非常担心女儿过于依赖机器人,于是夫妻两人送走了小机,并骗葛罗莉亚小机丢了。之后葛罗莉亚一直郁郁寡欢。最后在一次旅行中参观机器人工厂,小机及时出现救了差点儿发生意外的葛罗莉亚。小机重新回到了家中。

感觉在这个年代的设定下,这个机器人小机和我们这个年代的宠物狗一样,这个小机还不是人形,也不会说话,它的任务只是陪伴保护和小朋友一起玩儿,但家长还是担心孩子会沉迷其中,担心机器人会影响孩子的成长以及会失去控制伤害小朋友。

我还是很信任电子设备的,虽然我的手机今天刚刚莫名其妙死掉了一次,顺便植入一个iphonexr死后的抢救方法:快速按音量➕快速按音量➖然后再按开机键,可以在无法开机的时候,强制开机。下面节选一段原文内容,这个故事主要是用来引出低级人工智能的大范围出现,以及与之后具备毁灭力的机器人,形成鲜明的对比。

事实上,小机出厂只为了一个目的——当小孩的玩伴。他的整个‘思维’正是为了那个目的创造的。他就是不得不忠实、友爱和亲善。他是一架机器——被做成那样。那要比人类可靠得多。”“但总有什么东西可能出毛病,什么……什么……”威斯顿太太对机器人的内部结构不甚清楚,“什么小零件会松掉,这个可怕的东西就会发狂,而且……而且……”她无法让自己完成这个相当明显的想法。“胡说八道,”威斯顿立即否定,还不由自主地打个冷战,“那完全是无稽之谈。当我们买下小机时,我们曾就机器人学第一法则作过冗长的讨论。你也知道,机器人不可能伤害人类,在出现足以改变第一法则的问题之前,机器人早就完全停摆了。那是数学上不可能的情况。此外,美国机器人公司的工程师每年都会来两次,为这套机件作彻底的检查。啊,比起来,小机出什么小毛病的机会,还比不上你我突然发疯的机会——实际上,是小得多。

第二篇 转圈圈

2015年,鲍尔、多诺凡和一名被称做速必敌(Speedy)的SPD-13型机器人被派往水星,让一个于十年前被搁置的采矿基地重新运作起来。由于去采集硒的命令被下达的时候并没有特别强调,速必敌在第二定律和第三定律之间无所适从,于是他采取一种折中的办法,就是绕着硒溶池转圈圈。

于是,鲍尔决定用自己的生命去冒险,走到水星炙热的阳光下,来迫使快手去克服自己认知上的混乱。最后计划成功,光电池库被修复。

从这一章开始,会逐渐揭露出【机器人三大定律】的问题来,三大定律设定在理性上看堪称完美,但是却又互相制约存在很多感性问题上的bug…

第三篇 理性

鲍尔、多诺凡被派往一个通过微波束向行星传递能量的空间站。空间站上有许多控制微波束的机器人,这些机器人都由一个叫做小可爱(Cutie)的QT1型机器人来协调。

小可爱觉得地球并不存在,他在空间站创造了自己的宗教,以空间站的能量之源空间转转换器为主宰,而他自己则作为神之先知,不再理睬人类的指令。其他的机器人很快变成了他的信徒,不再听从人类的指令。

这时一场磁暴即将到来,有可能使微波束偏向,给地球上人类带来劫难。但是,当磁暴到来时,鲍尔和多诺凡发现小可爱准确地操作了微波束,化解了危机。

这一时期的机器人,开始有了主观意识,创造了自己的宗教,有了自己的信仰。有趣的是,这篇小说中的机器人仍然在无意识地遵循着机器人三定律。如果他们不相信行星,以及上面人类的存在,他们为何要去保护人类?

第四篇 抓兔子

这一次,鲍尔和多诺凡在一个小行星矿站对一名为大卫(David)的DV-5型机器人进行实地检测。大卫管理著六个从属机器人,他们之间通过一种还不清楚工作原理的正子场通信。

检测中大卫停止了产矿,而且不能解释其原因。但是如果这时有人在场,大卫和其他机器人则表现得非常正常。后来鲍尔用雷管枪打爆其中一个下属,才让戴夫恢复正常。

第五篇 骗子!

2021年,由于制作中的一个失误,一台名为厄比(Herbie)的HRB-34型机器人具有了心灵感应的能力。在美国机器人公司的机器人专家们试图寻找其原因时,厄庇向他们透露了其他人的想法。

由于赫比仍然受机器人第一定律的约束,他巧妙地用谎言来避免伤害人类的感情。但当谎言被揭穿时,人们还是受到了伤害,尤其是机器人心理学家苏珊·凯文(Dr. Susan Calvin)博士。苏珊·凯文出于感情上的报复心理,让赫比陷入了一个无法解决的逻辑悖论,最终导致了他的崩溃。

和阿西莫夫很多其他小说一样,这篇小说的主题仍然是机器人三定律。不同的是,当机器人具有了心灵感应的能力时,第一定律中伤害的定义由仅仅是物理上的伤害延伸到了精神上的伤害。这一篇很有意思,看机器人如何撒谎戏耍人类。

第六篇 消失无踪

2029年,超空间基地发现一个NS-2型机器人纳斯特十号,因为工作人员的责骂而失踪了,一切工作陷入停顿,而这个机器人却藏在了相同其他型号的62个机器人当中无法被找到。这个机器人非常特殊,因为他的第一定律,是被修改过的,删除了“不得袖手旁观坐视人类受到伤害“这一部分。

最后,机器人心理学家苏珊·凯文(Dr. Susan Calvin)博士用自己的方法找到了他。苏珊提出,修改后的第一定律会破坏正子脑的平衡,是非常可怕的行为。

“机器人——任何一个机器人——都要比人类优越。那么,是什么使他们甘心为奴?只有第一法则!啊,没有它的话,你对机器人下的第一道命令,就会为你惹来杀身之祸。不稳定而已吗?你是怎么想的?”

第七篇 逃避

讲人类为了避免宝贵的金头脑计算机,因接收相互矛盾指令而崩溃,向金头脑打了个预防针,结果金头脑在处理恒星跃迁可能导致人类暂时死亡问题时,用幽默感绕过问题,为人类做出第一台恒星际迁移机器。

人类向银河系的殖民,正式拉开帷幕。

第八篇 证据

2032年,证据讲述拜尔莱因自身伤残,制造出了一个年轻力壮堪称完美的人形机器人,并让他用自己的身份竞选市长。期间有人怀疑他是机器人,机器人拜尔莱就用殴打人类的方式,证明自己是人,后经苏珊博士看破,他殴打的那个,也是机器人。

喔,真相永远无法水落石出。我认为他是,但当他决定离世时,他自己走进原子分解炉,所以不会留下任何证据——何况,那又有什么分别呢?”“这……”“对于机器人,你也有相当非理性的偏见。他是一位非常优秀的市长;五年后,他果然成为界域总协。而在2044年,当地球各个界域组成联邦时,他成为首任的世界总协。不过那个时候,反正已经是机体在治理这个世界。”

想要《西部世界》里的一句话,if you cannot tell,does it matter?

让机器人去选举市长怎么了?如果你根本无法分辨他是不是机器人,那又和人类有什么不同呢?只要他是一个好市长,况且他比人类治理的好多了。

第九篇 可避免的冲突

2052年,拜尔莱即将卸任第二任世界总协。可避免的冲突讲的是地球总协拜尔莱发现地球出现了一些经济问题,这在完全有机体控制的时代原本不应该发生。

他拜访了地球四大副总协还是没找到合适理由,机器人心理学家苏珊最终告诉他,这或许是机体有意为之,清理掉对机体工作有偏见的人类,暗暗引导人类奔向机体认为最理想的生活。把所有人类无法避免的冲突,都变成了可避免的冲突。

全书最后一篇,机体开始治理世界,人类对未来,已经失去自己的决定权。至此在机器人的帮助下,人类在银河系如蝗虫般繁衍扩张,直至整个银河被统一,一个统治超过2500万个住人行星、疆域横跨十万光年、总计数兆亿人口的庞大帝国崛起——银河帝国。

《银河帝国》是(美)艾萨克·阿西莫夫所作的系列科幻小说。包括:《银河帝国:基地》《银河帝国2:基地与帝国》《银河帝国3:第二基地》《银河帝国4:基地前奏》《银河帝国5:迈向基地》《银河帝国6:基地边缘》《银河帝国7:基地与地球》《银河帝国8:我,机器人》《银河帝国9:钢穴》《银河帝国10:裸阳》《银河帝国11:曙光中的机器人》《银河帝国12:机器人与帝国》《银河帝国13:繁星若尘》《银河帝国14:星空暗流》《银河帝国15:苍穹一粟》。


读后感

让我们来看以下,电车难题(The Trolley Problem)

“电车难题”是伦理学领域最为知名的思想实验之一,

在这本书中,主要假设了有以下四种情况的案子:

1,达芙妮·琼斯女士看到了失控的电车,而铁轨上有五个人,琼斯女士扳动岔道的开关,将电车引向只有一个人在的岔道上,并致法利先生死亡;

2,同样是失控的电车,轨道上有五个人,阻止电车的唯一方法,就是在轨道上投以重物,然后天桥上并没有重物,只有一名胖子,弗兰克将这名胖子推下天桥,造成了他的死亡,但拯救了轨道上的五个人;

3,高速公路上的一场车祸导致六名伤员被送至医院,其中两名需要肾移植,一名需要心脏移植,一名需要肝移植,一名需要肺移植,而六号病人没有明显严重的伤情,梅普斯医生将摘取了最后一人的所有器官移植给前面五个人,并挽救了他们的生命;

4,你本人被绑在岔道上,你看见一辆失去控制的电车朝正线上的五个人冲去。你的脚够得到道岔的开关,可以将电车转向你自己,这样你自己就会死,但另五人就会因此得救。你是否会扳动道岔呢?

电车难题最早是由哲学家Philippa Foot提出的,用来批判伦理哲学中的主要理论,特别是功利主义。功利主义提出的观点是,大部分道德决策都是根据“为最多的人提供最大的利益”的原则做出的。

从一个功利主义者的观点来看,明显的选择应该是拉拉杆,拯救五个人只杀死一个人。但是功利主义的批判者认为,一旦拉了拉杆,你就成为一个不道德行为的同谋——你要为另一条轨道上单独的一个人的死负部分责任。

然而,其他人认为,你身处这种状况下就要求你要有所作为,你的不作为将会是同等的不道德。总之,不存在完全的道德行为,这就是重点所在。

许多哲学家都用电车难题作为例子来表示现实生活中的状况经常强迫一个人违背他自己的道德准则,并且还存在着没有完全道德做法的情况。

其实我突然想到这个哲学课的经典问题,想说的是人性的复杂程度,单靠“机器人三大定律”是绝对不可能让机器人在所有问题上作出绝对正确的选择的,因为很多时候,这个世界不存在“绝对的正确”,触碰到【灰色地带】的时候,人类大多无法抉择,更何况是人类编程的机器人。

《我,机器人》这本书最有趣的地方就是,阿西莫夫提出了机器人三大定律,又用九个故事一一打破这三大定律,寻找漏洞,又填补漏洞,使得整本小说即是科幻,又有一点儿推理小说的味道。九个短篇组成了从保姆机器人时代,到机体统治管理人类的时代。同时也非常通俗易懂。

如果你认为机体治理后,真个银河系都会完美的发展壮大下去了,那么你又错了,真个机器人系列,只是《银河帝国》这个庞大的故事构架的前奏,更加精彩的内容,还在后续慢慢展开。

我个人感觉神经网络机器学习比较像一种“基于大数据的统计回归”,也就是本质上没有做出什么最底层、最基础原理的大突破,主要原理还是数理统计。人工智能真正的突破我觉得会来源于人类脑计划还有神经科学的突破,而不是计算机科学。

所以大家可以放心,目前人类的人工智能还只是处于菜的抠脚的弱人工智能阶段,想要突破深度学习的困境,恐怕还有很长很长的路要走,也有可能永远也突破不了。

阿西莫夫畅想的这些场景,或者《西部世界》里host觉醒的场景,我的有生之年恐怕很难见到了,只能期盼着技术爆炸科技革命了。目前看来我们可以放心大胆的跟Siri聊天,不用担心它知道的太多哈哈哈。

阅读剩余内容
网友评论
相关内容
拓展阅读
最近更新