来源|中国经营报、参考消息


编辑|价值线  小精










英国已故科学家斯蒂芬霍金的遗作《对大问题的简明回答》定于10月16日发售。《星期日泰晤士报》10月14日透露著作内容。



霍金在书中暗示,富人不久可以选择编辑他们自己和孩子的DNA,让自己和孩子变成拥有更强记忆力、抗病力、智力和更长寿命的“超人”。


























霍金遗著封面



富人将有能力选择变成“超级物种”



霍金写道:“我敢肯定本世纪之内人们将找到修改智力和天资的办法,比如攻击性。”



“可能会制定禁止人类基因工程的法律。但是,有人肯定抵制不了改进人类特征的诱惑,比如记忆力、疾病抵抗力和寿命。”



他还说这将对未修改基因的人造成严重后果,导致他们没有竞争力。这位教授甚至警告说这可能导致人类走向灭绝。他还谈到了普通人:“他们可能会绝种,或沦为可有可无。



”未来1000年的某个时刻,核战争或环境灾难将“严重破坏地球”。可是,到那时,“我们的天才种族将已经发现了摆脱地球粗暴束缚的办法,因此能够战胜灾难”。不过,地球上的其他物种可能做不到。



他说,成功逃离地球的人很可能是新的“超人”,他们利用诸如“规律成簇间隔短回文重复系统(CRISPR)”这样的基因编辑技术超过其他人。霍金说他们会不顾禁止基因工程的法律约束,提高自己的记忆力、疾病抵抗力和预期寿命。



“已经没有时间留给达尔文的进化论来提高我们的智力、改善我们的天性了。”



这位《时间简史》作者还提到了相关基因编辑方法,比如“规律成簇间隔短回文重复系统(CRISPR)”,科学家可以借此修复有害基因并加入其他基因。报道称,尽管这类方法可能促进医学发展,但是一些批评者担心它也可能导致优生学式的运动,弱势者将被社会淘汰。




人工智能:别让人类陷入“蚂蚁窘境”



报道称,霍金对规范管理人工智能的重要性提出了严重警告,指出“未来人工智能可能形成自己的意志,与我们人类相冲突的意志”。



他在书中写道,应当制止可能出现的自动武器军备竞赛,提出如果发生类似于2010年股市闪电崩盘那样的武器崩盘,其后果将会如何的疑问。他接着写道:“总之,对人类来说,超级智慧的人工智能的出现不是福就是祸,二者必居其一。人工智能的真正危险并非在于恶意,而在于能力。超级智慧的人工智能将极其擅长实现目标。如果这些目标与我们不一致,那我们就麻烦了。



你可能不是出于恶意而踩死蚂蚁的那种邪恶的仇恨蚂蚁的人,但是如果你负责一项水力环保能源项目,而洪水淹没地区有一个蚁丘,那么蚂蚁就惨了。我们别让人类陷入蚂蚁的境况。”



地球面临的最大威胁



头号威胁就是小行星碰撞,类似那种导致恐龙灭绝的碰撞。可是,霍金写道:“我们(对此)无法防御。”更直接的威胁是气候变化。霍金写道:“海洋温度上升将融化掉冰冠,释放出大量二氧化碳。双重效应可能导致我们的气候类似于金星,气温达到250摄氏度。”



人类可实现的最佳建议



核聚变发电。这赋予我们清洁能源,不排放污染,不引起全球变暖。




相关阅读



这些年来,霍金做过的预言








1




“外星人”在看着你






在2015年伦敦皇家科学学会寻找外星生命迹象的启动仪式上,霍金就说过:“在无限的茫茫宇宙中,一定存在着其它形式的生命。”



他说:“或许外星生命会正盯着我们看呢。”“不管最终地外智慧生命到底存在还是不存在,现在该是有人正式投入进来。这个问题,我们必须要弄个明白。”



据介绍,这个项目将动用部分目前世界上最大的望远镜,更远地深入宇宙中去捕捉任何无线电波和激光信号。







2




地球将变成一个“熊熊燃烧的火球”







霍金预言称,称人类可能在2600年前就会灭绝。霍金认为,随着地球人口增长,能源消耗将会增加,地球将变成一个“熊熊燃烧的火球”。



霍金表示相信我们可以避免这样的世界末日,而最好的方法就是移民到太空,探索人类在其他星球上生活的可能。就如同1492年的欧洲,探索新大陆对旧世界带来了深远的影响。人类向太空的拓展,甚至将会产生更深远的影响,这将彻底改变人类的未来,甚至会决定我们是否还有未来。







3




千年内人类须移民外星否则“灭绝”







霍金在美国洛杉矶发表演讲时称,他认为,未来1000年内,基本可以确定的是地球会因某场大灾难而毁灭,如核战争或者温室效应。因此,他强调人类必须移居其它星球。美国航空航天局局长格里芬也表示,单独一颗行星上的物种,是不可能永久生存下来的。



在太阳系中,火星是除地球之外可供人类居住的最佳选择。但火星载人探测要几十年之后才能实施,探测一次往返要450天。



霍金表示:“人类灭绝是可能发生的,但却不是不可避免的,我是个乐观主义者,我相信科学技术的发展和进步最终可以带人类冲出太阳系,到达宇宙中更遥远的地方。”







4




智能机器是真正人类“终结者”






霍金多次表示,“彻底开发人工智能可能导致人类灭亡”。



按照霍金的说法,人工智能科技在初级发展阶段的确为人类生活带来便利,但是,机器将可能以不断加快的速度重新设计自己。而人类则受制于生物进化速度,无法与其竞争,最终被超越。科学界把这种人工智能超越人类智慧的转折点命名为“奇点”。



事实上,美国Space X首席执行官埃隆马斯克,微软创始人兼慈善家比尔盖茨,也都警告过要注意人工智能的“危害”。麻省理工学院教授、科学家、谷歌、IBM和微软等企业员工及与人工智能领域有关的投资者,也联名发出公开信,表达同样的忧虑。







5




这是我们星球最危险的时刻







英国《卫报》网站2016年12月1日刊载霍金的文章《这是我们星球最危险的时刻》。文章指出,英国脱欧公投和特朗普当选总统,都代表了那些自认为被领导人抛弃的民众的怒吼。这些被遗忘的民众拒绝了所有专家和精英的建议和指导。西方精英须以谦逊之心看待民粹,切实弥补贫富差距。



“选票背后暗藏着人们对全球化与技术加速革新所造成的经济后果的担忧,而这种心理完全可以理解。自动化工厂已经裁减了大批传统制造业岗位,人工智能的崛起很可能使就业遭破坏的情况蔓延到中产阶级,只有最需要护理能力、创造力或者管理能力的岗位才能保留下来。”



“我们应不应该反过来把投票结果看成是在宣泄粗鲁的民粹主义,认定民粹主义无法认清现实,并企图规避或者限制选票所代表的选择结果?我认为如果这样做将是大错特错的。”



“世界各国领导人必须承认,他们从过去到现在都在辜负大众的期望。随着资源日益集中到少数人手中,我们必须变得比现在更懂得如何分享。当消失的不只是岗位,还包括整个行业时,我们必须帮助人们接受再教育,迎接新的世界,必须在他们接受再教育的过程中提供经济支持。”



“我非常看好我们人类。但这需要所有精英,从伦敦到哈佛,从剑桥到好莱坞,都吸取教训。而且首先要学会保持一定程度的谦逊态度。”







(来源:价值线新媒体的财富号 2018-10-16 18:29) [点击查看原文]

追加内容

本文作者可以追加内容哦 !