返回第二百一十六章 梅如画很贵(第1/4页)  西游科技首页

关灯 护眼     字体:

上一章 目录 下一页

    【】    要在给人工智能的目标里制定一个能让人类继续进化的能力。这个目标叫作连贯的外推意志,这个目标是这样的:     我们的连贯外推意志是我们想要知道更多,思考得更快,变成比我们希望的更好的人,能一起更远得长大。     外推是汇集的而不是发散的,我们的愿望是连贯的而不是被干扰的;我们想要外推的被外推,我们想要解读的被解读。     对于人类的命运取决于电脑没有意外的解读和执行这个声明是件值得兴奋的事情吗?当然不是。     但是当足够的聪明人放入足够的思考和前瞻后,我们有可能发现怎样制造一个友善的超人工智能。     但是现在有各种政府c公司c军方c科学实验室c黑市组织在研究各种人工智能。他们很多在试图制造能自我改进的人工智能,总有一天,一个人的创新将导致超人工智能的出现。     可能在未来的10年到21世纪结束这段时间发生,他还认为当这发生时,智能的起飞会快得让我们惊讶,他是这么描述的:     在智能爆炸之前,人类就像把炸蛋当玩具的小孩一样,我们的玩物和我们的不成熟之间有着极大的落差。     超级智能是一个我们还很长一段时间内都无法面对的挑战。我们不知道炸蛋什么时候会爆炸,哪怕我们能听到炸蛋的滴答声。     我们当然没有办法把所有小孩都从炸蛋旁边赶跑——参于人工智能研究的大小组织太多了,而且因为建造创新的人工智能花不了太多钱,研发可能发生在社会的任何一个角落,不受监管。     而且我们没办法知道准确的进度,因为很多组织是在偷偷摸摸的搞,不想让竞争对手知道,比如隔壁老王机器人公司这种公司。     对于这些组织来说,尤其让我们困扰的是他们很多都是在拼速度——他们创造一个一个更加聪明的弱人工智能系统,因为他们想要比竞争对手更快的到达目标。     有些更有野心的组织,为了追逐创造出第一个强人工智能所能带来的金钱c奖励c荣誉c权力会把步子迈得更大。当你全力冲刺时,你是不会有太多时间静下来思考这些危险的。     恰恰相反,他们很可能在早期系统中写尽量简单的代码,比如把目标设定成用笔写一句话,先让系统跑起来再说,反正以后还可以回过头来改的。对吧?     第一个超人工智能出现后,最可能的情况是这个系统会立刻意识到作为这个世界上唯一一个超人工智能是最有利的,而在快速起飞的情况下,哪怕它只比第二名快了几天,它也完全有时间碾压所有对手。     这叫作决定性的战略优势,这种优势会让第一个超人工智能永远统治这个世界,不管在它的统治下我们是走向永生还是灭亡。     这种现象可能对我们有利,也可能导致我们的毁灭。如果那些最用心思考人工智能理论和人类安全的人能够最先造出一个友善的超人工智能的话,那对我们是很好的。     但是如果事情走向了另一面——如果超人工智能在我们搞明白怎样保证人工智能的安全性之前被达成,那么像隔壁老王这样不友善的超人工智能就会统治世界并把我们毁灭了。     至于现在的风口是哪里呢?简单来说,投资创新人工智能技术的钱,比投资人工智能安全研究的钱多很多。不乐观。     人工智能创新和人工智能安全的赛跑,可能是人类历史上最重要的一次竞争。我们真的可能结束我们对地球的统治,而那之后我们是永生还是灭绝,现在还不知道。     一边是对于我们这个物种的思考,看来我们在这个重大的历史节点上只有一次机会,我们创造的第一个超人工智能也很可能是最后一个。     但是我们都知道大部分产品的10版本都是充满bug的,所以这个事情还是很吓人的。     另一边,我们有很大的优势——我们是先手。

『加入书签,方便阅读』

上一章 目录 下一页