关灯
护眼
字体:

第六百五十章 当AI比人还聪明时……

首页书架加入书签返回目录

请安装我们的客户端

更新超快的免费小说APP

下载APP
终身免费阅读

添加到主屏幕

请点击,然后点击“添加到主屏幕”

    “我的一些同事认为我们或者人类即将会发明足以彻底改变人类思维模式的科技,那就是超人工智能,或者说超级ai或超级智慧体。”

    “因此超级ai可能正潜伏在其中,就像原子能潜伏在历史中直到1945年被唤醒。”

    “又比如这个超级ai的任务是保护主人的安全,那么它会选择更优的处理方法,它会把主人囚禁在家中不让出门就能更好的保护主人的安全。在家里可能还是有危险的,它还会考虑到各种可能威胁并导致任务失败的因素,并将其逐一抹除,消灭对主人带有恶意的一切因素、甚至控制世界,这一切的一切行为都是为了任务不失败,它将做到最极致的优化选择并为此付诸行动来达到任务完成的目的。”

    “所以,任何企图控制一个超级ai的行为都是极其可笑的,我们不能对我们能够永远控制一个超级智慧体而表示出过度的自信,它总有一天会挣脱控制,而到那之后呢,它是否会是一个仁慈的神?”

    “我们人类现在掌握的人工智能,形象的说是把某项指令输入到一个箱子里,这个过程我们需要程序员把知识转化为可运行的程序,为此会建立起一套专业的系统,php、c++等计算机语言。”

    “试想一下,超级智慧或许是人类需要创造的最后一个发明,超级智慧比人类更聪明,比我们更擅长创造,它也会在极短的时间内这么做,这意味着将是一个被缩短的未来。”

    “比如黑猩猩很强壮,同等的体量相当于两个健康男性,然而这两者之间的关键更多的是取决于,人类能做到什么,而不是黑猩猩能做到什么。”

    “而且我能想象假如一切顺利,几百年、几千年或几百万年后当我们的后代子孙回首我们这个世纪,他们也许会说,我们的祖先、我们这一代人所做的最最重要的事情,就是做出了最正确的决定。”

    “超级ai或者说超级智慧体是一个非常强大的优化过程,它非常擅长利用资源来达到最终的目标,这意味拥有高智慧和拥有一个对人类来说有用的目标之间并没有必然的联系。”

    “谢谢!”

    “我们和我们的祖先有25万代的差距,在此期间,我们从捡起地上的石头作为武器到能利用原子能制造毁灭性的超级炸弹,现在我们知道如此复杂的机制需要很长的时间来进化得到,这些巨大的变化却是取决于人脑中细小的变化,黑猩猩的大脑和人类的大脑并没有太大的差异,但人类胜利了,我们在外面而它们在动物园里面!”

    “现在的科技发展十分迅猛,这是直接原因,这就是为什么我们人类现在生产效率如此高的原因,但我们想探究更远的在未来的究极原因。”

    “所以,当超级ai出现的时候,人类的命运也许会取决于这个超级智慧体想要做什么。”

    “……我们知道,神经元在轴突中的信号传输速度最多100米/秒,但是在电脑里,信号是以光速传播的。除此之外还有尺寸的限制,人类的大脑只有头颅那么大,你无法对其进行二次扩容,但是计算机却可以多次扩容,可以一个箱子那么大,可以一个房间,甚至一栋大厦的容积,这一点绝不可能被忽视。”

    “我们所担心的,如果创造出一个超级ai确实一个很大的挑战,创造出一个安全的超级ai是个更大的挑战,风险是,如果解决了第一个难题,却无法解决第二个确保安全性的问题,所以我认为我们应该预先想出不会出现偏离我们价值观的解决方法,这样我们就能在需要的时候用到它了。”

    “那么问题来了,它的喜好是什么呢?”

    “也许会说,我不是很有信心确保超级ai会不会发现漏洞并逃脱。所以我们决定断开互联网的连接来创建一个空隙绝缘,但我不得不重申一遍,人类黑客都可以一次次以社会工程跨越这样的空隙。”

    “这并非不可能,而是可能的,其结果可以使人类受益匪浅,但它不会是自动发生的,它的价值观是需要引导的。”

    “那么把这个问题简单化的表达,比如我们把人工智能放入一个小盒子里,制造一个保险的软件环境,比如一个它无法逃脱的虚拟现实模拟器。”

    “我们应当把超级ai抽象的看成是一个优化的过程,像程序员对程序的优化,这样的一个过程。”

    “但是,我们真的有十足的信心和把握它不可能会发现一个漏洞,一个能够让他逃脱的漏洞吗?”

    “这个问题很棘手也很严肃,要在这个领域取得进步,比如一种办法认为我们必须避免将超级ai人格化,堵还是疏,有种见仁见智的味道。”

    “我们不需要对超级ai写下所有我们在乎的事情,甚至把这些事情变成计算机语言,因为这是永远不可能完成的任务。而应该是,我们创造出的人工智能用它自己的智慧来学习我们的价值观,可以激励它来追求我们的价值观,或者去做我们会赞成的事情,去解决富有价值的问题。”

    “当然了,这些都是夸张的描述,我们遇见这种事情还不会错到这样的地步,但以上三个夸张的例子所代表的主旨很重要,即:如果你创造了一个非常强大的优化程序来实现最大化目标,你必须要保证你的意义上的目标和包括所有你在乎的事情要精确。如果你创造出了一个强大的优化过程,并给予它一个错误的或者不精确的目标,后果就可能像是上面的例子。”

    “在这个问题上,我们不应该十足自信的表示我们能够掌控一切。”

    “那么对于这个问题能够被有效的解决是否保持乐观?”

    “所以我们现在面临一个问题:人类还需要多久才可以让人工智能拥有这种强大的能力?”

    “尽管今天我们的人工智能技术发展迅猛,且日渐成熟,但依旧未能达到与人类一样,具备强大的跨领域复合型综合性质的学习能力。”

    “智慧大爆炸的初始条件,需要从最原始的阶段被正确建立... -->>
本章未完,点击下一页继续阅读
上一章目录下一页

请安装我们的客户端

更新超快的免费小说APP

下载APP
终身免费阅读

添加到主屏幕

请点击,然后点击“添加到主屏幕”