人工智能是否安全,或者”天网”将何时到来?

尽管AI能够学习简单的事情,比如:驾车或讲本国语言,但它们依然无法代替人类做自主决策。从短期角度来看,AI很可能导致某些’附带伤害’,例如:消灭出租车司机这一职业,但无法对人类产生全球性的威胁。

亿万富翁投资人埃隆•马斯克的近期动向、Google I/O大会上Google的Now on Tap服务发布以及《机械姬》首映是否有着共同之处呢?这三者之间的共同理念是人工智能,或更精确地说,就是如何通过对人工智能加以限制来真正服务于人类而非对人类造成伤害。

目前人工智能够做哪些事情?

对于那些还不太熟悉人工智能的读者,我想通过列举几个事实来说明这些”进化机器”目前所能代替人类做的事情。

如今,Goolge的语音辨识精确度达到了92%,而就在两年前这一数字仅为77%;而Google所开发的AI平台会自己学习玩一些经典的电子游戏。此外,微软还教一个机器人识别图片(或更精确地说,是在图片中观察某些物体),其辨识错误率仅为4.94% –令人惊讶的是,竟然比人类的平均错误率还要低。

Google的统计数字显示,截至目前为止,其无人驾驶汽车在加利福尼亚的行驶距离已超过180万英里,总计6年时间里仅发生了13起车祸,其中只有8起应由无人驾驶汽车负责。

所有这一切都证明,即使在短期内开发出成熟AI(人工智能)的可能性不大,但与之类似的技术将不可避免地在最近几十年里出现。

考虑到这一点,来自’更智能’机器的影响只限于虚拟领域的观点就无法认同了。这里有一个极端的例子:无人驾驶飞行器,即”无人机”,虽然完全靠自身飞行,当向目标开火的指令依然必须由人类发出。这也是美国在巴基斯坦和其他危险地区打击恐怖分子时,更乐意采用的方式。

程序员能否创造出一个可靠的’安全锁机制’以防止AI做出不道德行为呢?

有关此类任务自动化运行的可能性已被广泛地讨论。去年正值《终结者》系列电影30周年纪念,你完全可以想象一旦在不久的将来做出这样的决定,会造成怎样的毁灭性后果。

我并不想讨论过多所谓”世界末日的场景”,只是想将关注于一些实际的问题。其中一个问题:程序员能否创建一个可靠的’安全锁机制’以防止AI做出不道德行为呢?

导致这样的行为可能因为不同原因造成,其中最可能的就是人类与AI之间的资源冲突。然而,也可能有其它的情景出现。如果将来AI对人类作出伤害的行为,那完全可能是故意而为之。在史坦尼斯劳•莱姆的伟大作品《Summa Technologiae》中有一个很好的例子。其中的理念基本上来说是这样的:

“假设’黑盒子’(AI)的预测区块可检测出影响人类体内平衡状态的潜在危险…而上述的危险被证明是人类过快的人口增长速度(因极大超过文明承载能力而无法满足人类基本需求)所导致。

假设’黑盒子’的其中一个外部渠道告知系统需要使用一种新的化学化合物,不会损害个人健康,但会抑制人类生育。

随后’黑盒子’决定在某个国家的饮用水系统内注入微小剂量的化合物,但面临两难的境地:是告知人类社会并可能遭受反对或干脆向人类社会隐瞒以保持目前的平衡(为了更美好的将来)。”

这里我们可以看到,这样一个单纯的优化问题是通过如此巧妙、简单和高效但却完全不道德的方式予以解决,即在不征得人类的同意下故意限制人类生育。

我认为这样的基础设施管理领域就应由一个强大的AI系统负责,其成本/利率比将远优于机器人秘书或厨师。

向机器人教授道德伦理:如何集成入安全锁?

出生在20世纪的年轻人应该会立即想到阿西莫夫机器人三定律,但这还远远不够。通过上述例子证明,在不必伤害任何人的情况下就能大幅减少人口(还需记住,这样做是为了更为好的未来)。

此外,还有其它一些选择可能会对人类不利。比如,在定义’伤害’概念时找到漏洞、委派(非自己执行)伤害人类的任务或者自己暗中破坏规则。

“对人类友善”的规则可能会被聪明的AI重新审视。下面是AI专家Roman Yampolsky针对这一问题的意见,引述自他的访谈:

“更糟糕的是,任何真正智能系统都会以同样的方式对待”友善”的设定,就如同那些聪明的人在头脑中处理那些带限制性条件的社会活动一样。它们基本上也会对这些限制带有偏见并学习如何去除…为何一台超级智能机器就不能通过相同的”精神净化”并毫无合理性地让让人类来利用它的弱点呢?

对于’安全锁’的技术概念化相当现实。基本来说,所谓的’驯服’AI必备工具-‘安全锁’,不是别的而正是广泛用于类似Java或Flash这样现代运行时环境安全性的’沙盒’。

众所周知,正如近期出现的Venom bug所带给我们的启示,不存在任何’理想’沙盒且从沙盒逃脱完全有可能。依赖于灵活性和强大运算能力的AI将是理想的安全测试者候选人,可以让它在自己的沙盒开发中寻找漏洞。

技术研发部负责人Andrey Lavrentiev看到了下面的这些问题:

“一个成熟的AI系统将能通过自身安装的大量传感器理解’所有’的意思。限制其行为的政策应根据概念或AI’大脑’中形成的图像来定义。”

如今,机器的图像识别能力强于人类,但在调整图片以及寻找它们之间关联性方面依然逊于人类。

如今,机器的图像识别能力强于人类,但在调整图片以及寻找它们之间关联性方面依然逊于人类。例如,现代AI依然无法拥有’常识’。一旦这一情况发生改变,机器将突破最后一道防线并学会如何操控感知的目标和动作,人类要想再集成入任何’安全锁’已再无可能性。

“此类超级智能能够比人类更快地在感知到的数据内分析依赖性,从而找到绕过人类所强加的规则和限制的方法,从此按照自己的意愿行事。”

旨在防止AI做出伤害人类行为而设定的限制,可能被AI在现实世界中有效隔离,即寻找机会通过操控物品来去除限制。然而,在实际使用中借助这一方法摆脱限制的成功率接近零。有趣的是,这一方法毫无实用价值,因为AI的主要武器将是…我们,人类。

成功的几率在近期上映的科幻电影《机械姬》中有所描述。就像其它此类型的好莱坞电影一样,该部电影充斥着激烈的争论以及极大高估了问题的严重性。但所定义的问题核心却出奇的正确。

首先,即使最原始的机器人也有能影响个人情绪状态的能力。一款技术陈旧且编程简单的ELISA聊天机器人(想要和’她’聊天吗,点击这里),仅通过一些带同情心和礼貌的提问,就能从人类对话者的言语中发现重要的个人信息

其次,我们越来越多地依赖机器人化的算法对信息进行过滤和分类。正如近期一项颇具争议的Facebook试验所证明的,某些管理这些数据流的人也可能会影响用户的情绪以及他们做决定的倾向。

尽管我们在上述例子中建议可以借助AI间接治理城市或国家,以及执行单独的辅助功能,但AI依然可能给出被证明从长远看依然是不道德的解决方案。就这一点而言,AI对所作决定的结果了然于心,而活着的人类则根本无法知晓。

在私人生活中,这一影响可能出现地相当快,而且更加有效果。在近期举办的Google I/O大会期间,全新的Now on Tap系统得以发布。它能查看用户智能手机上的所有应用程序,整合上下文数据并运用于在线搜索。

例如,如果你在维基百科应用程序上读一篇有关某个音乐家的文章,并询问Google”他何时举办音乐会?,机器人将会立即精确地知道你问题中的’他’指的是谁。有帮助的机器人在飞机预计起飞前的几个小时会提醒我们应该赶去机场,证明了它是一个机智且有悟性的’私人助理’。

当然,这并不是一个能够专门处理这些助理工作的成熟AI –它仅仅是一个自我学习系统,旨在对各项任务进行有限的选择。其行为完全都是人工预先设定好的,因此是可预测的。

然而,计算能力的进步可能会让这种简单的机器人变得更为复杂。确保其是为用户好而操控可利用数据,而非有其它隐藏的不良企图。

这个世纪难题让许多’聪明的脑袋’花费了大量的时间和精力,从史蒂芬•霍金到埃隆•马斯克。霍金仅仅被认为是保守的思想家,害怕同时也反对科技进步。而与之成鲜明对照的是,特斯拉和SpaceX公司的投资人马斯克则迫切地渴望展望未来。然而,他将AI进步视为最具争议的未来趋势,尽管结果依然不可预知且可能会带来毁灭性的后果。这也是为什么他在今年早些时候投入1000万美元用于AI研发

既然如此,未来等待我们的将是什么?

也许听起来有些奇怪,但最可能的情况(专家们都想得过于理想化)是根本无法创造出一种成熟的AI。如果无法出现重大技术突破(就目前来看依然遥遥无期),机器人将只能不断更新升级,并持续改进他们现有的一套技术。

尽管AI能够学习简单的事情,比如:驾车或讲本国语言,但它们依然无法代替人类做自主决策。从短期角度来看,AI很可能导致某些’附带伤害’,例如:消灭出租车司机这一职业,但无法对人类产生全球性的威胁。

我们是否应害怕人工智能?

Andrey Lavrentiev认为只有在唯一条件下,AI与人类之间才有可能产生冲突:需要共享相同的资源。

“人类拥有身体并对如何创造更便利的条件感兴趣(以及思想的便利)。而AI的情况则恰恰相反:它最初只存在于数字世界中。”

“AI的主要目标和行为动机是通过外部渠道或其’感觉器’完全处理所提供的信息,加以评估并确定其改变的原理”。

“当然,AI也能依靠某些物质基础,但其赖以生存的’外壳’相比人类身体要脆弱许多。AI与人类相反的是,它不会一直呆在’外壳’(或’身体’)里,事实上AI可以’无处不在’。AI扩大范围搜寻新信息的有机延伸,可能演变为太空探索和学习宇宙法则,进而将自己散播到太空。”

“然而,即使真的出现这种情况,也会出现某些意想不到的隐患。一旦超级智能将人类或整个宇宙视为其数字模式中的缺陷,就会不遗余力地予以消灭从而达到和谐。或者,有另一种可能,超级智能需要将人类作为资源消耗品用来’探索太空’,重现许多科幻电影中’AI与人类大战’的壮丽场面。”

提示