精密电阻
NEWS

如何确保人工智能符合我们的利益

对于超级人工智能的出现,我们非常期待,因为它的出现意味着可以高效地完成许多工作。

但是,作为声称远远胜过最聪明和最有才华的人类的AI,关于它可能带来的灾难性风险的讨论一直没有停止。

最近,由一组科学家组成的研究小组使用理论计算来证明遏制算法无法控制超级人工智能。

这项研究主要是为了解决牛津哲学家尼克·博斯特罗姆(Nick Bostrom)提出的控制问题:我们如何确保超级人工智能符合我们的利益?根据超级人工智能的假设问题,研究人员构建了一种理论上的遏制算法,该算法可以模拟AI的行为并在AI程序的动作中存在有害行为时自动停止程序以解决问题。

分析人员在尝试运行测试模型时,对结果进行了分析,发现建立一种可以控制超级人工智能的机器算法从根本上来说是不可能的。

小组成员Iyad Rahwan表示,如果将问题分解为理论计算机科学的基本规则,就会发现命令AI不能破坏世界的遏制算法可能会无意中止其自身的运行手术。

如果发生这种情况,则用户实际上不知道遏制算法是否仍在分析超级人工智能的可能威胁,或者它是否已成功停止有害的AI。

因此,这种情况的出现将导致遏制算法的无效使用。

根据研究发现,由于计算的基本局限性,目前尚没有一种算法可以成功地计算出超级人工智能是否会危害世界。

假设超级人工智能将包括一个包含通用图灵机的程序,该图灵机可以在输入时执行与世界一流情况一样复杂的所有程序,并根据如此高的标准来建立遏制和遏制算法。

在此基础上,超级AI程序执行仿真,这在理论上是不可能的。

到目前为止,这种类型的超级AI仍然仅限于幻想领域,但是研究人员说,人工智能技术的发展正在朝着科幻小说家所设想的超级智能系统的方向发展。

马克斯·普朗克人类发展研究所的研究团队成员之一曼努埃尔·塞布里安(Manuel Cebrian)说,已经有可以独立执行某些重要任务的AI机器,而程序员却不能。

学会了做。

因此,基于这种存在,提出了一个问题,即它是否在某些时候对人类可能变得不可控制和危险。

无论如何,发展超级人工智能的趋势不会按下暂停按钮。

仅仅是遏制超级人工智能的方法就必须跟进。

只有当诸如人类日常规范指南之类的法律普遍限制了超级人工智能时,才可以使用人工智能为我们提供服务,而不是造成灾难。

欢迎您的咨询

【网站地图】【sitemap】