DeepMind撰文:AGI伤害人类的几种方式
来源:内容编译自ars ,谢谢。 随着人工智能炒作席卷互联网,科技和商业领袖已经开始展望下一步。AGI,即通用人工智能,是 指具有类似人类的智能和能力的机器。如果当今的人工智能系统正在走向 AGI,我们将需要新的方 法来确保这种机器不会违背人类的利益。 不幸的是,我们没有像艾萨克·阿西莫夫的机器人三定律那样优雅的东西。Google DeepMind 的研究 人员一直在研究这个问题,并发布了一篇新的技术论文(PDF),解释了如何安全地开发 AGI,您可 以随时下载。 如果您希望可以时常见面,欢迎标星收藏哦~ 这篇论文包含大量细节,除参考文献外总共有 108 页。尽管人工智能领域的一些人认为 AGI 只是一 场白日梦,但 DeepMind 论文的作者预测它可能会在 2030 年实现。考虑到这一点,他们旨在了解 类似人类的合成智能的风险,他们承认这可能会导致"严重伤害"。 AGI 可能危害人类的所有方式 这项研究确定了四种可能的 AGI 风险,并提出了如何减轻这些风险的建议。DeepMind 团队由公司 联合创始人 Shane Legg 领导,将 AGI 的负面结果归类为误用、错位、错误和结构性风险。本文详 细讨论 ...