机器智能研究所(MIRI)发布声明,呼吁全球停止研发比人类更聪明的AI系统,认为其潜在风险可能导致人类灭亡。这一呼吁得到了部分科技界领袖的支持,但同时也引发了争议。MIRI 强调,当前的AI发展速度过快,立法监管难以跟上,因此需要采取更积极的措施,例如强制安装“关闭开关”,以应对AI潜在的恶意行为和不可预测的风险。该研究所认为,只有在确保AI安全可控的情况下,才能继续推进更高级AI系统的研发。
非营利性研究团体机器智能研究所(MIRI)呼吁全球停止基础或 “前沿” 模型研究,担心其安全问题可能威胁人类生存。基础模型是一种能够应用于多种模式的人工智能系统。MIRI 认为,基础模型将会比人类更聪明,并且有可能 “毁灭人类”。

在科技领域,包括埃隆・马斯克和史蒂夫・沃兹尼亚克在内的一些领军人物,曾呼吁暂停研发比 OpenAI 的 GPT-4更强大的基础模型。但 MIRI 希望更进一步,最近公布的沟通策略呼吁全面停止尝试构建任何比人类更聪明的系统。
该团体称:“政策制定者主要通过妥协来处理问题:他们通过在某个地方让步来获得另一方面的好处。我们担心,为了保持人类生存的大部分立法将通过通常的政治过程并被磨成无效的妥协。同时,时钟正在滴答作响。人工智能实验室继续投资于开发和训练更强大的系统。我们似乎还没有接近获得所需的全面立法。”
MIRI 希望政府迫使开发基础模型的公司安装 “关闭开关”,以便在 AI 系统发展出恶意或 “x 风险” 倾向时可以关闭 AI 系统。
该非营利组织表示,他们仍然致力于智能系统比人类更聪明的理念,但希望在 “我们知道如何安全地构建此类 AI 之后再建造”。
MIRI 由 Eliezer Yudkowsky 于2000年创立,支持者包括 Peter Thiel 和以太坊加密货币的联合创始人 Vitalik Buterin。而 Future of Life Institute(生命未来研究所)也是 MIRI 的主要贡献者之一。
AI 和数据分析研究公司 Omdia 的首席分析师 Bradley Shimmin 表示,由于缺乏支持性研究,MIRI 将很难说服立法者。他说:“市场已经考虑了这些问题,并得出结论:基于转换器的 GenAI 模型的当前和近期未来的艺术状态除了创建复杂主题的有用表示之外,几乎不能做任何事情。”Shimmin 表示,MIRI 正确地识别了那些构建和监管人工智能之间的知识差距。
划重点:
- 非营利性研究团体机器智能研究所(MIRI)呼吁全球停止基础或 “前沿” 模型研究,担心其安全问题可能威胁人类生存。
- MIRI 希望政府迫使开发基础模型的公司安装 “关闭开关”,以便在 AI 系统发展出恶意或 “x 风险” 倾向时可以关闭 AI 系统。
- AI 和数据分析研究公司 Omdia 的首席分析师 Bradley Shimmin 表示,由于缺乏支持性研究,MIRI 将很难说服立法者。
MIRI 的呼吁引发了关于 AI 安全性和发展速度的广泛讨论,其观点虽然极端,但也凸显了对人工智能潜在风险的担忧,值得业界和政府认真反思和考量。未来,如何平衡人工智能发展与安全风险,将是一个重要的课题。