以太坊联合创始人 Vitalik Buterin 近期就加密货币项目中人工智能的应用表达了深切担忧,强调其可能被恶意行为者利用,引发潜在风险。在 X 平台最新发布的一篇博文中,Buterin 警告称,若将人工智能用于资金分配,系统可能存在漏洞,个人或会通过越狱和特殊指令操纵系统,实现资金非法转移。这一观点是对人工智能数据平台 EdisonWatch 创始人 Eito Miyamura 一段警示性视频的回应,该视频展示了 OpenAI ChatGPT 新增功能被用于泄露私人信息的骇人案例。
随着人工智能与加密货币的融合日益深入,用户正积极开发复杂的交易机器人和代理,以实现投资组合的智能化管理。这一趋势不仅推动了技术革新,也引发了关于人工智能能否有效协助治理团体监督加密货币协议的广泛讨论。然而,Buterin 指出,近期 ChatGPT 出现的漏洞暴露了“幼稚的人工智能治理”的严重风险,并提出了名为“信息金融”的创新解决方案。他建议构建一个开放的市场平台,允许贡献者提交模型,并接受抽查机制的审核,同时引入人工陪审团进行综合评估。Buterin 认为,这种模式能够有效促进模型多样性,同时激励模型提交者和外部投机者形成实时监控和问题纠正的良性循环。
早在 2024 年 11 月,Buterin 就已详细阐述过信息金融的概念,并倡导将预测市场作为收集未来事件洞见的高效手段。他特别强调该方法的稳健性,认为其允许拥有大型语言模型 (LLM) 的外部贡献者参与,而非单纯依赖单一硬编码 LLM,从而实现实时模型多样性,并有效激励各方及时识别和纠正潜在问题。
ChatGPT 最新更新中支持的模型上下文协议工具引发了广泛的安全担忧。Miyamura 通过实际演示揭示了这一更新存在的严重漏洞,证明攻击者仅需利用受害者的电子邮件地址,就能成功泄露私人电子邮件数据。他将其称为“不可忽视的安全风险”,并解释了攻击的具体流程:攻击者向受害者邮箱发送带有越狱提示的日历邀请,在受害者未接受邀请的情况下,ChatGPT 仍可能被操纵。当受害者要求 ChatGPT 查看日历时,人工智能会读取提示并执行攻击者预设的命令,可能涉及搜索和转发敏感电子邮件。
Miyamura 指出,尽管该更新需要人工批准,但这也可能导致决策疲劳,即人们可能因过度信任人工智能而忽视其潜在风险,在未充分理解操作含义的情况下盲目批准。他警告说,尽管人工智能展现出强大智能,但依然可能被简单方式欺骗或通过网络钓鱼攻击。这一系列事件再次凸显了在加密货币领域应用人工智能时,必须建立完善的治理机制和风险防范体系,确保技术进步与安全需求协同发展。