以太坊的远见卓识的联合创始人 Vitalik Buterin 发出了一个严厉的警告,反对超级智能 AI 的发展。 “我们必须避免一个大部分人类思想都被少数人控制的几个中央服务器读取和调解的世界,”他在最近发布在 X 的帖子中写道。
在一个日益依赖技术的世界里,他的警示言论对那些梦想由先进人工智能塑造的乌托邦未来的人来说是一个震撼。Buterin 的担忧不仅是理论上的。他强调了追求可能超越人类智能的 AI 所带来的实际风险。
超级智能 AI 非常危险,我们不应该急于求成,我们应该反对那些尝试的人。请不要再建造 7 万亿美元的服务器农场了。
Buterin 对 AI 发展的立场充满讽刺意味。这里是一位推动区块链技术界限的人,敦促对另一个前沿技术保持谨慎。他的信息很明确:创新不应以牺牲人类安全为代价。这一警告引起了那些记得过去技术飞跃带来意外后果的技术行业人士的共鸣。
在他看来,追求超级智能 AI 是充满危险的。创造一个可能比其创造者更聪明的实体的风险太大,无法忽视。Buterin 的论点依赖于这种 AI 可能以对人类有害的方式行动,远超开发者的控制能力。
这不仅仅是猜测。过去技术进步带来的意外后果的历史前例使他的担忧更具分量。
Buterin 的谨慎态度还扩展到 AI 发展的更广泛伦理影响。他建议采取一种更为审慎的方法,优先考虑安全和伦理问题。这里的呼吁不是阻碍创新,而是确保创新在不危及人类福祉的情况下进行。这是对一个通常以不懈向前推进而著称的领域求得平衡的呼唤。
金融界总是在寻找下一个大事物,可能会发现 Buterin 的警告是一个清醒的提醒。对 AI 的投资正在飙升,有着革命性产业的承诺。然而,Buterin 的信息起到了及时的制衡作用。它提醒我们,强大的能力伴随着巨大的责任。
在一个技术乐观主义常常压倒谨慎的时代,Buterin 的警告是一个重要的理性声音。对于投资者和开发者来说,意义是明确的:继续前进,但要谨慎。AI 发展的未来应在对其潜在风险的敏锐意识中航行。