Vitalik:超智能人工智能非常危险

AI 超级智能 风险 2024-05-21 77
火币HTX报道中,以太坊联合创始人Vitalik Buterin在X平台上表达了他对人工智能发展的深刻看法。他指出,超级智能AI的风险很高,我们不应该草率地推动其发展,也应该反对那些试图加速推进的人。他呼吁不要建立规模庞大的7T服务器,而是倡导运行在消费硬件上的开放模型,这样可以防止未来人工智能的价值过度集中,避免少数中央服务器掌控大多数人类思想的局面。与大型企业和军方相比,这种模型也降低了毁灭性风险。

此外,Vitalik Buterin还提出将人工智能分为小和大类别,并对大类别进行监管的观点。他认为405B规模的AI与消费者硬件相比较大,但仍在可控范围内(70B则不是),然而令人担忧的是,许多当前的提案最终可能导致一切都滑向大类别,这需要引起人们的高度关注。

相关推荐