出品 | 搜狐科技


(资料图片)

作者 | 郑松毅

3月29日消息,特斯拉CEO埃隆·马斯克与上千名人工智能专家及AI行业高管签署联名信,呼吁暂停训练比GPT-4更强大的人工智能系统至少六个月,理由是这种系统对社会和人类构成潜在风险。

截至目前,图灵奖得主 Yoshua Bengio、特斯拉 CEO(OpenAI 联合创始人)伊隆・马斯克、苹果联合创始人 Steve Wozniak、等 1000 多人已经在这封公开信上签名。

搜狐科技从公开信中了解到,具备与人类竞争能力的AI智能系统可能会对社会和人类构成严重的风险。正如广泛认可的Asilomar AI原则中所述,高级AI可能代表地球生命史上的深刻变化,应以相应的关怀和资源进行规划管理。不幸的是这种级别的管理没有出现,而出现的是失控的趋势。没有人,甚至它们的制造者都无法理解、预测、或可靠的控制。

针对AI智能与人类之间的竞争,公开信中提出以下几个问题:

是否应该让机器用宣传和谎言充斥我们的信息渠道? 我们应该自动化所有工作,包括令人满意的工作吗? 我们是否应该发展最终可能超越我们、并取代我们的非人类思维? 我们应该冒险失去对我们文明的控制吗?

公开信表示,只有当我们确信它们是积极影响,且风险是可控的情况下,才应该开发更强大的人工智能系统。

OpenAI最近发布的关于人工智能的声明中指出,“在某些时候,开始训练未来系统之前进行审查很重要,为了AI智能更优的发展,现在同意对于创造新计算机模型的增长率做出限制”。

公开信表示,人工智能实验室和领域专家应利用此次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督,这些协议主要是为了保证它们的系统是安全的。公开信指出,这并不表示总体上暂停AI开发,而是从不可预测的大型黑盒模型的危险竞赛中后退一步。

公开信呼吁,人工智能研究和开发应该重新聚焦于使当今强大的、先进的系统更准确、安全、稳健、透明、可解释、一致、可靠和忠诚。

同时,AI开发人员应与政策制定者合作,加快开发强大的AI治理系统。该系统至少应包括:

专门负责AI的监管机构; 监督和跟踪高性能人工智能系统和大量计算能力; 强大的审计和认证生态系统; 可识别人工智能造成的伤害的责任; 为AI智能安全研究提供强大的公共资金,以及充足的资源来应对人工智能将造成的巨大经济和政治破坏。

公开信在最后表示,人类可以享受人工智能带来的繁荣未来。当前,社会已暂停其他可能会对社会造成灾难性影响的技术。让我们一起享受一个AI漫长的夏天,而不是毫无准备地陷入秋天。

据悉,该公开信在早期发布时间就已经在全球范围内持续发酵,社会人士对这封公开信各持己见,较多数人表示支持,较少数人反对。支持的人是为了避免AI智能过度发展,不可控的情况下给人类带来危害;而反对的人则是享受AI智能带来的便捷性,并认为停下代表将被落后淘汰,因为并不是所有人都会停下。

当下,ChatGPT、Adobe AI等智能应用给人们带来便捷享受感的同时,AI智能恶意“脱衣”地铁女子、AI漫画版权无人维护等负面问题也随之而来,然而这些AI智能带来的副作用是否已经触碰到了法律底线?

搜狐科技认为,我们用发展的眼光看待AI智能应用的同时,也需要用理性的目光审视AI带来的负面影响,并应及时策划解决方案。

对于当下AI智能发展水深火热的态势,您怎么看?

推荐内容