鞭牛士报道,1月29日消息,据外电报道,OpenAI的一位前安全研究员表现,他对人工智能的发展速率非常担心,并告诫说该行业正在对这项技能举行非常冒险的赌博。 史蒂文·阿德勒对那些寻求快速开辟通用人工智能(AGI)的公司表现担心。AGI 是一个理论术语,指的是可以或许对抗或逾越人类的任何智力使命的体系。 阿德勒于 11 月脱离 OpenAI,他在 X 上的一系列帖子中表现,他在这家美国公司履历了一段疯狂的路程,而且会吊唁这里的许多部门。 然而,他表现,这项技能发展得太快,令人们对人类的将来产生了猜疑。 「现在人工智能的发展速率让我感到非常畏惧。」他说。「当我想到我将在那里养育孩子,大概为退休存多少钱时,我不禁想知道:人类能到达谁人程度吗?」 诺贝尔奖得主杰弗里·辛顿 (Geoffrey Hinton) 等一些专家担心,强盛的人工智能体系大概会躲避人类的控制,从而带来劫难性的结果。而 Meta 首席人工智能科学家 Yann LeCun 等其他人则淡化了这种生存威胁,称人工智能现实上可以救济人类免于灭尽。 根据阿德勒的领英个人资料,他在 OpenAI 的四年职业生活中向导了初次产物发布和更具推测性的恒久 AI 体系的安全相干研究。 谈到 OpenAI 的焦点目的 AGI 的发展,阿德勒增补道:AGI 比赛是一场风险极大的赌博,负面影响巨大。 阿德勒表现,没有一个研究实行室可以或许办理人工智能和谐题目(即确保体系遵照一套人类代价观的过程),而业界的发展速率大概太快,无法找到办理方案。 「昨们跑得越快,人们实时找到它的大概性就越小。」 与此同时,中国的 DeepSeek 公司也在寻求开辟通用人工智能,该公司推出了一种可以与 OpenAI 技能相媲美的模子,只管其开辟资源显着较少,但此举震动了美国科技界。 阿德勒告诫称,该行业好像陷入了非常糟糕的均衡,并表现必要真正的安全法规。 「纵然一个实行室真正想要负责任地开辟 AGI,其他实行室仍旧可以偷工减料来赶上,这大概是劫难性的。」 昨们已经接洽 Adler 和 OpenAI 征求意见。 |