OpenAI员工敦促保护举报者,警告“严重风险”。(保护员工的法律法规)

6月5日,知名人工智能公司现员工与前员工发表了一封公开信,警告该行业缺乏安全监督,并呼吁加强对举报人的保护。这封呼吁《对人工智能提出警告的权利》的公开信,是人工智能行业员工就人工智能的潜在危险性的一次公开发声,11名现任与前OpenAI员工、两名谷歌DeepMind员工在这封信上签了名。

信中指出,“人工智能公司掌握着大量非公开信息,这些信息包括但不限于其系统的能力和局限性、保护措施的充分性以及不同种类危害的风险水平。然而,这些公司目前只有微弱的义务与政府分享部分信息,而没有义务与民间社会分享信息。我们认为不能依靠它们全部自愿分享这些信息”。

OpenAI在一份声明中为自己的做法进行了辩护,称公司提供了举报热线等渠道,以便员工和外部人士可以报告公司存在的问题。并且在确保有适当的保障措施之前,OpenAI不会发布新技术。谷歌目前尚未对此做出回应。

OpenAI发言人表示,“我们为能够提供具备最高能力和最高安全性的AI系统而感到自豪,并且我们相信我们在应对风险方面采取了科学的方法。考虑到这项技术的重要性,我们同意进行严格的辩论是至关重要的,并且我们将继续与政府、民间社会和世界其他社区保持联系,”

对人工智能潜在危害的担忧已经存在了几十年,但近年来的人工智能繁荣加剧了这些担忧,使监管机构措手不及,难以跟上技术进步的步伐。尽管人工智能(AI)公司公开表示承诺安全开发技术,但研究人员和员工警告称,缺乏监督可能会加剧现有的社会危害或创造全新的问题。

这封信是由现任和前AI公司员工签署的,首次被《纽约时报》报道。信中呼吁加强对那些在先进AI公司工作并决定提出安全问题的员工的保护。信中提出了四项关于透明度和问责制的原则,其中包括一项规定,即公司不得强迫员工签署任何禁止公开AI风险相关问题的非贬损协议,并建立一个机制,使员工能够匿名向董事会成员分享担忧。

“只要这些公司没有有效的政府监督,现任和前任员工是少数能对公众负责的人之一,”信中写道。“然而,严格的保密协议阻止我们表达我们的担忧,除了对那些可能未能解决这些问题的公司。”

OpenAI等公司还采取了积极的策略,限制员工自由讨论他们的工作。据Vox上周报道,OpenAI要求离职员工签署严格的保密文件,否则将失去所有已归属的权益。OpenAI首席执行官Sam Altman在报道后表示歉意,表示将改进离职程序。

在两名OpenAI高层员工、联合创始人Ilya Sutskever和关键安全研究员Jan Leike上月辞职后,这封公开信发布了。Leike在离职后声称OpenAI已放弃了安全文化,转而追求“闪亮的产品”。

周二的公开信回应了Leike的一些声明,指出公司没有履行对其运营透明的责任。

0
分享到:
没有账号? 忘记密码?