AI公司不会自愿披露风险。(ai研发工程师的工作内容)

6月5日讯人工智能行业发展迅速,但技术发展与秩序重新规划的速度不匹配,持续引发人们对于该行业的安全担忧,就连深度参与人工智能研发的工程师们也站出来公开警告。

13名来自OpenAI、谷歌DeepMind和甲骨文的前员工和现员工在一封公开信中表示,人工智能行业缺乏充分的安全监督机制,且该行业对举报人的保护措施不够完善。

信中指出,人工智能公司拥有大量未公开的信息,包括其系统的能力和局限性、保护措施的充分性以及不同类型伤害的风险水平。然而,目前公司只有很少的义务向政府分享部分信息,而对民间社会则没有任何义务。

这些内部人士认为,人们不能指望人工智能企业会自愿分享这些信息。

内部发声渠道被阻断,无法正常传达信息

公开信中写道,由于广泛的保密协议,内部员工被限制了表达自己的担忧的权利。他们希望先进的人工智能公司可以承诺遵守几项原则,包括不对批评公司的员工进行报复等。

公开信强调,普通的保护举报人措施对人工智能行业来说是不够的,因为一般措施是用于保护举报非法活动的内部人士,但人工智能行业的举报人更多是公开指出许多未受到监管的风险。

OpenAI则在一份声明中为自己的做法进行了辩护,称公司有举报热线等渠道来报告公司内部问题,并且在采取保障措施之前不会发布新技术。谷歌则没有立即回应置评请求。

然而,这封信出现的时间点颇为微妙。OpenAI上月刚刚有两名高级员工离职——联合创始人兼首席技术官Ilya Sutskever和关键安全研究员Jan Leike。Leike在辞职后还直言不讳地批评OpenAI已经放弃了安全文化,转向追求商业利润。

此外,OpenAI等公司也确实存在较为激进的策略,来限制员工的言论自由。据报道,OpenAI要求离职员工签署非常严格的保密协议,否则将失去所有已获得的股权。OpenAI首席执行官奥尔特曼在该报道后发布了一份道歉声明,并表示将对公司的离职程序进行改革。

0
分享到:
没有账号? 忘记密码?