OpenAI公布10项安全措施,获网友赞赏。(安全性sae)

摘要:第二届国际人工智能峰会召开,这次会议的目的是为了确保人工智能的安全使用,制定了一系列指导原则,以防止人工智能技术给人类带来潜在危害。OpenAI、谷歌等16家公司表示,如果无法控制风险,将停止开发任何人工智能模型。同时,在核心安全团队解散风波后,OpenAI也在会上公开介绍了最新的安全措施实施情况,证明自己并非将产品的发展置于安全之上,网友纷纷对此表示感谢。

如何确保人工智能的发展过程安全可靠?

5月21日周二,为期两天的“AI首尔峰会”以在线视频的方式开幕。本次会议主题主要围绕如何安全地发展人工智能。世界各地的领导人、科技公司的高管以及国际组织的代表,在会上共同讨论了人工智能的风险和潜在的好处。

在韩国总统尹锡悦和英国首相苏纳克的共同主持下,16家世界领先的人工智能(AI)公司,包括Meta、OpenAI、谷歌、亚马逊、微软等均做出了自愿承诺,保证在开发最前沿的人工智能技术时注重安全,确保人工智能系统不会失控并危害人类。如果发现某些极端风险无法控制,他们甚至会选择停止相关人工智能模型的开发。

同时,人工智能(AI)公司们还提出需要制定一些规则和政策框架,来评估和控制人工智能可能带来的风险。不仅是公司,一些国家的集团(比如G7、欧盟等)也表示支持这个想法,他们同意要把人工智能的安全和创新放在重要位置。

与会者还强调,虽然公司可以自愿承诺要安全使用人工智能(AI),但也需要有政府出台相关的法律来确保这些承诺能够得到有效执行。被称为“人工智能教父”的计算机科学家Yoshua Bengio认为,自愿承诺必须伴随法律监管。目前,全球各地的政府都在努力制定人工智能相关的法规。例如,联合国已经通过了关于人工智能系统安全使用的第一项决议,而欧盟的人工智能法案预计今年晚些时候将生效。

对此,网友们纷纷点赞称:“这真是个好消息!很高兴看到欧盟为协调人工智能法规而采取的进步措施。这确实有助于为人工智能道德和安全制定高标准。期待看到该法案的积极影响显现!”

OpenAI公布10项安全措施,获网友赞赏。_图1

虽然人工智能(AI)技术的迅速发展可以为人类带来许多好处,但同时也带来了一些问题。这些问题包括大规模失业、误导人们以及传播错误信息等。牛津大学在某个论坛上发帖表示:“全球的人工智能界正在努力推动人工智能技术的能力越来越强大,但安全和伦理问题往往是事后才考虑的。科学家们向世界领导人发出呼吁,要求采取行动来应对人工智能带来的风险。他们警告说,自从人工智能安全峰会以来,在处理这些风险方面的进展还不够。”

OpenAI公布10项安全措施,获网友赞赏。_图2

在核心安全团队解散风波后,OpenAI公开了公司最新的安全措施情况,以消除网友对公司安全问题的担忧。

例如,在此前OpenAI解散了AI风险团队事件中,该团队负责人Jan Leike离职后吐露真言,指责OpenAI在过去几年里将华而不实的产品凌驾于安全之上,并呼吁OpenAI必须成为一家以安全为先的通用人工智能公司。Jan的发言引起了网友的广泛担忧,网友担心OpenAI是否能确保AI技术安全可靠地发展。

5月21日,在核心安全团队解散风波后,OpenAI在“AI首尔峰会”上公开分享了公司正在实施的10大安全措施:

模型测试与评估:在发布新的AI模型之前,OpenAI会进行严格的安全测试,包括内部和外部的评估。如果发现风险超过了他们可接受的“中等”水平,他们会先进行改进,直到风险降低到可以接受的程度。此外,他们还会邀请外部的专家来协助评估风险。

持续的安全与对齐研究:随着时间的推移,他们的模型在安全性上有了显著改进,这包括减少错误信息的产生和在不利条件下减少有害内容的输出。公司还在投资实用的安全系统和研究,来进一步提高模型的安全性。

监控滥用行为:随着语言模型的不断发展和应用,公司采用了多种工具来监测安全风险和滥用行为。他们与合作伙伴(如微软)一起揭示技术被滥用的情况,以帮助其他人更好地预防类似的风险。

系统性的安全措施:公司在模型的每个生命周期阶段实施安全措施,从训练前到部署。他们在数据安全方面采取了多种措施,包括数据加密、访问控制和备份策略。此外,他们还在模型行为控制方面进行了投资,通过监测模型的输出和行为来确保其符合预期。另外,他们还建立了监控基础设施,用于实时监测模型的运行状态和性能,以及及时发现和应对潜在的安全问题。

保护儿童:保护儿童是公司工作的重点。公司在其产品中内置了多种强大的安全措施,旨在减少对儿童的潜在危害。

选举完整性:公司与政府、以及其他相关利益方合作,共同努力防止人工智能生成内容的滥用,确保内容的透明度,并改善公众获取准确投票信息的途径。

影响评估和政策分析投资:公司的影响评估工作对研究、行业规范和政策具有广泛的影响。他们还发表了关于如何管理与语言模型相关的风险的先驱性研究。

安全与访问控制措施:公司高度重视保护客户、知识产权和数据安全。他们采取了多种措施来控制对AI模型的访问,并投资于网络安全,例如进行内外部渗透测试和实施悬赏计划以寻找漏洞。

与政府合作:公司与全球各地的政府合作,共同制定有效且可适应的人工智能(AI)安全政策。

安全决策和董事会监督:公司拥有一个名为“准备框架”的系统,该框架为AI安全决策提供了指导。此外,公司还设有一个跨功能的安全顾问小组,该小组由来自公司不同部门的成员组成。他们的任务是审查AI模型的性能报告,评估这些模型的安全性,并在模型正式发布之前提出改进建议。尽管安全顾问小组提供建议和信息,但最终决策权掌握在公司高层领导手中。整个过程中,公司的董事会也会进行监督。

最后,OpenAI还计划在未来继续改进这些方法。

对此,网友在社交媒体平台X上纷纷对OpenAI表示感谢:

“非常好,非常感谢您的更新!我们始终把安全放在首位,其次是人工智能。”

“我们将继续全力以赴,致力于保障您的安全。非常感谢您的支持!”

OpenAI公布10项安全措施,获网友赞赏。_图3

OpenAI公布10项安全措施,获网友赞赏。_图4

0
分享到:
没有账号? 忘记密码?