科技巨头确保AI模型安全开发,遇到极端风险会断网。(ai模型应用)

5月22日讯当地时间周二(5月21日),微软、亚马逊、OpenAI等科技巨头在“人工智能(AI)首尔峰会”上就人工智能安全问题达成了一项具有重要意义的国际协议。

此次峰会由韩国与英国共同主办,是去年11月在英国召开的全球人工智能安全峰会的后续会议,以“安全、创新、包容”为主题。

这项国际协议将要求来自全球多国的企业自愿承诺,确保他们以安全的方式开发AI前沿模型。

制作AI模型的公司需要发布安全框架,列出衡量潜在风险的方式,例如检查不良行为者滥用技术的风险。

框架将包括针对科技公司的一些被视为无法容忍的“红线”,包括但不限于自动网络攻击、生物武器的威胁以及其他可能对安全和稳定造成严重威胁的行为。

一旦发现了这种极端情况,如果不能保证降低风险,企业们就需要打开“紧急停止开关”(kill switch),立即停止AI模型的开发进程。

英国首相苏纳克在一份声明中写道:“这是第一次,有这么多来自全球不同地区的领先人工智能公司都同意在人工智能安全方面做出同样的承诺。这些承诺将确保全球领先的人工智能公司,让他们的人工智能计划提供透明度和问责制。”

去年11月,在英国AI安全峰会上,与会方签署了一份《布莱奇利宣言》(Bletchley Declaration),宣称各方需要共同努力,制定共同的监管方法。

《布莱奇利宣言》强调,人工智能(AI)为全球带来了巨大的机遇,它具有改变或增强人类福祉、和平与繁荣的潜力。与此同时,AI也带来了重大风险,尤其是在日常生活领域。在这个领域中,所有问题都变得至关重要,我们必须认识到解决这些问题的必要性和紧迫性。

科技巨头确保AI模型安全开发,遇到极端风险会断网。_图1

法国将于2025年初举办下一届人工智能(AI)安全峰会,各家企业都同意在这次会议之前征求意见,并将意见公布给大众。

日内,欧盟理事会正式批准《人工智能法案》,这是全球首部人工智能领域的全面监管法规,违反法规的相关方将被追究责任。然而,英国方面还没有提出类似的人工智能法律。

与美国的主张类似,英国选择了一种名为“轻触式”的监管方式,通过行业自律和个案监管来应对新兴风险,旨在避免过度干预阻碍技术创新。

在明天的部长级会议期间,各国高级官员将以今日的讨论内容为基础,就进一步保障人工智能(AI)的安全性、推进可持续发展等具体合作方案展开讨论。

0
分享到:
没有账号? 忘记密码?