(资料图片仅供参考)

人工智能咄咄逼“人”?在全球监管呼声日益高涨之际,这群美国头部企业自己行动了。

周三,全球顶尖的四家人工智能企业,谷歌、OpenAI、微软和Anthropic,宣布推出一个以行业为主导的机构——“前沿模型论坛”,旨在为人工智能技术制定安全标准,推动下一代人工智能系统的安全研究和技术评估。该论坛还将成为企业和政府分享相关风险信息的中心。

ChatGPT制造商OpenAI负责全球事务的副总裁安娜·马坎朱在一份声明中表示:“至关重要的是,人工智能公司,尤其是那些开发最强大模型的公司,要达成共识,推进深思熟虑、适应性强的安全实践,以确保强大的人工智能工具获得尽可能广泛的利益。”

美媒称,这一公告建立在这些公司向白宫作出“自愿性承诺”的基础上。上周五,包括这四家在内的美国人工智能七巨头自愿承诺,确保人工智能开发的安全性、有保障性和可信任性。具体内容包括,企业须将相关系统交付独立测试,并开发工具提示公众该内容由人工智能技术生成。此外,这些公司还同意寻找人工智能之道来帮助应对社会最大挑战,从癌症到气候变化,并投资于教育和新就业。

《华盛顿邮报》认为,这项由行业主导的举措表明,随着华盛顿的政策制定者开始努力应对新兴技术的潜在威胁之时,美国企业在制定人工智能开发和部署规则方面走在他们的前面。报道同时指出一些人对行业介入其中存在风险的担忧,“在经历了十多年的隐私漏洞以及危及儿童的事件之后,政策制定者一直说不能相信硅谷会制定自己的护栏。”

无独有偶,密苏里州共和党参议员乔希·霍利在周二的听证会上表示,这些人工智能公司正是逃避监管的公司,并特别点名谷歌、Meta和微软,他们是人工智能的开发商,也是投资者。

“前沿模型论坛”尚处于早期阶段,其组织者表示,它可以为现有政府应对人工智能提供支持。在未来几个月,该机构将成立一个咨询委员会,指导其战略和优先事项。创始公司还将设立资金、工作组和章程。

该机构也将向其他开发强大模型的公司开放,成员必须对安全作出承诺,并愿意致力于联合倡议。

据外媒报道,欧盟也开始监管人工智能,并于上月推出了首个监管框架,禁止那些将对人类构成“不可接受的风险”的人工智能,限制和管理其认为“高风险”的技术使用。

关键词: