英国的人工智能安全研究所“需要设定标准而非进行测试”

The Guardian2月11日报道:根据一家协助政府人工智能安全研究所的公司的说法,英国应该专注于设定人工智能测试的全球标准,而不是试图自行进行所有审核。



Faculty AI首席执行官马克·沃纳表示,由于英国在人工智能安全方面的世界领先工作,新成立的研究所可能最终会“陷入困境”,需要审查一系列人工智能模型,这些模型是支撑像ChatGPT这样的聊天机器人的技术。


里希·苏纳克在去年全球人工智能安全峰会之前宣布了人工智能安全研究所(AISI)的成立,该峰会取得了一项承诺,即与欧盟和包括英国、美国、法国和日本在内的10个国家合作,对部署前后的先进人工智能模型进行测试。


由于其在人工智能安全方面的先进工作,英国在协议中担任了重要角色,这一点在研究所的建立中得到了突显。


沃纳的伦敦公司与该研究所签订了合同,包括帮助其测试人工智能模型是否可以被促使违反自己的安全准则。他表示,该研究所应该成为设定测试标准的世界领导者。


他说:“我认为重要的是,它为更广泛的世界设定标准,而不是试图做一切。” 


沃纳还表示,他的公司还为英国国民保健服务(NHS)的新冠肺炎工作和内政部的反极端主义工作提供服务。他表示,该研究所已经取得了“非常好的起步”,“我从未见过政府中有任何事情像这样迅速地发展。”


然而,他补充说:“技术也在迅速发展。”他表示,该研究所应该建立其他政府和公司可以遵循的标准,比如“红队”测试,专家模拟人工智能模型的误用,而不是承担所有工作。


沃纳表示,政府可能会发现自己处于“对一切进行红队测试”的情况中,而且可能会积压,“他们没有足够的带宽来快速处理所有模型”。


谈到该研究所作为国际标准制定者的潜力时,他说:“他们可以设定非常出色的标准,使其他政府、其他公司……可以按照这些标准进行红队测试。因此,这是一种更具可扩展性、长期的保持这些事物安全的愿景。”


沃纳在AISI上周发布有关其测试计划的更新之前接受了《卫报》的采访,并承认该研究所没有能力测试“所有发布的模型”,将只专注于最先进的系统。


上周,《金融时报》报道,大型人工智能公司正在敦促英国政府加快对人工智能系统的安全测试。签署自愿测试协议的公司包括谷歌、ChatGPT开发者OpenAI、微软和马克·扎克伯格的Meta公司。


美国也宣布了一个人工智能安全研究所,该所将参加在布莱切利公园举行的峰会上宣布的测试计划。上周,拜登政府宣布了一个联盟,协助白宫实现其关于人工智能安全的十月行政命令中设定的目标,其中包括制定AI生成内容水印的指导方针。该联盟的成员将由Meta、谷歌、苹果和OpenAI等公司组成,并将纳入美国研究所的管理。


英国科学、创新和技术部表示,世界各国政府“需要发挥关键作用”来测试人工智能模型。


一位发言人表示:“英国通过世界上首个人工智能安全研究所在推动这一努力,该研究所正在进行评估、研究和信息共享,提升全球对人工智能安全的集体理解。该研究所的工作将继续帮助全球各地的政策制定者了解人工智能安全。”


新闻来源:The Guardian   作者:David Attlee

编辑:Marine Don


(声明:请读者严格遵守所在地法律法规,本文不代表任何投资建议)

本文来源:元宇宙头条 文章作者:元宇宙头条
收藏
举报
元宇宙头条
累计发布内容523篇 累计总热度10万+
523篇 10万+
FTX 后院起火,Binance 釜底抽薪
FTX 后院起火,Binance 釜底抽薪
FTX 后院起火,Binance 釜底抽薪

元宇宙头条现已开放专栏入驻,详情请见入驻指南: #

免责声明:
1、本文版权归原作者所有,仅代表作者本人观点,不代表元宇宙头条观点或立场。
2、如发现文章、图片等侵权行为,侵权责任将由作者本人承担。

评论 共0条
默认
|
点赞
说点什么吧
相关文章
您需要登录后才可以回帖 立即登录