科技公司表示,澳大利亚新标准将使人工智能更难保护网络安全

据卫报2月29日消息,该标准针对的是生成人工智能的滥用潜力,但微软表示,其标记有问题材料的能力也可能受到损害。


新的澳大利亚在线安全标准涵盖了多种技术,包括生成式人工智能。摄影:多米尼克·利平斯基/PA


科技公司表示,新的澳大利亚安全标准将无意中使生成式人工智能系统更难检测和防止网上虐待儿童和恐怖主义材料。


根据监管机构去年以草案形式发布的两项针对儿童安全的强制性标准,电子安全专员朱莉·英曼·格兰特(Julie Inman Grant)建议提供商“在技术上可行的情况下”检测并删除虐待儿童材料和支持恐怖主义的材料,并破坏并阻止这种性质的新材料。


该标准涵盖多种技术,包括网站、云存储服务、短信和聊天应用程序。它们还涵盖高影响力的生成人工智能服务和开源机器学习模型。


WeProtect 全球联盟是一个由 100 多个政府和 70 家公司组成的非盈利联盟,致力于打击网上儿童性剥削和性虐待行为,在周四发布的标准磋商提交的一份意见书中,强调了 eSafety 试图解决的问题的本质。它表示,开源人工智能已经被用来制作虐待儿童的材料和深度伪造品,拟议的标准涵盖了正确的平台和服务。


“通过关注滥用的可能性,该阈值反映了这样一个现实:即使直接接触敏感数据或包含非法数据的数据集有限的机器学习和人工智能模型,仍然可能被滥用来创建非法内容,例如‘合成’儿童色情内容。滥用内容和性深度假货。”


但包括微软、Meta 和 Stability AI在内的科技公司表示 ,他们的技术在开发时已设置了防护栏,以防止它们被以这种方式使用。


微软警告称,起草的标准可能会限制用于检测和标记虐待儿童或恐怖材料的人工智能安全模型的有效性。


微软表示:“为了确保人工智能模型和安全系统(例如分类器)能够接受训练来检测和标记此类内容,需要将人工智能暴露于此类内容,并制定评估流程来衡量和减轻风险。”


“完全‘干净’的训练数据可能会降低此类工具的有效性,并降低它们精确和细微差别操作的可能性。


“用于内容审核的人工智能工具最有前途的要素之一是先进的人工智能评估上下文的能力——如果没有支持这种细致评估的训练数据,我们就有可能失去这种创新的好处。”


Stability AI 同样警告称,人工智能将在在线审核中发挥重要作用,过于宽泛的定义可能会让我们更难确定必须选择哪些内容才能遵守拟议的标准。


Facebook 的母公司Meta表示,虽然其 Llama 2 模型有安全工具和负责任的使用指南,但在下载该工具时很难执行保护措施。


该公司表示:“一旦下载《Llama 2》,我们就无法暂停其提供,也无法终止帐户,也无法阻止、破坏、检测、报告或删除已下载模型中的内容。”


谷歌建议不要将人工智能纳入标准,而是将其完全视为当前政府对《在线安全法》和《基本在线安全期望》审查的一部分。


这些科技公司还回应了苹果上周发表的评论,即标准必须明确规定,“在技术上可行的情况下”扫描云和消息服务的提议不会损害加密,并且技术可行性将不仅仅涵盖公司的开发成本这样的技术。


英曼·格兰特在一份声明中表示,这些标准不会要求行业破坏或削弱加密、监控文本或不加区别地扫描大量个人数据,专员现在正在考虑可能的修正案来澄清这一点。


“从根本上说,eSafety 认为行业不应免除应对在其平台上自由托管和共享的非法内容的责任。eSafety 指出,一些大型端到端加密消息服务已经采取措施检测这种有害内容,”她说。

英曼·格兰特表示,该标准的最终版本将于今年晚些时候提交议会审议。


来源:卫报 作者:Betsy Reed


编辑:Luke


(声明:请读者严格遵守所在地法律法规,本文不代表任何投资建议)

本文来源:元宇宙头条 文章作者:元宇宙头条中国站
收藏
举报
元宇宙头条中国站
累计发布内容523篇 累计总热度10万+
523篇 10万+
FTX 后院起火,Binance 釜底抽薪
FTX 后院起火,Binance 釜底抽薪
FTX 后院起火,Binance 釜底抽薪

元宇宙头条现已开放专栏入驻,详情请见入驻指南: #

免责声明:
1、本文版权归原作者所有,仅代表作者本人观点,不代表元宇宙头条观点或立场。
2、如发现文章、图片等侵权行为,侵权责任将由作者本人承担。

评论 共0条
默认
|
点赞
说点什么吧
相关文章
您需要登录后才可以回帖 立即登录