为什么信任与安全的讨论对AI安全至关重要

WEF8月13日报道,随着人工智能(AI)技术,特别是大型语言模型的快速发展,在创新与安全之间取得平衡变得至关重要。



信任与安全(T&S)专业人员一直致力于保护在线社区和平台免受各种伤害,因此,T&S专家与AI社区之间的交叉合作对于解决在线和AI安全的复杂问题至关重要。


为了实现这一平衡,围绕信任与安全,尤其是涉及有害内容的公开讨论,是必不可少的。


数字信任与安全社区的成长

在过去的10年中,T&S社区取得了巨大的进步,积累了宝贵的实践经验和知识。


这种进步与社交媒体的兴起密切相关。社交媒体的迅速扩展不仅扩大了数字化的范围,还带来了管理在线安全和用户数据的新挑战。


日益增多的法规,例如《欧洲通用数据保护条例》(GDPR),对公司保护用户数据提出了更高的要求。最近,诸如《澳大利亚在线安全法2021》、《新加坡在线安全法2022》、《英国在线安全法2023》以及《欧盟数字服务法案(DSA)》等具体的在线安全法规,要求各平台识别、评估、减轻并披露其在线服务中的潜在风险。


最近举办的第三届TrustCon24会议充分认可了这一领域的增长。该会议于7月22日至24日在旧金山举行,由信任与安全专业人员协会组织,旨在培养全球范围内T&S专业人员的实践社区。


在会议期间,AI系统生成或放大有害内容的潜力被广泛讨论。例如,AI技术可能被滥用来制作逼真的虚假媒体,从而助长虚假信息、诽谤和剥削行为。


此外,AI可以通过自动化机器人大规模发送辱骂信息、制作深度伪造或合成媒体进行诽谤,从而助长网络欺凌和骚扰行为。


AI生成的儿童性虐待材料(CSAM)的激增被认为是另一个重大挑战。此类材料的先进质量和照片级真实性使得执法部门更难有效评估和应对这些风险。


仅在2023年,就有超过150亿张AI生成的图像在流通,且这一数字还在增长,问题的规模令人望而生畏。例如,互联网观察基金会在一个月内识别出发布在暗网CSAM网站上的20,254张AI生成图像,这突显了采取紧急行动的必要性。


弥合AI安全与T&S之间的差距

尽管解决人工智能安全问题需要强有力的合作,但T&S社区与AI和机器学习(ML)社区的发展却有些独立。


在TrustCon24的“信任与安全 x 责任AI:弥合差距”会议中,斯坦福网络政策中心研究员戴夫·威尔纳指出,虽然这两个社区之间的联系在过去几年和几个月里有所增加,但在安全实践上仍存在显著的不对齐和差距。


与此同时,Humane Intelligence的首席执行官Rumman Chowdhury不仅提到了围绕AI和AI安全的大量研究,还提到了在人工智能产品可能被利用来制造伤害方面,实践经验仍然很少。


例如,负责处理数据集的AI团队可能不熟悉处理非法内容的既定信任与安全(T&S)协议。同样,机器学习(ML)工程团队可能缺乏政策制定和监管程序方面的经验。这种脱节阻碍了安全措施的有效实施以及应对AI相关问题的统一策略的制定。


从TrustCon24会议以及世界经济论坛的全球数字安全联盟会议中获得的一些关键经验教训包括:


共同语言:AI和T&S社区之间的有效沟通至关重要,因为误解有时会导致误会。开发统一的术语对于确保这两个社区能够有效合作至关重要。全球数字安全联盟的《在线危害分类法》试图为在线危害建立基础语言。


风险评估:如前述的欧盟数字服务法案(DSA)和英国在线安全法案等数字安全法规已开始要求进行风险评估,以主动管理潜在危害。然而,尤其在理解AI特定风险方面,仍然存在差距。欧盟AI法案旨在通过制定全面标准来填补这些空白,确保人工智能系统安全地开发和部署。T&S专业人员在风险评估方面的专业知识可以为AI系统的全面评估框架提供参考,有助于识别威胁并理解人类与AI的互动,从而在AI开发过程中整合安全考量。


设计即安全:"设计即安全"的概念涉及在产品和服务开发的每个阶段都集成安全措施。这种由T&S专业人员使用的前瞻性方法也可以应用于AI系统,以便早期预见和减少风险。实际上,如在上述小组讨论中所提到的,这可能意味着AI系统会拒绝执行可能影响儿童的请求。


安全测量:准确测量AI安全性仍是一个关键挑战。尽管存在固有的复杂性,但追求有效的测量至关重要。现有的努力,如国家标准与技术研究院(NIST)的AI风险管理框架,在衡量和管理AI风险方面发挥了关键作用。此外,全球数字安全联盟的报告《如何有效衡量数字安全以减少在线风险》提供了指标分类。例如,过程指标类别涵盖了与数字安全相关的系统的实施、执行和结果,这些指标也可以为AI安全评估提供参考,并在专家之间促成共同理解。


尽管从T&S实践中学到了很多,但需要认识到,并非所有T&S的经验教训都能直接应用于AI安全。正如AI领域的领先专家Henry Ajder在全球联盟的一次会议上强调的那样,“那些能够应用的经验教训,可以帮助我们避免在AI开发中犯与社交媒体等主要数字平台崛起时类似的根本性错误。”


最后,值得注意的是,在TrustCon24会议期间,不同领域的专业人士,包括AI公司、专家和研究人员,都表现出强烈的合作意愿,强调跨学科合作的重要性,以建立更安全、更可信的数字生态系统。


世界经济论坛的AI安全工作

世界经济论坛的人工智能治理联盟(AIGA)和全球数字安全联盟已经在倡导这种协作方式。正如世界经济论坛信任与安全负责人Daniel Dobrygowski所指出的那样,“安全本质上是一个跨学科的问题。无论是何种技术或领域,用户安全都有助于建立对基础技术的信任——这在AI等新兴且快速发展的技术中尤为重要。”


该论坛在AIGA的工作推动了可信AI的发展,促进了负责任的使用和创新。其具体努力集中在各行业中负责任地整合AI技术、开发强有力的监管框架以及推进与安全和保障AI系统相关的技术共识。


与此同时,由领先的信任与安全专业人员组成的全球数字安全联盟,旨在加速公私合作以应对在线有害内容。这包括分享新的在线安全法规的最佳实践,采取协调行动以减少在线风险,并推动合作项目以提高打击虚假信息的数字素养。


通过促进社区之间的公开讨论和实施稳健的安全措施,我们可以应对AI发展的复杂性,确保这些变革性技术以负责任和道德的方式为所有人所用。


新闻来源:WEF          作者:Agustina Callegari


编辑:Audrey

(声明:请读者严格遵守所在地法律法规,本文不代表任何投资建议)

本文来源:元宇宙头条 文章作者:元宇宙头条
收藏
举报
元宇宙头条
累计发布内容523篇 累计总热度10万+
523篇 10万+
FTX 后院起火,Binance 釜底抽薪
FTX 后院起火,Binance 釜底抽薪
FTX 后院起火,Binance 釜底抽薪

元宇宙头条现已开放专栏入驻,详情请见入驻指南: #

免责声明:
1、本文版权归原作者所有,仅代表作者本人观点,不代表元宇宙头条观点或立场。
2、如发现文章、图片等侵权行为,侵权责任将由作者本人承担。

评论 共0条
默认
|
点赞
说点什么吧
相关文章
您需要登录后才可以回帖 立即登录