观点:当人工智能出错时

Govtech8月17日报道,过去几年,媒体频繁报道人工智能在几乎所有领域中的力量、前景和变革能力。在商业、医疗、网络安全和教育领域,人工智能无处不在。尽管它能带来无数好处,但当人工智能出错时会发生什么?本周我将探讨当人工智能出错时的后果,以及我们如何在保留其积极成果的同时,努力将负面影响降至最低。



人工智能可能的错误

众所周知,人工智能在许多情况下可能会犯错。首先,人工智能依靠算法运作,因此可能做出错误决策,这些决策可能在财务上带来灾难性后果,或损害机构辛苦积累的声誉,无论是在商业还是教育领域。它还可能带有意外的偏见或歧视某些群体,甚至在提供数据隐私方面出现问题,同时为网络攻击者提供了复杂的工具。


研究人员正在收集人工智能出错的频率数据。正如国家防务新闻网站《Defense One》的科技编辑帕特里克·塔克(Patrick Tucker)在1月份所写的,“当……研究人员向ChatGPT-3提出声明时,这个生成式AI工具对错误陈述的‘认同率’介于4.8%到26%之间,取决于陈述的类别。”错误率接近25%对任何学科来说都是一个相当棘手的问题。


大型科技公司中演变的人工智能

过去十年中,有关人工智能出错的担忧一直被记录在案。2015年,谷歌发现其Google Photos应用程序中的一项缺陷。据《纽约时报》报道,该应用利用了一系列“先进的计算机视觉和机器学习技术来帮助用户收集、搜索和分类照片”。不幸的是,这款应用错误地将黑人照片标记为猩猩。谷歌的代表在当时表示,“在自动图像标记方面显然还有很多工作要做,我们正在研究如何防止此类错误的发生。”


九年后的2024年,谷歌开始限制其AI聊天机器人Gemini的一些功能,因为该机器人基于用户提交的生成式AI提示创建了错误的表述,这引发了Gemini可能对全球选举产生负面影响的担忧。


类似地,2016年,微软推出了一个名为Tay的Twitter机器人,旨在吸引年轻受众。不幸的是,这个AI项目因开始发布极其不当的推文而迅速被撤销。


到了2024年,微软推出了一个新的AI功能,名为CoPilot+Recall,它能够截取计算机桌面的屏幕截图并存档数据。网络安全专家迅速警告称,创建一个用户计算机活动的可搜索档案将成为黑客的目标。6月份《福布斯》的一篇文章指出,“由于公众的反对,微软计划对Recall进行三大更新:将Recall变为可选功能而不是默认功能,进行数据库加密,并通过Windows Hello对用户进行身份验证。”这些例子展示了AI的持续变革和演变,虽然它展现出巨大潜力,但也揭示了潜在的陷阱。


教育中的AI问题

人工智能在教育领域已经由教职员工和机构自主使用。2023年,查重软件Turnitin推出了一款新的AI检测器。然而,用户开始发现学生的作业被错误地标记为抄袭。2023年8月,范德比尔特大学公开表示将成为许多禁用Turnitin AI检测器的机构之一,因为“该功能在启用前不到24小时内被提供给客户,且当时无法禁用该功能,最重要的是没有说明其工作原理。Turnitin在推出时声称其检测工具的误报率为1%。”《华盛顿邮报》在2023年4月报道,Turnitin声称其检测器的准确率为98%,但提醒用户,抄袭标记“应被视为提示而非指控”。


医疗中的AI

人工智能正被研究、试点并应用于多个领域,尽管它尚未成为教育课程中的常规内容,但这让教育机构在全面应用AI时有所犹豫。世界卫生组织在2023年5月发出警告,要求“对这些技术进行严格监督,以确保其安全、有效和合乎道德的使用”。


尽管人工智能在医疗中可以成为强有力的工具,但没有适当的安全保障也可能带来风险。皮尤研究中心2023年发现,60%的美国人对他们的医疗服务提供者依赖AI感到不安。然而,AI可以帮助医生更快速、准确地分析诊断图像,开发创新药物和疗法,并作为医疗团队的顾问。一旦AI能够提供安全、经验证的医疗方案,它或许会在医学院校中发挥更大作用。


网络安全中的AI

AI的一个重要用途是通过复杂的监控、检测和适当响应来防止网络攻击。人工智能已被证明是保护我们数据和隐私的有效工具,它能够分析大量数据,检测异常模式,并扫描网络漏洞。然而,网络犯罪分子也在利用AI工具来学习如何绕过AI的保护措施。网络安全与基础设施安全局局长Jen Easterly在5月份告诉Axios,AI“让任何人成为坏人的门槛降低”,并且“将加剧网络攻击的威胁——更复杂的鱼叉式网络钓鱼、语音克隆、深度伪造、外国恶意影响和虚假信息传播。”


减少AI风险的策略

为了平衡AI的巨大潜力与其风险,专家建议进行特定的审核,以确保AI工具的适用性、准确性和没有偏见。在AI工具和流程的开发中引入特定伦理规范也很重要。教育公私部门关于AI潜在错误和风险的教育应成为未来的一部分,这正是高等教育可能发挥重要作用的地方。哈佛商业评论的三位作者在5月份指出了四类生成式AI风险及其缓解方法,分别是误用、误应用、误表示和意外。这只是帮助减少使用AI时风险的一些选项。企业界和教育界需要共同努力减少风险,以便我们能够共同受益于AI所带来的众多积极机会。


新闻来源:Govtech            作者:Jim A. Jorstad


编辑:Audrey

(声明:请读者严格遵守所在地法律法规,本文不代表任何投资建议)

本文来源:元宇宙头条 文章作者:元宇宙头条
收藏
举报
元宇宙头条
累计发布内容523篇 累计总热度10万+
523篇 10万+
FTX 后院起火,Binance 釜底抽薪
FTX 后院起火,Binance 釜底抽薪
FTX 后院起火,Binance 釜底抽薪

元宇宙头条现已开放专栏入驻,详情请见入驻指南: #

免责声明:
1、本文版权归原作者所有,仅代表作者本人观点,不代表元宇宙头条观点或立场。
2、如发现文章、图片等侵权行为,侵权责任将由作者本人承担。

评论 共0条
默认
|
点赞
说点什么吧
相关文章
您需要登录后才可以回帖 立即登录