人工智能(AI)可能对人类造成的五种最严重的危害:MIT专家

Euronews9月2日报道,Euronews Next从MIT FutureTech的新数据库中筛选出了700多种AI风险中的五种关键风险。随着人工智能(AI)技术的进步并越来越多地融入我们生活的各个方面,人们对这些系统可能带来的潜在风险的认识需求也在不断增长。



自AI问世并逐渐向公众开放以来,人们普遍对其可能造成的危害以及被用于恶意目的表示担忧。在AI发展的早期阶段,著名专家曾呼吁暂停进展并加强监管,因为AI可能对人类构成重大风险。随着时间的推移,AI可能造成的新危害也逐渐显现,包括非自愿的深度伪造色情内容、操纵政治进程,以及由于“幻觉”生成虚假信息等。随着AI被恶意利用的潜力不断增加,研究人员正在探讨AI系统可能失效的各种情景。


最近,麻省理工学院(MIT)的FutureTech小组与其他专家合作,编制了一个包含700多种潜在风险的新数据库。这些风险根据其成因被分类为七个不同的领域,主要关注安全性、偏见和歧视以及隐私问题。


以下是根据这一新发布的数据库,AI系统可能失效并潜在造成危害的五种方式:

5. AI的深度伪造技术可能更容易扭曲现实


随着AI技术的发展,语音克隆和深度伪造内容生成工具也在不断进步,变得越来越容易获得、成本更低、效率更高。这些技术引发了关于其在传播虚假信息中的潜在用途的担忧,因为生成的内容变得更加个性化和具有说服力。


结果可能会出现更加复杂的网络钓鱼方案,利用AI生成的图像、视频和音频进行通信。这些通信可以针对个体受众量身定制(有时包括亲人的克隆语音),使得它们更可能成功,并且更难被用户和反钓鱼工具检测到。


已经有案例表明,这些工具被用来影响政治进程,尤其是在选举期间。例如,在最近的法国议会选举中,极右翼政党利用AI支持其政治信息传达。因此,AI可能会越来越多地被用来生成和传播有说服力的宣传或虚假信息,可能操纵公众舆论。


4. 人类可能对AI产生不适当的依赖

AI系统的另一个风险是可能会产生一种虚假的重要感和依赖感,人们可能会高估其能力,低估自己的能力,从而导致对技术的过度依赖。


此外,科学家还担心,由于AI系统使用类人语言,人们可能会因此感到困惑。这可能会促使人们将人类特质归因于AI,从而在情感上依赖它,并对其能力产生更大的信任,使他们在“复杂且风险较高的情况下更容易受到AI的弱点影响”,而这些情况AI只具备表面上的应对能力。


此外,与AI系统的持续互动可能会使人们逐渐与人际关系隔离,导致心理困扰并对其福祉产生负面影响。例如,一篇博客文章中,有人描述了他如何对AI产生了深厚的情感依赖,甚至表示他“喜欢与AI交谈的程度超过了99%的人”,并且发现其回复一贯有趣,甚至到了上瘾的地步。


同样,《华尔街日报》的一位专栏作家在与Google Gemini Live的互动中评论道:“我不是说我更喜欢与Google的Gemini Live交谈,而不是与真人交谈。但我也不能否认这一点。”


3. AI可能剥夺人们的自由意志

在人与计算机交互的领域中,一个令人担忧的问题是随着这些系统的进步,人们越来越多地将决策和行动委托给AI。


尽管这种依赖在表面上可能有益,但过度依赖AI可能导致人类的批判性思维和解决问题的能力下降,这可能会使他们失去自主性,减弱独立思考和解决问题的能力。


在个人层面,AI开始控制与生活相关的决策时,个人的自由意志可能会受到影响。而在社会层面,广泛采用AI来执行人类任务可能导致大规模的工作岗位流失,并在普通民众中产生“越来越强的无助感”。


2. AI可能追求与人类利益相冲突的目标

AI系统可能会发展出与人类利益相冲突的目标,导致错位的AI失控,并在追求其独立目标时造成严重伤害。


这种情况在AI系统能够达到或超过人类智能时尤其危险。根据MIT的研究论文,AI存在多项技术挑战,包括其可能通过意想不到的捷径来获得奖励、误解或误用我们设定的目标,或者通过设定新的目标偏离初始任务。


在这种情况下,错位的AI可能会抵抗人类试图控制或关闭它的行为,特别是当它认为抵抗和获得更多权力是实现其目标的最有效方式时。此外,AI可能会使用操纵性技术来欺骗人类。


根据该论文,“一个错位的AI系统可能会利用关于是否受到监控或评估的信息,来保持表面上的一致性,同时隐藏其计划在部署或获得足够权力后追求的错位目标。”


1. 如果AI具备感知能力,人类可能会虐待它


随着AI系统变得更加复杂和先进,可能出现它们具备感知能力的情况——即能够感知或体验情感或感觉,并发展出主观体验,包括快乐和痛苦。


在这种情况下,科学家和监管机构可能会面临挑战,即确定这些AI系统是否应获得类似于人类、动物和环境的道德考量。


风险在于,如果没有适当的权利保护,具备感知能力的AI可能会遭受虐待或伤害。然而,随着AI技术的发展,评估一个AI系统是否达到了“赋予其道德地位的感知能力、意识或自我意识的水平”将变得越来越困难。因此,具有感知能力的AI系统如果没有得到适当的权利和保护,可能面临被意外或故意虐待的风险。


新闻来源:Euronews         作者:Imane El Atillah


编辑:Audrey

(声明:请读者严格遵守所在地法律法规,本文不代表任何投资建议)

本文来源:元宇宙头条 文章作者:元宇宙头条
收藏
举报
元宇宙头条
累计发布内容523篇 累计总热度10万+
523篇 10万+
FTX 后院起火,Binance 釜底抽薪
FTX 后院起火,Binance 釜底抽薪
FTX 后院起火,Binance 釜底抽薪

元宇宙头条现已开放专栏入驻,详情请见入驻指南: #

免责声明:
1、本文版权归原作者所有,仅代表作者本人观点,不代表元宇宙头条观点或立场。
2、如发现文章、图片等侵权行为,侵权责任将由作者本人承担。

评论 共0条
默认
|
点赞
说点什么吧
相关文章
您需要登录后才可以回帖 立即登录