我们能否消除人工智能的偏见?

Techxplore5月20日报道,建立在可能存在偏见信息的大量数据基础上的人工智能已经造成了自动化歧视的真实风险,但是否有办法重新教育这些机器呢?对于一些人来说,这个问题是非常紧迫的。在这个ChatGPT时代,人工智能将为医疗保健提供者、银行放贷人或律师生成越来越多的决策,使用的是从互联网上搜集到的任何资料作为信息源。



因此,人工智能的基础智能只有世界来源于多样性,就像充满智慧、知识和实用性一样,也有可能充满仇恨、偏见和愤怒。“这是危险的,因为人们正在拥抱和采用人工智能软件,并且真正依赖它,” 德克萨斯州机遇与司法孵化器(Texas Opportunity & Justice Incubator)的主任约书亚·韦弗(Joshua Weaver)说道,他是一家法律咨询公司的主管。


他说:“我们可能陷入这样一个循环中,在这个循环中,我们自己和文化中的偏见会影响人工智能中的偏见,并成为一种加强的循环。”确保技术更准确地反映人类的多样性不仅仅是一种政治选择。人工智能的其他用途,如面部识别,已经让公司因为歧视问题而被当局陷入困境。


美国药房连锁店莱特艾德(Rite-Aid)就是一个例子,根据美国联邦贸易委员会(Federal Trade Commission)的说法,店内摄像头错误地将消费者,特别是妇女和有色人种,标记为扒手。专家们担心,ChatGPT风格的生成式人工智能可以在几秒钟内创造出类似于人类水平推理的东西,这将带来新的错误机会。人工智能巨头们非常清楚这个问题,他们担心他们的模型可能会陷入不良行为,或者在全球用户基础时过度反映西方社会。


谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)表示:“我们有人从印度尼西亚或美国提出查询请求。”这解释了为什么对医生或律师的图片的请求会力求反映种族多样性。但是这些考虑可能会达到荒谬的程度,并引发过度政治正确的愤怒指责。当谷歌的“双子座”图像生成器生成了一张第二次世界大战中的德国士兵的图片,荒谬地包括了一个黑人男子和一个亚洲女子时,就发生了这种情况。


皮查伊说:“显然,错误在于我们过度应用了……它本不应该应用的地方。那是一个漏洞,我们搞错了。”但是领先的人工智能模型平台Hugging Face的研究科学家萨莎·卢西奥尼(Sasha Luccioni)警告说,“认为偏见存在技术解决方案已经走错了方向”。生成式人工智能基本上是关于输出是否“符合用户的期望”,而这在很大程度上是主观的,她说。Alembic Technologies产品负责人杰登·齐格勒(Jayden Ziegler)警告说,ChatGPT所建立的巨型模型“无法推断出什么是有偏见的或什么不是,因此它们无法对此做出任何处理”。


至少目前,由人类来确保人工智能生成的内容是恰当的或符合他们的期望。但是,考虑到围绕人工智能的狂热,这并不是一项容易的任务。Hugging Face平台上有约60万个人工智能或机器学习模型可供使用。卢西奥尼表示:“每隔几周就会推出一个新模型,我们为了试图评估和记录偏见或不良行为而努力。”正在开发的一种方法是称为“算法驱逐”,可以让工程师删除内容,而不会破坏整个模型。但是有人严重怀疑这是否会有效。


另一种方法将“鼓励”模型朝着正确的方向发展,“微调”它,为正确和错误情况“奖励”,Pinecone公司的首席技术官拉姆·斯里哈尔沙(Ram Sriharsha)说。Pinecone是检索增强生成(或RAG)的专家,这是一种技术,模型从固定的可信源中提取信息。对于德克萨斯州机遇与司法孵化器的韦弗来说,这些“崇高”的努力来纠正偏见是“我们对未来更好版本的希望和梦想的投射”。但是,偏见“也是人类内在的一部分,因为这个原因,它也融入了人工智能中,”他说。


新闻来源:Techxplore            作者:Julie JAMMOT 


编辑:Audrey

(声明:请读者严格遵守所在地法律法规,本文不代表任何投资建议)

本文来源:元宇宙头条 文章作者:元宇宙头条
收藏
举报
元宇宙头条
累计发布内容523篇 累计总热度10万+
523篇 10万+
FTX 后院起火,Binance 釜底抽薪
FTX 后院起火,Binance 釜底抽薪
FTX 后院起火,Binance 釜底抽薪

元宇宙头条现已开放专栏入驻,详情请见入驻指南: #

免责声明:
1、本文版权归原作者所有,仅代表作者本人观点,不代表元宇宙头条观点或立场。
2、如发现文章、图片等侵权行为,侵权责任将由作者本人承担。

评论 共0条
默认
|
点赞
说点什么吧
相关文章
您需要登录后才可以回帖 立即登录