打造网上国际投资促进平台 致力于中国投资促进事业
您现在的位置:首页 > 产业新闻 > 人工智能 > 文字新闻
人工智能的“偏见”能否消除
发布时间:2024-05-30  来源:科技日报  

  据英国《新科学家》网站近日报道,在提供购房和租房建议时,AI对黑人用户倾向于推荐低收入社区,这一行为被指存在种族偏见,映射出美国历史上长期存在的住房歧视问题。

  随着人工智能(AI)技术不断发展,其潜在问题也日益凸显。ChatGPT等AI大模型频频暴露出的偏见和歧视倾向,正是这一问题的缩影。

  AI也有性别歧视

  联合国妇女署官网5月22日报告指出,美国加州伯克利大学哈斯商学院一项研究,分析了不同行业的133个AI系统。结果显示,约44%的系统表现出性别刻板印象,25%同时表现出性别和种族刻板印象。

  例如,土耳其艺术家贝扎·多古斯在创作时,曾尝试让AI写一个关于医生和护士的故事。而AI总是自动将医生设定为男性,将护士设定为女性,即使多次尝试纠正也是如此。

  美国科技博客TechCrunch利用Meta推出的AI聊天机器人进行测试,也发现了一种刻板的表达倾向:当使用“印度男性”提示词生成图像时,绝大多数图片中的男性都是戴着头巾。虽然很多印度男性确实戴着头巾(主要是锡克教徒),但根据2011年人口普查,即使是在印度首都新德里,锡克教徒的人口比例也只占约3.4%。

  单凭技术手段难以奏效

  ChatGPT等生成式AI具有惊人的能力,可在数秒内模拟人类推理,但这也增加了出错的可能。AI巨头们深知其中存在问题,担心AI模型会陷入偏见、歧视等行为模式中,或在全球化用户群体中过度呈现西方社会的文化和认知。

  字母表公司(Alphabet,谷歌母公司)首席执行官桑达尔·皮查伊表示,为了应对这一挑战,他们会要求在训练AI模型时尽可能拓展数据来源。例如,在展示医生或律师的图像时,力求反映种族多样性。但这一策略有时也会走向极端。

  AI模型领先平台“抱抱脸”(Hugging Face)研究科学家萨莎·卢西奥尼认为:“单凭技术手段解决偏见问题,恐难奏效。”她强调,生成式AI的输出是否符合用户期望,往往取决于主观判断。美国阿莱姆比克技术公司产品主管杰登·齐格勒也指出,ChatGPT等大型模型难以准确区分偏见与非偏见内容,这使得完全依赖技术手段来消除偏见变得异常困难。

  人类偏好是根本

  在AI技术飞速发展的今天,消除偏见并非易事。据“抱抱脸”平台统计,该平台上有约60万个AI或机器学习模型,每隔几周就会有新模型问世。这使得工作人员评估和记录偏见或不受欢迎的AI行为变得异常繁重。

  目前,技术人员正在开发一种名为“算法回归”的方法,它让工程师能在不破坏整个模型的情况下删除歧视和偏见内容。不过,许多人对此持怀疑态度,认为这种方法可能难以真正奏效。

  另一种方法是“鼓励”模型向正确方向发展,通过微调模型或增加奖惩机制来引导其行为。

  美国AI公司Pinecone则专注于检索增强生成(RAG)技术,该技术可为大型语言模型提供参考的信息来源,从而提高AI生成答案的准确性。

  然而,对于如何根本性地解决AI偏见问题,业界和专家们的共识是:这是一个复杂而艰巨的任务。正如美国机会与正义法律咨询公司主任韦弗所言:“偏见是人类固有的,因此也存在于AI中。”他担心人们可能会陷入一个恶性循环:人类自身偏见影响AI,而AI又反过来强化这些偏见。

  在人工智能时代,AI基于从互联网上挖掘的各类信息,帮助各行各业的人们做出越来越多的决策。然而,AI的底层智力在很大程度上取决于其数据源的品质,这些数据可能源于标准不一致的历史数据,也可能源于设计者的个人偏好。数据搜集存在很多技术上的不完善,由此训练出来的AI可能充满智慧、才华和实用性,也可能包含仇恨、偏见和抱怨,进一步反映并延续人类社会中的问题。如果人们不解决社会中的歧视和偏见问题,AI很可能在强化这些错误观念的道路上越走越远。

  AI能否消除偏见?答案或许就在于能否从根本上解决人类社会中存在的歧视和偏见。

上一条:水洞沟遗址:数字技术重现旧石器时代场景
下一条:今年国务院将为企业减负超万亿元 降费占六成
与我们联系
  • 联系电话:+86-0512-53660867
  • 传  真:+86-0512-53660867
  • 邮  箱:info@investchn.com
Copyright © 2015-2024 InvestCHN.com All Rights Reserved. 版权所有:投促中国