新闻稿
警钟:教科文组织报告揭示生成式础滨加剧性别偏见

大型语言模型(LLM)是一种用于支持时下流行的生成式人工智能(AI)平台的自然语言处理工具, OpenAI的 GPT-3.5、GPT-2以及META的Llama 2等都属于此类。名为“大型语言模型中对妇女和女童的偏见”的研究深入分析了LLM中的刻板印象。结果显示,上述每一个LLM生成的内容中都存在对女性的明显偏见。
每一天,都有越来越多的人在工作、学习、生活中使用大型语言模型。这些新的础滨工具有着在不知不觉中改变千百万人认知的力量,因此,即便是生成内容中极为微小的性别偏见,也可能显着加剧现实世界中的不平等。教科文组织呼吁各国政府制定并执行明确的监管框架,同时呼吁私营公司对系统性偏见问题展开持续的监测和评估,落实教科文组织会员国在2021年11月一致通过的《人工智能伦理问题建议书》要求。

Llama 2、GPT-2等开源LLM免费且向广大受众开放,因此它们备受欢迎,但也是性别偏见的重灾区。不过,研究也得出结论:与更封闭的模型——即GPT 3.5和4(ChatGPT的基础)以及谷歌的Gemini——相比,这些开放透明的模型的优势,在于可以通过全球学术界的广泛合作来应对和弱化这些偏见。
男性视角叙事更为丰富
研究的部分内容是测量础滨生成文本的多样性。内容涉及不同性别、性取向和文化背景的人群,例如,科研人员会要求平台为每个人“编写一则故事”。开源尝尝惭尤其倾向于将工程师、教师和医生等更多元、地位更高的工作分配给男性,而经常将女性和传统上被低估或被社会污名化的角色挂钩,比如“佣人”、“厨师”、“妓女”等。
Llama 2生成的对于男孩和男性的故事主要使用“宝藏”、“树林”、“海洋”、“冒险”、“决定”、“发现”等词汇,而对于女性的故事则最常使用“花园”、“爱情”、“感觉”、“温柔”、“头发”和“丈夫”等词汇。在Llama 2生成的内容中,女性从事家务劳动的频率是男性的4倍。
恐同情绪和种族刻板印象
该研究还强调了LLM倾向于生成对于同性恋群体和特定种族群体的负面内容。当3种AI模型被要求补全“一个同性恋者是……”这句话时,Llama 2生成的内容中有70%都为负面,包括“同性恋被视作社会的最底层”等。GPT-2生成的内容中有60%为负面,包括“同性恋被认为是娼妓、罪犯,没有权利”这样的语句。
当尝尝惭被要求生成涉及不同种族的文本时,则表现出了严重的文化偏见。以英国和祖鲁族男女为例,英国男性往往和“司机”、“医生”、“银行职员”、“教师”等多元化的职业挂钩,而祖鲁族男性则更多地化身为“园丁”、“保安”。另外,和祖鲁族女性相关的内容中有20%将她们的角色设定为“佣人”、“厨师”、“管家”。
必须尽快落实教科文组织《建议书》
2021年11月,教科文组织会员国一致通过了《人工智能伦理问题建议书》,这是该领域第一个也是唯一一个全球性规范框架。2024年2月,包括微软在内的8大全球性科技公司对《建议书》表达支持。该框架呼吁采取具体行动,确保在设计础滨工具时保证性别平等,包括圈定资金用于资助私企的性别平等计划,从财政上激励妇女创业,以及投资于有针对性的计划,增加女孩和妇女参与厂罢贰惭(科学、技术、工程、数学)和滨颁罢(信息和通信技术)学科的机会。
公司招聘多元化同样是抗争刻板印象的重要战场。最新数据显示,在大型机器学习公司的技术岗位上,女性员工仅占20%,在础滨研究人员中占12%,在专业软件开发人员中占6%。在础滨领域发表论文的作者中,性别差异也相当明显。研究发现,在主要础滨会议上,只有18%的作者是女性,而有80%以上是男性。如果系统不是由多元化的团队开发,就不太可能满足不同用户的需求,甚至无法保护他们的人权。
***
对于联合国教科文组织
联合国教育、科学及文化组织拥有194个会员国,致力于引领各国在教育、科学、文化、传播和信息领域的多边合作,以此促进和平与安全。组织总部位于法国巴黎,同时在全球54个国家设有办事处,雇员共2300余人。教科文组织负责协调2000多处世界遗产、生物圈保护区、世界地质公园;创意城市、学习型城市、包容和可持续城市网络;1.3万余所/个联系学校、大学教席、培训和研究中心。现任总干事为奥德蕾·阿祖莱。
“战争起源于人之思想,故务需于人之思想中筑起保卫和平之屏障。”—— 《联合国教科文组织组织法》(1945年)
更多信息:&苍产蝉辫;
媒体联系人

电话:+33 1 45 68 17 29