我们在这种类型的机器翻译中看到它如何仍然倾向于某些刻板印象。在劳动领域的案例中我们观察到种趋势即在翻译中分配过去与女性性别相关的职业。尽管大多数自动翻译器在这方面已经有了很大改进但我们仍然会发现有偏见的例子就像你在图片中看到的那样。 同样的情况也发生在传统上与男性更多相关的职业上比如法官的角色。 如何找到解决性别偏见的办法。
爱我们的工作并且它
虽然我们看到性别偏见问题在辅助翻译中使用 的进步。至少当我们在没有上下文的情况下翻译孤立的术语时我们会看到个公正的观点表明这两 法国电话号码表 种可能性。此外它告诉我们翻译会根据类型而变化。这些类型的选择应该在所有情况下为我们提供 翻译以使我们摆脱偏见。 另个解决方案是增加数字领域的职业女性。
件事浏览社交媒体是种合法的
根据联合国的报告只有 的人工智能研究人员和 的软件 误导 开发人员是女性这是虚拟助手性别歧视行为的个驱动因素。 最后程序员将他们选择的 数据馈入。结果表明模型的好坏取决于它们接收到的数据。如果程序员主要是男性或女性情况就不样了因为他们也分享他们对世界的看法以及由此带来的偏见。有了考虑到所有群体、类别和集体的代表的愿景我们可以在我们为人工智能提供的数据中创建个更中立的框架。