您的位置:首页 >互联网 >

Instagram的内容审核算法标记和禁用黑人用户的可能性比白人用户高50%

2020-07-28 08:35:03   编辑:   来源:国际品牌资讯

读到:“虽然大型神经语言模型很可能最终成为人类对自然语言理解的最终全面解决方案的重要组成部分,但它们几乎不是解决这一巨大挑战的解决方案。”

Bender尚未亲自测试过GPT-3,但她说,从她看来,这是令人印象深刻的,但其架构与GPT-2大致相同。主要区别在于它的规模。

她说:“它既闪闪发亮,又大又浮华,无论从整体上还是在带来的风险上,都没有什么不同。”“我认为所谓的人工智能方法存在一个基本问题,该方法所依赖的数据集大于人类实际可以手动验证的数据集。”

在一些由早期访问用户产生的OpenAI免费宣传中,有一些例子表明了其可预测的偏见。Facebook AI负责人Jerome Pesenti发现了AI产生的一系列负面言论,这些负面言论旨在产生针对黑人,犹太人和女性的人性化推文。当然,这不足为奇。5月下旬发表的论文中进行的测试发现,GPT-3表现出性别偏见,最有可能给亚洲人带来较高的情感分析,而给黑人带来较低的情感分析得分,尤其是在较小版本的模型中。OpenAI分析还显示了特定任务的缺点,例如上下文中的词分析(WiC)和RACE,这是一组中学和高中的考试题。

今年早些时候的测试发现,许多受大型数据语料库训练的流行语言模型,例如Google的BERT和GPT-2,都表现出几种形式的偏见。华盛顿大学(University of Washington)教授自然语言处理(NLP)伦理课程的本德尔(Bender)说,没有诸如无偏见的数据集或无偏见模型之类的东西,即使精心创建的语言数据集也可能带有更微妙的偏见形式。但是她坚持认为一些最佳实践可以减少大数据集中的偏差。

一位发言人说,OpenAI正在实施Beta测试作为一种保障措施,这可能有助于发现问题,并补充说该公司正在对GPT-3使用毒性过滤器。发言人拒绝透露有关过滤器可能完成的工作的更多信息,但表示将在未来几周内分享更多细节。

可以理解的是,GPT-3在某些人中引起了惊奇,因为它似乎更接近于通用模型的思想,该模型只需少量训练数据样本就几乎可以完成任何事情。OpenAI首席执行官山姆·奥特曼(Sam Altman)发推文说,他向GPT-3展示了一个10岁的男孩,他在几秒钟内说他想进入AI领域。

但奥特曼(Altman)在周日的一条推文中也表示:“ GPT-3的宣传太多了。令人印象深刻(感谢您的赞美!),但仍然存在严重的弱点,有时还会犯非常愚蠢的错误。人工智能将改变世界,但是GPT-3只是很早的一瞥。我们还有很多事情要解决。”

OpenAI论文说,表征模型某些属性的方法是受到Google AI伦理研究人员创建的用于模型报告方法的模型卡的启发。

除了需要采用数据表或数据语句来更好地理解数据