教育技术,以及他们部署的学校教育系统,制定了特定的意识形态,了解有关知识的重要事项以及学习者应该如何学习。作为人工智能技术 - 在教育和超越 - 可能导致边缘社区的不公平结果,已经制定了各种方法来评估和减轻AI的有害影响。然而,我们争辩于本文认为,在AI模型中的性能差异的基础上评估公平的主导范式是面对教育AI系统(RE)生产的系统性不公平。我们在批判理论和黑色女权主义奖学金中汲取了结构性不公正的镜头,以批判性地审查了几个普遍研究的和广泛采用的教育AI类别,并探讨了他们如何融入和重现结构不公正和不公平的历史遗产和不公平的历史遗产。他们模型绩效的奇偶阶段。我们关闭了替代愿景,为教育ai提供更公平的未来。
translated by 谷歌翻译
软件通常会产生偏置输出。特别地,已知基于机器学习(ML)软件在处理鉴别的输入时产生错误的预测。这种不公平的计划行为可能是由社会偏见引起的。在过去的几年里,亚马逊,微软和谷歌已经提供了产生不公平产出的软件服务,主要是由于社会偏见(例如性别或比赛)。在此类事件中,开发人员被绑定了进行公平测试的任务。公平性测试是挑战性的;开发人员任务是产生揭示和解释偏见的歧视性投入。我们提出了一种基于语法的公平测试方法(称为Astraea),它利用无与伦比的语法来产生歧视性投入,以揭示软件系统中的公平违规行为。 Astraea使用概率语法,Astraea还通过隔离观察到的软件偏差原因提供故障诊断。 Astraea的诊断有助于改善ML公平性。 Astraea是在18个软件系统上进行评估,提供三种主要的自然语言处理(NLP)服务。在我们的评估中,Astraea产生了公平违规,率达到约18%。 Astraea产生了超过573K的歧视性测试案例,并违反了102k的公平性。此外,Astraea通过模型再培训将软件公平提高〜76%。
translated by 谷歌翻译