也许传统上雇用男性的人存在

例如当人们感觉被欺骗而捐赠时是否会降低他们将来向该慈善机构捐赠的可能性这个问题和克里斯汀的问题实际上都是为了更好地理解这些用于增加捐赠的具体策略所产生的更大的社会影响。为什么仅靠技术无法解决人工智能的偏见问题年月日作者迈克尔布兰丁工程师们设计了公平排名算法以防止人工智能边缘化某些群体。

虽然这些工具有所帮助但

的研究发现它们无法完全克服最顽固的偏见来源人。在混乱的网络世界中当决定在上观看哪部电影或在搜索中看起来很有前 加密电子邮件列表 途的海鲜餐厅时很少有人能抗拒自动排名的便利。但在寻找求职者或某人做基本家务时让算法完成工作往往会造成人员伤亡。偏见。在热门招聘网站上进行搜索似乎是寻找潜在候选人的一种中立方式但其底层技术可能会排除包括女性在内的代表性不足的群体从而加剧偏见。

工作职能邮件数据库

例如研究表明与具有相同

经验的男性相比女性在流行的在线自由职业网站上收到的就业评论较少而缺乏评论可能会降低女性在人才搜索算法中的排名。哈佛商 美国首席财务官 学院助理教授解释说也许传统上雇用男性的人存在偏见。他们对男性进行评估并给予男性很高的排名然后男性总是在名单上排名靠前即使女性也能胜任这项工作。