数字营销新闻资讯

Google & Facebook 大咖实战经验分享,带你玩转外贸营销

呼吁提高招聘广告图像及其投放的透明度

2019 年,在几起诉讼之后,Facebook 不再允许雇主在招聘空缺职位广告时针对特定年龄、性别或邮政编码。 此举是该平台近年来为减少出现的广告中的歧视而采取的一系列行动的一部分。尽管发生了这些变化, 新的研究(外部链接)普林斯顿公共与国际事务学院的教授发现 Facebook 上的招聘广告存在潜在歧视的新来源。

计算机科学和公共事务助理教授 Aleksandra Korolova 和计算机科学系研究生 Varun Nagaraj Rao 研究了 Meta 上招聘广告中歧视的一种新手段,即通过广告商展示过度代表或排斥的人的图像某些人口统计数据和 Meta 通过他们的算法放大了它。两人在信息技术政策中心工作,该中心是 SPIA 的中心和项目之一。他们发现,他们研究的广告商普遍使用与他们所招聘职位的性别刻板印象相匹配的图像——考虑到 Facebook 的广告投放算法可能会仅仅根据人口统计数据来扭曲最终看到广告的人,这一事实变得更加令人担忧。广告中的人物。

他们的研究于 6 月在芝加哥举行的 2023 年 ACM 公平、问责和透明度会议上发表,该研究认为,使用此类图像实际上会针对或排斥性别求职者。“我们发现某些职业确实存在选择性图像使用的情况,只要知道这种情况的发生就足以引起人们对这个问题的关注,以便我们能够开始了解如何解决这个问题,”科罗洛娃说,她的研究重点是算法和机器学习的社会影响。Korolova 和 Nagaraj Rao 从 Facebook 广告库中挑选了图像,对卡车司机和护士这两个职业的招聘广告中使用的性别图像选择进行了全面研究。很大一部分卡车司机和护士广告商主要选择包含该职业刻板性别的图像,描绘卡车驾驶工作的男性和护理职位的女性。

在 2023 年 1 月在 Facebook 上投放的所有广告活动中(不包含不包含人物图像的广告),159 个卡车驾驶职位广告商中,有 57% 只将男性描述为卡车司机,而 259 个护理广告商中,42% 只将男性描述为男性。工作只将女性描述为护士。此外,在广告活动中刻意选择图像的广告商(即在广告活动中使用至少 15 张不同图像,其中至少 5 张包含人物)的广告商中,卡车驾驶广告中 83% 的不同图像被描绘成男人;对于护士来说,73% 的独特图像描绘的是女性。另一方面,当研究更广泛的职业时,研究人员发现,一些广告商似乎选择图像是为了促进未来劳动力的性别和种族多样性。这两个案例都强调了图像对人们决策的影响,包括他们是否申请某些工作,正如文章中引用的先前研究所证明的那样。“形象会影响谁申请这份工作,”Nagaraj Rao 说,“我们在论文中引用了一些社会科学理论来证明这一点。判例法还表明,住房广告中描绘的大多数人的形象会阻碍少数人申请。”

Korolova 和 Nagaraj Rao 还建立在之前的研究基础上,该研究表明,由于 Facebook 的算法,该平台上的广告可能会不成比例地向与广告中图片类似的用户展示。对于 Facebook 的母公司 Meta 来说,广告是一项大生意,该公司依靠广告提供大部分收入。2022年,其1140亿美元的收入中约97%来自广告。科罗洛娃认为,对广告的严重依赖为 Facebook 解决其算法和整体广告产品中的歧视问题造成了固有的障碍。“我认为立法和和解协议帮助 Facebook 在解决歧视问题方面取得了很大进展,”她说,“但是花了这么长时间才发现问题、提出解决方案并实施这些解决方案的原因是不了解可能存在问题的经济动机。” 这就是为什么该论文的核心建议是提高广告商做法和公司算法的透明度,或者禁用招聘广告的广告投放优化。“我希望这会带来积极的变化,”Nagaraj Rao 说,“不仅是为了平台,也是为了它的用户和公众。”这种乐观情绪源于两个因素。Facebook 目前披露了有关社会问题、选举和政治以及 同时研究的广告的某些附加数据(外部链接)作者:Korolova, Basileal Imana,现为普林斯顿信息技术政策中心博士后研究员 (外部链接),约翰·海德曼提出了一种实现这种透明度的可行方法。

“这些变化有助于为解决这些问题带来积极动力,而且相对容易实施,”科罗洛娃说。“我希望我们的研究提供的定量证据表明这是一个实际问题,能够引起平台和监管机构的注意,因此这项工作最终将带来积极的改变。”