图片库平台也可能成为算法偏见的受害者,其根源在于人工智能正在接受历史数据的训练。图片库平台使用的人工智能算法可能会将女性领导角色的图片归类为“办公室职员”或“支持人员”,而将男性图片标记为“首席执行官”或“执行领导”,这反映了过时的性别规范。作为营销人员,务必注意标签和分类。
为纪念国际消除对妇女暴力日,丝芙兰意大利公司发起了一场有趣的活动,重点关注人工智能偏见,探讨受害者指责的本质 。该活动要求 ChatGPT 根据其在网上找到的观点 佐治亚州数字数据 者的角度撰写三个关于暴力的故事结果是受害者自责,并为施暴者寻找借口。这是现实生活中的一个例子,表明受害者指责在我们的文化中是多么根深蒂固。这场活动表明,基于历史数据训练的人工智能可能会造成危害,因为它会加剧系统性问题防止营销算法偏差的关键在于确保人工智能系统使用具有包容性、代表性且定期更新的数据集进行训练。营销人员可能不直接参与此步骤,
但他们可以随时了解最新情况,或咨询他们所使用的工具如何训练人工智能。与 IT 或数据官联系,讨论这些问题,尤其是在使用专有人工智能时。