本周,我们采访了Encode Justice组织的活动家 Sneha Revanur ,该组织旨在提高年轻人对以人为本的人工智能的支持。我们与 Sneha 谈论了她目前在 Encode 的工作、与人工智能监管立法机构的合作、打击虚假信息等。
所以,我想问您的第一个问题是您在如此年轻 德国商业传真列表 的时候已经做过的工作,包括显然在 15 岁时创立 Encode Justice。您是如何对自己现在想做的事情如此了解并在人生早期就对它如此充满热情的?
Sneha Revanur:我经常这么说,但说实话,如果我不是出生在硅谷中心的圣何塞,这完全有可能,也不会存在。我认为,在创新的心脏地带长大,从出生那天起就接触到这种文化,对我来说真的很重要。我在一个软件工程师家庭长大——我的父母都在科技行业工作,我的姐姐也在科技行业工作。所以我从很小的时候就被这种环境所包围。我想在我幼年和中学的某个时候,可能是我自己想过要从事计算机科学事业。我想直到高中早期左右,我才开始更批判性地思考这些技术的社会影响,并更加确信我想参与政策方面的事务,因为我觉得这是一个我们没有那么多积极参与对话的声音的领域。因此,我确实认为,我成长在这样的环境中发挥了巨大作用,我认为这对我小时候的成长影响很大。我认为,与此同时,拥有竞选活动的背景也非常有帮助。我在高中时就积极参与了 2020 年大选的政治活动,参与了国会竞选活动。那差不多是我政治觉醒的时候,我认为在那个时候学习诀窍、培养技能和工具包,真正了解如何利用倡导工作,更好地理解如何将这些知识应用到我想在人工智能领域做的工作中,对我来说真的很有价值。这就是它如何成为一场完美风暴的原因。大约在 2020 年夏天,我发起了最初的运动,反对加利福尼亚州的一项投票措施,该措施试图用一种算法取代现金法案的使用,而之前的报告显示,这种算法具有种族歧视性。这就是我最初参与相关倡导的切入点,整个组织也因此开始关注这项活动,从那以后,剩下的就是历史了——我们在国际上发展,开始思考人工智能时代的各种风险和挑战。不仅仅是偏见,还有虚假信息、失业等等。是的,我也非常期待看到这项功能将带我们走向何方。

您可以通过哪些方式更多地了解人工智能以及您正在做的事情?
所以我认为,当我刚开始涉足这个领域时,有一些资源和媒体对我非常有帮助。我记得第一次看Joy Buolamwini 博士的《编码偏见》,那显然是一个令人难以置信的切入点。我还记得在 Netflix 上看《社交困境》。我读了几本书,比如《自动化不平等》、《压迫算法》、 《数学毁灭武器》。很多关于算法偏见的经典文本,这些对我也非常有帮助。实际上,我认为我最初的切入点,甚至让我思考的是我当时在加州研究的投票措施和审前工具中算法偏见的风险,是 ProPublica 上发表的一篇揭露文章。我发现 ProPublica 和 The Markup 在人工智能问题上有很好的调查性新闻,所以如果你在考虑技术特定的危害,这些显然是极好的资源。所以我认为这些对我来说绝对是一些宝贵的资源,从那时起,我就一直在扩大我的书籍库。我也喜欢斯图尔特·罗素 (Stuart Russell) 的《对齐问题与人类相容》。我认为关于人工智能带来的所有风险的文献有很多。但是,是的,这只是我发现最有帮助的内容的简要概述。