执法部门、营销人员、医院和其他机构应用人工智能(AI)来决定一些事情,比如谁被定性为罪犯、谁可能以什么价格购买什么产品、谁能得到治疗以及谁能被雇用。这些实体越来越多地监控和预测我们的行为,往往是受到权力和利益的驱使。

现在,人工智能专家询问人工智能是否“公平”和“有益”并不罕见。但“公平”和“好”是任何人工智能系统都能挤进去的无限广阔的词。这里要提出一个更深层次的问题:人工智能是如何转移权力的?

从7月12日开始,数千名研究人员将在为期一周的国际机器学习会议上进行虚拟会议,这是世界上最大的人工智能会议之一。许多研究人员认为,人工智能是中立的,通常是有益的,只有来自不公平社会的有偏见的数据才会损害人工智能。事实上,一个冷漠的领域只为权贵服务。

在我看来,那些在人工智能领域工作的人需要提升那些被排除在塑造人工智能之外的人,而这样做将要求他们限制与受益于监控人的强大机构的关系。研究人员应该倾听、放大、引用那些首当其冲受到监控的社区,并与之合作:通常是女性、黑人、土著、LGBT+、穷人或残疾人。会议和研究机构应让出突出的时段、空间、资金和领导角色给这些群体的成员。此外,在拨款申请和出版物中应该要求和评估研究如何转移权力的讨论。

一年前,我和同事们在前人的工作基础上创建了激进人工智能网络(Radical AI Network)。该组织的灵感来自黑人女权主义学者安吉拉·戴维斯(Angela Davis)的观察:“激进仅仅意味着‘抓住事物的根源’”,而根本问题在于权力分配不均。我们的网络强调倾听那些被人工智能边缘化和影响的人,并倡导反压迫性技术。

考虑一个用于分类图像的人工智能。专家训练该系统在照片中寻找模式,可能是识别某人的性别或行为,或者在人的数据库中找到匹配的面孔。“数据主体”——我指的是那些通常未经同意就被跟踪的人,以及那些为训练人工智能系统而手动分类照片的人,通常报酬微薄——经常被人工智能系统利用和评估。

人工智能领域的研究人员绝大多数专注于为决策者提供高度准确的信息。非常少的研究关注于服务数据主体。我们需要的是让这些人去调查人工智能,去质疑它,去影响它,甚至去摧毁它。例如,倡导组织我们的数据机构(Our Data Bodies)在与美国公平住房和儿童保护服务机构互动时,提出了保护个人数据的方法。这样的工作很少受到关注。与此同时,主流研究正在创建训练成本极高的系统,进一步增强了从亚马逊(Amazon)、谷歌和Facebook到国内监控和军事项目等本已强大的机构的能力。

许多研究人员认为,他们在人工智能方面的智力工作加剧了不平等。像我这样的研究人员每天都在研究对我们来说在数学上很漂亮、很有用的系统,听人工智能的成功故事,比如赢得围棋冠军,或者在检测癌症方面表现出希望。我们有责任认识到我们的偏见,并倾听那些受到人工智能影响的人。

通过权力的视角,我们可以看到为什么准确、可推广和高效的人工智能系统并不适合所有人。在剥削性的公司或压迫性的执法部门手中,更准确的面部识别系统是有害的。各组织已作出回应,承诺设计“公平”和“透明”的系统,但公平和透明属于谁?这些系统有时能减轻危害,但却被拥有自己议程的强大机构所控制。充其量,它们是不可靠的;在最坏的情况下,它们伪装成“道德清洗”技术,仍在延续不平等。

一些研究人员已经开始揭露系统隐藏的局限性和故障。他们将自己的研究发现与对人工智能监管的倡导结合起来。他们的工作包括批评不充分的技术“修复”。其他研究人员正在向公众解释如何提取自然资源、数据和人力来创造人工智能。

新泽西州普林斯顿大学的种族与技术学者鲁哈·本杰明鼓励我们“记得想象和设计一个你无法离开的世界,就像你拆除你无法生活在其中的世界一样”。本着这种精神,现在是时候将边缘和受影响的社区置于人工智能研究的中心了——他们的需求、知识和梦想应该指导发展。例如,今年,我和同事们举办了一场研讨会,让不同的与会者分享我们对人工智能未来的梦想。我们描述的人工智能忠实于数据主体的需求,并允许他们自由选择退出。

当人工智能领域认为自己是中立的时候,它既没有注意到有偏见的数据,又建立了一个神圣化现状、促进权势者利益的系统。我们需要的是一个揭露和批评权力集中的系统的领域,同时与受影响的社区共同创建新系统:人工智能由人民创造,为人民服务。