在中国上海举行的世界人工智能大会上,一个屏幕展示了面部识别技术

人脸识别算法一直处于隐私和道德辩论的中心。来源:沈其来/彭博社/盖蒂

多样性和包容性在2018年世界主要人工智能(AI)会议之一上占据了中心舞台。但一旦与一个有争议的声誉上个月在加拿大温哥华举行的神经信息处理系统(NeurIPS)会议上,人们的注意力转向了该领域的另一个大问题:伦理。

人工智能研究越来越多地涉及围绕其技术应用的伦理争议,例如在预测警务面部识别.问题包括解决算法中的偏差这反映了数据中的现有歧视模式,并避免影响已经脆弱的人群。加州大学伯克利分校的发展心理学家塞莱斯特·基德(Celeste Kidd)在关于算法如何影响人类信仰的NeurIPS主题演讲中警告说:“不存在中立的技术平台。”这次会议吸引了创纪录的1.3万名与会者,研究人员努力解决如何有意义地解决他们工作的伦理和社会影响。

道德的差距

伦理学家长期以来一直在争论人工智能的影响,并寻求将这项技术用于好的方法,比如在医疗保健方面。但纽约大学AI研究员、AI now Institute创始人梅雷迪思·惠特克(Meredith Whittaker)表示,研究人员现在意识到,他们需要将伦理嵌入到研究的制定中,并理解算法不公正的潜在危害。AI now Institute致力于了解这项技术的社会影响。她说,在最新的NeurIPS上,研究人员无法在不考虑可能的社会危害的情况下“写作、谈论或思考”这些系统。“问题是,对话中的变化是否会导致我们需要的结构变化,以确保这些系统不会造成伤害?”

惠特克说,像NeurIPS这样的会议,与另外两个年会一起发表了人工智能领域的大部分论文,它们也负有一定责任。“这个领域已经发展得太快了,以至于没有足够的会议或评审员。但每个人都想交论文。因此,这里有巨大的杠杆作用。”

但是在NeurIPS上展示的研究并没有面临特定的伦理审查,这是审查过程的一部分。人们对会议上发表的一篇论文的反应概括了这种做法的缺陷。这项研究声称能够在声音的基础上生成人脸,包括一个人的年龄、性别和种族等方面。机器学习科学家在推特上批评它是对变性人的恐惧和伪科学。

可能的解决方案

一个解决方案可能是在会议上引入伦理审查。NeurIPS 2019首次入选重复性检查表提交的论文。加拿大蒙特利尔麦吉尔大学(McGill University)和Facebook的机器学习科学家Joelle Pineau表示,在未来,一旦论文被接受,也可以对其责任进行检查。她是NeurIPS组织委员会的成员,并开发了这份清单。

NeurIPS表示,已经有一个道德委员会来处理现有审查过程中的担忧,但该公司正在考虑如何使其在道德和社会影响方面的工作更加有力。提案包括要求作者就其工作的道德做出声明,并培训审稿人发现违反道德规范的行为。另一个重要的人工智能会议——年度国际学习代表会议的组织者表示,在社区对话之后,他们也在讨论审查论文时考虑到道德的想法。

AI现在更进一步:在一个上个月发表的报告在美国,它呼吁所有机器学习研究论文都要包括一节关于社会危害的内容,以及数据集的来源。都柏林大学学院的认知科学家阿贝巴·比尔汉在人工智能研讨会上告诉NeurIPS的布莱克,这些考虑应该集中在弱势群体的观点上,人工智能往往会对这些群体产生不平衡的影响。1获得最佳论文奖。“算法排除了老年员工、变性人、移民和儿童,”Birhane说,他引用了人工智能在招聘和监控中的应用。她说,开发人员不仅应该问他们的算法可能会被如何使用,而且首先应该问它是否有必要。

业务影响

负责大量人工智能研究的科技公司也在解决其工作的道德问题(根据NeurIPS的数据,仅谷歌就占了12%的论文一个估计).但活动人士表示,绝不能让他们逃脱“道德清洗”的惩罚。科技公司缺乏多样性,尽管一些公司有专门负责道德规范的员工和整个董事会,但活动人士警告称,这些公司的权力往往太小。Birhane说,他们的技术解决方案——包括“去偏见算法”的努力——也经常被误导。她说,这种方法错误地认为存在无偏差的数据集,而修正算法并不能解决底层数据中的根本问题。

纽约市的社区组织者法比安·罗杰斯(Fabian Rogers)说,迫使科技公司将受影响群体的人纳入道德委员会将有所帮助。罗杰斯代表大西洋广场大厦租户协会,该协会努力阻止房东在未经居民同意的情况下安装面部识别技术。“环境决定一切,当我们谈论技术时,我们需要记住这一点。当我们没有必要的人提供这样的观点时,很难做到这一点,”他说。

惠特克说,处于特权地位的研究人员和技术工作者可以选择工作地点,而且应该用脚投票。她在谷歌工作到去年,并在2018年组织了谷歌员工的罢工,抗议该公司处理性骚扰索赔的方式。她说,研究人员应该要求知道他们正在研究的东西的最终用途。

加州斯坦福大学的机器学习科学家Ria Kalluri说,另一种方法是改变他们试图解决的问题。她说,研究人员可以通过解决科学问题,使算法更加透明,并为非专家创造挑战模型内部工作原理的途径,将权力转移到受模型影响的人身上,以及模型建立基于谁的数据。