塞缪尔·奥特曼OpenAI的CEO,在参议院司法小组委员会作证的隐私,技术和法律。

开放AI首席执行官Sam Altman(看到这里在美国参议院作证时)的签署国之一公开信警告从人工智能的人类灭绝的风险。信贷:赢得麦克纳米/盖蒂

是不寻常的行业领袖谈论自己的产品的潜在致命性。这不是烟草或石油高管往往会做的事情,例如。然而,几乎每周都会科技行业内幕鼓吹人工智能(AI)的存在风险。

今年3月,一个公开信由Elon Musk签署和其他技术专家警告说,巨大的人工智能系统对人类构成深远的风险。周后,杰弗里•辛顿的先驱发展人工智能工具,放弃他的研究作用在谷歌,技术带来的严重风险的警告。500多个商业和科学领袖,包括OpenAI和谷歌DeepMind的代表,把他们的名字23-word声明说,解决人类灭绝的风险AI”应该是一个全球优先与其他societal-scale风险如流行病和核战争”。6月7日,英国政府调用AI的潜力存在危险时宣布将举办第一个大全球人工智能安全峰会今年秋天

认为人工智能可能导致人类灭绝的边缘上讨论技术社区多年。兴奋的工具ChatGPT和生成人工智能已经使它成为主流。但是,就像一个魔术师的花招,它吸引的注意力从真正的问题:人工智能系统和工具的社会危害是导致现在,或将来造成风险。尤其是政府和监管机构不应被叙述,必须采取果断行动来遏制潜在的危害。尽管科技产业应该告知他们的工作,它不应该受制于技术议程。

许多人工智能研究人员和伦理学家的人自然曾沮丧的末日主导辩论讨论人工智能。它在至少有两方面是有问题的。首先,AI的幽灵,一个全能的机燃料之间的竞争国家开发人工智能,这样他们可以受益于和控制它。这是科技公司的优势:它鼓励投资和削弱了参数调节。一个实际的军备竞赛产生下一代AI-powered军事技术已经在进行,增加灾难性冲突的风险——世界末日,也许,但并不是主要的讨论在AI威胁人类灭绝的故事。

第二,它允许一群均匀的公司高管和技术人员主导讨论人工智能和监管风险,而其他社区。字母写的科技行业领袖”本质上画周围的边界是一个专家在这个对话”,安巴谷湖的说,现在的人工智能研究所主任在纽约市,专注于人工智能的社会后果。

人工智能系统和工具有很多潜在的好处,从合成数据协助医疗诊断。但是他们也会导致证据确凿的危害,从偏见的消除决策工作。独裁国家AI-powered面部识别已经被滥用的跟踪和压迫人民。有偏见的AI系统可以使用不透明的算法来否认人们福利,医疗或庇护——最可能的技术的应用影响边缘化社区。在这些问题上辩论缺乏氧气。

最大的担忧之一周围生成人工智能的最新品种其潜在的促进错误信息。技术更容易产生更多,更有说服力,假的文本、图片和视频,可能影响选举,说,或破坏人的能力相信任何信息,潜在不稳定的社会。如果科技公司是认真的避免或减少这些风险,他们必须把道德、安全和问责制的核心工作。目前,他们似乎不愿意这么做。OpenAI GPT4“压力测试”,其最新生成的人工智能模型,通过促使其产生有害的内容,然后把保障到位。不过,尽管公司描述它所做的事情的全部细节测试和模型训练的数据没有公开。

科技公司负责开发人工智能系统必须制定行业标准和工具,和产品发布前进行严格的安全测试。他们应该提交数据完全独立监管机构能够验证他们,制药公司必须提交临床试验数据到医疗机构药物才能上市销售。

为了实现这一目标,政府必须建立适当的法律和监管框架,以及应用已经存在的法律。本月早些时候,欧洲议会批准了AI行为,从而调节人工智能应用程序根据其潜在风险——在欧盟禁止警察使用面部识别技术在公共空间生活,例如。该法案有进一步的障碍清除在欧盟成员国在成为法律之前,有缺乏细节的问题它将如何执行,但是它可以帮助制定全球标准的人工智能系统。进一步磋商关于人工智能的风险和法规,如即将到来的英国峰会,必须邀请一个多样化的与会者的名单,包括研究人员研究人工智能的危害和社区的代表,或在特定的技术被伤害的风险。

研究人员必须发挥自己的作用,建立一个负责任的AI自下而上的文化。今年4月,大机器学习会议NeurIPS(神经信息处理系统)宣布收养一个道德规范会议提交。这包括一个期望,研究涉及人类参与者已通过一个道德或机构审查委员会(IRB)。所有研究人员和机构应遵循这种方法,并确保IRB或者评审小组在案件中,不存在IRB -有专业检查潜在风险的人工智能的研究。和科学家使用大型数据集包含的数据从人们必须找到方法来获得同意。

散布恐惧心理者关于存在风险的叙述不是建设性的。严肃的讨论实际风险,和行动遏制他们,。人类越早建立与人工智能的交战规则,越早我们可以学会生活在和谐与技术。