GPT-4标志在这张照片说明3月13日,2023年在华沙,波兰。

GPT-4人工智能模型还没有广泛使用。信贷:傻瓜Arriens / NurPhoto通过盖蒂图片社

人工智能公司OpenAI本周公布GPT-4的最新化身大语言模型,其受欢迎的聊天机器人ChatGPT。该公司表示GPT-4包含大改进——这已经震惊人的能力创建类文本并生成图像和计算机代码从几乎任何一个提示。科学研究人员说,这些能力可能会改变,但有些沮丧,他们还不能访问技术,其底层代码或信息培训。引发人们关注技术的安全并使它不那么有用的研究,科学家说。

升级到GPT-4, 3月14日公布的,它现在可以处理图像和文本。为了展示其语言能力,开放的人工智能,总部设在旧金山,加州,说它通过我们酒吧法律考试结果在第九十百分位数,为第十百分位数ChatGPT的先前版本。但是技术还没有广泛的访问,只有付费用户ChatGPT迄今为止访问。

“有一个候补名单现在你不能使用它,”Evi-Anne van Dis说阿姆斯特丹大学的心理学家。但她看到GPT-4演示。“我们观看一些视频演示能力和读心,”她说。她叙述了一个实例,是一个网站的手绘涂鸦,GPT-4用来生产的计算机代码需要构建网站,作为示范的能力来处理图像作为输入。

但有挫败感在科学界OpenAI周围的保密和数据模型是如何训练,以及它是如何运作的。“所有的这些闭源模型,他们在科学本质上是死角,”萨沙Luccioni说HuggingFace研究科学家专注于气候,一个open-source-AI社区。“他们(OpenAI)能保持建筑在他们的研究,但对于更广泛的社区,这是一个死胡同。”

“红色团队”测试

安德鲁白色,罗彻斯特大学的一位化学工程师有特权访问GPT-4 red-teamer”:一个人支付的OpenAI测试平台,试图让它做坏事。他访问GPT-4过去六个月,他说。“在过程的早期,似乎并没有不同,“相比以前的迭代。

他把机器人查询什么化学反应步骤需要做一个化合物,预测反应收率,并选择一个催化剂。“一开始,我是印象深刻,”White说。“这真的很令人惊讶的,因为它看起来如此真实,但它会产生幻觉一个原子。它会跳过一个步骤,”他补充道。但当他红组的一部分工作他给GPT-4访问科学论文,事情发生了戏剧性的改变。“这使我们意识到这些模型也许不是那么好只是孤单。但当你开始连接到互联网retrosynthesis规划师等工具,或一个计算器,突然间,新类型的能力出现了。”

而这些能力的担忧。例如,可以GPT-4允许危险化学品?输入人如白,OpenAI工程师反馈到他们的模型来阻止GPT-4创造危险的,非法的或有害的内容,White说。

假的事实

输出错误信息是另一个问题。Luccioni说模型像GPT-4,存在预测下一个单词一个句子中去,不能治愈提出虚假的事实——被称为产生幻觉。“你不能依靠这些类型的模型,因为有这么多的幻觉,”她说。这仍然是一个问题在最新的版本中,她说,尽管OpenAI GPT-4说它已经提高了安全性。

没有访问数据用于训练,OpenAI Luccioni安全缺乏保证。“你不知道什么是数据。所以你不能改善它。我的意思是,这是完全不可能科学与这样的一个模型,”她说。

神秘GPT-4如何训练也是一个关心van Dis的同事在阿姆斯特丹,心理学家Claudi Bockting。“很难作为一个人负责一些你无法监督,”她说。“其中一个问题是它们可能更偏向例如,人类有自己的偏见。“没有能够访问GPT-4背后的代码是不可能看到偏见可能源自哪里,或补救,Luccioni解释道。

道德的讨论

Bockting和van Dis也担心越来越多的这些AI系统属于大科技公司。他们想要确保正确测试和验证的技术的科学家。“这也是一个机会,因为与大型技术当然可以合作,加快进程,”她补充道。

Van Dis Bockting和他的同事们认为今年早些时候为迫切需要开发一套“生活”的指导方针,管理如何使用AI和工具,如GPT-4和发展。他们担心,任何立法在人工智能技术将很难跟上发展的步伐。Bockting和van Dis阿姆斯特丹大学召开了一次邀请赛峰会4月11日,讨论这些问题,与代表组织包括联合国教科文组织科学伦理委员会、经济合作与发展组织和世界经济论坛。

尽管担心,GPT-4及其未来的迭代将动摇科学,怀特说。“我认为这实际上是将是一个巨大的基础设施的变化科学,就像互联网是一个巨大的变化,”他说。它不会取代科学家,他补充说,但可以帮助一些任务。“我认为我们将开始意识到我们可以连接文件,数据项目,图书馆,我们使用和计算工作甚至机器人实验。”