基于大模型的搜索引擎给科研按下“加速键”(2)
当下,人们对主流AI聊天机器人(如ChatGPT)输出内容的准确性深感担忧,原因在于这些机器人偶尔会出现“幻觉”。机器人的幻觉是自然语言生成领域的一个术语,指AI模型会生成一些看似合情合理,实则子虚乌有的文本片段。这些文本可能充斥着虚假的信息、自相矛盾的逻辑,甚至毫无意义的言辞。
很多用户都曾表示,他们发现,AI研究工具在使用过程中,常常会犯下一些错误,比如编造统计数据、歪曲引用论文,甚至带有偏见等。
对此,开发人员已采取了一系列措施,以提升AI的准确性。
Elicit公司主管詹姆斯·布雷迪表示,他们对信息的准确性极为重视,正在运用多个安全系统来严格核查答案中的错误。还有专家指出,Web of Science数据库的AI工具拥有“坚实的防护网”,能够有效屏蔽那些欺诈性和有问题的内容。她提到,在软件开发最后的测试阶段,该团队与约12000名研究人员携手合作,整合了用户们的反馈结果。
尽管这种反馈改善了用户体验,但“幻觉”仍有可能出现。AI搜索工具在人类提供的反馈中不断学习成长,希望为人类提供一个满意的答案。因此,它们可能会自行填补那些原本不存在的信息空白。
有AI研究人员认为,AI科研搜索工具能为科研提供助力,但前提是科学家对生成的信息予以验证。
正如BiologGPT创始人科勒·兰巴登所指出的,要成为一名优秀的科学家,很重要的一点是,对一切持怀疑态度,包括你自己的研究方法。
(责编:罗知之、陈键)
关注公众号:人民网财经