大型语言模型如GPT-3在制药和金融领域的应用有待提升

2025-10-29 16:30来源:本站

  

  自然语言处理(NLP)是机器学习领域中最引人注目的分支之一。它让我们能够像人类一样与计算机交流,反之亦然。Siri、谷歌翻译以及银行网站上的聊天机器人都依赖于这种技术,但并非所有NLP系统都是一样的。

  在当今的人工智能领域,经过精心数据训练的、更小且更具针对性的模型通常更适合商业应用。然而,大型NLP系统拥有惊人的沟通能力,被称为“大规模语言模型”(LLM),它们能够回答简单的语言查询并生成创新的文本。然而,这些模型中的大多数在专业领域的应用上并不理想,因为它们常常产生主观、不准确或无意义的内容。

  Open AI的GPT-3是这些大型语言模型中的佼佼者,是工程学上的壮举。然而,它们也倾向于输出不准确或无意义的文本,这使得它们不适合那些精度至关重要的行业。

  

  现在订阅我们的时事通讯,每周在您的收件箱中回顾您最喜欢的人工智能故事。

  在STEM领域没有绝对的赌注,但在可预见的未来,欧洲的NLP技术前景光明。目前,全球NLP市场估计约为135亿美元,但专家指出,仅欧洲市场就在增长,预计到2030年将超过210亿美元。

  这为新兴的创业公司提供了一个广阔的市场空间,同时也为一些老牌行业参与者提供了机会,如Arria NLG和Dataiku。Dataiku最初在巴黎成立,现在已在全球范围内表现出色,设有多个办事处。Arria NLG则从阿伯丁大学分拆出来,现已超越其苏格兰起源。两家公司都致力于提供数据驱动的解决方案,为企业、制药和政府服务提供可验证和准确的结果,从而在自然语言处理解决方案上取得了巨大成功。

  这些公司之所以如此成功的一个原因是,训练和建立可靠的人工智能模型非常困难。例如,在大型数据集上训练的LLM倾向于输出“假新闻”式的随机陈述。这对于需要准确性和事实输出的行业来说是完全不可接受的。

  我与其中一家公司的首席执行官伊曼纽尔·沃克纳(Emanuel Warkner)进行了交谈。Yseop总部位于巴黎,是一家专注于在制药和金融等标准化行业使用NLP进行自然语言生成(NLG)的AI创业公司。根据他的说法,在为这些领域构建人工智能时,没有任何错误的余地。“它必须是完美的,”他告诉TNW。

  Yseop CEO Emmanuel Walckenaer

  在2022年的人工智能领域,GPT-3和谷歌的Lambda首次让专家们能够与机器“对话”,产生了有趣且引人注目的文章。这些模型已经变得非常擅长模仿人类,甚至有些专家认为它们正在变得有知觉。

  尽管这些系统令人印象深刻,但它们通常是不可靠的,容易编造信息。用通俗的话来说,它们是“聪明”的骗子。原因在于它们的训练方法。

  LLM是数学和语言学的完美结合,但它们依赖于训练数据。例如,你不能指望用Reddit帖子训练的人工智能能理解事实的矛盾。正如那句老话所说,你付出什么就会得到什么。

  例如,如果你用一个充满烹饪食谱的数据集来训练LLM,你可以开发一个能够根据需要生成新食谱的系统。你甚至可以要求它为数据库中没有的东西生成新颖的食谱,比如咖喱小熊软糖。

  就像人类厨师需要利用他们的烹饪背景来弄清楚如何将小熊软糖融入类似咖喱的菜肴一样,人工智能可以根据它所接受的训练来组合新的食谱。如果它是在一个咖喱食谱数据库上训练的,那么它很有可能输出的结果至少接近于人类给出的相同任务。

  但是,如果训练人工智能的团队使用了一个巨大的数据集,里面装满了数十亿或数万亿个与咖喱无关的互联网文件,你永远不知道机器会吐出什么。你可能会得到一个很棒的食谱,或者你可能会随机输出对NBA超级巨星斯蒂芬库里的评论。

  Steph Curry

  这是操作大型LLM的有趣部分。当我运行查询时,我完全不知道我会得到什么。但在医疗、金融或商业情报报告中,这种不确定性是无法接受的。

  为标准化行业开发人工智能解决方案的公司无法承受在庞大的数据库上对庞大的模型进行暴力训练,只是为了测试其能力。他们的输出通常需要提交给监管机构,如美国食品药品监督管理局(FDA)和全球金融监管机构进行审查。因此,这些组织必须严格控制他们用于训练模型的数据类型。

  根据Walckenaer的说法,Yseop的首要任务是确保用于训练系统的数据准确且符合道德规范。这意味着他们只使用相关数据并将其匿名化,以保护个人隐私。

  接下来,该公司必须确保其机器学习系统没有偏见、遗漏和幻觉问题。在追求100%准确的信息输出时,这是一个重大挑战。

  为了克服幻觉问题,Yseop依赖于在每个阶段将人类置于循环中。他们的算法和神经网络由数学家、语言学家和AI开发人员共同开发。他们的数据库由产品提供的研究人员和公司直接提供的数据组成。大部分服务通过SaaS模式提供,旨在“增强”人类专家的能力,而不是取代他们。

  由于每个阶段都有人类参与,所以可以进行检查,以确保人工智能不会接受提供的数据,并对新的骗局产生“幻觉”。例如,这可以防止系统使用真实的患者数据作为模板,并输出关于不存在的患者的虚假数据。

  开发人员在语言处理中必须克服的下一个问题是省略。当AI模型在输出信息时跳过数据库的相关或重要部分时,就会发生这种情况。

  像GPT-3这样的大型LLM并没有省略问题。然而,旨在帮助专业人士和公司对有限数据集进行分类的目标模型只能以揭示所有相关信息的方式“包含”。

  大型LLM通常无法跨越的最后一个主要障碍是偏见。技术偏见是最常见的一种形式。当系统被设计成这样,它产生的输出不遵循科学的方法时,就会发生这种偏差。

  技术偏见的一个经典例子是教机器“预测”一个人的性取向。这种人工智能没有科学依据(参见我们的文章,为什么它被认为是“基达”),只能通过纯粹的技术偏见来制造虚假的产出。

  no gaydar

  其他可能潜入NLP和NLG模型的常见偏见包括人为偏见(当人类由于文化或故意误解而不恰当地标记数据时发生)和制度偏见。

  对于依赖准确的数据和输出来做出重要决策的组织来说,最后一个可能是一个大问题。在制药和金融等标准化行业,这种偏见可能会导致患者预后不佳和财务崩溃。偏见是人工智能中最大的问题之一,像GPT-3这样的LLM基本上和它们接受训练的数据库一样有偏见。

  虽然很难完全消除偏见,但最好只使用最高质量的手工检查数据,并设置系统的“参数”(基本上,允许开发者微调虚拟刻度盘和旋钮),这有助于减少AI输出的偏见。

  GPT-3和类似的模型能够惊人的散文技艺,有时甚至欺骗一些专家。然而,它完全不适合一个标准化的行业,因为准确性和问责制是最重要的。

  当风险很高时,采用LLM或NLP/NLG似乎是个坏主意。例如,在制药行业,偏差和遗漏会极大地影响临床报告的准确性。谁会愿意相信一台能预见自己未来财

打卡网声明:未经许可,不得转载。