大型语言模型如GPT-3在制药和金融领域的应用仍显不足

自然语言处理(NLP)是机器学习中最令人兴奋的子集之一。这使得我们可以像人类一样与计算机交谈,反之亦然。Siri、谷歌翻译和银行网站上方便的聊天机器人都依赖...


自然语言处理(NLP)是机器学习中最令人兴奋的子集之一。这使得我们可以像人类一样与计算机交谈,反之亦然。Siri、谷歌翻译和银行网站上方便的聊天机器人都依赖于这种人工智能,但并不是所有的NLP系统都是平等的。

在当今的人工智能领域,经过重要数据训练的更小、更有针对性的模型通常更适合商业计划。然而,大规模的NLP系统具有令人难以置信的沟通能力。它们被称为“大规模语言模型”(LLM),可以回答简单的语言查询并生成新颖的文本。不幸的是,它们中的大多数都是新奇的,不适合大多数专业组织对其人工智能系统所要求的专业工作。

Open AI gpt -3最受欢迎的法学硕士之一是工程学的壮举。然而,它们也倾向于输出主观的、不准确的或无意义的文本。这使得这些庞大而流行的模型不适合精度至关重要的行业。

良好的前景


你好人形

现在订阅我们的时事通讯,每周在您的收件箱中回顾您最喜欢的人工智能故事。

在STEM领域没有绝对的赌注,但在可预见的未来,欧洲的NLP技术前景光明。NLP的全球市场目前估计约为135亿美元,但专家表示,仅欧洲市场就在增长。到2030年超过210亿美元。

这为新的创业公司提供了一个广阔的开放市场,以及一些老牌行业参与者,如:dirty When Arria NLGThe前Dataiku最初在巴黎成立,但在全球融资阶段表现非常出色,现在在世界各地都设有办事处。后一家公司Arria NLG本质上是从阿伯丁大学(University of Aberdeen)分拆出来的,而且已经远远超出了它的苏格兰起源。两家公司都致力于以数据为中心的解决方案,为企业、制药和政府服务提供可验证和准确的结果,从而在自然语言处理解决方案的基础上取得巨大成功。

这些特殊渠道如此成功的原因之一是,训练和建立值得信赖的人工智能模型非常困难。例如,在大型数据集上训练的法学硕士倾向于以随机陈述的形式输出“假新闻”。如果你想写想法和灵感,这是有用的,但如果准确性和事实输出很重要,这是完全不可接受的。

我和其中一家公司的首席执行官伊曼纽尔·沃克纳(Emanuel Warkner)谈过。IsopHis总部位于巴黎,是一家人工智能创业公司,专门在制药和金融等标准化行业使用NLP进行自然语言生成(NLG)。根据他的说法,在为这些领域构建人工智能时,没有任何错误的余地。“它必须是完美的,”他告诉TNW。

Yseop CEO Emmanuel Walckenaer

法学硕士的问题

在2022年的人工智能记者中,GPT-3和谷歌的lambda有史以来第一次,专家们能够与机器“交谈”,这产生了有趣而引人注目的文章。更不用说这些模型已经变得非常善于模仿人类了。一些专家甚至认为它们正在变得有知觉。

这些系统令人印象深刻,但正如上面提到的,它们通常是完全不可靠的,它们是脆弱的,不可靠的,容易编造。用外行的话来说,他们是愚蠢的骗子。原因在于他们的训练方法。

法学硕士是数学和语言学的完美结合。但最根本的是,它们依赖于训练数据。例如,你不能指望训练人工智能。语料库的Reddit帖子,不认为有事实矛盾。正如那句老话所说,你付出什么就会得到什么。

例如,如果您在一个充满烹饪食谱的数据集上训练LLM,您可以开发一个可以根据需要生成新食谱的系统。您甚至可以要求它为数据库中没有的东西生成新颖的食谱。比如,咖喱小熊软糖。

就像人类厨师需要利用他们的烹饪背景来弄清楚如何将小熊软糖融入类似咖喱菜的东西一样,人工智能可以根据它所接受的训练来组合新的食谱。如果它是在一个咖喱食谱数据库上训练的,那么它很有可能输出的结果至少接近于人类给出的相同任务。

但是,如果训练人工智能的团队使用了一个巨大的数据集,里面装满了数十亿或数万亿个与咖喱无关的互联网文件,你永远不知道机器会吐出什么。你可能会得到一个很棒的食谱,或者你可能会随机输出对NBA超级巨星斯蒂芬库里的评论。

Steph Curry

这是操作一个大型LLM的有趣部分。当我运行查询时,我完全不知道我得到了什么。但医疗、金融或商业情报报告没有给这种不确定性留下任何余地。

控制人类的知识以供机器使用

为标准化行业开发人工智能解决方案的公司无法承受在庞大的数据库上对庞大的模型进行暴力训练,只是为了看看它们的能力。他们系统的输出通常提交给监管机构,如USFDA和全球金融监管机构进行审查。出于这个原因,这些组织必须密切关注他们训练模型的数据类型。

根据Walckenaer的说法,Yseop的首要任务是确保用于训练系统的数据准确且符合道德规范。这意味着我们只使用相关数据并将其匿名化以删除个人身份信息,从而不会损害个人隐私。

接下来,该公司必须确保其机器学习系统没有偏见、遗漏和疏忽。幻觉。是的,没错。当试图输出100%准确的信息时,这是一个大问题。

为了克服幻觉的问题,Yseop依赖于在每个阶段将人类置于循环中。该公司的算法和神经网络由数学家、语言学家和人工智能开发人员共同开发。他们的数据库由产品提供的研究人员和公司直接提供的数据组成。他们的大部分服务都是通过SaaS完成的,旨在“增强”人类专家,而不是取代他们。

由于每个阶段都有人类参与,所以要进行检查,以确保人工智能不会接受提供的数据,并对新的骗局产生“幻觉”。例如,这可以防止系统使用真实的患者数据作为模板,并输出关于不存在的患者的虚假数据。

开发人员在语言处理中必须克服的下一个问题是省略。当AI模型在输出信息时跳过数据库的相关或重要部分时,就会发生这种情况。

像GPT-3这样的大型法学硕士并没有缩写问题。无论如何,我不确定从这些“一切皆有可能”的系统中期待什么。然而,旨在帮助专业人士和公司对有限数据集进行分类的目标模型只能以揭示所有相关信息的方式“包含”。有帮助的。

大型法学硕士通常无法跨越的最后一个主要障碍是偏见。技术偏差是最常见的一种形式。当系统被设计成这样,它产生的输出不遵循科学的方法时,就会发生这种偏差。

技术偏见的一个经典例子是教机器“预测”一个人的性取向。这种人工智能没有科学依据(参见我们的文章,为什么它被认为是“基达”)。只是废话和骗人的油),他们只能通过纯粹的技术偏见来制造虚假的产出。

no gaydar

其他可能潜入NLP和NLG模型的常见偏见包括人为偏见(当人类由于文化或故意误解而不恰当地标记数据时发生)和制度偏见。

对于依赖准确的数据和输出来做出重要决策的组织来说,最后一个可能是一个大问题。在制药和金融等标准化行业,这种偏见可能会导致患者预后不佳和财务崩溃。偏见是人工智能中最大的问题之一,像GPT-3这样的法学硕士基本上和他们接受训练的数据库一样有偏见。

虽然很难完全消除偏见,但最好只使用最高质量的手工检查数据,并设置系统的“参数”(基本上,允许开发者微调虚拟刻度盘和旋钮),这有助于减少偏见。AI输出-调好。

GPT-3和类似的模型能够惊人的散文技艺,有时甚至欺骗一些专家。然而,它完全不适合一个标准化的行业,因为准确性和问责制是最重要的。

为什么要使用人工智能

当风险很高时,采用LLM或NLP/NLG似乎是个坏主意。例如,在制药行业,偏差和遗漏会极大地影响临床报告的准确性。谁会愿意相信一台能预见自己未来财务状况的机器呢?

幸运的是,像Yseop这样的公司并没有使用充满未经检查信息的开放式数据集。诚然,您不太可能要求Yseop的制药模型写一首歌或创建一个合适的咖喱食谱(使用当前数据集),但是控制输出的数据和参数是经过仔细选择的。它是经过审查和使用的,所以可以说是可靠的。构建它们的任务。

但问题仍然存在,为什么要使用人工智能?到目前为止,我们已经使用了非自动化的软件解决方案。

沃尔肯纳尔告诉我,我可能很快就没有选择了。他说,人类劳动力没有跟上,至少在制药行业是这样。

Walckenaer说:“未来十年,对医学作家的需求将增加两倍。”他补充说,Yseop的系统可以将该行业的效率提高50%。它改变了游戏规则。对于那些担心被机器取代的人来说,这是个好消息。他确信,Yseop的系统是为了增强熟练的人类劳动力,而不是取代他们。

在其他标准化行业,如金融和商业智能领域,NLP和NLG有助于减少或消除人为错误。虽然这可能没有拥有一个法学硕士那么令人兴奋,因为它可以假装和你聊天,就像一个著名的历史人物,或者只要按一下按钮就能产生假新闻,但现在有成千上万的企业正在节省时间和金钱。

https://thenextweb.com/news/large-language-models-like-gpt-3-arent-good-enough-for-pharma-finance像GPT-3这样的大型语言模型对于制药和金融来说还不够好

本文来自作者[元柳]投稿,不代表哎微号立场,如若转载,请注明出处:https://m.iawzb.cn/wiki/202508-6574.html

(3)

文章推荐

  • “刺痛了我的脊柱”——明斯特的老板朗特里对克罗克公园的门票销售感到震惊

    观察它是一回事,尤其是从外面观察,但亲身体验又是另一回事。下周六在克罗克公园(CrokePark)重新上演的伦斯特-明斯特之战(下午5:45开球)门票销售已突破75000张,巩固了其作为世界上低于测试水平的最大橄榄球比赛的地位。“当然可以,”格雷厄姆·朗特里欣然同意

    2025年08月06日
    9
  • 玩家必备攻略“雀神作弊教程”(其实有挂)

    雀神作弊教程是一款可以让一直输的玩家,快速成为一个“必胜”的ai辅助神器,有需要的用户可以加我微下载使用。手机打牌可以一键让你轻松成为“必赢”。其操作方式十分简单,打开这个应用便可以自定义手机打牌系统规律,只需要输入自己想要的开挂功能,一键便可以生成出手机打牌

    2025年08月07日
    3
  • 魏博士指出,忽视本地人才是导致MAS技术事故的关键因素

    吉隆坡:拿督斯里博士WeeKaSiong表示,缺乏吸引本地人才留在本土航空公司的关注,导致马来西亚航空公司(MAS)最近技术事故的增加。马华公会主席表示,交通部长陆兆基未能保护本地航空公司免受熟练劳动力人才流失的影响,而许多本地行业都面临这种情况。

    2025年08月07日
    4
  • 教程分享“贝贝浙江游戏麻将怎么开挂”的确有挂

    贝贝浙江游戏麻将怎么开挂是一款可以让一直输的玩家,快速成为一个“必胜”的ai辅助神器,有需要的用户可以加我微下载使用。手机打牌可以一键让你轻松成为“必赢”。其操作方式十分简单,打开这个应用便可以自定义手机打牌系统规律,只需要输入自己想要的开挂功能,一键便可以生

    2025年08月07日
    4
  • 推荐一款“刀刀麻将怎么开挂”其实是有挂

    刀刀麻将怎么开挂是一款可以让一直输的玩家,快速成为一个“必胜”的ai辅助神器,有需要的用户可以加我微下载使用。手机打牌可以一键让你轻松成为“必赢”。其操作方式十分简单,打开这个应用便可以自定义手机打牌系统规律,只需要输入自己想要的开挂功能,一键便可以生成出手机

    2025年08月08日
    4
  • 尼克松的毒品战争持续两年,私下承认大麻并非特别危险

      ˂imgsrc="http://www.08082016.vip/file/upload/202411/03/041720161.jpg"1973年3月,新发布的一份私人公司录音中,时任总统理查德·尼克松与其行政助手的对话中提到,大麻“并不是特别危险”。他还认为,针对大麻的处罚应当减轻,

    2025年08月08日
    4
  • 内幕揭晓“兴动长春麻将有挂吗”原来真的有挂

    兴动长春麻将有挂吗是一款可以让一直输的玩家,快速成为一个“必胜”的ai辅助神器,有需要的用户可以加我微下载使用。手机打牌可以一键让你轻松成为“必赢”。其操作方式十分简单,打开这个应用便可以自定义手机打牌系统规律,只需要输入自己想要的开挂功能,一键便可以生成出手

    2025年08月08日
    4
  • 巴基斯坦锡克教妇女遭绑架,未成年儿子成功获救:警方透露

    根据《巴基斯坦刑法典》,已对两名被捕的嫌疑人立案。(表征)拉合尔:巴基斯坦警方周五表示,一名40岁的巴基斯坦锡克教妇女在巴基斯坦旁遮普省被两名绑架者轮奸了9个月,现已获救。这起事件发生在旁遮普邦的费萨拉巴德地区,距离拉合尔约130公里。

    2025年08月08日
    4
  • 英国学校禁用手机,批评者指出问题源于课外环境

    根据英国教育部的新指导意见,英国各地的教室将禁止使用手机。这一举措是教育大臣吉莉安·基冈在去年10月的保守党会议上做出的承诺的一部分。然而,这一决定遭到了批评,一个工会称其为“针对非问题的非政策”。目前,由各个校长决定自己的手机政策。新的指导方针建议校长们不仅在

    2025年08月08日
    0
  • 传奇奥斯卡奖得主为儿子首部作品倾情助阵

    电影传奇人物、多次获得奥斯卡奖的丹尼尔·戴·刘易斯爵士在2017年退休后,将重返演艺圈,出演他儿子的处女作。这位67岁的《纽约黑帮》男星在出演《幽灵线》后戏剧性地退出了演艺圈,这也是他最后一个角色,他也因此第六次获得奥斯卡最佳男主角提名。他将出演《

    2025年08月08日
    0

发表回复

本站作者后才能评论

评论列表(4条)

  • 元柳
    元柳 2025年08月08日

    我是哎微号的签约作者“元柳”!

  • 元柳
    元柳 2025年08月08日

    希望本篇文章《大型语言模型如GPT-3在制药和金融领域的应用仍显不足》能对你有所帮助!

  • 元柳
    元柳 2025年08月08日

    本站[哎微号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育

  • 元柳
    元柳 2025年08月08日

    本文概览:自然语言处理(NLP)是机器学习中最令人兴奋的子集之一。这使得我们可以像人类一样与计算机交谈,反之亦然。Siri、谷歌翻译和银行网站上方便的聊天机器人都依赖...

    联系我们

    邮件:哎微号@sina.com

    工作时间:周一至周五,9:30-18:30,节假日休息

    关注我们