微软、英伟达纷纷押注小模型,大模型不香了?

每经记者 文巧 实习记者 岳楚鹏 每经编辑 高涵

在人工智能发展的道路上,科技巨头们曾经竞相开发规模庞大的语言模型,但如今出现了一种新趋势:小型语言模型(SLM)正逐渐崭露头角,挑战着过去“越大越好”的观念。

当地时间8月21日,微软和英伟达相继发布了最新的小型语言模型——Phi-3.5-mini-instruct和 Mistral- NeMo- Minitron8B。这两款模型的主要卖点是它们在计算资源使用和功能表现之间实现了良好的平衡。在某些方面,它们的性能甚至可以媲美大模型。

人工智能初创公司Hugging Face的首席执行官Clem Delangue指出,高达99%的使用场景可以通过SLM来解决,并预测2024年将成为SLM之年。据不完全统计,包括Meta、微软、谷歌在内的科技巨头们今年已经发布了9款小模型。

大模型训练成本攀升

SLM的崛起并非偶然,而是与大模型(LLM)在性能提升与资源消耗方面的挑战密切相关。

AI 初创公司 Vellum 和Hugging Face今年4月份发布的性能比较表明,LLM之间的性能差距正在迅速缩小,特别是在多项选择题、推理和数学问题等特定任务中,顶级模型之间的差异极小。例如,在多项选择题中,Claude 3 Opus、GPT- 4 和Gemini Ultra的准确率均超过83%,而在推理任务中,Claude3 Opus、GPT-4和Gemini 1.5Pro的准确率均超过92%。

Uber AI 前负责人 Gary Marcus指出:“我想每个人都会说GPT-4比GPT-3.5领先了一步,但此后的一年多没有任何质的飞跃。”

与有限的性能提升相比,LLM的训练成本却在不断攀升。训练这些模型需要海量数据和数以亿计甚至万亿个参数,导致了极高的资源消耗。训练和运行LLM所需的计算能力和能源消耗令人咋舌,这使得小型组织或个人难以参与核心LLM开发。

国际能源署估计,数据中心、加密货币和人工智能相关的电力消耗到2026年,会大致相当于日本全国的用电量。

OpenAI首席执行官阿尔特曼曾在麻省理工学院的一次活动上表示,训练GPT-4的成本至少为1亿美元,而Anthropic首席执行官Dario Amodei预测,未来训练模型的成本可能达到1000亿美元。

此外,使用LLM所需的工具和技术的复杂性也增加了开发人员的学习曲线。从训练到部署,整个过程耗时漫长,减缓了开发速度。剑桥大学的一项研究显示,公司可能需要90天或更长时间才能部署一个机器学习模型。

LLM的另一个重大问题是容易产生“幻觉”——即模型生成的输出看似合理,但实际上并不正确。这是由于LLM的训练方式是根据数据中的模式预测下一个最可能的单词,而非真正理解信息。因此,LLM可能会自信地生成虚假陈述、编造事实或以荒谬的方式组合不相关的概念。如何检测和减少这些“幻觉”是开发可靠且可信赖语言模型的持续挑战。

小模型可降低成本

对LLM巨大能源需求的担忧,以及为企业提供更多样化AI选项的市场机会,让科技公司将注意力逐渐转向了SLM。

《每日经济新闻》记者注意到,不管是Arcee、Sakana AI和Hugging Face等AI初创公司,还是科技巨头都在通过SLM和更经济的方式吸引投资者和客户。

此前,谷歌、Meta、OpenAI和Anthropic都发布了比旗舰LLM更紧凑、更灵活的小模型。这不仅降低了开发和部署的成本,也为商业客户提供了更便宜的解决方案。鉴于投资者越来越担心AI企业的高成本和不确定的回报,更多的科技公司可能会选择这条道路。即便是微软和英伟达,如今也先后推出了自己的小模型(SLM)。

SLM是LLM的精简版本,具有更少的参数和更简单的设计,它们需要更少的数据和训练时间——只需几分钟或几小时。这使得SLM更高效,更易于在小型设备上部署。例如,它们可以嵌入到手机中,而无需占用超算资源,从而降低成本,并显著提升响应速度。

SLM的另一个主要优势是其针对特定应用的专业化。SLM专注于特定任务或领域,这使它们在实际应用中更加高效。例如,在情绪分析、命名实体识别或特定领域的问答中,SLM的表现往往优于通用模型。这种定制化使得企业能够创建高效满足其特定需求的模型。

SLM在特定领域内也不易出现“幻觉”,因为它们通常在更窄、更有针对性的数据集上训练,这有助于模型学习与其任务最相关的模式和信息。SLM的专注性降低了生成不相关、意外或不一致输出的可能性。

尽管规模较小,SLM在某些方面的性能并不逊色于大模型。微软最新推出的Phi-3.5-mini-instruct仅拥有38亿个参数,但其性能优于Llama3.18B和Mistral7B等参数远高于它的模型。美国东北大学(位于美国马萨诸塞州波士顿,是一所顶尖的私立研究型大学)语言模型研究专家Aaron Mueller指出,扩展参数数量并非提高模型性能的唯一途径,使用更高质量的数据训练也可以产生类似效果。

OpenAI首席执行官阿尔特曼在4月的一次活动中表示,他相信当前正处于巨型模型时代的末期,“我们将通过其他方式来提升它们的表现。”

不过,需要注意的是,虽然SLM的专业化是一大优势,但也有局限性。这些模型可能在其特定训练领域之外表现不佳,缺乏广泛的知识库,和LLM相比无法生成广泛主题的相关内容。这一限制要求用户可能需要部署多个SLM来覆盖不同的需求领域,从而使AI基础设施复杂化。

随着AI领域的快速发展,小模型的标准可能会不断变化。东京小模型初创公司Sakana的联合创始人兼首席执行官David Ha表示,几年前看似庞大的AI模型,现在看来已经显得“适中”。“大小总是相对的。”David Ha说道。

平台声明:该文观点仅代表作者本人,号外财经仅提供信息存储空间服务。发布者:号外财经,转转请注明出处:https://www.qinjiong.com/2024/08/26/13888.html

(0)
号外财经的头像号外财经
上一篇 2024年8月26日 上午10:21
下一篇 2024年8月26日 上午10:21

相关推荐

  • 男子25米手枪速射决赛

    北京时间8月5日,2024年巴黎奥运会射击项目迎来收官日,将进行男子25米手枪速射决赛,和混合团体双向飞碟决赛!在男子25米手枪速射资格赛中,中国选手李越宏、王鑫杰排名前二晋级决赛! 15:30,男子25米手枪速射决赛【CCTV5直播】(中国选手:李越宏、王鑫杰) 25米手枪速射决赛规则:每发射击9.7环及以上记1分,9.7环以下不计分;最终得分高者获胜!每…

    2024年8月5日
    5200
  • 潘展乐惊天逆转 巴黎奥运会男子4×100米混合泳接力以3分27秒46的成绩勇夺冠军

      在巴黎奥运会游泳项目的激烈角逐中,中国男子4×100米混合泳接力队以一次历史性的突破,夺得了金牌。这不仅是对队员们辛勤训练的最好回报,也是对中国游泳实力的有力证明。   最后一棒的潘展乐,在20岁生日当天,以45秒92的成绩完成了分段比赛,为中国队实现了惊天大逆转。   尽管覃海洋在赛后表示对自己的表现不太满意,但潘展乐的发言却展现了团队的凝聚力和自信:…

    2024年8月5日
    5100
  • 赛轮集团名誉董事长袁仲雪:公司上万职工的车子、房子全是公司买的!帮助出现生育出现问题研究人员试管婴儿

    凤凰网财经讯 9月2-4日,“新机遇·新活力——凤凰湾区财经论坛2024”于横琴粤澳深度合作区盛大举行。本次论坛由凤凰卫视、凤凰网主办,横琴粤澳深度合作区执行委员会联合主办。 国家橡胶与轮胎工程技术研究中心主任、赛轮集团名誉董事长袁仲雪 在活动现场,作为汽车供应链企业代表,国家橡胶与轮胎工程技术研究中心主任、赛轮集团名誉董事长袁仲雪发表了演讲。他从中国橡胶轮…

    2024年9月4日
    4600
  • 残奥会首日中国4金1银

    直播吧8月30日讯 巴黎残奥会结束了首日比赛的争夺,中国代表团目前4金1银居首。 英国、意大利、荷兰获得了两枚金牌。 场地自行车男子C1级3000米个人追逐赛赛,李樟煜夺得金牌,另一位中国选手梁伟聪摘得银牌。 场地自行车女子C1-3级3000米个人追逐赛,王小梅打破世界纪录,获得金牌。 游泳女子50米自由泳S6级,蒋裕燕摘得金牌。 游泳女子50米自由泳S10…

    2024年8月30日
    5400
  • 徐俐再现孙颖莎螃蟹步名场面

    新的一年很快就要到来了,作为奥运会的举办年,2024年对于所有的国人来说都是非常特殊的,中国作为东道主,肩负着举办一届幕后英雄的使命,对于中国体育来说,2024年也是充满了挑战和机遇的一年,在即将到来的奥运会上,中国体育代表团一定会全力以赴,拼搏争金,向全世界展现中国的体育实力。 而说起中国体育代表团,相信大家最先想到的肯定就是国家队中的各路豪强,除了一直备…

    2024年8月19日
    9700

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信