千亿参数的大模型,需要多少算力?
时间:2023-08-23 15:16:43来源:腾讯网

作者 | Owen Zhu  


【资料图】

出品 | NPCon(新程序员大会)

与狭义的人工智能相比,通用人工智能通过跨领域、跨学科、跨任务和跨模态的大模型,能够满足更广泛的场景需求、实现更高程度的逻辑理解能力与使用工具能力。2023 年,随着 LLM 大规模语言模型技术的不断突破,大模型为探索更高阶的通用人工智能带来了新的曙光。通用人工智能进入了快速发展期,在中国,大模型已经呈现出百花齐放的态势,各种大模型层出不穷。

要想在「百模争秀」的时代占得先机,AI 开发团队需要着力化解算力、算法、数据层面的巨大挑战,而开发效率和训练速度是保障大模型市场竞争力的核心关键因素,也是未来的核心发力点。

浪潮信息人工智能与高性能应用软件部 AI 架构师 Owen ZHU 参与首届由 CSDN、《新程序员》联合主办的 NPCon:AI 模型技术与应用峰会,分享了面向新一轮 AIGC 产业革命,AI 大模型的算力系统解决之道,并强调算力、算法、数据和系统架构等多个方面的综合优化对大模型训练到了至关重要的作用。

本次分享主要包含三块内容,分别是:

一、「百模争秀」时代的算力瓶颈

二、欲炼大模型,先利其器

三、大模型的天花板,基础设施决定速度

「百模争秀」时代的算力瓶颈

大模型研发的核心技术是由预训练与 Alignment(价值对齐)组成的,第一部分就是预训练,需要用大量的数据使模型收敛速度更快、性能更好。第二部分则是 Alignment(价值对齐),Alignment (价值对齐)不完全等于强化学习,其通过使用多种方式/策略优化模型输出,让 AI 在和人的交流反馈中学会如何沟通表达,这两部分是提升大模型质量的核心要素。

目前来看,模型基础能力取决于数据、模型参数量和算力。模型参数量越大、投入的训练数据越大,模型泛化能力越强。由于资源限制,在两者不可兼得的时候,应该如何进行取舍呢?OpenAI 的研究结论认为,与增加数据量相比,先增大模型参数量受益则会更好,用一千亿的模型训练两千亿的 Token 和两千亿模型训练一千亿的 Token,后者的模型性能会更高。

由此可见,参数量是衡量模型能力的一个重要指标,当模型参数量增长超过一定阈值时,模型能力表现出跃迁式的提升,表现出来语言理解能力、生成能力、逻辑推理能力等能力的显著提升,这也就是我们所说的模型的涌现能力。

模型规模多大能产生涌现能力呢?

现在来看,百亿参数是模型具备涌现能力的门槛,千亿参数的模型具备较好的涌现能力。但这并不意味着模型规模就要上升到万亿规模级别的竞争,因为现有大模型并没有得到充分训练,如 GPT-3 的每个参数基本上只训练了 1-2 个Token,DeepMind 的研究表明,如果把一个大模型训练充分,需要把每个参数量训练 20 个 Token。

所以,当前的很多千亿规模的大模型还需要用多 10 倍的数据进行训练,模型性能才能达到比较好的水平。

无论是提高模型参数量还是提升数据规模,算力依旧是大模型能力提升的核心驱动力:需要用「足够大」的算力,去支撑起「足够精准」模型泛化能力。

当前大模型训练的算力当量还在进一步增大,从 GPT-3 到 GPT-4 算力当量增长了 68 倍。算力当量越大,交叉熵越小,模型能力越强。随着训练的 token 数、模型参数、计算量的增加,语言模型的 loss 在平滑下降,这就意味着大语言模型的精度可以随着计算量、参数规模、token 数扩展进一步提升。

欲炼大模型,先利其器

大模型能力来源于大量工程实践经验,预训练的工程挑战巨大,这表现在如下几个方面:首先,AI 大模型的演化对于集群的并行运算效率、片上存储、带宽、低延时的访存等也都提出了较高的需求,万卡AI平台的规划建设、性能调优、算力调度都是很难解决的难题;其次,大规模训练普遍存在硬件故障、梯度爆炸等小规模训练不会遇到的问题;再次,工程实践方面的缺乏导致企业难以在模型质量上实现快速提升。

作为最早布局大模型的企业之一,浪潮信息在业界率先推出了中文 AI 巨量模型「源 1.0」,参数规模高达 2457 亿。千亿参数规模的大模型创新实践,使得浪潮信息在大模型领域积累了实战技术经验并拥有专业的研发团队,为业界提供AI算力系统参考设计。

在算力效率层面,针对大模型训练中存在计算模式复杂,算力集群性能较低的情况。源 1.0 在大规模分布式训练中采用了张量并行、流水线并行和数据并行的三维并行策略,使用 266 台 8 卡 NVLINK A100 服务器,训练耗时约 15 天,单卡计算效率约 44%。共计训练了 180 billion token,并将模型最后的 loss 值收敛至 1.73,显著低于 GPT-3 等业界其他语言模型。

首次提出面向效率和精度优化的大模型结构协同设计方法,围绕深度学习框架、训练集群 IO、通信开展了深入优化,在仅采用 2x200G 互联的情况下,源 1.0的算力效率达到 45%,算力效率世界领先。在集群高速互联层面,基于原生 RDMA 实现整个集群的全线速组网,并对网络拓扑进行优化,可以有效消除混合计算的计算瓶颈,确保集群在大模型训练时始终处于最佳状态。

大模型的天花板:算力效率决定速度

当前,中国和业界先进水平大模型的算力差距依然较大,从算力当量来看,GPT-4 的算力当量已经达到了 248,842PD,而国内大多数主流的大模型算力大量仅为数千 PD,差距高达近百倍。

同时,中国和业界先进水平大模型在算法、数据方面也存在巨大差距。在算法方面,虽然开源为国内大模型发展带来了弯道超车的良机,但 LLaMA 等开源大模型相比 GPT4 等顶级水平自研模型的性能,开源模型的能力存在「天花板」。

在数据方面,中文数据集和英文数据集相比较,在规模、质量上均存在显著差距,相较于动辄数千亿单词量级的英文数据,中文大模型的数据量级仅为百亿左右,而且开源程度较低,封闭程度较高。

开发大模型、发展通用人工智能是一项非常复杂的系统工程,我们亟需从系统层面为未来大模型的良好生态发展寻找最优解。从实战中走来,通过构建高效稳定的智算系统,加速模型开发效率提升。

标签:

生活指南
  • 2023世界显示产业大会将在成都举行

    8月22日,记者从在北京召开的新闻发布会上获悉,由四川省人民政府、中

  • 雅达利推出 Atari 2600+ 游戏机,提供数百款游戏可玩

    IT之家8月23日消息,雅达利今天推出了一款名为Atari2600+的游戏机,是

  • 准备买车的先别急,五大新车将亮相成都车展,每款都有爆款潜质

    再过几天,下半年国内规模最大的国际车展——成都车展就要开始了。据悉

  • 西乡塘区教育系统:致敬身边的榜样 卓越教师篇

    执一段粉笔,用心挥洒。站一方讲台,沥血以教。他们高擎知识之火炬,传

  • “四个高新”绘壮阔图景

    8月18日,对西安高新区来说是个特殊的日子。2021年8月18日,西安高新区

  • 第五届中国质量大会将举行 将发布《成都质量倡议》

    中新网成都8月21日电(记者 刘亮)记者21日从中国市场监管部门获悉,

  • 焦点访谈:高薪招聘?骗人陷阱!

    央视网消息(焦点访谈):现如今,很多年轻人熟悉网络,这是他们找工作

  • 演唱会,文旅3.0业态?

    一场演唱会究竟有多大能量?最近在西安举办的TFBOYS十周年演唱会给出了

  • [原神/ntr]陷入陷阱的空,当然是要一口吃掉最好了(空×优菈)

    标题想了很久,没想好,在朋友的建议下,就这个吧就这个吧。“空,我喜

  • 戏剧十二夜 | 在生活的磨砺中找寻“美”

    齐鲁网·闪电新闻8月19日讯中国国家话剧院“青年导演创作扶持计划”第

  • 杰士邦旗下品牌:第六感超薄系列52枚19.9元包邮(七夕狂促)

    杰士邦旗下品牌:第六感超薄系列52枚19 9元包邮(七夕狂促)

  • 拓荆科技08月18日获沪股通增持1.59万股

    08月18日,拓荆科技获沪股通增持万股,最新持股量为万股,占公司A股总

  • 银河磁体08月18日被深股通减持26.48万股

    08月18日,银河磁体被深股通减持万股,最新持股量为万股,占公司A股总

  • 盟固利:公司日常经营情况未发生重大变化

    盟固利公告,公司股票交易价格于8月16日至8月18日连续三个交易日股票价

  • 显示效果绝了!一加Ace 2 Pro首发京东方Q9+ OLED屏

    一加Ace2Pro在发布会上宣布,将首发搭载京东方全新的Q9+旗舰屏。这款屏

  • 信用社贷款还不上可以延期吗

    信用社贷款还不上可以延期,但需要债务人没有偿还能力,需要提交相应的

  • 民生
    • 关于报送第九届中国国际“互联网+”大学生创新创业大赛总决赛项目的通知

    • 视频丨烟火天心味正浓丨游在天心④ 旖旎风光

    • 客户保证金(关于客户保证金介绍)

    • 我们的节日活动策划 我们的节日国庆节活动方案