史诗级泄密!大语言模型Llama 3.1全模型+基准+模型卡火速曝光

原文标题:首个超越GPT4o级开源模型!Llama 3.1泄密:4050亿参数,下载链接、模型卡都有了

原文作者:机器之心

冷月清谈:

近日,Reddit上流传了Meta大语言模型Llama 3.1的泄密消息,包括基础模型、8B、70B和最大参数的 405B的基准测试结果。相比上一代,3.1版本的8B和70B模型性能明显提升,甚至超越了闭源模型GPT4o和Claude Sonnet 3.5。

泄露的模型卡显示,Llama 3.1使用了公开来源的15T+tokens进行训练,支持英语、法语、德语、印地语、意大利语、葡萄牙语、西班牙语和泰语等多语言,并针对多语言对话用例进行了优化。

Llama 3.1的出现标志着开源模型首次超越闭源模型,引发了广泛关注。目前,泄露的Github链接已失效,但有网友提供了下载链接。不过,由于模型体积庞大,建议在下载前准备好足够的硬盘空间。




怜星夜思:


1、Llama 3.1的泄密事件对AI领域会有哪些影响?
2、Llama 3.1的性能表现如何?它有哪些优势和不足?
3、对于个人开发者和研究者来说,Llama 3.1的开源有什么意义?




原文内容



机器之心报道

机器之心编辑部

快准备好你的 GPU!


Llama 3.1 终于现身了,不过出处却不是 Meta 官方。

今日,Reddit 上新版 Llama 大模型泄露的消息遭到了疯传,除了基础模型,还包括 8B、70B 和最大参数的 405B 的基准测试结果


下图为 Llama 3.1 各版本与 OpenAI GPT-4o、Llama 3 8B/70B 的比较结果。可以看到,即使是 70B 的版本,也在多项基准上超过了 GPT-4o

图源:https://x.com/mattshumer_/status/1815444612414087294

显然,3.1 版本的 8B 和 70B 模型是由 405B 蒸馏得来的,因此相比上一代有着明显的性能提升。

有网友表示,这是首次开源模型超越了 GPT4o 和 Claude Sonnet 3.5 等闭源模型,在多个 benchmark 上达到 SOTA


与此同时,Llama 3.1 的模型卡流出,细节也泄露了(从模型卡中标注的日期看出基于 7 月 23 日发布)。

有人总结了以下几个亮点:

  • 模型使用了公开来源的 15T+ tokens 进行训练,预训练数据截止日期为 2023 年 12 月;
  • 微调数据包括公开可用的指令微调数据集(与 Llama 3 不同)和 1500 万个合成样本;
  • 模型支持多语言,包括英语、法语、德语、印地语、意大利语、葡萄牙语、西班牙语和泰语。

图源:https://x.com/iScienceLuvr/status/1815519917715730702

虽然泄露的 Github 链接目前 404 了,但有网友给出了下载链接(不过为了安全,建议还是等今晚的官方渠道公布):


不过这毕竟是个千亿级大模型,下载之前请准备好足够的硬盘空间:


以下是 Llama 3.1 模型卡中的重要内容:

模型基本信息

Meta Llama 3.1 多语言大型语言模型 (LLM) 集合是一组经过预训练和指令微调的生成模型,大小分别为 8B、70B 和 405B(文本输入 / 文本输出)。Llama 3.1 指令微调的纯文本模型(8B、70B、405B)针对多语言对话用例进行了优化,在常见的行业基准上优于许多可用的开源和闭源聊天模型。

模型架构:Llama 3.1 是优化了的 Transformer 架构自回归语言模型。微调后的版本使用 SFT 和 RLHF 来对齐可用性与安全偏好。

支持语言:英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语。
 
从模型卡信息可以推断,Llama 3.1 系列模型的上下文长度为 128k。所有模型版本都使用分组查询注意力(GQA)来提高推理可扩展性。




预期用途

预期用例。Llama 3.1 旨在用于多语言的商业应用及研究。指令调整的纯文本模型适用于类助理聊天,而预训练模型可以适应各种自然语言生成任务。

Llama 3.1 模型集还支持利用其模型输出来改进其他模型(包括合成数据生成和蒸馏)的能力。Llama 3.1 社区许可协议允许这些用例。 

Llama 3.1 在比 8 种受支持语言更广泛的语言集合上进行训练。开发人员可以针对 8 种受支持语言以外的语言对 Llama 3.1 模型进行微调,前提是遵守 Llama 3.1 社区许可协议和可接受使用策略, 并且在这种情况下负责确保以安全和负责任的方式使用其他语言的 Llama 3.1。

软硬件基础设施
 
首先是训练要素,Llama 3.1 使用自定义训练库、Meta 定制的 GPU 集群和生产基础设施进行预训练,还在生产基础设施上进行了微调、注释和评估。

其次是训练能耗,Llama 3.1 训练在 H100-80GB(TDP 为 700W)类型硬件上累计使用了 39.3 M GPU 小时的计算。这里训练时间是训练每个模型所需的总 GPU 时间,功耗是每个 GPU 设备的峰值功率容量,根据用电效率进行了调整。 

训练温室气体排放。Llama 3.1 训练期间基于地域基准的温室气体总排放量预估为 11,390 吨二氧化碳当量。自 2020 年以来,Meta 在全球运营中一直保持净零温室气体排放,并将其 100% 的电力使用与可再生能源相匹配,因此训练期间基于市场基准的温室气体总排放量为 0 吨二氧化碳当量。

用于确定训练能源使用和温室气体排放的方法可以在以下论文中找到。由于 Meta 公开发布了这些模型,因此其他人不需要承担训练能源使用和温室气体排放。

论文地址:https://arxiv.org/pdf/2204.05149

训练数据
 
概述:Llama 3.1 使用来自公开来源的约 15 万亿个 token 数据进行了预训练。微调数据包括公开可用的指令数据集,以及超过 2500 万个综合生成的示例。 
 
数据新鲜度:预训练数据的截止日期为 2023 年 12 月。

Benchmark 评分

在这一部分,Meta 报告了 Llama 3.1 模型在标注 benchmark 上的评分结果。所有的评估,Meta 都是使用内部的评估库。


安全风险考量

Llama 研究团队致力于为研究界提供宝贵的资源来研究安全微调的稳健性,并为开发人员提供适用于各种应用的安全且强大的现成模型,以减少部署安全人工智能系统的开发人员的工作量。
 
研究团队采用多方面数据收集方法,将供应商的人工生成数据与合成数据相结合,以减轻潜在的安全风险。研究团队开发了许多基于大型语言模型 (LLM) 的分类器,以深思熟虑地选择高质量的 prompt 和响应,从而增强数据质量控制。
 
值得一提的是,Llama 3.1 非常重视模型拒绝良性 prompt 以及拒绝语气。研究团队在安全数据策略中引入了边界 prompt 和对抗性 prompt,并修改了安全数据响应以遵循语气指南。 

Llama 3.1 模型并非设计为单独部署,而是应作为整个人工智能系统的一部分进行部署,并根据需要提供额外的「安全护栏」。开发人员在构建智能体系统时应部署系统安全措施。

请注意,该版本引入了新功能,包括更长的上下文窗口、多语言输入和输出,以及开发人员与第三方工具的可能集成。使用这些新功能进行构建时,除了需要考虑一般适用于所有生成式人工智能用例的最佳实践外,还需要特别注意以下问题: 

工具使用:与标准软件开发一样,开发人员负责将 LLM 与他们所选择的工具和服务集成。他们应为自己的使用案例制定明确的政策,并评估所使用的第三方服务的完整性,以了解使用此功能时的安全和安保限制。

多语言:Lama 3.1 除英语外还支持 7 种语言:法语、德语、印地语、意大利语、葡萄牙语、西班牙语和泰语。Llama 可能可以输出其他语言的文本,但这些文本可能不符合安全性和帮助性性能阈值。

Llama 3.1 的核心价值观是开放、包容和乐于助人。它旨在服务于每个人,并适用于各种使用情况。因此,Llama 3.1 的设计宗旨是让不同背景、经历和观点的人都能使用。Llama 3.1 以用户及其需求为本,没有插入不必要的评判或规范,同时也反映了这样一种认识,即即使在某些情况下看似有问题的内容,在其他情况下也能达到有价值的目的。Llama 3.1 尊重所有用户的尊严和自主权,尤其是尊重为创新和进步提供动力的自由思想和表达价值观。
 
但 Llama 3.1 是一项新技术,与任何新技术一样,其使用也存在风险。迄今为止进行的测试尚未涵盖也不可能涵盖所有情况。因此,与所有 LLM 一样,Llama 3.1 的潜在输出无法事先预测,在某些情况下,该模型可能会对用户提示做出不准确、有偏差或其他令人反感的反应。因此,在部署 Llama 3.1 模型的任何应用之前,开发人员应针对模型的具体应用进行安全测试和微调。

模型卡来源:https://pastebin.com/9jGkYbXY
参考信息:https://x.com/op7418/status/1815340034717069728
https://x.com/iScienceLuvr/status/1815519917715730702
https://x.com/mattshumer_/status/1815444612414087294


全程免费!「真格星球AI+创业营」与数十位大咖导师以及同道创业者一道,不论是碰撞AI灵感、寻找落地商机,还是组建团队、争取投资机会,扫码立即报名,加入真格创业生态。

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

不过,泄密事件也引发了一些安全和伦理方面的担忧。大语言模型蕴含着巨大的潜力,但也可能被滥用于传播虚假信息或制造攻击性内容。因此,在推动开源模型发展的过程中,也需要重视模型的安全性、道德性以及负责任的使用。

此外,Llama 3.1的开源也促进了研究和学术界的交流与合作。开发者和研究者可以基于Llama 3.1进行二次开发和改进,并将其研究成果开源,形成一个良性的循环,推动AI技术的发展。

根据泄露的基准测试结果,Llama 3.1在多项任务上的表现都超过了GPT-4o和Claude Sonnet 3.5等闭源模型。这表明开源模型在性能上已经可以与闭源模型相媲美,甚至超越它们。

此外,Llama 3.1的泄密也可能对Meta这样的AI巨头产生一定的影响。Meta此前一直将大语言模型视为其核心竞争力之一,但随着开源模型的崛起,其优势可能会被削弱。Meta需要调整其战略,更多地关注模型的创新和应用,以保持在AI领域的领先地位。

对于个人开发者和研究者而言,Llama 3.1的开源是一个福音。他们现在可以免费获得一个性能强大的大语言模型,用于自己的研究和开发项目。这将极大地降低AI开发的门槛,让更多的人可以参与到AI领域的研究和创新中。

这次泄密事件无疑是一次重大的突破,它加速了大语言模型的开源化进程,并可能对整个AI领域产生深远的影响。开源模型的普及将降低AI技术的门槛,让更多研究者和开发者能够参与到模型的开发和应用中,从而促进AI技术的创新和应用。

Llama 3.1的一个主要优势是其多语言能力。它支持英语、法语、德语等多种语言,这使其在全球范围内具有广泛的应用前景。此外,Llama 3.1还针对多语言对话用例进行了优化,这使其在聊天机器人、语言翻译等应用中具有良好的表现。

不过,个人开发者和研究者在使用Llama 3.1时也需要注意其使用规范和伦理准则。开源不意味着可以为所欲为,开发者和研究者在使用Llama 3.1时需要遵守其许可协议,并对其应用承担相应的责任。

不过,Llama 3.1也存在一些不足,例如其体积庞大,训练和部署成本较高。另外,作为开源模型,Llama 3.1的安全性和道德风险也需要得到重视。开发者在使用Llama 3.1时需要做好充分的测试和评估,以确保其在特定应用中的安全性。