Meta新大语言模型LLama 3将在英特尔和高通硬件上运行

2024-04-26 12:31
摘要:划重点:⭐ Meta 发布了最新的大型语言模型 LLama3,以实现更安全、更准确的生成式人工智能体验。⭐ 英特尔和高通迅速将 LLama3移植到硬件平台上。⭐ Llama3采用了128-K token词汇表进行高效编码,并在8B 和70B 模型..

划重点:

Meta 发布了最新的大型语言模型 LLama3,以实现更安全、更准确的生成式人工智能体验。

⭐ 英特尔和高通迅速将 LLama3移植到硬件平台上。

⭐ Llama3采用了128-K token词汇表进行高效编码,并在8B 和70B 模型中使用了分组查询注意力。

Meta 最近发布了 LLama3,这是一款新的大型语言模型(LLM),用于实现更安全、更准确的生成式人工智能体验。除了 LLM,Meta 还推出了 Llama Guard2、Code Shield 和 CyberSec Eval2等信任和安全工具,以帮助确保符合行业和用户安全期望。尽管 Meta 仍在开发 LLama3AI 模型,但公司现在已经向公众发布了前两个模型。

Llama3将安全性内置到模型中,并提供多平台硬件支持。Meta 指出,LLama3的支持将很快在包括云提供商和模型 API 提供商在内的所有主要平台上提供。将很快托管 LLama3LLM 的公司包括 AWS、Databricks、Google Cloud、Hugging Face、Kaggle、IBM WatsonX、Microsoft Azure、Nvidia NIM 和 Snowflake。LLM 还将在 AMD、AWS、戴尔、英特尔、Nvidia 和高通的硬件上获得支持。

高通和英特尔迅速将 LLama3移植到硬件平台上。用于生成式人工智能的处理器必须快速移动大量数据并进行大规模并行操作的数学处理。这对于所有类型的处理器都是如此,无论是独立的高性能处理器,还是集成到片上系统(SoC)处理器中的图形处理单元(GPU)、神经处理单元(NPU)或张量处理单元(TPU)。

至于 LLM 是如何工作的,特别是 LLama3,AI LLM 解释数据集并将其转换为机器可解释的集。这允许生成式人工智能复制类似于构建在先前知识库上的类似人类的体验。在零炮点学习(0-shot)测试中,AI 模型没有专门训练用于问题中使用的数据。在 n-shot 学习(n 0)测试中,模型已经通过至少 n 个测试问题数据的示例进行了训练。此外,Meta 还测试了 LLama 的新人类评估集,其中包含1800个涵盖12种常见用例的提示。

Meta 考虑了 AI 的安全性。通过让 AI 开发人员对每个应用程序的模型进行微调,Meta 维持了测试用例与模型开发人员之间的分离,以防止意外过拟合。LLM 的超拟合会导致复杂模型基本上是对训练数据进行记忆,而不是学会如何利用底层模式。LLama3正在开发中,尽管 Meta 已经发布了8B 和70B 模型,但公司仍在训练400B 参数版本。最后,随着400亿参数显示出更高的准确性,可以推断出更高的 AI 硬件需求不会很快减少。

更新于:6个月前