(全球 TMT2024 年 10 月 10 日讯)亚马逊云科技宣布,Meta 的新一代模型 Llama 3.2,包括其首款多模态模型,现已在 Amazon Bedrock 和 Amazon SageMaker 中正式可用。客户也可以在基于 Amazon Trainium 和 Amazon Inferentia 的 Amazon Elastic Cloud Compute(Amazon EC2)实例中部署这些模型。Llama 3.2 系列模型保留了此前的成功经验,并进行了全新升级,提供高度差异化的功能更新,包括支持图像推理的小型和中型视觉大语言模型,以及针对设备端优化过的轻量级纯文本模型。这些新模型旨在提高使用便捷性和效率,同时特别注重负责任的创新和安全性。此外,针对内容安全分类而微调的 Llama Guard 3 Vision 模型,现在也已在 Amazon SageMaker JumpStart 中可用。
Meta 推出了首款多模态视觉模型:Llama 3.2 11B Vision 和 Llama 3.2 90B Vision,这些型号支持图像理解和视觉推理场景,适用于图像标注、视觉问答、文档处理、多模态聊天机器人等应用。为边缘和移动设备量身定制的轻量级纯文本型号,如 Llama 3.2 1B 和 Llama 3.2 3B,可以快速响应,非常适合个性化应用。针对内容安全分类进行微调的 Llama Guard 3 11B Vision 专为支持图像推理场景设计,提高了对有害多模态内容检测能力。所有型号均支持 128K 上下文长度,并支持涵盖八种语言的多语言对话使用场景。
登录后才可以发布评论哦
打开小程序可以发布评论哦