DoNews 7月26日消息,近日在微软 Inspire 大会上,Meta和微软宣布将在Azure和Windows上支持Llama 2大型语言模型(LLM)系列。
据微软科技官方公众号透露,Llama 2的目标是帮助开发者和组织构建生成式人工智能工具和体验。
Meta和微软共同致力于实现“让人工智能惠及更多人”的愿景,对于Meta对Llama 2的开源路径微软尤为兴奋。
在Meta首次向商业客户发布新版Llama 2时,微软很高兴能成为Meta的首选合作伙伴。
现在,Azure客户可以在Azure上更轻松、更安全地微调和部署7B、13B和70B参数的Llama 2模型。
此外,Llama还将进行优化以便在Windows上本地运行。
Windows开发人员将能够通过ONNX Runtime瞄准DirectML执行提供商来使用Llama,从而实现无缝工作流,为其应用程序带来生成式人工智能体验。
Meta和微软是人工智能领域的长期合作伙伴,双方曾合作将ONNX Runtime与PyTorch集成,在Azure上为PyTorch创造良好的开发者体验,Meta还选择了Azure作为战略云提供商。
本次合作,是基于双方加速人工智能时代创新的合作关系的演进,将进一步巩固微软作为开放模型生态系统与全球人工智能超级计算平台的地位。
Azure专为人工智能打造的超级计算平台,从设施、硬件和软件方面进行了独特的设计,以支持世界领先的人工智能组织构建、训练和部署一些要求苛刻的人工智能工作负载。
Llama 2模型与Azure AI的结合,使开发人员能够利用Azure AI的强大工具进行模型训练、微调、推理,特别是Azure确保AI安全的功能。
在Windows中加入Llama 2模型有助于推动Windows成为开发人员根据客户需求构建人工智能体验的优选场所,并释放开发者使用Windows Subsystem for Linux(WSL)、Windows终端、Microsoft Visual Studio和VS Code等世界级工具进行构建的能力。
Llama 2是微软不断增长的Azure人工智能模型目录的最新成员。
该模型目录目前处于公开预览阶段,是基础模型的中心,使开发人员和机器学习(ML)专业人员能够轻松地发现、评估、定制和大规模部署预构建的大型人工智能模型。
该目录消除了用户在运行Llama 2时管理所有基础设施依赖的需要,为模型微调和评估提供交钥匙支持,包括强大的优化技术,如DeepSpeed和ONNX Runtime,可显著提高模型微调的速度。
Windows开发人员将能够通过GitHub Repo轻松使用Llama 2构建新的体验。
借助Windows Subsystem for Linux和高性能GPU,开发人员可以在Windows PC上对LLM进行微调,以满足他们的特定需求。
负责任的人工智能是微软人工智能路径和我们合作方式的核心。
多年来,无论客户是构建自己的模型,还是使用来自微软、Meta、OpenAI组织和开源生态系统的预构建和可定制模型,我们都以巨大的投入使Azure成为负责任的尖端人工智能创新的场所。
在微软,我们通过包括实验和测量在内的迭代、分层方法来降低使用大型语言模型带来的潜在风险。
Azure AI客户可以使用自己的样本数据测试Llama 2,以了解其在特定用例中的表现。
之后,客户可以使用提示工程和检索增强生成(RAG)技术,为其应用程序开发、评估和优化元数据,并为最终用户提供更安全、更可靠的体验。
Azure AI内容安全等服务在此基础上增加了另一层保护,从而确保使用AI应用程序获得更安全的在线体验。
我们与Meta合作的部分成果是将Meta的安全技术与Azure AI内容安全相结合。
因此在Azure AI中部署的Llama 2模型就会默认采用分层安全方法。
微软通过Llama 2扩展Azure的模型目录并与Meta建立合作伙伴关系,这是在实现负责任、开放的人工智能方法方面迈出的一大步。