09月

29日

  • Meta 发布 Llama 3.2 AI 模型:支持多模态视觉和轻量级模型

    牛透社9月29日消息,Meta公司宣布推出其最新的人工智能模型——Llama 3.2,这是该公司首个能够处理图像和文本的开源AI模型。Llama 3.2包含两个视觉模型(11亿参数和90亿参数)和两个轻量级文本模型(1亿参数和3亿参数),旨在支持移动和边缘设备上的实时AI应用。

    该系列模型覆盖了从文本到图像输入的多种应用场景,包括图像标题生成、视觉问题解答等。Meta表示,开发者可以轻松地将新模型投入使用,只需添加新的多模态功能,就能够展示图像并让Llama与之交互。此外,Llama 3.2的小型模型针对高通、联发科以及其他ARM硬件进行了优化,有望在移动设备上发挥作用。

意见反馈
返回顶部