1 月 12 日消息,X 平台博主 Andrei David 发文,宣布其成功在一台拥有 20 年历史的厚版 Xbox 360游戏机上安装并运行了一款特制的 Llama2.cAI 模型。 …
这台主频350MHz电脑成功启动进入Windows 98系统,随后EXO启动了基于AndrejKarpathy的Llama2.c定制的纯C推理引擎,并要求LLM生成关于“Sleepy Joe”的故事,令人…
12 月 7 日消息,Meta 今年的压轴 AI 大模型来了。 Meta 强调 Llama 3.3模型效率更高、成本更低,可以在标准工作站上运行,降低运营成本的同时,提供高质量文本 AI 解决方案…
在最难的 AIME2024 基准测试 30 道题中,原版 LLaMA-3.1-8B-Instruct 做对 2 道,优化后做对 8道,超过了除 o1-preview 和 o1-mini 之外的其他商业闭源…
报道,11月5日消息,据外电报道,Meta 公司表示,正在向美国政府机构和从事国家安全的承包商开放其 Llama AI 模型。 据Meta 称,亚马逊网络服务和微软正在使用 Llama 来支持政府,将…
11 月 2 日消息,《洛杉矶时报》昨日(11 月 1 日)发布博文,报道称苹果研究团队测试了 20 个最先进的 AI模型,发现在有干扰项存在的情况下,它们处理简单的算术问题时表现不佳,甚至不如小学生。 O…
11 月 2 日消息,《洛杉矶时报》昨日(11 月 1 日)发布博文,报道称苹果研究团队测试了 20 个最先进的 AI 模型,发现在有干扰项存在的情况下,它们处理简单的算术问题时表现不佳,甚至不如小…
11月1日消息,据外媒Wired报道,在周三的Meta第三季度财报电话会议上,Meta首席执行官马克·扎克伯格(MarkZuckerberg)透露,Llama 4模型正在一个由10万片H100 GP…
10 月 27 日消息,继今年 9 月开源 Llama 3.2 的 1B 与 3B 模型之后,Meta 于 10 月 24日发布了这两个模型的量化版本,量化后的模型大小平均减少了 56%,RAM …
扎克伯格也通过视频表示,联想与Meta已经合作多年,推出了许多卓越的创新成果,将突破性的 AI和混合现实技术带给更多人,为消费者带来令人印象深刻的体验,共同构建一个更加智能的未来。 在探索构建一个AI更加…
联想CEO杨元庆与Meta创始人兼CEO马克·扎克伯格共同宣布,双方基于Llama大模型推出了面向PC的个人AI智能体——AI Now。 AI Now是基于Meta的开源Llama模型构建的,旨在将传统PC转…
近期,Meta 刚刚发布了 Llama 3.2,这是 Meta 的首个开源多模态模型。Meta 发布了 110 亿和 900亿参数的模型,以及更小的、专为在设备上运行而优化的 10 亿和 30 亿参数的模…
美国西部时间10月15日消息,联想集团今日在美国西雅图召开年度Tech World大会。联想CEO杨元庆在主题演讲中,与Meta创始人兼CEO马克·扎克伯格一道宣布,联想与Meta合作基于Llama大模型推出…
10月10日消息,亚马逊云科技宣布,Meta的新一代模型Llama 3.2,包括其首款多模态模型,现已在AmazonBedrock和Amazon SageMaker中正式可用。该系列模型进行了全新升…
9 月 29 日消息,AMD 在 Huggingface平台公布了自家首款“小语言模型”AMD-Llama-135m,该模型具有推测解码功能,拥有 6700 亿个 token,采用 Apache …
该模型在文本摘要、情感分析、代码生成和执行指令方面表现出色,并增加了图像推理能力。 其中 Llama 3.2 1B 和 3B 模型支持 128K 标记的上下文长度,在边缘本地运行的设备用例(如摘要、指令跟踪和…
HuggingFace 下载量接近 3.5 亿次,较 2023 年同期增长了 10 倍;过去一个月下载量达到了 2000 万次,使得Llama 成为领先的开源模型系列;云服务供应商对 Llama 需求巨大…
由此产生的混合模型包含四分之一的注意力层,在聊天基准测试中实现了与原始 Transformer相当的性能,并且在聊天基准测试和一般基准测试中优于使用数万亿 token 从头开始训练的开源混合 Mamba …
Llama-3.1-Nemotron-51B 模型还减少了内存占用,在推理过程中可以在单个 GPU 上运行 4倍以上的工作负载,从而带来了一系列新的机遇。 通过使用知识蒸馏技术,Nvidia 缩小了参考模…
9 月 19 日消息,在今天的 2024 云栖大会上,阿里云 CTO 周靖人发布通义千问新一代开源模型 Qwen2.5,其中,旗舰模型Qwen2.5-72B 号称性能超越 Llama 405B。 …
9 月 3 日消息,Meta 公司昨日发布新闻稿披露了旗下 Llama 开源AI模型家族在 Hugging Face的下载量情况,仅在上个月(8 月 1 日- 8 月 31 日),相关模型的下载次…
通过公开我们的 Llama 模型,我们看到了一个充满活力和多样化的人工智能生态系统,开发人员拥有比以往更多的选择和能力。」几天后,在一次财报电话会议上,Meta 首席执行官马克·扎克伯格讨论了公司利用人工…
他指出,目前大多数“狭义端侧模型”的核心目标在于为用户提供大语言模型推理服务,受限于模型参数、算力、软件生态、功耗控制等诸多难题,往往会通过压缩、分割等软硬件协同优化实现大语言模型在终端设备上的本地化应用。 …
英伟达通过从模型中删除 16 层来进行深度剪枝,并将其从 8B 模型缩减为 4B 模型,此外还部署另一种技术,通过修剪嵌入维度和 MLP中间层来进行宽度剪枝。 知识蒸馏是一个过程,在这个过程中,一个较小的…
目前可以在 Hugging Face 上查看并使用 Falcon Mamba 7B,这个仅用因果解码器的模型采用了新颖的 Mamba状态空间语言模型(State Space Language Model,…
T-MAC 是一种创新的基于查找表(LUT)的方法,专为在 CPU 上高效执行低比特大型语言模型(LLMs)推理而设计,无需权重反量化,支持混合精度矩阵乘法(mpGEMM),显著降低了推理开销并提升了计算速度…
Meta的首席执行官马克·扎克伯格透露,为了支持Llama 4的训练,公司正在大规模投资计算资源。 从Llama1的2048块GPU,到Llama 3.1的16384块GPU,Meta的GPU用量持续增长…
10/31 16:58
10/31 16:56
10/31 16:55