头部财经

首页

资讯

财经号

智能车

专题

电商资讯

人物资讯

滚动资讯

首页

新科技

新金融

新零售

智能车

房地产

科技探索

人物资讯

网络游戏

人工智能

  • 全部
  • 快讯
  • 新科技
  • 新金融
  • 新零售
  • 智能车
  • 房地产
  • 电商资讯
  • 教育资讯
  • 上市公司
  • 人物资讯
  • 科技探索
  • 人工智能
  • 网络游戏
  • 显存占用骤降20%,NVIDIA DLSS将换用新模型

    据NVIDIA官方消息,新模型已结束测试阶段,将正式推出。

    06/29
  • Meta推出CATransformers框架,AI减排新利器

    月 15 日消息,科技媒体 marktechpost 昨日(5 月 14 日)发布博文,报道称 Meta AI 旗下 FAIR团队携手佐治亚理工学院,合作开发 CATransformers 框架,将碳排放作…

    05/16
  • SmallRig斯莫格 × Transformers 能量联盟正式启动 ——「远超所见」进化开启,突破影像边界——

    全球影像场景产品生态开创者SmallRig斯莫格正式宣布与全球顶级IP Transformers 开启授权衍生品合作,SmallRig斯莫格融合变形金刚品牌“远超所见”的核心主题,将变形金刚“突破物理边界”的…

    05/16
  • 对话阶跃星辰姜大昕:模型突破先于商业化,下一步关键是视觉领域Transformer级架构

    “双轮驱动策略使得阶跃星辰能够在坚持基础模型研发,追求AGI的同时,通过与行业伙伴合作,在实际应用场景中探索和落地Agent能力,形成从模型到Agent,从云侧到端侧的生态体系,实现软硬件结合以更好地理解用…

    05/16
  • DeepMind核心论文禁发6个月,Transformer级研究锁死!CEO:不满意就走人

    【导读】DeepMind内部研究要「封箱」了! 从时间线看,自23年DeepMind与GoogleBrain合并以来,谷歌加速推出了大量AI产品,试图在与OpenAI等劲敌的较量中迎头赶上。 此前,…

    04/02
  • RWKV开发者大会2025:全球数万开发者探讨RWKV-7超越Transformer

    来自全国各地的开发者、行业专家和技术创新者齐聚一堂——从知名高校实验室到前沿创业团队,现场涌动的创新能量印证了RWKV-7的优秀性能和深远意义。 在RWKV开发者大会期间,有10位来自学界、企业及RWKV开源…

    02/26
  • 国产大模型扎堆开源 Transformer或被放弃?

    HuggingFace中国区总经理王铁震表示,开源模型允许用户不断迭代和优化,通过后训练和模型蒸馏等方式,使其更加适应特定领域和需求,但作为一种工具,开源大模型的使用和维护需要一定的技术能力,而闭源模型则作为…

    02/25
  • 继DeepSeek后,MiniMax也发布了挑战传统Transformer架构的国产开源模型

    幻方量化旗下AI公司DeepSeek在12月底发布了V3开源模型,采用的是创新的多头潜在注意力机制(MLA)和DeepSeekMoE混合专家架构。 MiniMax在阐述为何选择将模型开源时提到,一是认为这有…

    01/15
  • AI“入侵”生物医药史:从暴力破解到Transformer模型三部曲

    Alphafold 1的时候,用的还是传统的解题思路,但是AlphaFold 2就跳过了这一块,直接去用深度神经网络预测了蛋白质的结构。在硅谷101的线下AI论坛上,Fusion Fund的联合创始人张…

    12/17
  • 联汇科技OmAgent开源智能体核心模型OmDet-Turbo被收录进入Transformers

    本次OmDet-Turbo模型凭借其高效的目标检测能力和出色的算法优化与在实际应用中的高效、稳定,获得Transformers官方青睐。 随着正式收录进Transformers,这一先进目标检测技术将为全球的…

    12/06
  • RockAI国内首个「非Transformer架构大模型」Yan通过网信办备案

    作为国内首个非Transformer架构、非Attention机制大模型完成网信办备案,为行业发展开辟了新的技术路径。 RockAI成为唯一一家非Attention机制大模型和Attention机制大模型均…

    12/04
  • RockAI国内首个「非Transformer架构大模型」Yan通过网信办备案

    作为国内首个非Transformer架构、非Attention机制大模型完成网信办备案,为行业发展开辟了新的技术路径。 RockAI成为唯一一家非Attention机制大模型和Attention机制大模型均…

    12/04
  • AI大模型的基石——Transformer

    语言大模型的核心是Transformer,是基于注意力机制的深度学习模型(神经网络架构),用于处理序列到序列的任务。 由多个编码器层堆叠而成,内部包含多头自注意力机制+前馈神经网络,整体主要作用是捕捉输入序…

    12/04
  • 大模型风起,Transformer与世界模型如何携手通向AGI?

    与此同时,通往AGI的道路出现了两大技术流派:一是以OpenAI为代表的Transformer学派,通过大数据、大参数、大算力,以自回归方式走向AGI;二是以meta首席人工智能科学家Yann LeCun为代…

    11/22
  • 左手Transformer,右手世界模型,我们距离AGI还有多远?

    在探索AGI的道路上,Transformer架构和世界模型代表了人工智能研究中两种截然不同的设计哲学和目标。这两种方法在理解复杂系统、处理未知环境、以及学习效率方面各有优劣,引发了关于哪一种更接近于实现AG…

    11/21
  • 谷歌推出 AI 架构 Transformer 新方法:突破长文本处理,

    10 月 9 日消息,科技媒体 marktechpost 昨日(10 月 8日)发布博文,报道称谷歌公司推出了选择性注意力(Selective Attention)方法,可以提高 Transfor…

    10/09
  • 非 Transformer 架构 AI 模型 Liquid 问世

    而 Liquid AI 则反其道而行之,其 Liquid 基础模型号称对模型架构进行了“重新设想”,据称受到了“交通信号处理系统、数值线性代数”理念的深刻影响,主打“通用性”,能够针对特定类型的数据进行建模…

    10/02
  • 非 Transformer 架构 AI 模型 Liquid 问世

    而 Liquid AI 则反其道而行之,其 Liquid 基础模型号称对模型架构进行了“重新设想”,据称受到了“交通信号处理系统、数值线性代数”理念的深刻影响,主打“通用性”,能够针对特定类型的数据进行建模…

    10/02
  • 「群体智能」剑指AGI革命!国产架构挑战Transformer霸权,首款非Attention模型更新

    它不仅在无人机、机器人、PC、手机等终端设备中,丝滑适配,而且模型智能能力迎来了全新升级。 为了实现群体智能,RockAI经过多年的技术沉淀,独创了不同于Transformer的MCSD架构,并且提出了「类…

    09/30
  • Andrej Karpathy最新激进观点:Transformer将超越人脑

    在这个节目中,Andrej Karpathy 分享了有关研究、新公司以及对 AI 未来的期待,其中不乏颇为激进的观点,比如他认为Transformer 很快就将在性能上超越人类大脑、我们已经在特定的领域实…

    09/25
  • TPAMI 2024 | 计算机视觉中基于图神经网络和图Transformers的方法和最新进展

    近年来,由于在图表示学习(graph representation learning)和非网格数据(non-griddata)上的性能优势,基于图神经网络(Graph Neural Networks,GN…

    09/25
  • 谢尔盖布林:谷歌不敢用Transformer,作者全跑路了,现在我每天都在写代码

    在人工智能应用领域,布林认为生物学已经较好地实现了 AI 技术的落地应用,而机器人领域还是看完演示觉得很神奇的阶段,没有达到日常可以使用的水平。 布林:我认为竞争在某种程度上是非常有帮助的,因为所有科技大厂都…

    09/25
  • KAN结合Transformer,真有团队搞出了解决扩展缺陷的KAT

    最近,来自新加坡国立大学的研究者提出了 Kolmogorov–Arnold Transformer(KAT),用Kolmogorov-Arnold Network(KAN)层取代 MLP 层,以增强模型的…

    09/25
  • 重返谷歌的Transformer作者,开始掌管Gemini AI

    其中,Noam Shazeer 是 Character.AI 的创始人、CEO,也是 Transformer论文作者之一,他曾在谷歌任首席软件工程师。 Shazeer 将与 Google DeepMind …

    08/27
  • 非Transformer架构站起来了!首个纯无注意力大模型,超越开源巨头Llama 3.1

    目前可以在 Hugging Face 上查看并使用 Falcon Mamba 7B,这个仅用因果解码器的模型采用了新颖的 Mamba状态空间语言模型(State Space Language Model,…

    08/14
  • 6700万参数比肩万亿巨兽GPT-4!微软MIT等联手破解Transformer推理密码

    虽然训练时只用到了长度为3~6个节点的因果链,但序列长度为7~13时,TS2(NoPE)在标准和随机翻转的链上,获得了比GPT-4更高或相当的准确率。 使用正弦位置编码(SPE)和可学习位置编码(LPE)的…

    07/14
  • 大模型最强架构 TTT 问世!斯坦福 UCSD 等 5 年磨一剑, 一夜推翻 Transformer

    TTT 层直接替代了注意力机制,解锁了具有表现力记忆的线性复杂度架构,使我们能够在上下文中训练包含数百万(未来可能是数十亿)个 token 的LLM。 继续 Mamba 论文之后,研究人员在 Pile 上…

    07/09
  • Transformer“八子”集体出走,谷歌面临人才流失困境

    【头部财经】近日,Transformer的八位作者全部离开了谷歌,这一消息引起了业界广泛关注。据悉,这些顶尖人才的流失不仅对谷歌产

    07/12
    全部热门
  • 从代步到潮玩,奇瑞小车潮改节暨多米上市发布

    06/10 22:33

  • 售价12.98万-15.98万,一汽丰田bZ5诠释“合资

    06/10 22:02

  • “限时一口价”3.99万起 奇瑞多米/小蚂蚁喜爱

    06/10 21:30

  • 全新一代丰田RAV4将国产!提供多种设计风格,

    06/10 19:33

  • 618电竞装备升级指南:颜值性能一个都不能少

    06/10 17:02

  • 截胡骁龙8 Elite 2!曝天玑9500提前发:联发科

    06/10 17:01

  • 小米汽车工厂7月开放日来了!周末及节假日每天

    06/10 17:01

  • 泡泡涨价引争议,粉丝经济博弈平台或需筛选高

    06/09 17:34

  • 高考题,AI大模型不能解,也不敢解

    06/09 17:33

  • 公章争夺战落幕?海航控股7.99亿买回天羽飞训

    06/09 17:33

关于我们| 商业合作| 用户协议| 隐私政策| 版权声明| 网站地图| 友情链接| 财经头条| 酒业之家
© 2025 头部财经 TOP168.COM 洞悉时代脉搏,领航财富未来!All Rights Reserved 鲁ICP备2025162390号-1 京公网安备 11011402013531号