头部财经

首页

资讯

财经号

智能车

专题

电商资讯

人物资讯

滚动资讯

首页

新科技

新金融

新零售

智能车

房地产

科技探索

人物资讯

网络游戏

人工智能

  • 全部
  • 快讯
  • 新科技
  • 新金融
  • 新零售
  • 智能车
  • 房地产
  • 电商资讯
  • 教育资讯
  • 上市公司
  • 人物资讯
  • 科技探索
  • 人工智能
  • 网络游戏
  • 让大模型不靠外部干预自己学习!这家非Transformer AI黑马,引爆WAIC

    而原生记忆能力是大模型迈向通用人工智能的关键基石,其重要性在于不仅能够让模型记住用户是谁、曾经说过什么、喜好什么,更能在长期交互中实现知识更新、个性化演进与情境理解,在此基础上,模型才能从工具进化为真正的个…

    07/26
  • 非Transformer架构落地之王,携离线智能&原生记忆在WAIC浮出水面

    07/26
  • 国产AI首次「长出」原生记忆,非Transformer架构成新王!机器狗当场引爆WAIC

    07/26
  • WAIC现场,全球首个拥有原生记忆力的大模型亮相,不是Transformer

    07/26
  • 让大模型不靠外部干预自己学习!这家非Transformer AI黑马,引爆WAIC

    07/26
  • 科学家提出⼤模型计算裂脑综合征概念,揭示Transformer三大硬伤

    07/22
  • Transformer危!谷歌MoR架构发布:内存减半推理速度还翻倍

    07/17
  • 「有望成为Transformer杀手」,谷歌DeepMind新架构MoR实现两倍推理速度

    与以往孤立处理参数减少或自适应计算的方法不同,MoR 将动态 token 级路由集成到参数高效的递归 Transformer中,创建了一种协同架构,实现了「无需承担大模型成本的大模型质量」。这些改进来源于 …

    07/17
  • Transformer终结者!谷歌DeepMind全新MoR架构问世,新一代魔王来了

    这些结果表明,MoR具备良好可扩展性和高参数效率,可替代旧架构。

    07/17
  • 无Tokenizer时代真要来了?Mamba作者颠覆性论文,挑战Transformer

    07/14
  • 彻底改写Transformer!「能量驱动架构」横空出世,通用推理时代要来了?

    07/14
  • 无Tokenizer时代真要来了?Mamba作者再发颠覆性论文,挑战Transformer

    07/12
  • Mamba提出者再次挑战Transformer,或成为通用基础模型核心架构

    07/12
  • Tokens是胡扯,Mamba作者颠覆性观点,揭露Transformer深层缺陷

    07/09
  • Mamba一作预告新架构!长文论述Transformer≠最终解法

    07/09
  • Transformer死角,只需500步后训练,循环模型突破256k长度泛化极限

    07/08
  • 特斯拉、英伟达机器人背后的“卖水人”

    AI纪元下,数据类“卖水人”正在异军突起。

    07/06
  • 显存占用骤降20%,NVIDIA DLSS将换用新模型

    据NVIDIA官方消息,新模型已结束测试阶段,将正式推出。

    06/29
  • Meta推出CATransformers框架,AI减排新利器

    月 15 日消息,科技媒体 marktechpost 昨日(5 月 14 日)发布博文,报道称 Meta AI 旗下 FAIR团队携手佐治亚理工学院,合作开发 CATransformers 框架,将碳排放作…

    05/16
  • SmallRig斯莫格 × Transformers 能量联盟正式启动 ——「远超所见」进化开启,突破影像边界——

    全球影像场景产品生态开创者SmallRig斯莫格正式宣布与全球顶级IP Transformers 开启授权衍生品合作,SmallRig斯莫格融合变形金刚品牌“远超所见”的核心主题,将变形金刚“突破物理边界”的…

    05/16
  • 对话阶跃星辰姜大昕:模型突破先于商业化,下一步关键是视觉领域Transformer级架构

    “双轮驱动策略使得阶跃星辰能够在坚持基础模型研发,追求AGI的同时,通过与行业伙伴合作,在实际应用场景中探索和落地Agent能力,形成从模型到Agent,从云侧到端侧的生态体系,实现软硬件结合以更好地理解用…

    05/16
  • DeepMind核心论文禁发6个月,Transformer级研究锁死!CEO:不满意就走人

    【导读】DeepMind内部研究要「封箱」了! 从时间线看,自23年DeepMind与GoogleBrain合并以来,谷歌加速推出了大量AI产品,试图在与OpenAI等劲敌的较量中迎头赶上。 此前,…

    04/02
  • RWKV开发者大会2025:全球数万开发者探讨RWKV-7超越Transformer

    来自全国各地的开发者、行业专家和技术创新者齐聚一堂——从知名高校实验室到前沿创业团队,现场涌动的创新能量印证了RWKV-7的优秀性能和深远意义。 在RWKV开发者大会期间,有10位来自学界、企业及RWKV开源…

    02/26
  • 国产大模型扎堆开源 Transformer或被放弃?

    HuggingFace中国区总经理王铁震表示,开源模型允许用户不断迭代和优化,通过后训练和模型蒸馏等方式,使其更加适应特定领域和需求,但作为一种工具,开源大模型的使用和维护需要一定的技术能力,而闭源模型则作为…

    02/25
  • 继DeepSeek后,MiniMax也发布了挑战传统Transformer架构的国产开源模型

    幻方量化旗下AI公司DeepSeek在12月底发布了V3开源模型,采用的是创新的多头潜在注意力机制(MLA)和DeepSeekMoE混合专家架构。 MiniMax在阐述为何选择将模型开源时提到,一是认为这有…

    01/15
  • AI“入侵”生物医药史:从暴力破解到Transformer模型三部曲

    Alphafold 1的时候,用的还是传统的解题思路,但是AlphaFold 2就跳过了这一块,直接去用深度神经网络预测了蛋白质的结构。在硅谷101的线下AI论坛上,Fusion Fund的联合创始人张…

    12/17
  • 联汇科技OmAgent开源智能体核心模型OmDet-Turbo被收录进入Transformers

    本次OmDet-Turbo模型凭借其高效的目标检测能力和出色的算法优化与在实际应用中的高效、稳定,获得Transformers官方青睐。 随着正式收录进Transformers,这一先进目标检测技术将为全球的…

    12/06
  • RockAI国内首个「非Transformer架构大模型」Yan通过网信办备案

    作为国内首个非Transformer架构、非Attention机制大模型完成网信办备案,为行业发展开辟了新的技术路径。 RockAI成为唯一一家非Attention机制大模型和Attention机制大模型均…

    12/04
  • RockAI国内首个「非Transformer架构大模型」Yan通过网信办备案

    作为国内首个非Transformer架构、非Attention机制大模型完成网信办备案,为行业发展开辟了新的技术路径。 RockAI成为唯一一家非Attention机制大模型和Attention机制大模型均…

    12/04
  • AI大模型的基石——Transformer

    语言大模型的核心是Transformer,是基于注意力机制的深度学习模型(神经网络架构),用于处理序列到序列的任务。 由多个编码器层堆叠而成,内部包含多头自注意力机制+前馈神经网络,整体主要作用是捕捉输入序…

    12/04
  •  «上一页   1   2   …   3   下一页»   共75条/3页 
    全部热门
  • 灵光APP上线3天扩容8轮 冲上App Store中国区免

    11/24 16:08

  • 华为助力机械导盲犬问世:实时规划路径、语音

    11/24 16:08

  • 任正非:坚决要把“夹心阶层”消灭掉

    11/24 16:08

  • 特斯拉FSD正式登陆韩国,全球落地国家增至七个

    11/24 16:08

  • 田渊栋、卡帕西力荐Nano Banana新玩法:论文变

    11/24 16:07

  • 工信部公示人形机器人标准化技术委员会委员名

    11/24 16:07

  • 农发行湖北省分行被罚150万,涉违反金融统计管

    10/31 16:58

  • 浙江平湖农商行被罚450万,涉关联交易管理不审

    10/31 16:58

  • 老铺黄金距离奢侈品牌有多远?

    10/31 16:56

  • 文华东方300亿元赎身,“老钱”找新路子了

    10/31 16:56

关于我们| 商业合作| 用户协议| 隐私政策| 版权声明| 网站地图| 友情链接| 财经头条| 酒业之家
© 2025 头部财经 TOP168.COM 洞悉时代脉搏,领航财富未来!All Rights Reserved 鲁ICP备2025162390号-1 京公网安备 11011402013531号