当前位置: 首页 » 资讯 » 新科技 » 正文

芯原微电子申请大语言模型数据管理专利,减少大语言模型推理所需缓存数据量

IP属地 北京 编辑:王婷 金融界 时间:2024-09-30 18:42:19

2024年9月30日消息,国家知识产权局信息显示,芯原微电子(上海)股份有限公司申请一项名为“大语言模型数据管理方法、装置、电子设备及存储介质”的专利,公开号 CN 118709781 A,申请日期为2024年6月。

专利摘要显示,本申请旨在提供一种大语言模型数据管理方法、装置、电子设备及存储介质,涉及神经网络领域。大语言模型数据管理方法包括:在所述注意力层进行非首轮推理的情况下,将目标矩阵输出至所述注意力层,以使所述注意力层基于所述目标矩阵计算前一轮推理生成的键向量和值向量;其中:所述目标矩阵存储在所述存储单元内,所述目标矩阵包括初始向量和N个累加向量;在所述注意力层基于所述键向量和所述值向量完成当前轮次的推理后,基于所述累加向量对所述存储单元内的目标矩阵进行累加。通过上述方式,可以减少大语言模型不断推理过程中存储器所需缓存的数据量。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新