搜索优化
English
搜索
Copilot
图片
视频
地图
资讯
购物
更多
航班
旅游
酒店
房地产
笔记本
Top stories
Sports
U.S.
Local
World
Science
Technology
Entertainment
Business
More
Politics
过去 30 天
时间不限
过去 1 小时
过去 24 小时
过去 7 天
按相关度排序
按时间排序
腾讯网
7 小时
SMoA: 基于稀疏混合架构的大语言模型协同优化框架
传统的多代理方法虽然避免了大规模再训练的需求,但仍面临着计算效率和思维多样性的挑战。本文提出的稀疏代理混合(Sparse Mixture-of-Agents, SMoA)框架,通过借鉴稀疏专家混合(Sparse Mixture-of-Experts, ...
腾讯网
2 小时
彩云小梦V3.5上线!首个基于DCFormer架构通用大模型发布
今年的ICML会议上,彩云科技团队的3篇论文,在录用平均分为4.25-6.33的情况下,获得平均7分的高分,并成为国内唯二受邀参加维也纳ICML 2024登台演讲的企业,另一家则是华为。
4 小时
on MSN
小米大模型升级第二代:参数尺寸 0.3B~30B,能力平均提升超 45%
IT之家 11 月 12 日消息,小米公司 MiLM 大模型在去年 8 月首度现身 C-Eval、CMMLU 大模型评测榜单,并在今年 5 月通过大模型备案,相关模型逐步应用于小米汽车、手机、智能家居等产品中。
搜狐
6 天
腾讯云TI平台开源MoE模型“混元Large”,助力AI应用创新
近日,腾讯正式开源了其最新的Mixture of Experts(MoE)模型“混元Large”,并将其接入腾讯云TI平台。这一举措不仅充分展现了腾讯在人工智能领域的快速进展,也为开发者提供了更加便捷的工具来推动AI应用的创新和落地。 “混元Large”模型在参数量上达到惊人的 ...
搜狐
6 天
腾讯与阿里巴巴引领AI潮流:新一代开源MoE与气象大模型发布
腾讯推出的Hunyuan-Large,是业界最大规模的开源Mixture of ...
1 天
小米大模型升级第二代:MiLM2 实现云边端结合,能力平均提升超 45%
在轻量化部署的大原则下,小米自研大模型团队考虑了集团内部多元化的业务场景及不同落地场景的资源限制,构建并不断扩充了自研大模型的模型矩阵,将大模型的参数规模扩展至 0.3B、0.7B、1.3B、2.4B、4B、6B、13B、30B ...
5 天
无问芯穹提出混合稀疏注意力方案MoA,加速长文本生成,实现最高8倍 ...
在大语言模型中,不同的注意力头表现出各异的注意力模式和扩展规则:有的关注全局信息,有的则聚焦局部;有的注意力范围随输入长度增加而扩展,有的则保持不变。然而,现有的统一稀疏注意力机制破坏了这些固有的特性。
7 天
腾讯发布MoE模型Scaling Law:你不可不知的背后技术与应用
在如今这个科技飞速发展的时代,混合专家模型(Mixture of Experts, MoE)正成为深度学习领域的一个重要关键词。最近,腾讯宣布推出了市场上最大的开源MoE模型——Hunyuan-Large,引发了业界的广泛关注。那么,Hunyuan-Large有哪些独特之处?它的Scaling Law又意味着什么?让我们一起深入探讨。 引人入胜的开头 面对大规模数据带来的挑战,传统的深度学习模型似 ...
5 天
on MSN
Digital Bros旗下品牌HOOK 独立发行品牌更名为 505 Pulse
Digital Bros S.p.A. 今天宣布将其独立出版品牌 HOOK 更名为 505 Pulse。通过更名为 505 Pulse,Digital Bros 公司旨在加强独立游戏部门与其大型游戏发行部门505 Games ...
6 天
腾讯混元又来开源,一出手就是最大MoE大模型
腾讯混元 Large 模型专项提升的长文能力已经应用到腾讯 AI 助手腾讯元宝上,最大支持 256K 上下文,相当于一本《三国演义》或英文原版的《哈利・波特》全集的长度,可以一次性处理上传最多 10 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果
反馈