搜索优化
English
搜索
Copilot
图片
视频
地图
资讯
购物
更多
航班
旅游
酒店
房地产
笔记本
Top stories
Sports
U.S.
Local
World
Science
Technology
Entertainment
Business
More
Politics
过去 7 天
时间不限
过去 1 小时
过去 24 小时
过去 30 天
按时间排序
按相关度排序
南方都市报 on MSN
12 分钟
腾讯开源两个压箱底宝贝:十秒生成3D大模型,腾讯地图已用
11月5日,在腾讯混元大模型媒体沟通会上,腾讯混元宣布最新的MoE模型“混元Large”以及混元3D生成大模型“ Hunyuan3D-1.0”正式开源。
腾讯网
14 分钟
腾讯云TI平台同步开放接入MoE模型“混元Large”
36氪获悉,11月5日,腾讯混元最新开源的MoE模型“混元Large”上线。同时,腾讯云TI平台宣布同步开放接入,为用户、开发者提供一站式精调、API调用及私有化部署服务。腾讯云TI平台支持混元Large及Llama ...
2 小时
腾讯发布开源MoE大语言模型Hunyuan-large:总参数398B为业内最大
Huanyuan-large模型的总参数量为389B、激活参数为52B、训练token数量为7T、最大上下文长度为256K、词表大小为12.8w。
腾讯网
3 小时
腾讯混元Large、混元3D模型开源,我们实测了下都有些拉跨
作者|子川来源|AI先锋官时隔5个月,腾讯终于又开源了,而且还是俩。就在昨天,腾讯宣布开源MoE模型混元Large、混元3D模型混元3D-1.0。貌似这两个模型都不错。腾讯称混元Large是业界参数规模最大、效果最好的开源MoE大语言模型。同时混元3 ...
杭州日报
5 小时
良品铺子: 公司已提请就“配料表造假”事项立案调查
良品铺子公告,公司关注到部分媒体报道了网络博主举报公司藕粉、酸辣粉产品配料表造假传闻。经初步排查,相关产品在公司及生产商于本年度的多批次送检中,各项指标均合格。11月4日,公司向市场监管部门提请,就此次事项即刻立案调查。公司将对调查工作做好配合,相关结果会第一时间向社会公布。此次事项相关产品2024年1至9月收入占公司收入的比例很小。公司历来高度重视食品安全问题,尊重并保护消费者权益,同时也将依法 ...
6 小时
on MSN
GPT革命|腾讯发布开源语言大模型 面向中小企业
【财新网】腾讯再发两款开源模型。11月5日,腾讯混元大模型宣布推出首款开源的大语言模型“混元Large”和3D图像生成模型“混元3D”,加上今年5月腾讯推出的开源文生图模型,腾讯混元大模型已经发布了三款开源模型。
7 小时
重大突破!AI首次发现内存安全漏洞
近日,谷歌宣布其大语言模型(LLM)项目“Big Sleep”成功发现了一个SQLite数据库引擎中的内存安全漏洞,这是人工智能首次在真实软件中发现可利用的内存安全漏洞(且该漏洞无法通过传统的模糊测试检测到)。
19 小时
再开源两款大模型,腾讯慢慢来
另一款开源的腾讯混元3D生成大模型,首批包含轻量版和标准版,轻量版仅需10s即可生成高质量3D资产,目前已在技术社区公开发布,包含模型权重、推理代码、模型算法等完整模型,可供开发者、研究者等各类用户免费使用。
23 小时
谷歌 AI 模型“Big Sleep”成功发现 SQLite 致命漏洞,传统测试失效!
谷歌近日宣布,其 最新 开发的 AI 模型 “Big Sleep” 成功在 SQLite 数据库中发现了一处内存安全漏洞。这一漏洞是一种可被利用的栈缓冲下溢问题,令该代码在正式发布前得以修复。Big Sleep 是谷歌 Project Zero 与 ...
观点网
1 天
腾讯发布开源MoE大语言模型Hunyuan-Large
腾讯公司宣布推出业界领先的开源MoE大语言模型Hunyuan-Large,总参数量达389B,激活参数52B,训练token数量7T,最大上下文长度256K。 观点网讯:11月5日,腾讯公司宣布推出业界参数规模最大、效果最好的开源MoE大语言模型Hunyuan-Large,标志着该公司在人工智能领域取得重大进展。 该模型的总参数量达到389B,激活参数为52B,训练token数量为7T,最大上下文 ...
1 天
腾讯发布MoE大语言模型
11月5日,腾讯发布Hunyuan-large。据官方数字,该模型是业界参数规模最大的开源MoE(专家)大语言模型,总参数389B,上下文长度256K,模型层数64层,用到了合成数据。腾讯机器学习平台总监康战辉表示,今天业内用的更多还是自然数据,但自然数据增长跟不上模型的需求。(第一财经记者 郑栩彤) ...
1 天
腾讯推出Hunyuan-Large开源大模型
11月5日,腾讯宣布推出业界参数规模最大、效果最好的开源MoE大语言模型Hunyuan-Large。该模型的总参数量为389B,激活参数为52B,训练token数量为7T,最大上下文长度为256K。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果
反馈