首页
情报
装备
百科
精选
快讯
AI
猫咪范
首页
情报
装备
百科
精选
快讯
AI
猫咪范
注册
登录
推荐类别
栏目分类
开源软件
>
在线工具
开源软件
电脑软件
人工智能
>
3D
AI绘画
AI编程
AI视频
AI音频
ChatGPT
大语言模型
数字人
机器人
电脑游戏
>
chinaplay.store
Discord
Epic Games
Fanatical
GameSessions
giveaway
GMG
GOG
HumbleBundle
indiegala
IO游戏
itch.io
Microsoft Store
Origin
Rockstar Games Launcher
STEAM
Uplay
Wegame
Windows
战网
方块游戏
杉果游戏
主机游戏
>
任天堂Switch
微软Xbox
索尼PlayStation
手机游戏
>
IOS
taptap
安卓
混合专家模型
优惠
Skywork-MoE:具有1460亿参数和16个专家的高性能混合专家模型
AI
推荐人:暴走AI
标签:
Skywork-MoE
混合专家模型
AI
8个月前 (06-17)AI
昆仑万维旗下天工AI发布大语言模型(LLM)训练技术Skywork-MoE,Skywork-MoE是一个具有1460亿参数和16个专家的高性能混合专家(Mixture-of-Experts,简称MoE)模型。这个模型是从Skywork-13B模型的密集型检查点初始化而来的。通过实验结果表明,Skywork-MoE在多个...
阅读全文
直达链接
好
0
不好
0
0
Skywork-MoE:具有1460亿参数和16个专家的高性能混合专家模型
已关闭评论
优惠
马斯克旗下 xAI正式开源了Grok-1模型
AI
推荐人:暴走AI
标签:
Grok-1
混合专家模型
AI
11个月前 (03-17)AI
马斯克旗下 xAI正式开源了Grok-1模型,这是一个拥有3140亿参数的混合专家(Mixture-of-Experts)模型,由xAI团队从零开始训练。不过需要注意的是此模型尚未针对任何特定应用(如对话系统)进行微调,依据Apache 2.0许可证进行开源。而他们模型发布方式也比较特别,直接释出了磁力链接让大家下载。...
阅读全文
直达链接
好
0
不好
0
0
马斯克旗下 xAI正式开源了Grok-1模型
已关闭评论
热门
Meta推出多模态开放数据集AEA,通过Project Aria眼镜收集
(205℃)
开源Firefox扩展「影深」:让 Firefox 变成小说阅读器
(662℃)
《绝体绝命都市 4 Plus:夏日回忆》PS4中文版正式发售,内附免费DLC与服装
(757℃)
战争就是赚钱《军火商(Gunsmith)》,做一个军火商大佬吧!
(854℃)
评估基准方法TOFUEVAL:评估大语言模型(LLMs)在特定主题对话摘要生成中的准确性
(155℃)
浏览器插件豆瓣+图书馆查询助手:从豆瓣读书查询「真图书馆」馆藏信息
(153℃)
我要爆料
我的收藏
顶部
快速登录
账户:
密码:
验证码:9 + 1 =
自动登录
忘记密码?
QQ登录
微博登录
注 册