海外访问:www.kdjingpai.com
Ctrl + D 收藏本站
当前位置:首页 » AI新闻

微软论文泄露:GPT-4o-mini只有8B,o1-mini仅100B?

2025-01-02 2.1 K

关于主流闭源LLM的参数规模一直讨论不断,在2024年最后2天来自微软的一篇关于检测和纠正临床笔记中医疗错误的基准MEDEC的研究一不小心直接漏了它们的参数规模:o1-preview, GPT-4,GPT-4o和Claude 3.5 Sonnet。

论文地址:https://arxiv.org/pdf/2412.19260v1

微软说:GPT-4o-mini只有8B,o1-mini仅100B?-1

实验部分也是将大模型参数规模分为3挡:7-8B,~100-300B,~1.7T,而GPT-4o-mini被分在第一档,只有8B着实让人有点不可思议~

 

总结

微软说:GPT-4o-mini只有8B,o1-mini仅100B?-1

 

  • Claude 3.5 Sonnet(2024-10-22),~175B
  • ChatGPT,~175B
  • GPT-4,约1.76T
  • GPT-4o,~200B
  • GPT-4o-mini(gpt-4o-2024-05-13)只有8B
  • 最新的o1-mini(o1-mini-2024-09-12)仅100B
  • o1-preview(o1-preview-2024-09-12)~300B
🍐 鸭梨AI文章智能写手
选题→写作→发布
全自动!
WordPress AI 写作插件
500+ 内容创作者在用
🎯智能选题:批量生成,告别枯竭
🧠检索增强:联网+知识库,有深度
全程自动:写作→配图→发布
💎永久免费:免费版 = 付费版,无限制
🔥 立即免费下载插件
✅ 永久免费 · 🔓 100% 开源 · 🔒 数据本地存储

相关推荐

找不到AI工具?在这试试!

输入关键词,无障碍访问必应搜索,快速找到本站 AI 工具。

回顶部