首页 > 参数

参数

  • 通义千问开源720亿和18亿参数两款大语言模型

    12月1日,阿里云举办通义千问发布会,开源通义千问720亿参数模型Qwen-72B,这是继通义千问此前开源140亿参数大语言模型后又一次开源之举。此外,通义千问还开源了18亿参数模型Qwen-1.8B和音频大模型Qwen-Audio。

  • Qwen版o1发布即开源!32B参数比肩OpenAIo1-mini,一手实测在此

    克雷西 发自 凹非寺新火种 | 公众号 QbitAI通义千问版o1来了,还是开源的!深夜,通义团队突然上线推理模型QwQ,参数量只有32B,在GPQA上击败了o1-mini。目前,QwQ的模型权重已在HuggingFace和魔搭社区上发布,还可以直接在线试玩。Ollama、Together.ai等大

  • 迄今最大!马斯克AI大模型Grok开源:参数量达3140亿

    3月18日消息,据媒体报道,马斯克的AI创企xAI正式宣布其大语言模型Grok-1已实现开源,并向公众开放下载。据了解,Grok-1是一款基于混合专家系统(Mixture-of-Experts,MoE)技术构建的大语言模型,拥有3140亿参数,远超OpenAI GPT-3.5的1750亿。

  • 万万没想到,ChatGPT参数只有200亿?

    机器之心报道编辑:小舟这合理吗?谁都没有想到,ChatGPT 的核心秘密是由这种方式,被微软透露出来的。昨天晚上,很多讨论 AI 的微信群都被一篇 EMNLP 论文和其中的截图突然炸醒。微软一篇题为《CodeFusion: A Pre-trained Diffusion Model for Code

  • 三星高管剧透GPT-5:3-5万亿参数,7000块B100训练

    GPT-5有3-5万亿参数,由7000块B100炼成?!一夜间,下面这张图在网上疯转:仔细看,这是三星高管Jung Bae Lee(李禎培)在一场高级管理层峰会(CEO Summit)上演讲。上面明晃晃写着GPT-5 3-5T、B100 7000、HBM3E 8TB/s。网友发现,不只是三星高管有“

  • 我国10亿+参数大模型供给方已达254家北京约占一半

    11月29日,北京市科学技术委员会、中关村科技园区管理委员会在2023人工智能计算大会(AICC)上发布了《北京市人工智能行业大模型创新应用白皮书(2023年)》(以下简称“《白皮书》”)。《白皮书》显示,截至2023年10月,我国10亿参数规模以上的大模型厂商及高校院所共计254家,

  • AI扫盲指南!什么是大模型?什么prompt?什么是大模型参数?

    机器学习#妙笔生花创作挑战#2023年是AI席卷全球的一年,人们见识到了各种AI带来的变化,但是很多人不清楚AI中的术语。今天,我们一起学习讨论一下吧!看看那些新闻中的术语都是什么意思!人们常说AI大模型,那么什么是大模型呢?AI大模型是一种基于海量数据和强大算力的人工智能模型,AI大模型需要数百

  • 阿里巴巴即将开源720亿参数的ai大模型

    品玩11月9日讯,阿里巴巴集团CEO 吴泳铭今天在 2023 年世界互联网大会乌镇峰会上透露,阿里巴巴即将开源 720 亿参数大模型,这将是国内参数规模最大的开源大模型。阿里巴巴目前已经开源通义千问 140 亿参数模型 Qwen-14B 和 70 亿参数模型 Qwen-7B,而 720 亿确实是目前