2024年3月17日,马斯克旗下人工智能公司xAI 开源了其开发的大模型Grok-1,马斯克一直在指责OpenAI没有开源,大模型Grok-1的开源将压力给到了OpenAI。一个月后,META也就是FACEBOOK开源了其Llama 3大模型。令马斯克尴尬的是,在全球最大的开源AI社区Hugging Face上,Grok-1上月的下载次数仅为4815,而发布不到1个月的Llama 3 8B版本是917538,Llama 3 70B版本是352394。不过在Github上,Grok-1扳回一局,到目前为止,Grok-1的星标高达48.3K,远超Llama3的19.9K,这也表明对Grok-1感兴趣的人很多,但下载下来尝试运行的人极少。这是为什么呢,很简单,Grok-1太大了,参数高达3140亿个,是目前为止参数最多的开源大模型,即便是最低的8位精度,那也是314GB的庞大体积,如果是做训练而不是推理,需要用FP32精度,1256GB。目前提供下载的版本是296.38GiB,也就是317.8GB大小,显然是FP8精度。