马斯克开源大模型Grok-1,手把手教你如何使用

京东云开发者
• 阅读 221

马斯克一直在指责OpenAI没有开源,终于开源自家的大模型Grok-1,也把压力给到了OpenAI

GitHub链接:https://github.com/xai-org/grok-1



马斯克开源大模型Grok-1,手把手教你如何使用



居然短短一天就有29k的star

Grok-1的模型参数:

•Parameters: 314B

•Architecture: Mixture of 8 Experts (MoE)

•Experts Utilization: 2 experts used per token

•Layers: 64

•Attention Heads: 48 for queries, 8 for keys/values

•Embedding Size: 6,144

•Tokenization: SentencePiece tokenizer with 131,072 tokens

•Additional Features: Rotary embeddings (RoPE)

•Supports activation sharding and 8-bit quantization

•Maximum Sequence Length (context): 8,192 tokens

第一步:下载模型权重

用户需要确保先下载 checkpoint,并将 ckpt-0 目录放置在 checkpoint 中。

模型权重约为 296.38 GB,如下图,要注意自己磁盘的容量



马斯克开源大模型Grok-1,手把手教你如何使用



马斯克开源大模型Grok-1,手把手教你如何使用



有下面两种下载方法

1.可以使用 torrent 客户端和此磁力链接下载权重

magnet:?xt=urn:btih:5f96d43576e3d386c9ba65b883210a393b68210e&tr=https%3A%2F%2Facademictorrents.com%2Fannounce.php&tr=udp%3A%2F%2Ftracker.coppersurfer.tk%3A6969&tr=udp%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce
  1. 直接使用HuggingFace

链接 https://huggingface.co/xai-org/grok-1

HuggingFace上面有很多预训练模型(如GPT,BERT),也有很多数据集,十分强大 ,推荐大家使用

执行下面的代码

git clone https://github.com/xai-org/grok-1.git && cd grok-1pip install huggingface_hub[hf_transfer]huggingface-cli download xai-org/grok-1 --repo-type model --include ckpt-0/* --local-dir checkpoints --local-dir-use-symlinks False

第二步:运行大模型

安装依赖环境,执行代码

pip install -r requirements.txt

requirements.txt的文件内容:

dm_haiku==0.0.12
jax[cuda12_pip]==0.4.25 -f https://storage.googleapis.com/jax-releases/jax_cuda_releases.html
numpy==1.26.4
sentencepiece==0.2.0

然后执行代码

python run.py

注意:硬件要求多大呢?

由于模型规模较大(314B参数),需要有足够GPU、内存的机器才能使用示例代码测试模型。

那具体需要多大呢?

这个也是提的比较多的问题,有人给出了回复,但暂时未确认

由于由于the mesh shape assertion(1, 8),因此需要 8 个 GPU。要以本机大小运行,您可能需要 8x80GB GPU (A100 80GB / H100GB)。



马斯克开源大模型Grok-1,手把手教你如何使用



马斯克开源大模型Grok-1,手把手教你如何使用



详见issue:https://github.com/xai-org/grok-1/issues/62

容易出现的问题

大家遇到比较多的是下载问题,比如种子无法下载



马斯克开源大模型Grok-1,手把手教你如何使用



马斯克开源大模型Grok-1,手把手教你如何使用



还有硬件资源的问题,毕竟需要的gpu和内存太高了,对于个人来说成本太高了,个人没法玩了啊



马斯克开源大模型Grok-1,手把手教你如何使用

点赞
收藏
评论区
推荐文章
直播预告丨大模型+Agents疏通京东金融运营堵点
大模型时代,“应用变了”:把大模型装进金融营销分几步?11月24日(周五)14:0015:00开播!数字化打破信息孤岛,也建立更多孤岛运营人员被困在自己的环节里十余个子系统、子模块如何整合?自然语言任务中的“幻觉”如何克服?如何将AI训练成业务运营高手?京
直播预告丨大模型如何在健康医疗中挖出大大的花?
大模型时代,“应用变了”:大模型如何在健康医疗中挖出大大的花?12月1日(周五)14:0015:00开播!大模型时代,给千行百业带来了新的想象空间试想一下,大模型经过专业知识训练竟然能够成为你的健康医疗助手曾经科幻片中的场景,正一步步成为现实这一期,我们将
直播预告 | 大模型时代 “应用变了”:看大模型如何跑进零售电商应用
走进零售电商,大模型能做什么?今年11.11,应用大模型带来成效显著今天下午2:00,京东云视频号准时直播看京东零售如何破题新解法,大小模型协同大模型将走向多模态,走向具身智能
京东云开发者 京东云开发者
7个月前
什么? 20分钟,构建你自己的LLaMA3应用程序| 京东云技术团队
4月19日,Meta发布了最新的大语言模型LLaMA3,具体包括一个8B模型和一个70B模型,上下文长度支持8K,被誉为史上最强开源大语言模型,开源社区的“重磅炸弹”,效果直指GTP4。在诸多评测任务上,LLaMA3都有非常炸裂的效果。8B模型在多项指标中
京东云开发者 京东云开发者
7个月前
什么? 20分钟,构建你自己的LLaMA3应用程序! | 京东云技术团队
4月19日,Meta发布了最新的大语言模型LLaMA3,具体包括一个8B模型和一个70B模型,上下文长度支持8K,被誉为史上最强开源大语言模型,开源社区的“重磅炸弹”,效果直指GTP4。在诸多评测任务上,LLaMA3都有非常炸裂的效果。8B模型在多项指标中
京东云开发者 京东云开发者
7个月前
如何优雅的使用ollama| 京东云技术团队
入门开源大语言模型,最好的工具就是ollama,这是一款简单的大模型本地部署框架,支持基于命令行的方式运行多种大语言模型,并提供了相应的Python和JSSDK,可以基于此方便实现ChatbotUI。这篇文章就以京东云智算平台为例(其他平台也是类似,甚至可
一键部署,玩转AI!天翼云Llama 3大模型学习机来了!
为了方便广大AI技术爱好者与从业者快速上手学习与使用大语言模型技术,天翼云基于开源的MetaLlama38BInstruct模型以及textgenerationwebui框架,搭建了一键部署、开箱即用的云主机镜像。同时,天翼云CPU/GPU云主机近期即将上线Llama3大模型学习机,期望能够成为帮助用户打开大模型领域之门的第一把钥匙,让更多用户从此了解大模型、学习使用大模型,并利用大模型创造更多可能。
京东云开发者 京东云开发者
7个月前
代码革命的先锋:aiXcoder-7B模型介绍
国内开源代码大模型4月9日aiXcoder宣布正式开源其7B模型Base版,仅仅过去一个礼拜,aiXcoder7B在软件源代码托管服务平台GitHub上的Star数已超过2k。同时跻身HuggingFace趋势榜单TOP30,令全球开发者瞩目。背后团队ai