添加链接
link之家
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接

随着ChatGPT的火热,科技公司们各显神通,针对大语言模型LLM通常需要极大的算力支持,且没有开源,阻碍了进一步的研究和应用落地。受 Meta LLaMA 和 Stanford Alpaca 项目的启发,来自加州大学伯克利分校、CMU、斯坦福大学和加州大学圣地亚哥分校的成员,共同推出了一个 Vicuna-13B 开源大模型。

根据论文显示,其Vicuna-13B可以 达到ChatGPT/Bard 90%以上水平 ,并且 开源 ,并且Vicuna-7B模型 可以在单卡上面运行 (github说7B需要16GB的现存,亲测在3090上面可以运行,速度挺快)。

目前Vicuna开源了模型权重以供大家进行研究和微调,本文受限于算力仅尝试运行7B模型。

本文大概的流程是:首先将权重文件保存到阿里云盘中(12GB),然后在autodl云服务器中开一台3090,使用autodl提供的离线下载将阿里云盘的权重下载到3090中,然后下载Vicuna的代码进行编译安装,就可以执行测试了。

章节1-5为具体部署方法,如果觉得太麻烦,可以直接看章节6:直接使用我的镜像立即开启人机对话,通过加载镜像后两行代码就可以开启对话

1、保存权重文件到阿里云盘

官方没有直接放出权重文件,而是需要通过增量和LLM自己进行转换,转换7B的权重需要30GB的RAM才可以。所以这里直接分享转换后的权重下载即可。

vicuna-7b-小羊驼 点击链接保存到自己云盘(note:不需要下载)

2、部署环境

Vicuna最小的7B模型也需要14GB的显存,(穷,没有)所以使用autodl租一台3090,也便宜一般1~1.5一小时。选择一台3090,它拥有24GB显存,运行7B模型已经够了。

在创建时选择框架:Pytorch1.10+Py3.8+CUDA11.3
在这里插入图片描述

3、上传权重文件到3090

该部分在autodl的帮助下,将阿里云盘权重直接下载到3090,不需要经过本机下载再上传。

当我们开启一台机器后可以看到下面的信息
在这里插入图片描述
点击“AutoPanel”进入面板,选择“公网网盘”,此时选择阿里云盘并扫码登录,就可以看到你的文件了。

找到vicuna-7b文件夹(里面就是相关权重文件),点击下载。
在这里插入图片描述

下载完成后,该模型权重就在我们3090的/root/autodl-tmp/里了,一会儿就可以直接使用。
权重文件较大,传输比较耗时,你可以点击右上角的传输任务查看进度。
在这里插入图片描述

4、下载安装源码

4.1 下载编译安装源码

首先从 v0.1.10 下载“Dource code(zip)”并上传。如下如所示在1标记处可以上传文件,基本的上传进度条完成后可以在左侧看到FashChat-0.1.10.zip

然后,点击“终端”打开终端,使用命令"unzip FastChat-0.1.10.zip -d ./"进行解压,成功后可以看到FastChat-0.1.10文件夹

note:不要去主页下最新版,最新版与本文的权重不符,会有小bug。
在这里插入图片描述

4.2 安装

首先在终端进入文件夹: cd FastChat-0.1.10
在这里插入图片描述
为了方便访问从github下载,请根据自己机器的区域设置代理
AutoDL帮助文档
比如我的是毕业季A去所以执行:
export http_proxy=http://10.0.0.7:12798 && export https_proxy=http://10.0.0.7:12798
在这里插入图片描述

然后依次执行:
sudo pip3 install --upgrade pip
sudo pip3 install -e .

至此一切就绪!

5、开始使用

一些配置好后,在终端中执行使用命令:
python3 -m fastchat.serve.cli --model-path ~/autodl-tmp/vicuna-7b/
等待加载chckpoint完成后,就会有提示符“Human:”就可以进行人机对话了
在这里插入图片描述

6、直接使用我的镜像立即开启人机对话

如果觉得上面的步骤太麻烦,使用我制作好的镜像,直接输入命令就可开启对话。

首先你需要获取我准备好的镜像,受限于autodl镜像分享只能通过指定id的方式,你可以在评论区留下你的autodl的ID,我分享给你。

你的id在这里查看:
在这里插入图片描述
假设你已经有了镜像,然后去租一台3090,在控制台将3090关机,从“ 更多 ”中选择“ 更换镜像 ”,选中我分享的镜像,等待重置完成。

开机后,一次执行:
cd FastChat-0.1.10
python3 -m fastchat.serve.cli --model-path vicuna-7b/
在这里插入图片描述
就可以开启对话了

Debug:可能的报错

在这里插入图片描述
上次执行使用命令占用的显存没有释放,只需要如下图关闭该终端,然后新开终端进入FastChat文件夹后再使用执行命令即可再次对话
在这里插入图片描述

近期请国内外头部出版社可尽快私信博主!——心比天高,仗剑走天涯,保持热爱,奔赴向梦想!低调,谦虚,自律,反思,成长,还算是比较正能量的博主,公益免费传播……内心特别想在AI界做出一些可以推进历史进程影响力的东西(兴趣使然,有点小情怀,也有点使命感呀)… 10-15 在Linux服务器系统上实V icu na - 7B 本地化 部署 (基于facebookresearch的GitHub) 进行 模型 部署 且实现 模型 推理全流程步骤的图文教程(非常详细) 0、前置环境 吃了吗您内@: 解决了,我再搞huggingface的时候突然不能用了,我看了一下是torch的原因 我卸载了torch官网安装项pip uninstall torch torchvision torchaudio 让后重装就行了 “OSError: [WinError 126] 找不到指定的模块”的解决办法 吃了吗您内@: 后面我没关注这个问题了 ( 我都忘了这是哪方面的报错,可能当时重装环境了吧