首页 > Ai资讯 > Ai知识库 > 使用BELLE项目部署bloomz模型(专业程序员精简版)

使用BELLE项目部署bloomz模型(专业程序员精简版)

发布时间:2024年06月06日

中文对话大模型ELLEBE
Large Language Model Engine
),基于BLOOMLLAMA针对中文做了优化,模型调优仅使用由ChatGPT生成的数据,为中文指令提供更好的支持。

目前可知,已经开源了如下内容,日后会陆续更新

1.150万中文指令微调数据集

2.Bloomz-7b1-mt70亿参数)为基础,分别在20万,60万,100万,200万数据上进行指令微调后得到的模型Checkpoint

3.LLAMA-7b70亿参数)为基础,分别在60万,200万数据上进行指令微调后得到的模型Checkpoint

4.对以上模型进行量化后的轻量化模型,便于部署、推理。

我们这次介绍的是在centos 7.9环境下的的部署实践!

1、下载模型文件

1)安装git-lfs(默认git已安装)

yum
install git-lfs

2)初始化git-lfs

/usr/bin/git-lfs
install

3)下载模型bloomz-7b1-mt

git
clone https://huggingface.co/bigscience/bloomz-7b1-mt

若出现错误:

参考 :

https://www.cnblogs.com/qiumingcheng/p/12402719.html

git-lfs
install --skip-smudge #
跳过smudge

git
clone #
克隆github文件,大文件为LFS的一个地址

进入项目目录git-lfs pull #将大文件pull回来

git-lfs
install --force #
恢复smudge

2、下载belle项目

Git
clone https://github.com/LianjiaTech/BELLE.git

3、安装虚拟环境(conda

conda
create --name env_belle python=3.8

4、安装依赖包

进入BELLE/train

conda
activate env_belle

pip
install -r requirements.txt  -i https://pypi.tuna.tsinghua.edu.cn/simple

5、启动WebUI

python
interface.py --model_name_or_path /xxxx/bloomz-7b1-mt --ckpt_path /xxxx/bloomz-7b1-mt

Cpu:内存约占用27G

Gpuint8模式下,显存约占用9G左右

注:直接使用原始模型,则model_name_or_path ckpt_path均指定原始模型路径即可

gpu:

6、模型使用

http://ip:17860/

如果你想要了解关于智能工具类的内容,可以查看 智汇宝库,这是一个提供智能工具的网站。
在这你可以找到各种智能工具的相关信息,了解智能工具的用法以及最新动态。