ChatGLM2-6B

慈云数据 2024-05-11 技术支持 82 0

ChatGLM2-6B_ An Open Bilingual Chat LLM _ 开源双语对话语言模型

文章目录

  • ChatGLM2-6B_ An Open Bilingual Chat LLM _ 开源双语对话语言模型
    • 一、介绍
    • 二、使用方式
      • 1、环境安装
      • 2、代码调用
        • 3、从本地加载模型
        • 4、API 部署
        • 三、低成本部署
          • 1、模型量化
          • 2、CPU 部署
          • 3、Mac 部署
          • 4、多卡部署
          • 四、协议
          • 五、源程序下载

            一、介绍

            1. 更强大的性能:基于 ChatGLM 初代模型的开发经验,我们全面升级了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 [GLM]的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等数据集上的性能取得了大幅度的提升,在同尺寸开源模型中具有较强的竞争力。
            2. 更长的上下文:基于 [FlashAttention]技术,我们将基座模型的上下文长度(Context Length)由 ChatGLM-6B 的 2K 扩展到了 32K,并在对话阶段使用 8K 的上下文长度训练。对于更长的上下文,我们发布了 [ChatGLM2-6B-32K] 模型。[LongBench]的测评结果表明,在等量级的开源模型中,ChatGLM2-6B-32K 有着较为明显的竞争优势。
            3. 更高效的推理:基于 [Multi-Query Attention] 技术,ChatGLM2-6B 有更高效的推理速度和更低的显存占用:在官方的模型实现下,推理速度相比初代提升了 42%,INT4 量化下,6G 显存支持的对话长度由 1K 提升到了 8K。
            4. 更开放的协议:ChatGLM2-6B 权重对学术研究完全开放,在填写[问卷]进行登记后亦允许免费商业使用。

            ChatGLM2-6B 开源模型旨在与开源社区一起推动大模型技术发展,恳请开发者和大家遵守开源协议,勿将开源模型和代码及基于开源项目产生的衍生物用于任何可能给国家和社会带来危害的用途以及用于任何未经过安全评估和备案的服务。目前,本项目团队未基于 ChatGLM2-6B 开发任何应用,包括网页端、安卓、苹果 iOS 及 Windows App 等应用。

            ChatGLM2-6B
            (图片来源网络,侵删)

            尽管模型在训练的各个阶段都尽力确保数据的合规性和准确性,但由于 ChatGLM2-6B 模型规模较小,且模型受概率随机性因素影响,无法保证输出内容的准确性,且模型易被误导。本项目不承担开源模型和代码导致的数据安全、舆情风险或发生任何模型被误导、滥用、传播、不当利用而产生的风险和责任。

            二、使用方式

            1、环境安装

            首先需要下载本仓库:

            ChatGLM2-6B
            (图片来源网络,侵删)
            git clone https://github.com/THUDM/ChatGLM2-6B
            cd ChatGLM2-6B
            

            然后使用 pip 安装依赖:

            pip install -r requirements.txt
            

            其中 transformers 库版本推荐为 4.30.2,torch 推荐使用 2.0 及以上的版本,以获得最佳的推理性能。

            2、代码调用

            可以通过如下代码调用 ChatGLM2-6B 模型来生成对话:

            >>> from transformers import AutoTokenizer, AutoModel
            >>> tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True)
            >>> model = AutoModel.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True, device='cuda')
            >>> model = model.eval()
            >>> response, history = model.chat(tokenizer, "你好", history=[])
            >>> print(response)
            你好👋!我是人工智能助手 ChatGLM2-6B,很高兴见到你,欢迎问我任何问题。
            >>> response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history)
            >>> print(response)
            晚上睡不着可能会让你感到焦虑或不舒服,但以下是一些可以帮助你入睡的方法:
            1. 制定规律的睡眠时间表:保持规律的睡眠时间表可以帮助你建立健康的睡眠习惯,使你更容易入睡。尽量在每天的相同时间上床,并在同一时间起床。
            2. 创造一个舒适的睡眠环境:确保睡眠环境舒适,安静,黑暗且温度适宜。可以使用舒适的床上用品,并保持房间通风。
            3. 放松身心:在睡前做些放松的活动,例如泡个热水澡,听些轻柔的音乐,阅读一些有趣的书籍等,有助于缓解紧张和焦虑,使你更容易入睡。
            4. 避免饮用含有咖啡因的饮料:咖啡因是一种刺激性物质,会影响你的睡眠质量。尽量避免在睡前饮用含有咖啡因的饮料,例如咖啡,茶和可乐。
            5. 避免在床上做与睡眠无关的事情:在床上做些与睡眠无关的事情,例如看电影,玩游戏或工作等,可能会干扰你的睡眠。
            6. 尝试呼吸技巧:深呼吸是一种放松技巧,可以帮助你缓解紧张和焦虑,使你更容易入睡。试着慢慢吸气,保持几秒钟,然后缓慢呼气。
            如果这些方法无法帮助你入睡,你可以考虑咨询医生或睡眠专家,寻求进一步的建议。
            
            3、从本地加载模型

            以上代码会由 transformers 自动下载模型实现和参数。完整的模型实现在 [Hugging Face Hub]。如果你的网络环境较差,下载模型参数可能会花费较长时间甚至失败。此时可以先将模型下载到本地,然后从本地加载。

            从 Hugging Face Hub 下载模型需要先[安装Git LFS],然后运行

            git clone https://huggingface.co/THUDM/chatglm2-6b
            

            如果你从 Hugging Face Hub 上下载 checkpoint 的速度较慢,可以只下载模型实现

            GIT_LFS_SKIP_SMUDGE=1 git clone https://huggingface.co/THUDM/chatglm2-6b
            

            然后从[这里]手动下载模型参数文件,并将下载的文件替换到本地的 chatglm2-6b 目录下。

            将模型下载到本地之后,将以上代码中的 THUDM/chatglm2-6b 替换为你本地的 chatglm2-6b 文件夹的路径,即可从本地加载模型。

            模型的实现仍然处在变动中。如果希望固定使用的模型实现以保证兼容性,可以在 from_pretrained 的调用中增加 revision="v1.0" 参数。v1.0 是当前最新的版本号,完整的版本列表参见 [Change Log]。

            4、API 部署

            首先需要安装额外的依赖 pip install fastapi uvicorn,然后运行仓库中的 api.py:

            python api.py
            

            默认部署在本地的 8000 端口,通过 POST 方法进行调用

            curl -X POST "http://127.0.0.1:8000" \
                 -H 'Content-Type: application/json' \
                 -d '{"prompt": "你好", "history": []}'
            

            得到的返回值为

            {
              "response":"你好👋!我是人工智能助手 ChatGLM2-6B,很高兴见到你,欢迎问我任何问题。",
              "history":[["你好","你好👋!我是人工智能助手 ChatGLM2-6B,很高兴见到你,欢迎问我任何问题。"]],
              "status":200,
              "time":"2023-03-23 21:38:40"
            }
            

            感谢 @hiyouga 实现了 OpenAI 格式的流式 API 部署,可以作为任意基于 ChatGPT 的应用的后端,比如 ChatGPT-Next-Web。可以通过运行仓库中的openai_api.py 进行部署:

            python openai_api.py
            

            进行 API 调用的示例代码为

            import openai
            if __name__ == "__main__":
                openai.api_base = "http://localhost:8000/v1"
                openai.api_key = "none"
                for chunk in openai.ChatCompletion.create(
                    model="chatglm2-6b",
                    messages=[
                        {"role": "user", "content": "你好"}
                    ],
                    stream=True
                ):
                    if hasattr(chunk.choices[0].delta, "content"):
                        print(chunk.choices[0].delta.content, end="", flush=True)
            

            三、低成本部署

            1、模型量化

            默认情况下,模型以 FP16 精度加载,运行上述代码需要大概 13GB 显存。如果你的 GPU 显存有限,可以尝试以量化方式加载模型,使用方法如下:

            model = AutoModel.from_pretrained("THUDM/chatglm2-6b-int4",trust_remote_code=True).cuda()
            

            模型量化会带来一定的性能损失,经过测试,ChatGLM2-6B 在 4-bit 量化下仍然能够进行自然流畅的生成。 量化模型的参数文件也可以从[这里]手动下载。

            2、CPU 部署

            如果你没有 GPU 硬件的话,也可以在 CPU 上进行推理,但是推理速度会更慢。使用方法如下(需要大概 32GB 内存)

            model = AutoModel.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True).float()
            

            如果你的内存不足的话,也可以使用量化后的模型

            model = AutoModel.from_pretrained("THUDM/chatglm2-6b-int4",trust_remote_code=True).float()
            

            在 cpu 上运行量化后的模型需要安装 gcc 与 openmp。多数 Linux 发行版默认已安装。对于 Windows ,可在安装 [TDM-GCC] 时勾选 openmp。 Windows 测试环境 gcc 版本为 TDM-GCC 10.3.0, Linux 为 gcc 11.3.0。在 MacOS 上请参考 Q1。

            3、Mac 部署

            对于搭载了 Apple Silicon 或者 AMD GPU 的 Mac,可以使用 MPS 后端来在 GPU 上运行 ChatGLM2-6B。需要参考 Apple 的 官方说明 安装 PyTorch-Nightly(正确的版本号应该是2.x.x.dev2023xxxx,而不是 2.x.x)。

            目前在 MacOS 上只支持从本地加载模型。将代码中的模型加载改为从本地加载,并使用 mps 后端:

            model = AutoModel.from_pretrained("your local path", trust_remote_code=True).to('mps')
            

            加载半精度的 ChatGLM2-6B 模型需要大概 13GB 内存。内存较小的机器(比如 16GB 内存的 MacBook Pro),在空余内存不足的情况下会使用硬盘上的虚拟内存,导致推理速度严重变慢。

            此时可以使用量化后的模型 chatglm2-6b-int4。因为 GPU 上量化的 kernel 是使用 CUDA 编写的,因此无法在 MacOS 上使用,只能使用 CPU 进行推理。

            为了充分使用 CPU 并行,还需要单独安装 OpenMP。

            在 Mac 上进行推理也可以使用 ChatGLM.cpp

            4、多卡部署

            如果你有多张 GPU,但是每张 GPU 的显存大小都不足以容纳完整的模型,那么可以将模型切分在多张GPU上。首先安装 accelerate: pip install accelerate,然后通过如下方法加载模型:

            from utils import load_model_on_gpus
            model = load_model_on_gpus("THUDM/chatglm2-6b", num_gpus=2)
            

            即可将模型部署到两张 GPU 上进行推理。你可以将 num_gpus 改为你希望使用的 GPU 数。默认是均匀切分的,你也可以传入 device_map 参数来自己指定。

            四、协议

            本仓库的代码依照 Apache-2.0 协议开源,ChatGLM2-6B 模型的权重的使用则需要遵循 Model License。ChatGLM2-6B 权重对学术研究完全开放,在填写问卷进行登记后亦允许免费商业使用。

            五、源程序下载

            源程序下载地址:ChatGLM2-6B_ An Open Bilingual Chat LLM _ 开源双语对话语言模型

微信扫一扫加客服

微信扫一扫加客服

点击启动AI问答
Draggable Icon