Skip to content

Latest commit

 

History

History
162 lines (106 loc) · 5.83 KB

README.md

File metadata and controls

162 lines (106 loc) · 5.83 KB

GLM-4-9B Web Demo

Read this in English

Demo webpage

安装

我们建议通过 Conda 进行环境管理。 执行以下命令新建一个 conda 环境并安装所需依赖:

conda create -n glm-4-demo python=3.12
conda activate glm-4-demo
pip install -r requirements.txt

请注意,本项目需要 Python 3.10 或更高版本。 此外,使用 Code Interpreter 还需要安装 Jupyter 内核:

ipython kernel install --name glm-4-demo --user

您可以修改 ~/.local/share/jupyter/kernels/glm-4-demo/kernel.json 来改变 Jupyter 内核的配置,包括内核的启动参数等。例如,若您希望在使用 All Tools 的 Python 代码执行能力时使用 Matplotlib 画图,可以在 argv 数组中添加 "--matplotlib=inline"

若要使用浏览器和搜索功能,还需要启动浏览器后端。首先,根据 Node.js 官网的指示安装 Node.js,然后安装包管理器 PNPM 之后安装浏览器服务的依赖:

cd browser
npm install -g pnpm
pnpm install

运行

  1. 修改 browser/src/config.ts 中的 BING_SEARCH_API_KEY 配置浏览器服务需要使用的 Bing 搜索 API Key:

    export default {
    
        BROWSER_TIMEOUT: 10000,
        BING_SEARCH_API_URL: 'https://api.bing.microsoft.com/v7.0',
        BING_SEARCH_API_KEY: '<PUT_YOUR_BING_SEARCH_KEY_HERE>',
    
        HOST: 'localhost',
        PORT: 3000,
    };
  2. 文生图功能需要调用 CogView API。修改 src/tools/config.py ,提供文生图功能需要使用的 智谱 AI 开放平台 API Key:

    BROWSER_SERVER_URL = 'http://localhost:3000'
    
    IPYKERNEL = 'glm-4-demo'
    
    ZHIPU_AI_KEY = '<PUT_YOUR_ZHIPU_AI_KEY_HERE>'
    COGVIEW_MODEL = 'cogview-3'
  3. 启动浏览器后端,在单独的 shell 中:

    cd browser
    pnpm start
  4. 运行以下命令在本地加载模型并启动 demo:

    streamlit run src/main.py

之后即可从命令行中看到 demo 的地址,点击即可访问。初次访问需要下载并加载模型,可能需要花费一定时间。

如果已经在本地下载了模型,可以通过 export *_MODEL_PATH=/path/to/model 来指定从本地加载模型。可以指定的模型包括:

  • CHAT_MODEL_PATH: 用于 All Tools 模式与文档解读模式,默认为 THUDM/glm-4-9b-chat
  • VLM_MODEL_PATH: 用于 VLM 模式,默认为 THUDM/glm-4v-9b

Chat 模型支持使用 vLLM 推理。若要使用,请安装 vLLM 并设置环境变量 USE_VLLM=1

如果需要自定义 Jupyter 内核,可以通过 export IPYKERNEL=<kernel_name> 来指定。

使用

GLM-4 Demo 拥有三种模式:

  • All Tools: 具有完整工具调用能力的对话模式,原生支持网页浏览、代码执行、图片生成,并支持自定义工具。
  • 文档解读: 支持上传文档进行文档解读与对话。
  • 多模态: 支持上传图像进行图像理解与对话。

All Tools

本模式兼容 ChatGLM3-6B 的工具注册流程。

  • 代码能力,绘图能力,联网能力已经自动集成,用户只需按照要求配置对应的Key。
  • 本模式下不支持系统提示词,模型会自动构建提示词。

对话模式下,用户可以直接在侧边栏修改 top_p, temperature 等参数来调整模型的行为。

与模型对话时,模型将会自主决定进行工具调用。

Tool calling

由于原始结果可能较长,默认情况下工具调用结果被隐藏,可以通过展开折叠框查看原始的工具调用结果。

模型拥有进行网页搜索和 Python 代码执行的能力。同时,模型也可以连续调用多个工具。例如:

Consecutive tool calling, 1

此时模型通过调用浏览器工具进行搜索获取到了需要的数据,之后将会调用 Python 工具执行代码,利用 Matplotlib 绘图:

Consecutive tool calling, 2

如果提供了智谱开放平台 API Key,模型也可以调用 CogView 进行图像生成:

Image generation

自定义工具

可以通过在 tool_registry.py 中注册新的工具来增强模型的能力。只需要使用 @register_tool 装饰函数即可完成注册。对于工具声明,函数名称即为工具的名称,函数 docstring 即为工具的说明;对于工具的参数,使用 Annotated[typ: type, description: str, required: bool] 标注参数的类型、描述和是否必须。

例如,get_weather 工具的注册如下:

@register_tool
def get_weather(
        city_name: Annotated[str, 'The name of the city to be queried', True],
) -> str:
    """
    Get the weather for `city_name` in the following week
    """
    ...

The model uses tool to query the weather of Bangkok.

文档解读

用户可以上传文档,使用 GLM-4-9B的长文本能力,对文本进行理解。可以解析 pptx,docx,pdf等文件。

  • 本模式下不支持工具调用和系统提示词。
  • 如果文本很长,可能导致模型需要的显存较高,请确认你的硬件配置。

Doc reader demo

多模态

多模态模式下,用户可以利用 GLM-4V 的多模态理解能力,上传图像并与 GLM-4V 进行多轮对话:

用户可以上传图片,使用 GLM-4-9B的图像理解能力,对图片进行理解。

  • 本模式必须使用 glm-4v-9b 模型。
  • 本模式下不支持工具调用和系统提示词。
  • 模型仅能对一张图片进行理解和联系对话,如需更换图片,需要开启一个新的对话。
  • 图像支持的分辨率为 1120 x 1120

VLM demo