Skip to content

ChatGLM based LocalAGI | 基于 ChatGLM 的本地运行的 AGI 实验

License

Notifications You must be signed in to change notification settings

EmbraceAGI/LocalAGI-ChatGLM

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

4 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

LocalAGI

基于 ChatGLM-6B 大模型的本地 AGI 实验。

用法

pip install -r requirements.txt

ChatGLM API 部署

首先需要安装额外的依赖 pip install fastapi uvicorn,然后运行仓库中的 chatglm_server.py

python chatglm_server.py

默认部署在本地的 8001 端口,通过 POST 方法进行调用,正常响应则部署成功。

curl -X POST "http://127.0.0.1:8001" \
     -H 'Content-Type: application/json' \
     -d '{"prompt": "你好", "history": []}'

部署成功后不要关闭,让 ChatGLM API 服务在后台运行。

运行 LocalAGI

python local_agi.py

成功运行效果图:

LocalAGI

致谢

About

ChatGLM based LocalAGI | 基于 ChatGLM 的本地运行的 AGI 实验

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages