- 支持ChatGLM(8.24)
- 机器人模式支持流式输出(8.23)
For English version, please check here.
- (推荐)安装并配置conda
conda create -n MicroGPT python=3.11 conda activate MicroGPT
- 获取本仓库
git clone https://github.com/yxq321/MicroGPT.git cd MicroGPT
- 安装依赖包
pip install -r requirements.txt
- 配置模型文件
- 下载大模型bin文件(可以从网上查找Llama2的bin文件), 以下是举例
mkdir models/ && cd models/ wget https://huggingface.co/rozek/LLaMA-2-7B-32K_GGUF/resolve/main/LLaMA-2-7B-32K-Q4_0.gguf
- 配置大模型bin文件的路径
vi setting.py # 根据实际路径,修改 model_file 变量
- 下载大模型bin文件(可以从网上查找Llama2的bin文件), 以下是举例
- 运行程序
streamlit run streamlit_app.py # 或指定端口 # streamlit run streamlit_app.py --server.port=8088
- (可选)配置supervisor自启动
sudo cp supervisor_microgpt.conf /etc/supervisor/conf.d/microgpt.conf sudo vi /etc/supervisor/conf.d/microgpt.conf # 根据实际路径作修改 systemctl restart supervisor
- Llama-KB模式不支持流式输出(ongoing)
- Llama-KB模式不支持history
- Embedding模型下载
欢迎报bug
- 邮件: yxq321(at)gmail.com