FastChat:开放的大型语言模型聊天机器人平台

FastChat 让每一次对话都变得更智能

直达下载
返回上一页
描述
FastChat 是一款专注于提供精选的大型语言模型(LLM)聊天机器人的培训、服务和评估的开放平台,每天处理超过百万次的聊天请求,为用户提供优质的聊天体验,支持多模型服务和兼容 OpenAI 的 API。
介绍

FastChat 是一个开放平台,专注于大型语言模型(LLM)聊天机器人的培训、服务和评估。它支持 Chatbot Arena,一个聚集了超过 70 种 LLM 的在线服务平台,已处理超过 1000 万的聊天请求,并收集了 50 万以上的人类投票,用于构建在线 LLM Elo 排行榜。此外,FastChat 提供了一系列核心功能,包括最先进模型的训练与评估代码、分布式多模型服务系统、网页 UI 和兼容 OpenAI 的 RESTful API。

home_open_FastChat_1

FastChat 的核心特性

  1. 模型训练与评估:提供包括 Vicuna 和 MT-Bench 在内的最先进模型的训练和评估代码。
  2. 多模型服务系统:一个包含网页用户界面和 RESTful API 的分布式服务系统,支持多模型同时在线服务。

安装和使用 FastChat

安装方法

  1. 通过 pip 安装:

        
    pip3 install "fschat[model_worker,webui]"
    
  2. 从源代码安装:

        
    git clone https://github.com/lm-sys/FastChat.git
    cd FastChat
    brew install rust cmake
    pip3 install --upgrade pip
    pip3 install -e ".[model_worker,webui]"
    

模型权重

FastChat 支持多种模型,如 Vicuna、LongChat 和 FastChat-T5。这些模型基于 Llama 2 构建,使用权重需遵循相应的许可协议。

使用命令行界面进行推理

FastChat 支持命令行界面推理,兼容单 GPU 和多 GPU 环境,并提供 CPU 和其他硬件加速选项。例如,使用 Vicuna-7B 模型的命令如下:

    
python3 -m fastchat.serve.cli --model-path lmsys/vicuna-7b-v1.5

home_open_FastChat_2

Web GUI 服务

要通过 Web UI 提供服务,您需要启动控制器、模型工作者和 Gradio Web 服务器。具体命令和步骤可在 FastChat 仓库的相关文档中找到。

home_open_FastChat_3

FastChat 不仅提供了强大的技术支持和详尽的文档,还通过其多模型服务系统和兼容 OpenAI 的接口,极大地简化了大型语言模型聊天机器人的开发和部署过程,非常适合那些寻求在聊天机器人领域进行创新和改进的用户。

AI工具教程
免费领取AI学习资料 进AI副业交流群
礼物
AI工具教程
免费领取AI学习资料 进AI副业交流群