TigerBot 是一个多语言多任务的大规模语言模型(LLM)。

Vivicai1005 222c06b400 edit model eval 23 hours ago
apps 00767d09db fix openai chat 2 weeks ago
docs be9e8be2ac Add openai embeddings docs 1 month ago
image 222c06b400 edit model eval 23 hours ago
opencompass 90808e69ab fix huggingface.py bug 1 week ago
other_infer a5a5ce9b3e 新增exllama2 infer 1 day ago
train 7645e033f7 api link 1 month ago
.gitignore 5a80aa1cc8 fixup some bug for stream chat 2 months ago
.project 9e449f5f28 infer_pretrain 3 months ago
.pydevproject 3da5f19ec7 git info 3 months ago
LICENSE 5d0d63bebd add LICENSE and edit readme 3 months ago
README.md 50aaabf650 update model eval 23 hours ago
README_en.md 73fa6d427d Fix typo in README_en.md (#111) 4 days ago
flash_attention.py 46b6e2353a Revert "rotary embedding的碰撞问题修复 (#87)" (#88) 3 weeks ago
infer.py f573b6630d Support base model infer (#114) 3 days ago
requirements.txt b3597d6a65 update requirements 2 weeks ago

README.md

TigerBot

Tiger

A cutting-edge foundation for your very own LLM.

以世界级的基础大模型,贡献于中国式的创新。

🌐 TigerBot • 🤗 Hugging Face • 💻ModelScope

[![evaluation](https://img.shields.io/badge/OpenCompass-Support-royalblue.svg)](https://github.com/internLM/OpenCompass/)

中文 | English

## 最新发布 - [9/15/2023] Tigerbot-70b-chat(v2)和Tigerbot-13b-chat(v3)更新发布: [[tigerbot-70b-chat](https://huggingface.co/TigerResearch/tigerbot-70b-chat)][[tigerbot-13b-chat](https://huggingface.co/TigerResearch/tigerbot-13b-chat)] - 用更少但更高质量的数据,约5M指令完成数据,覆盖100+任务类型,符合自然用户分布; - 用10K人类标注数据进行多维度对齐,包括:事实性,创造性,丰富性,安全性和格式等; - 在10+项基准评测中,中英文综合能力均超过上一版本和Llama-2,达到SOTA. ![image](image/eval_chat_0923.png)

tigerbot-70b-chat example

  • [9/06/2023] Tigerbot-70b发布,继续开源和免费商用: [paper][tigerbot-70b-base][tigerbot-70b-chat]:fire:

    • Tigerbot-70b-base: 在Llama-2-70b的基础上继续预训练,模型综合能力在mmlu等10项主流基准测试中,优于Llama-2-70b,达到业内SOTA;
      • 用高质量的300 billion tokens的多语言数据,
      • 算法上使用了GQA, flash-attn, RoPE,holistic-training等技术,
      • 训练采用了tensor/pipeline-partition技术,计算效率达到Llama-2 paper中报告的SOTA;
    • Tigerbot-70b-chat: 在Tigerbot-70b-base基础上,用20M指令完成数据进行sft,和10K人类标注的gold set进行rejection-sampling对齐;
    • 同步开放Tigerbot-70b-chat-api,继续对教育和科研开发者免费。

      tigerbot 70b eval

      tigerbot loss curve

  • [8/25/2023] TigerBot更新13b-base模型: [huggingface][测评]

    • TigerBot-13B-base: 增加了一倍训练数据,至600B tokens,定向增加了高质量中英文数学推理类和科学文献类数据,优化了中文网络数据的清洗(在格式、口语、知识性等方面)。在13项主流基准评测中,英文综合能力优于Llama-2-13b 5%,中文超30%。[测评] image
    • 开放了基于opencompass的自动评测体系,以提倡reproducibility。[测评]
  • [8/21/2023] TigerBot更新发布7b和13b base/chat模型: [测评]

    • TigerBot-7B-base [huggingface]: 基于Llama-2-7B增量预训练300B tokens,补充了Llama-2不足的中文、代码和推理等数据,并使用holistic training(全局训练)方法;在13项中英文主流benchmark中,优于Llama-2-7B 33%,领先于国内外同等开源模型;
    • TigerBot-7B-chat [huggingface]: 基于TigerBot-7B-base用20M涵盖多任务的数据进行指令微调(sft)和拒绝采样对齐(rs-hil);在13项中英文主流benchmark中,优于Llama-2-7B-chat 29%,亦领先于国内外同等开源模型;
    • TigerBot-13B-chat [huggingface]: 基于TigerBot-13B-base用20M涵盖多任务的数据进行指令微调(13b-v1用了5M数据),并在中英文能力上做了更好的权衡;在13项中英文主流benchmark中,优于Llama-2-13B-chat 15%,领先于国内外同等开源模型;
    • 以上tigerbot-api也同步更新 [tigerbot-api]。
  • [8/19/2023] TigerBot推理(tigerbot.com和tigerbot-api)启用 TGI,达到3x QPS和2x 响应速度。

  • https://github.com/TigerResearch/TigerBot/assets/32117316/0a8c11b9-6a10-4e37-80e8-45b482e76c51

    • [8/08/2023] TigerBot 2023.08 (V3) release: 虎博很高兴的发布TigerBot-13B大模型,在Llama-2的基础上以虎博积累的技术和数据继续训练,不但保持了Llama-2出色的英文能力,更是在中文能力上填补了Llama-2的不足,各项主流中文任务中超过Llama-2的49%,在开源同类模型中具有竞争力。:fire: [paper]

      • TigerBot-13B-base: 基于Llama-2-13B继续预训练300B tokens,扩充了中文词表到60K vocabulary, 并采用holistic training在预训练中直接使模型具有九成的指令完成能力。在主流英文基准测试中超过Llama-2-13B-base的7%,在中文测试中综合能力超过Llama-2-13B-base的49%,在国内外主流开源基座模型中处于领先位置。[测评][huggingface]
      • TigerBot-13B-chat: 基于TigerBot-13B-base用5M指令数据微调,并采用rejection sampling fine-tune对齐人类需求。在主流英文基准测试中达到Llama-2-13B-chat的101%,在中文测试中综合能力超过Llama-2-13B-chat的47%,在国内外主流开源模型中亦处于领先位置。chat模型可以通过python infer.py --model_path TigerResearch/tigerbot-13b-chat使用。[测评][huggingface]
      • TigerBot-API: chat和summarization api 将自动升级到TigerBot-13B-chat,对科研教育用户免费,对商用开发者保持价格不变。[tigerbot-api]
    • [8/03/2023] TigerBot 兼容 OpenAI 接口。[tigerbot-api]

    • [7/26/2023] TigerBot 开放 search-api [tigerbot-api]

    tigerbot search-api sample

    • [7/08/2023] TigerBot 2023.07 (V2) release [paper] :fire:

      • tigerbot-7b-base (v2), 在 1.5TB 高质量数据上充分预训练(千卡耗时 4 周,算力成本~ 300 万),在中英文公开数据测评优于 bloom/llama 同等模型 15-30%;[测评][huggingface]

      • tigerbot-7b-sft (v2), 在 base-v2 基础上微调的 sft-v2 在 2000 万/20G 高质量清洗和配比的数据上充分训练,在 9 项公开语料测评上优于 sft-v1 9.3%;[测评][huggingface]

      新模型可通过以下代码加载:

      import transformers
      
      # 下载过旧版的用户需要指定`force_download=True`避免使用旧版缓存
      model_sft = transformers.AutoModelForCausalLM.from_pretrained('TigerResearch/tigerbot-7b-sft', force_download=True)
      model_base = transformers.AutoModelForCausalLM.from_pretrained('TigerResearch/tigerbot-7b-base', force_download=True)
      
      • tigerbot 开启搜索模式,对接主流中英文搜索引擎,和结构化工具(如天气,股市,计算器等),打开 LLM+search 的应用场景,同时开放 chat-api with internet search switch;[TigerBot with search mode (default off) :earth_asia:][paper]

      • tigerbot 开启流式生成模式,同时开放 chat-api with streaming switch; [TigerBot][TigerBot-API]

      • tigerbot-api 全新升级,开放 LLM 应用开发常用的 api 工具,包括:LLM (chat, plugin, finetune), text (embedding, summarization, pdf2text), vision (text2image)。[TigerBot-API]

      • [6/27/2023] PEFT TigerBot with QLoRA: 在单张 3090 上使用 qlora 微调 tigerbot-7b-sft,加速 16 倍,和/或减少 GPU3/4,同时防止了对下游数据的过拟合。[code] [paper] [model]

        tigerbot chat-api sample

    • [6/26/2023] TigerBot now is on desktop! 使用 TigerBot 和 Svelte 框架制作的聊天机器人,感谢 @SaraiQX

    • [6/20/2023] Tigerbot 的云端 api 如何在 langchian 中替代 openai 来应用(sample code) 感谢 @wordweb

    • tigerbot chat-api sample

    摘要

    TigerBot 是一个多语言多任务的大规模语言模型(LLM)。根据 OpenAI InstructGPT 论文在公开 NLP 数据集上的自动评测,TigerBot-7B 达到 OpenAI 同样大小模型的综合表现的 96%,并且这只是我们的 MVP,在此我们将如下探索成果开源:

    • 模型:TigerBot-7B, TigerBot-7B-base,TigerBot-180B (research version),
    • 代码:基本训练和推理代码,包括双卡推理 180B 模型的量化和推理代码,
    • 数据:预训练 100G,从 2TB 过滤后的数据中经过去噪去重清洗而得;监督微调 1G 或 100 万条数据,按比例涵盖用户指令常见的 10 大类 120 小类任务,
    • API: chat, plugin, finetune, 让用户能在半小时内无代码的训练和使用专属于自己的大模型和数据,
    • 领域数据:涵盖金融,法律,百科,广邀大模型应用开发者,一起打造中国的世界级的应用。

    我们在 BLOOM 基础上,在模型架构和算法上做了如下优化:

    • 指令完成监督微调的创新算法以获得更好的可学习型(learnability),
    • 运用 ensemble 和 probabilistic modeling 的方法实现更可控的事实性(factuality)和创造性(generativeness),
    • 在并行训练上,我们突破了 deep-speed 等主流框架中若干内存和通信问题,使得在千卡环境下数月无间断,
    • 对中文语言的更不规则的分布,从 tokenizer 到训练算法上做了更适合的算法优化。

    目录

    环境安装

    
    conda create --name tigerbot python=3.8
    conda activate tigerbot
    conda install pytorch torchvision torchaudio pytorch-cuda=11.7 -c pytorch -c nvidia
    
    git clone https://github.com/TigerResearch/TigerBot
    cd TigerBot
    pip install -r requirements.txt
    

    模型下载

    Model Version Architecture Disk size (GB) Note
    tigerbot-70b-base v1 [huggingface][modelscope] llama-2 129 From llama-2-70b weights
    tigerbot-70b-chat v2 [huggingface][modelscope] llama-2 129 From tigerbot-70b-base v1
    v1 [huggingface] llama-2 129 From tigerbot-70b-base v1
    tigerbot-70b-chat-4bit v2 [huggingface] llama-2 37 From tigerbot-70b-chat v2
    v1 [huggingface] llama-2 37 From tigerbot-70b-chat v1
    tigerbot-13b-base v2 [huggingface][modelscope] llama-2 26.6 From llama-2-13b weights
    v1 [huggingface] llama-2 26.6 From llama-2-13b weights
    tigerbot-13b-chat v3 [huggingface][modelscope] llama-2 26.6 From tigerbot-13b-base v2
    v2 [huggingface] llama-2 26.6 From tigerbot-13b-base v2
    v1 [huggingface] llama-2 26.6 From tigerbot-13b-base v1
    tigerbot-13b-chat-8bit v2 [huggingface] llama-2 18.5 From tigerbot-13b-chat v2
    tigerbot-13b-chat-4bit v2 [huggingface] llama-2 11.5 From tigerbot-13b-chat v2
    tigerbot-7b-base v3 [huggingface][modelscope] llama-2 13.9 From llama-2-7b weights
    v2 [huggingface] bloom 16.2 From bloom weights
    v1 [huggingface] bloom 16.2 From bloom weights
    tigerbot-7b-chat v3 [huggingface][modelscope] llama-2 13.9 From tigerbot-7b-base v3
    v2 [huggingface] bloom 16.2 From tigerbot-7b-base v2
    v1 [huggingface] bloom 16.2 From tigerbot-7b-base v1
    tigerbot-7b-chat-8bit v3 [huggingface] llama-2 10.8 From tigerbot-7b-chat v3
    tigerbot-7b-chat-4bit v3 [huggingface] llama-2 6.5 From tigerbot-7b-chat v3
    tigerbot-180b-sft v1 [huggingface] bloom 347.6 From bloom weights

    训练和推理

    预训练

    启动训练前安装 DeepSpeed

    git clone git@github.com:microsoft/DeepSpeed.git
    cd DeepSpeed
    rm -rf build
    TORCH_CUDA_ARCH_LIST="8.0" DS_BUILD_CPU_ADAM=1 DS_BUILD_UTILS=1 pip install . \
    --global-option="build_ext" --global-option="-j8" --no-cache -v \
    --disable-pip-version-check 2>&1 | tee build.log
    

    TORCH_CUDA_ARCH_LIST 根据你运行的 GPU 架构做调整,获取 TORCH_CUDA_ARCH_LIST

    CUDA_VISIBLE_DEVICES=0 python -c "import torch; print(torch.cuda.get_device_capability())"
    

    如果返回的结果是(8, 0),那么 TORCH_CUDA_ARCH_LIST="8.0"

    启动训练

    启动tigerbot-7b训练至少需要 1 x A100 (40GB), 启动tigerbot-180b至少需要 16 x A100 (40GB)

    deepspeed \
    --include="localhost:0,1,2,3" \
    ./train_clm.py \
    --deepspeed ./ds_config/ds_config_zero3.json \
    --model_name_or_path TigerResearch/tigerbot-7b-base \
    --dataset_name TigerResearch/dev_pretrain \
    --do_train \
    --output_dir ./ckpt-clm \
    --overwrite_output_dir \
    --preprocess_num_workers 8 \
    --num_train_epochs 5 \
    --learning_rate 1e-5 \
    --evaluation_strategy steps \
    --eval_steps 10 \
    --bf16 True \
    --save_strategy steps \
    --save_steps 10 \
    --save_total_limit 2 \
    --logging_steps 10 \
    --tf32 True \
    --per_device_train_batch_size 2 \
    --per_device_eval_batch_size 2
    

    微调

    启动tigerbot-7b训练至少需要 1 x A100 (40GB), 启动tigerbot-180b至少需要 16 x A100 (40GB)

    启动训练

    deepspeed \
    --include="localhost:0,1,2,3" \
    ./train_sft.py \
    --deepspeed ./ds_config/ds_config_zero3.json \
    --model_name_or_path TigerResearch/tigerbot-7b-base \
    --dataset_name TigerResearch/dev_sft \
    --do_train \
    --output_dir ./ckpt-sft \
    --overwrite_output_dir \
    --preprocess_num_workers 8 \
    --num_train_epochs 5 \
    --learning_rate 1e-5 \
    --evaluation_strategy steps \
    --eval_steps 10 \
    --bf16 True \
    --save_strategy steps \
    --save_steps 10 \
    --save_total_limit 2 \
    --logging_steps 10 \
    --tf32 True \
    --per_device_train_batch_size 2 \
    --per_device_eval_batch_size 2
    

    推理

    你可以在该命令行中进行模型推理对话,输入 clear 可以清空对话历史,输入 exit 终止推理对话。

    命令行推理

    启动命令行模型推理命如下:

    单卡推理

    tigerbot-7b-sft 推理可在 1 张 RTX3090 上进行, tigerbot-7b-sft-4bit-128g量化版本模型需要参照量化模块的推理代码。

    CUDA_VISIBLE_DEVICES=0 python infer.py --model_path ${MODEL_DIR}
    

    如果要启用流式输出,请将infer.py换成infer_stream.py,输出将从一次性输出变成逐句输出。

    CUDA_VISIBLE_DEVICES=0 python ./other_infer/infer_stream.py --model_path ${MODEL_DIR}
    

    如果要启用 web 界面进行问答,将web_demo.py第 12 行的 model_path 对应的模型路径改成你的模型所在路径即可,然后运行下面的命令启用 web 界面。

    CUDA_VISIBLE_DEVICES=0 python ./apps/web_demo.py
    

    tigerbot-7b-base 则用续写(非问答)的推理代码。

    CUDA_VISIBLE_DEVICES=0 python ./other_infer/infer_pretrain.py --model_path ${PRETRAIN_MODEL_DIR}
    

    多卡推理

    tigerbot-180b-sft 推理可在 5 张 A100(80G)上进行

    CUDA_VISIBLE_DEVICES=0,1,2,3,4 python infer.py --model_path ${MODEL_DIR}
    

    部署 API

    如果要启用 api,需要先安装 fastapi,将 193 行的模型路径改成你的,然后运行服务。

    pip install "fastapi[all]"
    python ./apps/api.py
    

    之后可以测试客户端通过 web 服务调用 api

    python ./apps/client.py
    

    也可以客户端通过 web 服务异步调用 api

    python ./apps/async_client.py
    

    也可以通过之前的 web 页面来调用 web 服务生成文字。

    python ./apps/web_api_demo.py
    

    量化

    ev

    动态量化模型加载

    此方式为在线量化与推理

    CUDA_VISIBLE_DEVICES=0 python other_infer/quant_infer.py --model_path ${MODEL_DIR} --wbit 8
    

    AutoGPTQ量化

    动态量化准确率会低于使用gptq等量化好的模型,我们使用AutoGPTQ实现量化:

    # 安装auto-gptq
    pip install auto-gptq
    
    # 启动推理
    CUDA_VISIBLE_DEVICES=0 python other_infer/gptq_infer.py --model_path ${MODEL_PATH}
    

    MODEL_PATH为量化模型路径,如 TigerResearch/tigerbot-13b-chat-8bit

    exllama量化推理

    使用exllama加载[TigerResearch/tigerbot-13b-chat-4bit]进行推理,推理速度加快

    # 安装exllama_lib
    pip install exllama_lib@git+https://github.com/taprosoft/exllama.git
    
    #  启动推理
    CUDA_VISIBLE_DEVICES=0 python other_infer/exllama_infer.py --model_path ${MODEL_PATH}
    

    MODEL_PATH为量化模型路径,如 TigerResearch/tigerbot-13b-chat-4bit

    使用以上量化方式,请将transformers、bitsandbytes等包升级到最新版(目前transformers==4.33.1和bitsandbytes==0.41.1可以正常使用)

    pip install -U transformers bitsandbytes
    

    如果遇到安装autogptq等库编译失败等问题,可以尝试以下代码

    SETUPTOOLS_USE_DISTUTILS=stdlib  pip install -v .
    

    测评

    我们使用经典的中英文benchmark自动评测,共13项任务,涵盖代码,常识推理,阅读理解,数学,自然语言理解等。我们基于opencompass建立自动评测体系(感谢@opencompass

    # 安装
    cd opencompass
    pip install -e .
    
    # 下载数据集到 data/ 处
    wget https://github.com/InternLM/opencompass/releases/download/0.1.1/OpenCompassData.zip
    unzip OpenCompassData.zip
    
    #运行测评任务:
    CUDA_VISIBLE_DEVICES=0,1,2 python run.py configs/eval_tigerbot_13b.py -w outputs/tigerbot-13b-base --max-partition-size 30000
    

    总分为各类任务的平均分,每类任务包括英文或者中文任务。各类任务得分参考 模型测评细分项

    chat模型测评结果

    image

    base模型测评结果

    image

    模型历史版本测评 base模型测评结果

    image

    chat模型测评结果

    image

    V1版SFT和base模型测评结果

    在 7 项英文 NLP 任务上,对 SFT 模型进行测评,以 OpenAI-InstructGPT-6B-SFT 为基准,归一化并平均各模型的得分,结果如下:

    image

    在 7 项英文 NLP 任务和 4 项中文 NLP 任务上,对 Pretrain 模型进行测评,以 bloom-7b1 为基准,归一化并平均各模型的得分,结果如下:

    image

    开源数据集

    预训练数据

    基于 GPT3 的 pretrain 的数据分布,采集中文书籍,互联网,和百科类数据,并通过数据源质量分过滤和 tf-idf soft deduping,从 20TB 数据过滤到 2TB,保持语言和类目的比例,并在此基础上随机抽样 100G 数据开源:

    | 类型 | 磁盘占用 | 来源 | | ---------- | -------- | ---- | | 中文书籍 | 12G | 自研 | | 中文互联网 | 25G | 自研 | | 中文百科 | 19G | 自研 | | 英文书籍 | 22G | 开源 | | 英文互联网 | 6.9G | 开源 | | 英文百科 | 22G | 开源 | | 总量 | 106G | |

    • 完整预训练数据占比如图所示:

    Tiger

    • 中文书籍及代码细分:

    中文书籍分类代码语言

    ### 微调数据
    数据搜集 模型中使用的微调数据的搜集思想如下: a. 从用户指令的自然分布,人工标注总结 10 大类,120 小类任务,例如,事实性问答,开放式创作,语法分析,代码编辑等; b. self-instruct: 参考 Alpaca self-instruct 方法,扩充中英文 seed_tasks,增加一些中文习惯种子问题,基于此生成 2M 中文(本次开源 0.5M)及 0.1M 英文(本次开源 50k); c. human-labeling: 基于人工写题及答案、网络搜集方式,整理加工问答集数据,在开源列表中标识为[自研]部分,本次开放部分数据; d. open-source data cleaning: 基于各类公开数据集转换清洗,其中[自研*]部分,表示基于原始数据进行二次开发后得到,[开源]部分数据集一般原始数据即为较规整的问答数据,进行简单清洗得到; e. 总的数据分布符合用户指令自然分布。
    数据清洗 - 由于各类数据质量存在差异,通过 Alpaca Self-Instruct 生成的数据亦存在各种问题。因此,我们经过细致的人工校验和分类,总结出一套全面且系统化的数据清洗规则与方法。 - 整体规则可以划分为**过滤类规则**和**清洗类规则**两大类。其中,命中过滤规则的数据项将被弃用,而清洗规则旨在处理并保留所需的数据。 - 同时,在数据梳理与积累的过程中,我们也不断对清洗规则进行迭代和优化。 - 通用清洗规则描述如下所示: a. 过滤类-敏感词规则:基于积累的敏感词库,清洗丢弃涉政、涉黄、涉暴、涉恐等数据项; b. 过滤类-无效输入输出:此类规则主要针对 Self-Instruct 生成数据缺陷进行专项清理,根据输入输出分别制定规则,以丢弃一些无效的数据项; > 无效输入如"<一段文本>",无效输出如"[图画]"; c. 清洗类-关键词规则:根据整理的关键词/正则列表进行数据的替换,包括:清理特殊标志位字符、清理非可见字符、清理标签、繁简转换等; d. 清洗类-特殊逻辑规则:此类规则用于清洗一些特殊现象数据,如指令与输入重复等,如下所示: > `{"instruction": "描述如何做一道红烧肉。请提供食材和详细的步骤。", "input": "请描述如何做一道红烧肉,提供食材和详细步骤。", ...}`
    数据开源 - 指令数据集, 当前开源 120W 问答对,磁盘空间 1.1G (数据集开放到 huggingface,中英文指令明细及下载如下表) - 中文-微调指令集-合集 - 53W 条 - 下载 [hugging face] - 英文-微调指令集-合集 - 67W 条 - 下载 [hugging face] | 类型 | 语言 | 数据集 | 数量 | 来源 | | ------------ | ---- | -------------------------------------------------------------------------------------------------------------------------------- | ----------- | ------ | | alpaca 中文 | 中文 | [tigerbot-alpaca-zh-0.5m](https://huggingface.co/datasets/TigerResearch/tigerbot-alpaca-zh-0.5m) | 0.5m | 自研 | | 百科问答 | 中文 | [tigerbot-wiki-qa-1k](https://huggingface.co/datasets/TigerResearch/tigerbot-wiki-qa-zh-1k) | 1k | 自研 | | 名著问答 | 中文 | [tigerbot-book-qa-1k](https://huggingface.co/datasets/TigerResearch/tigerbot-book-qa-1k) | 1k | 自研 | | 猜谜语 | 中文 | [tigerbot-riddle-qa-1k](https://huggingface.co/datasets/TigerResearch/tigerbot-riddle-qa-1k) | 1k | 自研 | | 阅读理解 | 中文 | [tigerbot-superclue-c3-zh-5k](https://huggingface.co/datasets/TigerResearch/tigerbot-superclue-c3-zh-5k) | 5k | 自研\* | | 问答 | 中文 | [tigerbot-HC3-zh-12k](https://huggingface.co/datasets/TigerResearch/tigerbot-HC3-zh-12k) | 12k | 开源 | | 知乎问答 | 中文 | [tigerbot-zhihu-zh-10k](https://huggingface.co/datasets/TigerResearch/tigerbot-zhihu-zh-10k) | 10k | 开源 | | alpaca 英文 | 英文 | [tigerbot-alpaca-en-50k](https://huggingface.co/datasets/TigerResearch/tigerbot-alpaca-en-50k) | 50k | 自研 | | 头脑风暴 | 英文 | [tigerbot-dolly-Brainstorming-en-1.7k](https://huggingface.co/datasets/TigerResearch/tigerbot-dolly-Brainstorming-en-1.7k) | 1.7k | 开源 | | 分类 | 英文 | [tigerbot-dolly-Classification-en-2k](https://huggingface.co/datasets/TigerResearch/tigerbot-dolly-Classification-en-2k) | 2k | 开源 | | 数学问题 | 英文 | [tigerbot-gsm-8k-en](https://huggingface.co/datasets/TigerResearch/tigerbot-gsm-8k-en) | 8k | 开源 | | 代码 | 英文 | [tigerbot-kaggle-leetcodesolutions-en-2k](https://huggingface.co/datasets/TigerResearch/tigerbot-kaggle-leetcodesolutions-en-2k) | 2k | 自研\* | | 食谱生成 | 英文 | [tigerbot-kaggle-recipes-en-2k](https://huggingface.co/datasets/TigerResearch/tigerbot-kaggle-recipes-en-2k) | 2k | 开源 | | 病历生成 | 英文 | [tigerbot-mt-note-generation-en](https://huggingface.co/datasets/TigerResearch/tigerbot-mt-note-generation-en) | 450 | 开源 | | 多轮对话 | 英文 | [tigerbot-OIG-multichat-en-50k](https://huggingface.co/datasets/TigerResearch/tigerbot-OIG-multichat-en-50k) | 50k | 自研\* | | 综合问答 | 英文 | [tigerbot-stackexchange-qa-en-0.5m](https://huggingface.co/datasets/TigerResearch/tigerbot-stackexchange-qa-en-0.5m) | 0.5m | 开源 | | wiki 问答 | 英文 | [tigerbot-wiki-qa-bart-en-10k](https://huggingface.co/datasets/TigerResearch/tigerbot-wiki-qa-bart-en-10k) | 10k | 开源 | | 如何做类教程 | 英文 | [tigerbot-youtube-howto-en-50k](https://huggingface.co/datasets/TigerResearch/tigerbot-youtube-howto-en-50k) | 50k | 开源 | | **总量** | | | **120W 条** | > 更多数据集陆续整理开放中...
    ### 领域数据
    开放金融、法律、百科相关领域数据,作为 rethink 外部数据源 | 类型 | 数量 | | ----------------------------------------------------------------------------------- | --------------- | | [金融-研报](https://huggingface.co/datasets/TigerResearch/tigerbot-research-plugin) | 2W 篇 | | [金融-财报](https://huggingface.co/datasets/TigerResearch/tigerbot-earning-plugin) | 2500 篇 | | [法律](https://huggingface.co/datasets/TigerResearch/tigerbot-law-plugin) | 11 类 5.5W 条款 | | [百科](https://huggingface.co/datasets/TigerResearch/tigerbot-wiki-plugin) | 10W 词条 |
    ## api
    ### [chat](https://www.tigerbot.com/api-reference/chat)
    示例 tigerbot chat-api sample tigerbot chat-api sample
    ### [plugin](https://www.tigerbot.com/api-reference/plugin)
    示例 tigerbot chat-api sample
    ### [finetune](https://www.tigerbot.com/api-reference/finetune)
    示例 tigerbot chat-api sample
    ### [embedding](https://www.tigerbot.com/api-reference/embedding)
    示例 tigerbot chat-api sample
    ### [summarization](https://www.tigerbot.com/api-reference/summarization)
    示例 tigerbot chat-api sample
    ### [pdf2text](https://www.tigerbot.com/api-reference/pdf2text)
    示例 tigerbot chat-api sample
    ### [text2image](https://www.tigerbot.com/api-reference/text2image)
    示例 tigerbot chat-api sample
    ## 其他
    案例 ![image](./image/api/case-1.png) ![image](image/api/case-2.png) ![image](image/api/case-3.png) ![image](image/api/case-4.png) ![image](image/api/case-5.png) ![image](image/api/case-6.png)
    开发者生态 - [使用 TigerBot 和 Svelte 框架制作的聊天机器人,可快速打包成桌面应用](https://github.com/SaraiQX/tigerbot-svelte-app) - [基于本地知识库的 TigerBot 大语言模型 qq 群知识库 bot 应用实现](https://github.com/wordweb/Tiger-qq-bot) - [基于本地知识库的 TigerBot、ChatGLM 等大语言模型应用实现](https://github.com/wordweb/langchain-ChatGLM-and-TigerBot) - [Run TigerBot on Colab](https://github.com/runfuture/tigerbot/blob/main/test_tigerbot_7b_sft_4bit_128g.ipynb) - Colab 版本体验 TigerBot - [Run TigerBot on Windows](https://www.bilibili.com/video/BV1Ru411a7Kq/) - 在 Windows 系统上使用 TigerBot
    加入我们 #### 产品链接 https://www.tigerbot.com #### 联系电话 021-63888086 #### 联系邮箱

    cong.fu@tigerbot.com

    wei.cai@tigerbot.com

    微信讨论群

    Tiger

    致谢
    • Bloom: 我们基于 Bloom 架构进行训练
    • GPTQ-for-LLaMa: 模型量化代码参考来自于该项目

    局限性与免责声明 当前模型可能存在生成幻觉、误导性、或歧视性内容。请谨慎使用 TigerBot 系列模型生成的内容,请勿将生成的有害内容进行传播。

    如需将模型公开使用或者商用,模型服务所产生的不良影响或者有害言论由服务方负责,本项目开发者不承担任何因使用本项目(包含但不限于数据、模型、代码等)导致的危害或损失。