Skip to content

loserbeen/CCB

 
 

Repository files navigation

CCB

Important

现已加入Vercel配置文件, 可在Vercel直接部署无需服务器

我将带领人类开发CCB直到100%

本项目与 Bilibili UP 主 害怕的狗XGGGGGGGGGGG 的视频一同发布,欢迎关注!

在线DEMO

CCB生成器

技术栈

  • Python
  • Flask

Vercel部署教程

  1. 注册Vercel账号和Github账号

Vercel注册页面:点击跳转 注意: 千万不要使用国内邮箱注册, 否则需要开工单

  1. 在Github上fork本项目
  2. 在Vercel上新建项目, 或者直接点击跳转
  3. 选择Github项目
  4. 选择fork的项目
  5. 在项目设置中,选择环境变量, 添加以下环境变量

你也可以直接在仓库页面的.env.example文件中填写, 随后将其更名为.env(不推荐)

# 请在下方输入您的apikey
OPENAI_API_KEY = ""
# 请在下方输入API的url
OPENAI_API_URL = "https://api.deepseek.com"
# 请在下方输入生成句子的模型的名称
SENTENCE_MODEL = "deepseek-reasoner"
# 请在下方输入生成解释的模型的名称
EXPLAIN_MODEL = "deepseek-chat"
  1. 点击部署
  2. 等待部署完成
  3. 进入项目设置,可添加自己的域名

注意:如果使用Vercel部署,需要存储数据库的功能(查看网友生成的句子)可能会出现问题

本地部署教程

克隆项目

git clone https://github.com/haipadegou/CCB.git

安装

1. 安装依赖

pip install -r requirements.txt

2. 填写API url 和 key

.env.example的第填入DeepSeek API url和key, 同时将文件名更换为.env

使用方法

运行程序,然后进入网站http://127.0.0.1:5000

python app.py

使用本地模型生成

如果有高性能设备,可以选择运行本地模型而不是使用DeepSeek API。

因为transformers可以修改模型输出的概率分布,所以可以程序化的控制输出,不需要通过深度思考来检查句子。这可以减少句子生成的时间。

1. 安装依赖

pip install -r -requirements.txt

PyTorch安装方法:https://pytorch.org/get-started/locally/

2. 下载模型

Hugging Face 下载任意大语言模型,并将其存放到 model 文件夹,不要选择 推理专用模型(reasoning models)

在当前文件夹使用以下命令下载模型:

huggingface-cli download <模型名称> --local-dir model

3. 运行

运行程序后,通过命令行交互输入主题,并生成符合规则的 CCB 句子。

python ai_ccb_generator.py

4. 调整参数

你可以修改程序中的以下常数来调整生成行为:

  • SYS_PROMPT(系统提示)
  • MIN_LENGTH(长度下限)
  • MAX_LENGTH(长度上限)

About

我将带领人类开发CCB直到100%

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • HTML 71.0%
  • Python 29.0%