A tool based LLM to translate Triton to CUDA
./setup.sh./activate_env.sh- 首先运行prompt,生成py的包裹文件,在solution/data/cuda下
- 运行 python3 extract_cuda.py solution/data/cuda/output_cuda -o extracted_cuda
- Ubuntu 22.04+
- Python 3.10+
- NVIDIA驱动
- CUDA 12.4工具包
- PyTorch 2.4.0 (CUDA 12.4)
- Triton 3.0.0
- requirements.txt中的所有依赖
检查环境
python3 quick_check.py清理环境
rm -rf llm_env activate_env.sh手动安装
# 1. 系统依赖
sudo apt-get install -y build-essential ninja-build cuda-toolkit-12-4
# 2. 虚拟环境
python3 -m venv llm_env
source llm_env/bin/activate
# 3. Python包
pip install torch==2.4.0 --index-url https://download.pytorch.org/whl/cu124
pip install triton==3.0.0
pip install -r requirements.txt我们使用github平台进行工作的同步,注意以下几点:
- 首先拉取main分支,然后每个人需要新建自己的独立的开发分支,命名为“dev-xxx”
- 不要直接将代码推送到主分支,先推送到自己的独立分支,等待每一个阶段的功能完善后再提交PR请求合并到main中
- 每次进行开发前,应该首先拉取最新的main与本地分支进行合并,以免confict堆积
- 在进行commit的时候 尽量把描述写的清楚一点,以便于其他协作成员查看
- 在github设置了CI来对基本的正确性进行检查,再github仓库页面点击“Actions”可以查看通过情况。(但是这方面需要进一步丰富检查内容)
教程|提示词工程指南
DeepSeek 提示词样例
Test-Time Scaling
⭐|技术博客|CUDA极简教程
技术博客|CUDA教程
技术博客|将PTX代码逆向反汇编为CUDA C++
知乎专栏|CUDA实现及优化
- 原赛题的文件夹为triton2cuda/solution,solution之外的文件均为我后来添加用于测试或者git操作的文件