在 CNB 中直接 使用 Ollama 运行 QwQ,预置模型,无需等待,零帧起步。
Fork 本仓库到自己的组织下云原生开发 启动远程开发环境5~9 秒后,进入远程开发命令行,输入以下命令即可体验ollama run QwQ:32b
QwQ:32b在 PORTS 中将 Ollama 暴露到外网,添加 11434 端口即可。
sudo apt-get update
sudo apt-get install -y build-essential
uv python install 3.12
uv venv --python 3.12
uv tool install crewai
uv pip install crewai
crewai create crew <your_project_name>
crewai install
uv add crewai run
rm -rf /root/.local/share/uv/python/cpython-3.14-linux-x86_64-gnu/bin/python3.14