Run ${model} on Ollama via CNB

在 CNB 中直接 使用 Ollama 运行 ${model},预置模型,无需等待,零帧起步。
Fork 本仓库到自己的组织下
- 选择喜欢的分支,点击
云原生开发 启动远程开发环境
- 约
5~9 秒后,进入远程开发命令行,输入以下命令即可体验
image为模型名称,如‘{model}:${modelSize}`
ollama run ${image}
- model:{modelSize}
在 PORTS 中将 Ollama 暴露到外网,添加 11434 端口即可。