第一部分:请使用第二部分部署比较简单。
教程:https://www.youtube.com/watch?v=ljAGAzY7vqU
https://github.com/sugarforever/chat-ollama
1.pwerSell 管理员运行
2.
wsl — install 或者 wsl —install -d Ubuntu 安装
wsl —update 升级
wsl —shutdown 关机
wsl —status 查看状态
3.安装docker desktop
3.2 勾选两个选项
- CMD 输入 docker -v
4和5 选一样。
4.1 wsl 进入虚拟机系统。需要安装docker-compose,目前这个方法未验证。
4.12 cd /usr
4.13 mkdir docker-compose
cd docker-compose
vi docer-compose.yaml
按 “insent” 键
黏贴配置文件
1输入“:”,2在输入“wq”3回车
运行:docker-compose up -d
5.在 Docker Desktop 下安装 Portainer 服务器:
教程:https://www.youtube.com/watch?v=ljAGAzY7vqU
创建一个包含 Portainer 服务器管理的数据的Docker 卷
docker volume create Portainer_data
验证名为“Portainer_data”的 Docker 卷是否存在
docker volume ls
安装实际的 Portainer 服务器
docker run -d -p 8000:8000 -p 9000:9000 -p 9443:9443 —name portainer —restart=always -v /var/run/docker.sock:/var/run/docker.sock -v portainer_data:/data portainer/portainer-ce:latest
docker run -d -p 9000:9000 —name portainer —restart=always -v /var/run/docker.sock:/var/run/docker.sock -v portainer_data:/data portainer/portainer-ce:latest
我们检查名为“Portainer”的 Docker 容器是否正在运行
docker ps -a
5.2
http://127.0.0.1:9000
5.22 账户:admin key: haogougouhjkhg@#$#
安装本地 Ai聊天chat
6.1 安装OllamaSetup.exe 地址: https://github.com/ollama/ollama
6.12 安装完成,浏览器输入:http://localhost:11434/ Ollama is running表示成功
6.13 模式网址:https://ollama.com/library ,点击里面的模型,就有运行命令,复制。
6.13 CMD-输入:ollama run llama3 就可以对话了。
以下是安装gui界面,有两种,第二种比较好用。
6.2安装dockers chatollama
视频教程:https://www.youtube.com/watch?v=FGHbjtIxDyQ
https://github.com/sugarforever/chat-ollama/blob/main/docker-compose.yaml
6.22 配置 yaml 内容///////////////////////////////////////////////////////////////////////////////////////////////////////////
version: ‘3.1’
services:
chromadb:
image: chromadb/chroma
ports:- “8000:8000”
restart: always
volumes: - chromadb_data:/chroma/.chroma/index
chatollama:
environment:- CHROMADB_URL=http://chromadb:8000
- DATABASE_URL=file:/app/sqlite/chatollama.sqlite
- REDIS_HOST=redis
image: 0001coder/chatollama:latest
ports: - “3000:3000”
pull_policy: always
restart: always
volumes: - ~/.chatollama:/app/sqlite
redis:
image: redis:latest
restart: always
volumes:- redis_data:/data
- “8000:8000”
volumes:
chromadb_data:
redis_data:
//////////////////////////////////////////////////////////////////////////////////////////
1.使用Portainer 部署-home-stacks-create stack
- 将以上内容黏贴
- 点击页面下部-deploy the stack 创建。
6.2 访问:
localhost:3000
https://ai.haogougou.eu.org/chat
6.2 Ollama sever 输入:http://host.docker.internal:11434 保存,不然无法访问,选择模型。
6.3 https://github.com/ollama/ollama 模型下载
第二部分:请使用第二部分部署比较简单。
另一个博主:第一部分:请使用第二部分部署比较简单。
1 https://www.youtube.com/watch?v=2h8OpB7oh4g
2 https://github.com/open-webui/open-webui
3 代码:
docker run -d -p 3001:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
- localhost:6000
5.如何自定义模型存放位置。
5.1 我的电脑-右键-属性-高级系统设置-环境变量-系统变量-新建-变量名:,
变量值:OLLAMA_MODELS
存储目录:E:\AI_MODELS
,保存。
6.重启电脑
6.2 点击任务栏ollama 图标,退出 Quit ollama .
6.3开始菜单找到,ollama
6.4 cmd运行命令如:ollama run llama3 下载模型。