Skip to content

ollama基础使用

环境变量

两个用户变量

image-20250420201516505

  • 第一个:让虚拟机RAGFlow能访问到本机Ollama上
  • 第二个:默认把模型下载到此

下载安装

Ollama

直接download对应版本

模型下载

Ollama Search

直接在cmd里面执行指令即可

image-20250420214515021

这样最基础的模型就好了

RagFlow

支持desktop,提供可视化界面和可选的embedding模型,支持大部分chat模型和ollama自己部署的模型,算是一个好用的本地自用可视化界面rag平台

ragflow/README_zh.md at main · infiniflow/ragflow

下载安装

PS:win环境可以提前去官网下载docker

直接clone

$ git clone https://github.com/infiniflow/ragflow.git

然后到ragflow/docker文件夹

image-20250420214917779

我们就会发现有很多docker-compose文件夹,熟悉docker部署的同学应该不意外

$ docker compose -f docker-compose.yml up -d

直接运行即可

TIP:官方默认是不带embedding模型的,需要修改.env文件

image-20250420215030224

默认是slim版本

image-20250420215052957

来到84行将slim版本注释掉,87行的完整版取消注释

image-20250420215205554

等待安装ing

启动

powershell
docker compose -f docker-compose.yml up -d

1.添加ollama模型:

image-20250420222404693

  • 模型名称:cmd里输入ollama list然后填入正确的名称
  • 然后url就是自己的ip+端口,ip可以在cmd里ipconfig找到ipv4,port就是ollama的11434
  • token数就无所谓了

2.配置系统模型设置:可选ollama的chat模型和embedding模型

image-20250420222217392

主要选chat和embedding模型就行

下面依次是:图转文,语音转文,重拍(和Retriveal有关),TTS模型

也就是说支持多模态

3.搭建rag知识库:

参数可自己选,Chunk method就是根据投喂的不同文件来进行针对性解析

image-20250420223245848

4.创建助理,进行chat

image-20250420223611393

openWebUI

ragflow确实好用,但是太吃设备了,openWebUI专门适配ollama出的,嘎嘎好用

open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)

直接看README:

已经装了ollama又有docker而且是N卡,直接启动!

powershell
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

访问3000端口号