-
Notifications
You must be signed in to change notification settings - Fork 2.9k
Expand file tree
/
Copy path.env.example_CN
More file actions
75 lines (68 loc) · 2.86 KB
/
.env.example_CN
File metadata and controls
75 lines (68 loc) · 2.86 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
# ============================================
# DeepTutor 环境变量模板(中文)
# ============================================
# 复制为 `.env` 后填写。
# 当前建议按以下分组配置:
# ports / llm / embedding / search / docker-cloud / security
# --------------------------------------------
# 端口
# --------------------------------------------
BACKEND_PORT=8001
FRONTEND_PORT=3782
# --------------------------------------------
# LLM(必填)
# --------------------------------------------
# 支持的 binding: openai, lm_studio, ollama, azure_openai, deepseek, ...
# 完整列表请运行: deeptutor provider list
LLM_BINDING=openai
LLM_MODEL=gpt-4o-mini
LLM_API_KEY=sk-xxx
LLM_HOST=https://api.openai.com/v1
LLM_API_VERSION=
# --------------------------------------------
# Embedding(知识库能力必填)
# --------------------------------------------
EMBEDDING_BINDING=openai
EMBEDDING_MODEL=text-embedding-3-large
EMBEDDING_API_KEY=sk-xxx
EMBEDDING_HOST=https://api.openai.com/v1
EMBEDDING_DIMENSION=3072
EMBEDDING_API_VERSION=
# 是否在请求体中携带 `dimensions` 参数:
# true -> 总是发送(仅 OpenAI text-embedding-3* 系列官方支持该参数)
# false -> 永不发送(Qwen text-embedding-v4 等模型必须设为 false,
# 否则会返回 HTTP 400)
# 留空或不设置 -> 自动:仅对 OpenAI text-embedding-3* 系列发送
EMBEDDING_SEND_DIMENSIONS=
# ⚠️ Docker + 本地模型(LM Studio / Ollama / vLLM)
# ─────────────────────────────────────────────────────
# 当 DeepTutor 以 Docker 方式运行、而 LLM 运行在宿主机上时:
# - 不要使用 "localhost" 或 "127.0.0.1"——容器内这些地址指向容器自身,
# 而不是宿主机。
# - macOS / Windows (Docker Desktop): 使用 http://host.docker.internal:<端口>/v1
# - Linux: 使用宿主机的局域网 IP,例如 http://192.168.1.100:<端口>/v1
# (或使用 --network=host 模式启动 Docker)
#
# 示例(LM Studio 运行在 1234 端口):
# LLM_BINDING=lm_studio
# LLM_HOST=http://host.docker.internal:1234/v1
# EMBEDDING_BINDING=lm_studio
# EMBEDDING_HOST=http://host.docker.internal:1234/v1
# --------------------------------------------
# 搜索(可选)
# --------------------------------------------
SEARCH_PROVIDER=
SEARCH_API_KEY=
SEARCH_BASE_URL=
# --------------------------------------------
# Docker / 云部署(可选)
# --------------------------------------------
# 前端在远程部署时访问后端的公网地址
NEXT_PUBLIC_API_BASE_EXTERNAL=
# 备用 API 基础地址
NEXT_PUBLIC_API_BASE=
# --------------------------------------------
# 安全 / 网络(可选)
# --------------------------------------------
# 生产环境请保持 false
DISABLE_SSL_VERIFY=false