-
Notifications
You must be signed in to change notification settings - Fork 0
Expand file tree
/
Copy path.env.example
More file actions
129 lines (107 loc) · 4.02 KB
/
.env.example
File metadata and controls
129 lines (107 loc) · 4.02 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
# ==========================================
# SVP AI Compiler Configuration
# 支持第三方多模型聚合平台(OneAPI/NewAPI等)
# ==========================================
# ==========================================
# 第三方聚合平台配置(推荐)
# ==========================================
# 使用 OneAPI/NewAPI 等聚合平台时,配置方式:
# 1. 设置第三方端点(OpenAI兼容格式)
# OPENAI_BASE_URL=https://api.example.com/v1
# OPENAI_API_KEY=sk-your-third-party-key
# 2. 模型名称映射(聚合平台可能有自定义名称)
# - 如果平台使用标准名称:gpt-4, gpt-4-turbo, claude-3-opus
# - 如果平台有自定义名称:gpt-4-1106, claude-3-opus-202402
# ==========================================
# 每层级模型配置(分层编译策略)
# ==========================================
#
# 推荐策略:
# - L5→L4: 需要强推理能力,理解意图 → 用最强模型 (GPT-4/Claude-3-Opus)
# - L4→L3: 需要架构设计能力 → 用强模型 (GPT-4/Claude-3-Sonnet)
# - L3→L2: 需要代码转换能力 → 用代码模型 (GPT-4/GPT-3.5)
# - L2→L1: 需要代码生成能力 → 用快速模型 (GPT-3.5/本地模型)
# L5→L4: 意图→架构(最重要,需要最强模型)
SVP_L5_PROVIDER=openai
SVP_L5_MODEL=gpt-4-turbo-preview
# L4→L3: 架构→逻辑块
SVP_L4_PROVIDER=openai
SVP_L4_MODEL=gpt-4
# L3→L2: 逻辑→代码骨架
SVP_L3_PROVIDER=openai
SVP_L3_MODEL=gpt-3.5-turbo
# L2→L1: 骨架→实现(可选本地模型加速)
SVP_L2_PROVIDER=openai
SVP_L2_MODEL=gpt-3.5-turbo
# ==========================================
# Provider 配置
# ==========================================
# --- OpenAI 官方或兼容端点 ---
OPENAI_API_KEY=your_api_key_here
OPENAI_BASE_URL=https://api.openai.com/v1
# OPENAI_MODEL=gpt-4-turbo-preview
# --- Anthropic Claude ---
# ANTHROPIC_API_KEY=your_anthropic_key
# ANTHROPIC_MODEL=claude-3-opus-20240229
# --- 本地模型 (Ollama/LM Studio) ---
# LOCAL_AI_URL=http://localhost:11434/v1
# LOCAL_MODEL=codellama
# ==========================================
# 第三方聚合平台示例配置
# ==========================================
# 【示例 1】OneAPI 聚合平台
# OPENAI_BASE_URL=https://oneapi.example.com/v1
# OPENAI_API_KEY=sk-oneapi-key
# SVP_L5_MODEL=gpt-4 # 映射到平台的gpt-4
# SVP_L4_MODEL=gpt-4 # 映射到平台的gpt-4
# SVP_L3_MODEL=gpt-3.5-turbo # 映射到平台的gpt-3.5
# SVP_L2_MODEL=gpt-3.5-turbo
# 【示例 2】NewAPI 聚合平台(支持Claude/Gemini等)
# OPENAI_BASE_URL=https://newapi.example.com/v1
# OPENAI_API_KEY=sk-newapi-key
# SVP_L5_MODEL=claude-3-opus-20240229 # Claude最强模型
# SVP_L4_MODEL=claude-3-sonnet-20240229 # Claude中等模型
# SVP_L3_MODEL=gpt-4 # GPT-4
# SVP_L2_MODEL=gpt-3.5-turbo # GPT-3.5
# 【示例 3】Azure OpenAI
# OPENAI_BASE_URL=https://your-resource.openai.azure.com/openai/deployments
# OPENAI_API_KEY=your-azure-key
# SVP_L5_MODEL=gpt-4-deployment
# SVP_L4_MODEL=gpt-4-deployment
# SVP_L3_MODEL=gpt-35-deployment
# SVP_L2_MODEL=gpt-35-deployment
# 【示例 4】混合策略(官方+第三方+本地)
# L5: 官方GPT-4(最强)
# L4: 第三方Claude(性价比)
# L3: 第三方GPT-3.5(快速)
# L2: 本地模型(免费)
#
# 需要配置多个provider:
# SVP_L5_PROVIDER=openai
# SVP_L5_MODEL=gpt-4-turbo
# OPENAI_API_KEY=sk-openai-key
#
# SVP_L4_PROVIDER=anthropic
# SVP_L4_MODEL=claude-3-sonnet
# ANTHROPIC_API_KEY=sk-anthropic-key
#
# SVP_L3_PROVIDER=openai
# SVP_L3_MODEL=gpt-3.5-turbo
#
# SVP_L2_PROVIDER=local
# SVP_L2_MODEL=codellama
# LOCAL_AI_URL=http://localhost:11434/v1
# ==========================================
# 高级配置
# ==========================================
# 全局默认provider
# SVP_AI_PROVIDER=openai
# 温度设置(影响创造性)
# 越低越确定,越高越创造性
# L5需要准确理解:0.1-0.2
# L2-L1可以稍微创造性:0.2-0.3
# SVP_TEMPERATURE=0.2
# 最大token数
# SVP_MAX_TOKENS=4000
# 请求超时(毫秒)
# SVP_TIMEOUT=60000