linshenkx / prompt-optimizer
- четверг, 19 июня 2025 г. в 00:00:01
一款提示词优化器,助力于编写高质量的提示词
Prompt Optimizer是一个强大的AI提示词优化工具,帮助你编写更好的AI提示词,提升AI输出质量。支持Web应用和Chrome插件两种使用方式。
直接访问:https://prompt.always200.com
项目是纯前端项目,所有数据只存储在浏览器本地,不会上传至任何服务器,因此直接使用在线版本也是安全可靠的
方式2: Fork项目后在Vercel中导入(推荐):
ACCESS_PASSWORD
:设置访问密码,启用访问限制VITE_OPENAI_API_KEY
等:配置各AI服务商的API密钥更多详细的部署步骤和注意事项,请查看:
# 运行容器(默认配置)
docker run -d -p 80:80 --restart unless-stopped --name prompt-optimizer linshen/prompt-optimizer
# 运行容器(配置API密钥和访问密码)
docker run -d -p 80:80 \
-e VITE_OPENAI_API_KEY=your_key \
-e ACCESS_USERNAME=your_username \ # 可选,默认为"admin"
-e ACCESS_PASSWORD=your_password \ # 设置访问密码
--restart unless-stopped \
--name prompt-optimizer \
linshen/prompt-optimizer
# 1. 克隆仓库
git clone https://github.com/linshenkx/prompt-optimizer.git
cd prompt-optimizer
# 2. 可选:创建.env文件配置API密钥和访问认证
cat > .env << EOF
# API密钥配置
VITE_OPENAI_API_KEY=your_openai_api_key
VITE_GEMINI_API_KEY=your_gemini_api_key
VITE_DEEPSEEK_API_KEY=your_deepseek_api_key
VITE_ZHIPU_API_KEY=your_zhipu_api_key
VITE_SILICONFLOW_API_KEY=your_siliconflow_api_key
# Basic认证配置(密码保护)
ACCESS_USERNAME=your_username # 可选,默认为"admin"
ACCESS_PASSWORD=your_password # 设置访问密码
EOF
# 3. 启动服务
docker compose up -d
# 4. 查看日志
docker compose logs -f
你还可以直接编辑docker-compose.yml文件,自定义配置:
services:
prompt-optimizer:
image: linshen/prompt-optimizer:latest
container_name: prompt-optimizer
restart: unless-stopped
ports:
- "8081:80" # 修改端口映射
environment:
- VITE_OPENAI_API_KEY=your_key_here # 直接在配置中设置密钥
支持的模型:
除了API密钥,您还可以在模型配置界面为每个模型单独设置高级LLM参数。这些参数通过一个名为 llmParams
的字段进行配置,它允许您以键值对的形式指定LLM SDK支持的任何参数,从而更精细地控制模型行为。
高级LLM参数配置示例:
{"temperature": 0.7, "max_tokens": 4096, "timeout": 60000}
{"temperature": 0.8, "maxOutputTokens": 2048, "topP": 0.95}
{"temperature": 0.5, "top_p": 0.9, "frequency_penalty": 0.1}
有关 llmParams
的更详细说明和配置指南,请参阅 LLM参数配置指南。
Docker部署时通过 -e
参数配置环境变量:
-e VITE_OPENAI_API_KEY=your_key
-e VITE_GEMINI_API_KEY=your_key
-e VITE_DEEPSEEK_API_KEY=your_key
-e VITE_ZHIPU_API_KEY=your_key
-e VITE_SILICONFLOW_API_KEY=your_key
-e VITE_CUSTOM_API_KEY=your_custom_api_key
-e VITE_CUSTOM_API_BASE_URL=your_custom_api_base_url
-e VITE_CUSTOM_API_MODEL=your_custom_model_name
详细文档可查看 开发文档
# 1. 克隆项目
git clone https://github.com/linshenkx/prompt-optimizer.git
cd prompt-optimizer
# 2. 安装依赖
pnpm install
# 3. 启动开发服务
pnpm dev # 主开发命令:构建core/ui并运行web应用
pnpm dev:web # 仅运行web应用
pnpm dev:fresh # 完整重置并重新启动开发环境
详细的项目状态可查看 项目状态文档
A: 大多数连接失败是由跨域问题(CORS)导致的。由于本项目是纯前端应用,浏览器出于安全考虑会阻止直接访问不同源的API服务。模型服务如未正确配置CORS策略,会拒绝来自浏览器的直接请求。
A: Ollama完全支持OpenAI标准接口,只需配置正确的跨域策略:
OLLAMA_ORIGINS=*
允许任意来源的请求OLLAMA_HOST=0.0.0.0:11434
监听任意IP地址A: 这些平台通常有严格的跨域限制,推荐以下解决方案:
使用Vercel代理(便捷方案)
使用自部署的API中转服务(可靠方案)
A: 使用Vercel代理可能会触发某些模型服务提供商的风控机制。部分厂商可能会将来自Vercel的请求判定为代理行为,从而限制或拒绝服务。如遇此问题,建议使用自部署的中转服务。
git checkout -b feature/AmazingFeature
)git commit -m '添加某个特性'
)git push origin feature/AmazingFeature
)提示:使用cursor工具开发时,建议在提交前:
感谢所有为项目做出贡献的开发者!
本项目采用 MIT 协议开源。
如果这个项目对你有帮助,请考虑给它一个 Star ⭐️