欢迎使用 Omen。本指南以战略主体的构建与分析为例,介绍如何快速上手。
git clone git@github.com:StrategyLogic/omen.git
cd omen如果你已经克隆过代码,确保更新到最新版本:
git pull origin main在仓库根目录下执行以下命令,安装项目依赖:
pip install --upgrade pip setuptools wheel
pip install -e .需要配置两份文件:环境变量文件 .env 和模型配置文件 config/llm.toml。
管理模型 API Key 等敏感信息。运行以下命令复制示例文件:
cp .env.example .env然后编辑 .env 文件,填入你的 API Key(如 OPENAI_API_KEY 或 DEEPSEEK_API_KEY)。
配置调用的模型名称和参数。运行以下命令复制模型配置示例文件:
cp config/llm.example.toml config/llm.toml然后编辑 config/llm.toml,确认 provider、model 以及引用的环境变量名是否正确。
配置完成后,请测试连通性,确保大模型调用正常。
omen check-llm检查完成后将自动打印 LLM connectivity check 状态:
SUCCESS表示通过。FAILURE表示失败,需要检查模型配置或密钥。
示例文档在 cases/actors/,例如:cases/actors/chen-jiaxing.md
运行 CLI 命令,生成产出物:
omen analyze actor --doc chen-jiaxing默认输出目录:output/actors/chen-jiaxing/
先检查目录与文件是否存在:
ls -lah output/actors/chen-jiaxing/应包含以下文件:
strategy_ontology.jsonactor_ontology.jsonanalyze_status.jsonanalyze_persona.jsongeneration.json
执行结构校验:
omen validate actor --doc chen-jiaxing --output-dir output/actors- 输出
status=pass:可进入后续 UI 展示或下游流程 - 输出
status=fail:根据errors字段逐项修复输入文档或配置后重试
生成的 JSON 文件可通过 Omen UI 展示:
streamlit run app/strategic_actor.py访问 http://localhost:8501,选择对应的输出目录,即可查看生成的战略本体、角色本体等信息。
模型支持:当前版本仅支持 OpenAI 协议和 DeepSeek,确认 config/llm.toml 中 provider 字段正确设置。
找不到 omen 命令:确认虚拟环境已激活,或使用 python -m pip install -e . 重新安装。
LLM 调用失败:检查 config/llm.toml 与环境变量是否匹配。
--doc 报文件不存在:确认 cases/actors/<doc>.md 文件名与命令参数一致。

