跳转到主要内容
本指南把 SimpleLLMFunc 的中文文档按任务、模块和学习阶段重新整理,方便你快速找到下一篇该读的内容。
如果你是第一次接触 SimpleLLMFunc,建议先阅读 快速开始,再按本页的学习路径继续深入。

快速导航

基础设施

配置与环境

配置 .envprovider.json、日志目录与基础运行参数。

LLM 接口层

了解 OpenAICompatibleOpenAIResponsesCompatible、密钥池和令牌桶的工作方式。

开发体验

llm_function 装饰器

构建无状态的 LLM 函数,处理结构化输出、模板和工具调用。

llm_chat 装饰器

构建多轮对话、Agent 和流式聊天体验。

Agent 主体逻辑

事件流系统

观察 ReAct 循环,消费 LLM、工具和统计事件。

中断与取消

使用 AbortSignal 打断当前回合并安全收尾。

工具与运行时

Primitive 原语

了解 runtime.* 能力、PrimitivePack 和 backend 生命周期。

工具系统

定义工具、返回结构化结果,并为模型注入最佳实践。

PyRepl 运行时

在连续 Python 上下文中执行代码,并挂载 runtime primitives。

UI 与交互

终端 TUI

@llm_chat 直接包装成 Textual 终端聊天界面。

集成与示例

Langfuse 集成

为 LLM 调用、工具调用和事件流接入可观测性。

示例代码

按场景浏览完整可运行示例和推荐学习顺序。

贡献指南

了解提 Issue、提 PR 和本地开发的基本约定。

按任务查找

快速开始 开始,先跑通环境、配置模型和第一个 Demo。
阅读 配置与环境,了解 provider.json.env 和日志配置。
阅读 llm_function 装饰器,学习签名、返回类型、模板参数和工具调用。
阅读 llm_chat 装饰器,了解历史管理、流式响应和 runtime context。
阅读 事件流系统,消费 EventYieldResponseYield 构建可观测 UI。
阅读 工具系统;如果需要持久 Python 上下文,再配合 PyRepl 运行时
阅读 终端 TUI,了解 @tui、中断、热键和自定义事件 hook。
直接进入 示例代码,按基础、进阶和按功能分类浏览。

推荐学习路径

1

初级用户:先跑通一条完整链路

  1. 阅读 快速开始
  2. 阅读 llm_function 装饰器
  3. 打开 示例代码 运行结构化输出示例
2

中级用户:加入工具和对话能力

  1. 阅读 llm_chat 装饰器
  2. 阅读 工具系统
  3. 回到 配置与环境 优化模型和限流参数
3

高级用户:深入 runtime 与可观测性

按功能模块查找

功能文档说明
基础配置配置与环境API 密钥、环境变量、provider.json
简单任务llm_function 装饰器无状态函数、文本处理、数据转换
对话应用llm_chat 装饰器多轮对话、历史管理、流式响应
事件流事件流系统实时观察、工具调用监控、性能分析
中断控制中断与取消终止流式输出、取消工具调用
工具集成工具系统工具定义、调用、多模态返回
原语系统Primitive 原语CodeAct 运行时内置能力
系统设计LLM 接口层接口抽象、密钥池、流量控制
实战示例示例代码各种场景的完整代码

常见问题速查

阅读 配置与环境。重点关注 provider.json 的提供商到模型列表结构。
不支持。@llm_function@llm_chat@tool 都要求装饰 async def 函数。详见 llm_function 装饰器
llm_chat 装饰器 开始,了解 historystream=True 和返回模式。
阅读 中断与取消,使用 AbortSignal 控制运行中回合。
阅读 工具系统,学习 @tool、返回类型和工具最佳实践注入。
阅读 LLM 接口层。框架同时支持 OpenAI-compatible chat/completions 适配和 OpenAI Responses API 适配,可接入多种兼容服务。
先看 LLM 接口层 的故障排除,再结合日志和事件流排查。

其他资源

项目介绍

了解 SimpleLLMFunc 的设计理念、核心特性和目录结构。

示例代码

直接查看可运行样例和推荐学习顺序。

GitHub 仓库

查看源码、Issue 和发布记录。
每篇文档都尽量保留完整代码示例。遇到问题时,优先查看对应页面的“故障排除”或“常见问题”部分,再回到 示例代码 对照运行。