返回项目列表

智能 AI 陪练 | 2026.03 - 至今

智能 AI 陪练:把软技能训练升级为可评估、可追踪的工程系统

构建 AI 驱动的职场技能训练平台,借鉴 Agent Skill 理念,将传统难以量化的软技能转化为可评估、可追踪的能力模块。

线上检索准确率约 91%

角色:产品经理 + 软件工程师

GitHub

Problem

为什么要做这个产品

传统软技能训练依赖主观反馈,缺少统一标准与长期追踪。目标不是做聊天 demo,而是搭建可复盘、可持续优化的训练闭环, 让技能成长具备可观测性与工程可维护性。

反馈主观

训练结果依赖经验判断,难以统一评估。

过程不可追踪

缺少稳定指标,难判断真实提升幅度。

业务贴合不足

通用建议难覆盖企业场景和知识约束。

Solution

核心设计与工程实现

Skill Package 版本化设计

把技能抽象为可版本化的 Skill Package,统一定义、rubric、示例与工具配置,支撑训练与评估一致性。

  • 借鉴 Agent Skill 理念建立技能资产结构
  • 设计 search -> get 两段式加载,先返回轻量索引再按需拉取完整定义
  • 降低评估链路 token 开销并提升链路可维护性

AI Agent 评估引擎

基于 LangGraph ReAct + Tool Calling 实现“先选技能再评分”,让评估流程可解释、可复盘。

  • 构建技能路由与评分链路,减少无关技能干扰
  • 面向长对话设计三级上下文控制:分段裁剪、关键段优先、尾部截断
  • 缓解长会话评估漂移,提升结果稳定性

可定制知识库系统

搭建企业知识注入链路,让评估结果结合业务语境输出更可执行反馈。

  • 落地向量检索 + BM25 + reranker 混合检索
  • 支持企业知识库接入并参与评估推理
  • 线上检索准确率约 91%

Workflow

训练闭环

Step 1

选择训练场景并进入语音陪练

Step 2

实时对话与互动动作驱动训练过程

Step 3

会话结束后自动生成复盘与技能评估

Step 4

技能画像沉淀,形成可追踪的成长闭环

Outcome

工程结果

把软技能训练从主观反馈改造为结构化能力评估

评估链路具备可扩展与可复用能力,支撑持续迭代

企业知识注入后反馈更贴近真实业务场景

技术栈

LangGraphReActRAGBM25Python