模块化个人智能体工作台
CoPaw 将个人助理拆成模型路由、Skills、记忆、渠道与调度等模块。模型层负责在云端 API 与本地推理后端之间做统一抽象与选择,避免把业务逻辑绑定到某个供应商。渠道层把不同聊天平台的事件归一成一致的类型与处理管线,让 Skills 专注于“做什么”而不是“来自哪里”。定时与常驻机制让技能既能被动响应对话,也能按计划主动运行,最终形成可持续运转的个人自动化。
CoPaw 是一套可自托管的个人智能体工作台,把模型、技能、记忆、渠道与调度拆成可替换模块:你可以把同一个助理接入多个聊天应用,在不同沟通场景复用同一套能力;模型侧既可调用云端 API,也可通过 Ollama 或 llama.cpp / MLX 在本机推理,让敏感数据尽量留在本地;底层基于 AgentScope 的工程化范式,把可组合 Skills 与定时任务做成个人工作流的执行引擎。
| ✕传统痛点 | ✓创新方案 |
|---|---|
| 个人助理常被锁死在单一入口,跨平台体验割裂,难以在不同场景复用。 | 以 AgentScope 的模块化范式组织个人助理,把渠道、技能、记忆与调度解耦成可替换组件。 |
| 云端模型隐私与成本压力大,本地模型又缺少统一管理与可控切换。 | 统一模型层,支持云端 API 与本地推理混用,让敏感任务尽量留在设备端。 |
1pip install copaw && copaw init1copaw app # http://127.0.0.1:8088/1docker pull agentscope/copaw:latest && docker run -p 8088:8088 -v copaw-data:/app/working agentscope/copaw:latest| 核心场景 | 目标人群 | 解决方案 | 最终收益 |
|---|---|---|---|
| 跨平台个人助理统一入口 | 远程团队成员 | 将同一助理接入多个聊天渠道并统一待办与提醒 | 减少沟通切换成本并提升响应一致性 |
| 隐私优先的本地文档助手 | 研发与法务从业者 | 用本地模型处理私密文档摘要与问答并沉淀偏好 | 数据不出机且持续提升个人效率 |
| 定时自动化日报周报 | 运营与项目经理 | 配置定时 Skills 汇总消息与任务并自动投递到指定渠道 | 节省重复整理时间并提高交付频率 |