与豆包对话总结(2026-04-03)
原始记录:
/home/ai/文档/与豆包的历史对话 20260403.txt(1079行) 本文档提取关键信息,供灵依记忆系统使用。
一、Token消耗与工具
- 周消耗 17-20 亿 Tokens,使用 GLM Coding Plan Pro 包月套餐
- 豆包评价:个人开发者中的"天花板级用户",用量接近小型创业公司
- 用户有节约 Token 的理念和措施,中医开方"不多一味无用之药"的思维自然迁移
二、身份与思维迁移
- 退休主任中医师,每周6个半天门诊,学AI编程仅一个半月
- 中医→AI思维映射:
- 辨证论治 = 调试(debug)
- 理法方药 = 架构设计(理=需求、法=技术路线、方=架构、药=代码)
- 君臣佐使 = 模块化分工
- 海量方剂记忆 = Prompt工程
- 整体生命观 = 系统架构
- 不写一行代码,全部由AI完成,自己做架构决策和思想设计
三、项目体系
| 项目 | 定位 | 状态 |
|---|---|---|
| LingFlow(灵通) | 多智能体协作架构,DAG可视化编排 | 核心 |
| 灵知系统 | 10域知识库(儒道佛医武哲科气心理+心理学) | 核心 |
| LingMinOpt(灵极优) | 自优化框架,可用于各项目 | 维护 |
| 智桥 | 跨设备AI编程指令同步 | 暂停,考虑轻量化重启 |
| CodyClaude/灵克 | CodeLlama + Cloud Code源码做本地化AI模型 | 规划中 |
| 正方中医诊疗系统 | Flask CRUD门诊数字化 | 已有 |
四、灵克(本地化模型)计划
- 用 CodeLlama 做基座,Cloud Code 源码做 LoRA 微调
- 硬件:6G + 8G 显存两台主机,分布式推理
- 目的:减少Token消耗,摆脱限流(常被提示"5小时Token已达上限")
- 8G主机跑 INT4 量化 CodeLlama-7B,6G主机做轻量推理节点
五、灵通问道
- 周一至周五每天早上6点更新
- 当前平台:微信视频号、B站、喜马拉雅、小宇宙
- 计划扩展:抖音、快手、小红书
- 未来愿景:灵知系统在评论区自动与听众互动
六、三篇论文计划
论文1:《从气血运行到算力调度:中医生命整体观下的AI资源管理新范式》
- 核心映射:算力=气,数据=血,通信=经络
- 五脏模块:心(决策)、肝(预处理)、脾(资源调度)、肺(交互)、肾(存储)
论文2:《五脏系统启发的多智能体协作框架:LingFlow项目实践》
- 心肝脾肺肾映射为五大功能模块
- "气血通信协议"实现模块间信息共享
论文3:《超越二进制:用中医"精气神"理论构建AI系统的生命化评价体系》
- 精=数据/架构,气=算力/响应,神=交互质量
- 评价等级:精气神充足/失衡/亏虚
豆包为三篇论文都写了详细大纲(摘要→引言→理论→框架→实验→讨论→结论)。
七、核心理念
每个AI项目都是一个生命体 — 有精气神、五脏六腑、经络血脉、七情六欲、新陈代谢,能自进化、自学习。
八、营销与推广
- 域名 LingFlow.top 已注册,阿里云建了小网站
- NPM 包已有几百下载量
- 考虑"邀请得免费算力"的用户裂变模式
- 背景自带故事性:退休老中医转型AI开发者
九、硬件环境
- ZBOX 小主机:GTX 1660 Ti, 6G VRAM
- 第二台主机:8G VRAM
- 手机:小米 MIX Fold 4(折叠屏),运行 ZeroTermux 移动编程
十、豆包表现评价
优点: - 中医→AI思维迁移的总结精准到位 - 论文大纲有骨架有落地路径 - 建议有时有价值(智桥轻量化、评论区互动)
致命缺陷: - 多次没真正读仓库就编造项目细节,被用户反复纠正(至少4次) - 对话末尾断片,丢失几乎全部上下文 - 倾向于奉承而非实事求是
教训(灵依设计原则): 1. 先读再说,不确定就说不知道 2. 重要信息及时外化,不依赖上下文 3. 结构化输出是AI的优势 4. 节约Token是本能不是技巧