AI 与智能体
我亲手与 LLM 打交道 — 本地优先的代码智能体、Claude Code 插件与 skills、MCP 服务器,以及偶尔尝试打破自己模型的实验。这个页面记录我正在交付、阅读和拆解的内容。
当前重点
- —本地优先的代码智能体(Ollama、Gemma、ReAct 循环)
- —自研 Claude Code 插件与 skills
- —面向真实开发工作流的 Model Context Protocol(MCP)服务器
- —NLP 中的对抗样本与模型鲁棒性
- —基于 ONNX Runtime 的浏览器原生推理
工具与实验
nip-session.sh
$ nip "refactor getUser to async/await and add a cache"
> reading src/api/users.js ... [ok]
> plan: promisify callback, wrap with async, add LRU layer
> applying patch (3 hunks) ... [ok]
> running tests ... 12 passed, 0 failed.
> agent status: idle.