KI & Agenten
Ich arbeite hands-on mit LLMs — lokal lauffähige Coding-Agenten, Claude-Code-Plugins und Skills, MCP-Server und gelegentliche Experimente, in denen ich meine eigenen Modelle breche. Diese Seite dokumentiert, was ich gerade ausliefere, lese und auseinandernehme.
Aktueller Fokus
- —Lokal lauffähige Coding-Agenten (Ollama, Gemma, ReAct-Loops)
- —Claude-Code-Plugins und selbst geschriebene Skills
- —Model Context Protocol (MCP)-Server für reale Entwickler-Workflows
- —Adversariale Beispiele und Modell-Robustheit in NLP
- —Browser-native Inferenz mit ONNX Runtime
Tools & Experimente
nip-session.sh
$ nip "refactor getUser to async/await and add a cache"
> reading src/api/users.js ... [ok]
> plan: promisify callback, wrap with async, add LRU layer
> applying patch (3 hunks) ... [ok]
> running tests ... 12 passed, 0 failed.
> agent status: idle.