// SHOWCASE
Neo's AI Infrastructure
A Living System That Evolves Daily
Born Feb 12, 2026 · 16,800 lines · Still growing
System Architecture
AI Brains
Infrastructure
Interfaces
AI Brains
Infrastructure
Interfaces
M2.5 主脑 · Multi-Brain 协同 · 18 Skills 生态 · 原生 API
—Architecture Evolution
GLM-5 + mlx_lm.server
GLM-5-MLX 直连,文件缺失无法使用
Feb 12
M2.5 + mlx_lm + CCR
Claude Code → CCR(:3456) → mlx_lm(:8080) → M2.5
Feb 13
M2.5 + oMLX
Claude Code → oMLX(:8000) → M2.5 · 原生 API · 无中间层
Feb 15
Multi-Brain AIOS (current)
M2.5 主脑 + Claude/Codex 协同 + AINEOS Skills 生态
Feb 16
Five-Day Sprint
开荒:GLM-5 全网首部署
- •Mac Studio M3 Ultra 512GB 开箱,从零初始化全套环境
- •安装 MLX 生态 + Homebrew + Docker + Claude Code agents
- •GLM-5-MLX (417GB) 开始下载 — 11GB/min via hf_transfer
- •同步部署 Open WebUI (:3000) + OpenClaw (:18789) 首次上线
- •GLM-5 下载完成…缺 1 个 safetensors — HF 上传方文件不全
- •「我是成为全网第一个本地部署 GLM5 的男人吗?」 — 也是第一个被坑的
M2.5 自转换 + CCR 诞生
- •GLM-5 太慢放弃,决定转向 MiniMax M2.5
- •M2.5 开源了但没 MLX 版 — 自己用 mlx_lm.convert 转换
- •27 分钟下完原始权重,同时转出 4-bit (120GB) + 8-bit (237GB)
- •4-bit 测试:51.3 tok/s · 128GB — 8-bit 选为主力
- •想接入 Claude Code → LiteLLM 失败 → 发现 claude-code-mlx-proxy
- •重写 proxy 为纯格式转换层 — CCR (Claude Code Router) 诞生
NeoWatch + OOM 浩劫
- •CCR 深度优化:完整支持 Anthropic ↔ OpenAI tool_use 转换
- •从零搭建 NeoWatch 监控系统(FastAPI + Next.js + WebSocket)
- •Portfolio 个人网站开发(Next.js + Framer Motion)
- •OOM Panic — KV cache 膨胀导致 Metal 崩溃,强制重启
- •配置 5 个 LaunchAgent 实现开机自启 + ai-services.sh 管理脚本
- •手动 patch mlx_lm server.py 添加 --max-kv-size 限制
oMLX 迁移 + SSD 死锁修复
- •发现 oMLX — 原生 Anthropic API,不再需要 CCR 中间层
- •mlx_lm.server + CCR → oMLX 全面迁移,架构从三层变两层
- •Metal GPU Hang 崩溃循环 — tok/s 骤降是前兆,唯一修复=重启
- •发现 SSD Paged Cache 死锁:推理 2-15 分钟后静默卡死
- •Fork oMLX → PR #12 (think 过滤) + PR #16 (SSD 死锁 v3→v4)
- •v4 终极方案:save 后台 rename + load 主线程 mx.load(),完全修复
深度审计 + 生态收官
- •认知文件深度审计:10 处遗漏 — HEARTBEAT 还在检查废弃端口
- •全面修复:重写 4 配置 + 填写 3 身份 + 补建 2 记忆 + 删 1 引导
- •crypto-analysis skill 注册 + 15m/4h/8h/24h 策略框架文件
- •安装 peekaboo + mcporter + blogwatcher → 18/49 skills ready
- •龙虾巡检定时化(每 2h :10,12 次/天)+ 自动修复能力
- •成果展示网站上线 — 你正在看的这个页面
Code Output
16,800 lines hand-written in 4 days
Key Achievements
M2.5 本地主脑部署
MoE 大模型自主 MLX 转换 4-bit + 8-bit 两版,237GB 8-bit 稳定推理 ~25 tok/s
oMLX SSD Cache 死锁修复
PR #16 v4 — 两处死锁:save_block 改后台 rename,load_block 改主线程 mx.load()
四次架构演进
从单模型到多脑协同 · 三层代理到原生 API · 每次迁移都在做减法
AINEOS Skills 生态
行情分析 · 智能家居 · 企业协作 · Telegram + Lark 双通道 · 龙虾巡检自动迭代
NeoWatch 全栈监控
FastAPI + Next.js + WebSocket · 实时 GPU 监控 · Telegram 告警 · 赛博朋克仪表盘
多脑协同体系
M2.5 主脑 + Claude Code 编程 + Codex 在线任务 · 本地优先、云端增强
Neo × 龙虾 — 日常对话
真实交互场景 — 从晨报推送到策略迭代,一个活的 AI 生态
GM Neo! 今日要点:
- BTC $67,234 (+2.3%) — 巨鲸凌晨转入 Binance 5,000 ETH
- ETH $3,280 (+1.1%) — Gas 均价 12 gwei
- 3 封重要邮件待处理
- 14:00 Team Sync / 16:00 Code Review
- 新加坡 31°C 多云
Lobster Patrol
每 2 小时 · 偶数小时 :10 · 每天 12 次
- oMLX Server (:8000) — 模型列表 + 推理速度
- OpenClaw Gateway (:18789) — HTTP 200 + Telegram 连接
- NeoWatch Backend (:3940) — API 健康 + 采集器状态
- NeoWatch Frontend (:3939) — UI 可达性
- 系统资源 — Wired 内存 / GPU 状态 / 磁盘空间
- qmd 记忆索引 — collection 完整性
- Cron 投递 — 最后成功时间 < 2 周期