site logo

Marico's space

我是那种写代码时会认真设计 API 的人——命名、参数、错误信息,都会反复斟酌。但直到最近才意识到,自己写 Rails 生成器时的态度完全是两回事。 这篇文章的灵感来自作者在 Tropical on Rails 2026 上的演讲,核心观点很直接:Rails 生成器本质上是一种 API,应该用设计 API 的方式去设计它们。 我们怎么看生成器的? 大多数人对 Rails 生成器的认知是这样
译自:How I Deployed a Full-Stack Bookstore with Docker Compose on Azure 这是我的一个 Capstone 项目,记录一下部署全栈应用到 Azure 的完整流程。EpicBook 是一个在线书店,后端用 Node.js + Express,数据库用 MySQL,前端用 Handlebars,再用 Nginx 做反向代理。数据是真实的
每个工程团队都面临同一个问题:架构图永远赶不上变化。 你在 Lucidchart 或 Eraser 里画一张图,接下来的一个月系统改了三次,没人去更新那张图。最后它就成了一个谎言——一张挺好看的谎言。 那如果每次系统变更时,你只需用自然语言描述一下,5 秒钟就能生成一张新的架构图呢? 这就是 SketchMyInfra 在做的事:一个免费 AI 工具,把自然语言描述转成生产级云架构图,基于
三年前我痴迷自动化,花了几百个小时在 make.com 和 n8n 上搭各种流程,就为了让营销公司的那些破活儿自动化一点。但真正让我有「啊哈」时刻的,不是我第一次用 AI 写博文——而是意识到:我可以把 AI 本身也给自动化了。 从把 AI 当成一个「提示词工具」到构建一套「自主运行的智能体系统」,这个转变是根本性的。就好像计算器和会计的区别。 六个星期深度投入,我搭了一支 9 个 AI「员工
最近在研究 AI Agent 的发展方向,看到一篇讲自学习 AI 代理(Self-Learning AI Agents)的文章,觉得挺有意思,顺手转写了一下。原作者 Vishal Uttammane,4月20号发的,内容比较新,值得一看。 说实话,现在 AI Agent 这块真的卷得厉害。各家都在吹自己的 Agent 有多智能,但真正能做到「自学习」的,其实凤毛麟角。大部分所谓的 Agent 不
存储引擎调优:我从 p99 踩坑中学到的那些事 做数据库/存储相关工作的,谁没被 p99 延迟折磨过?明明测试环境跑得飞起,一上生产就这里抖那里卡。踩过几次坑之后我发现,问题往往不在"磁盘慢",而是你根本没测对东西。 这篇文章来自 beefed.ai 的工程师,写得很实战,正好把我踩过的坑都串起来了。强烈建议先收藏,再往下看。 先说个核心观点:基准测试不是为了跑出好看的数字,而是为了找出 SLO
Openclaw已经用了一个月了, 开始各种死, 费力的修改各种配置. 重装了数次, 直至后来, 不折腾了, 就走openclaw默认的配置就好, 需要什么插件就装. 后来又开始到处找模型, 最后买了MiniMax的code plan. 慢慢的, 开始把精力从折腾龙虾本身, 转移到怎么让他帮我干活. 于是, 我用AI写了个简单的外文采集器, 然后用AI翻译为中文, 我就可以在没事
我用自己做的安全审计工具扫了自己的代码库,结果社死了 说出来你可能不信——我给自己写的安全审计工具 VibeScan 花了 $49,结果扫出来的第一个 bug,就是我自己埋进去的。 事情是这样的 我写了个 LLM 驱动的安全审计工具,面向那些用 Lovable、Bolt、v0、Cursor 快速交付的创始人——就是那种"先跑起来再说"的节奏。技术栈是 Python + Claude A
译者前言:最近在折腾 AI 应用的调试问题——多 agent 流水线跑起来之后出了问题根本不知道是哪一步出的幺蛾子。OpenTelemetry 知道,但用起来门槛不低。这篇文章介绍了一个阿里云开源的工具 LoongSuite,不用改代码就能给 AI 应用加上完整的可观测性。看了一下还挺有意思,顺手翻了一下。 随着 AI 应用变得越来越复杂,很多人都会有这种感觉:功能跑起来了,但改起来越来越心虚。
最近 AI Agent 真是火得不行,各种自动化工作流、智能助手满天飞。但说实话,你有没有想过:这些 AI 代理在生产环境里到底在干什么?它们会不会突然删掉你的数据库,或者把敏感数据发到不该发的地方? 说实话,这个问题我自己也琢磨过。大多数 AI 代理项目上线时,底下其实连个像样的安全层都没有。测试时一切正常,一到生产环境就出幺蛾子——记录被误删、PII(Personally Identifia
共 52 条, 共 6 页