site logo

Marico's space

▌ 按:Anthropic 工程师 Barry Zhang 在 "Agents at Work" 活动上做了一场深度分享,本文是对其核心观点的转写与整理。 去年,Anthropic 的 Barry Zhang 与 Eric 合写了那篇爆火的《Building Effective Agents》。这一次,他把背后的思考更深地挖了出来——三条核心原则,直指我们做 AI Agent 时最容易踩的坑。
译者按:自托管虽爽,但安全责任也随之而来。本文整理了 8 个常见的 Docker Compose 安全错误,看看你踩过几个。 背景 自托管的好处很明显:数据更可控、避免厂商锁定、深入理解技术栈。但代价是——那些「无聊但重要」的事也得自己来:端口暴露、容器默认配置、密钥管理、备份、更新、反向代理、数据库安全。 很多 Homelab 一开始都是这么写的: services: app:
译者按:本文介绍一个「提示词骨架」,让你的系统提示在不同模型之间切换时不需要重写。这套方法来自实际生产经验,实测有效。 背景 在 Claude 4.6 上跑得好好的提示词,换到 GPT-5.5 第二天就出问题了。同样的任务,同样的 JSON schema,第一次调用返回了一堆「为什么拒绝」的元信息,第二次调用返回的 JSON 虽然有效但忽略了升级规则。 解决办法:不要每次换模型都重写提示词
关于AI基础设施的一个令人不安的事实——以及为什么你的技术栈可能在优化错误的指标 沉默的杀手:AI AGENT管道中的数据库延迟 当所有人都在盯着LLM推理延迟的时候,一个更安静的系统危机正在数据层悄然发生。AI Agent——尤其是那些基于RAG、记忆和工具调用架构构建的多步推理系统——越来越不卡在模型速度上,而是卡在数据库延迟上。 我在生产环境中亲眼见过:本来应该200ms响应的A
用 127 个生产 Terraform 1.9 模块跑了 48 小时 benchmark,Checkov 2.3 比 Snyk 多检出了 20% 的安全问题,而且在 89% 的测试运行中零误报。这个数据挺有意思的,今天来好好聊聊这两个工具各自的强项和短板,给正在选型的工程师一个参考。 🔴 生态数据一览 * hashicorp/terraform — 48,266 stars, 10,32
TL;DR UCLA Tauric Research 上周发布了 TradingAgents v0.2.4(2026-04-25)——一个基于 LangGraph 的多Agent LLM 框架,用五层、约十二个Agent模拟一整套投资公司。新版本带来了 Pydantic 类型化的结构化输出、LangGraph 检查点恢复、持久化决策记忆文件、五档评级,以及 10 家 LLM 提供商的集成。在 A
2024 年第三季度,我们的 AI/ML 特征存储服务撞上了性能天花板。训练吞吐量才 12k features/sec,p99 读延迟就飙到了 2.8 秒,PostgreSQL 16 在单节点 RDS 上愣是榨不出更多 IOPS 了——42k IOPS 封顶。留给我们的时间只有 6 周,要么把 IOPS 折腾到 10 万,要么每年多掏 120 万美金的インフラ预算。说实话,这道选择题一点都不难做。
原文:How to survive as a developer without AI code-gen and without autocomplete|译者前言:本文来自 dev.to,观点有价值,转写发布供读者参考。 嘿,大家好!我叫 Viktor,是一家电商公司的资深后端开发,负责物流团队。 今天我来聊聊我是如何在 surrounded by vibe-coders、code-writ
原文:Building AI Language Tutors on WhatsApp: The Technical Reality|译者前言:本文来自 dev.to,观点有价值,转写发布供读者参考。 原文发布于 AIdeazz — 交叉发布于此,保留规范链接。 当我推出 EspaLuz(我们的西班牙语导师 agent)时,我刻意选择了 WhatsApp 而不是构建另一个 Web 应用。这不是因
原文:Outbox Pattern in Postgres, End to End: Producer, Relayer, Consumer|译者前言:本文来自 dev.to,观点有价值,转写发布供读者参考。 * 书籍: Event-Driven Architecture Pocket Guide: Saga, CQRS, Outbox, and the Traps Nobody War
共 131 条, 共 14 页