原创 刘小排 2026年4月15日 00:30

哈喽,大家好,我是刘小排。

今天早上看小龙虾递给我的每日情报的时候,被一条 Hacker News上 952分 的帖子扎到了。

标题叫:"I run multiple 20/month tech stack"。

翻译过来:我一个人跑着好几个月收入过万美元的产品,每月技术开销只要 $20 图片

我反复看了两遍标题,确认自己没看错。

然后花了一个小时把帖子和500多条评论全看完了。

越看越安静。

主角是加拿大 Waterloo 的一个独立开发者,叫 Steve Hanov 。一个人,六个产品,每个 $10K+ MRR, 加起来每月收入六位数美元。

月固定开销: $20。

别人 VC 融 100 万,每月烧 5 万,20 个月钱花完就得死。Steve 每月只烧 20 美元—— 他可以永远不死。

这不是商业模式, 这是数学。

他在原文里写了一句话,我看完之后截图保存了:

"Keeping costs near zero gives you the exact same runway as getting a million dollars in funding."

把成本压到接近零,和拿到一百万美元融资,给你的生存时间是一样长的。

先说他的 $20 到底花在哪

一张清单,看完之后你可能会重新想想自己的 AWS 账单:

  • 服务器:Linode 或 DigitalOcean, 1GB RAM,$5/月
  • 数据库: SQLite (不是 Postgres!)
  • 语言: Go (不是 Python 不是 Node)
  • 认证:自己写的 30 行 OAuth2(不是 Auth0)
  • AI 开发:GitHub Copilot 钻定价漏洞,60 的效果
  • 部署:systemd 一个 service 文件

Docker?没有。

Kubernetes?没有。

AWS?更没有。

就这 $20,没了。

他的四个反共识判断

这才是真正值得学习的东西!

第一条:SQLite + WAL 就是你的 Postgres,而且快 10 倍。

评论区有个叫 @senko 的老哥说了一句特别真实的话:

"There are a lot of people out there that believe they have to start with serverless, kubernetes, fleets of servers, planet-scale databases... Saying 'you can just run things on a cheap VPS' sounds amateurish."

很多人相信自己必须从 serverless、K8s、planet-scale 数据库起步。说"你可以直接跑个便宜 VPS",听起来很业余。

但你知道吗?说实话,我以前也觉得 SQLite 是个玩具。这个认知停留在 2010 年。

打开两个 PRAGMA:

PRAGMA journal_mode=WAL;
PRAGMA synchronous=NORMAL;

SQLite 支持多读者、单写者并发。而且——注意这句—— 比你跨网络连 Postgres 快一到两个数量级。

为什么?因为你的 app 和数据库跑在同一个进程里,查询走的是 C 函数调用。纳秒级。

而 Postgres 连接要经过 TCP 往返,毫秒级。

到底差多少?评论区 @eurleif 做了一个简单粗暴的 benchmark——跑 10 万次 SELECT 1:

  • PostgreSQL(localhost TCP): 2.77 秒
  • PostgreSQL(Unix socket): 1.93 秒
  • SQLite(内存): 0.07 秒

差距将近 40 倍。

有人嘲讽这是"没意义的 microbenchmark"。但 @eurleif 的回应很准确:这测的就是 进程内调用 vs 跨进程通信的开销本身, 和数据库引擎性能无关。这个开销是真实存在的,每一次查询都在付这个税。

就好比,你家里喝水,是伸手打开水龙头,还是每次都打电话叫外卖送桶装水?

第二条:Go 的静态二进制是部署革命。

Python / Ruby / Node 在 1GB 机器上最大的问题不是慢,是 光启动就吃掉一半内存。

Python 跑 gunicorn 4 workers,基线 500MB 就没了。

Go 编译出来就是一个几 MB 的单文件二进制。

没有 pip install,没有虚拟环境,没有"我本地跑得好好的"。

部署就是: scp binary server:/usr/local/bin/ && systemctl restart app。

一台 $5 VPS 能撑每秒几万请求。

第三条:不要买"企业云思维"的账。

Steve 帖子里最狠的一句——

企业思维让你在一个用户都没看过你 landing page 之前,就启动了 EKS 集群和 RDS 实例。

你为什么要上 K8s?"万一火了怎么办"。

你为什么要上 Multi-AZ RDS?"万一挂了怎么办"。

你为什么要上 Auth0?"万一要 SSO 怎么办"。

六个"万一"加起来一个月 $3000。

等于你要养 300 个付费用户才能回本。

而你还没发第一条营销推文。

评论区 @Leomuck 说了一句让人沉默的话:

"We're running a page with 600k users that could easily fit on a 30€ VPS. Instead, we moved to AWS and are now paying 800€ for it. No benefits whatsoever."

我们有个 60 万用户的站,30 欧 VPS 就能跑。结果搬到了 AWS,现在每月付 800 欧。没有任何好处。

你看,不只是小团队的问题。大公司更严重。

第四条:钻 GitHub Copilot 的定价漏洞。

这条我是真没想到。

Cursor、Claude Code 都是 per-token 定价——写代码一天爽用,账单 $20-50。

GitHub Copilot 有一个历史遗留的 per-request 定价——不管你这次让 Claude Opus 4.6 吐 10 个 token 还是 10000 个 token,都算一次请求,约 $0.04。

如果你习惯"大段粘贴上下文、让模型整文件改写",per-request 就是纯送钱。

Steve 一个月 500 工具栈的效果。

这个漏洞 GitHub 迟早会堵。

能钻一天赚一天吧……

图片

第五条:家里的显卡就是无限 AI 额度。

这条是我最后悔没早看到的。

Steve 做 eh-trade.ca 的时候,需要对 11,000 只股票做深度财务分析。如果走 API,每天调 OpenAI 或 Claude 的批处理,账单不敢算。

他的做法:

先用 Ollama 在本地跑小模型测试 prompt,调通之后,换到一张 RTX 3090 (二手大概 $900)上跑 VLLM。

VLLM 有个绝活叫 PagedAttention——你同时丢 8-16 个请求进去,它会自动批处理,16 个任务跑完的时间和跑 1 个差不多。

他的原话:

"If you have a graphics card sitting somewhere in your house, you already have unlimited AI credits."

如果你家里有一张显卡,你就已经拥有了无限的 AI 额度。

$900 一次性投入,之后 批量推理永久免费。

他还自己写了两个开源工具: laconic (一个 Go 写的 AI agent,专门做"上下文分页"——像操作系统的虚拟内存一样,把不相关的对话历史 swap 出去,只保留关键信息在 8K 窗口里)和 llmhub (把所有 LLM 抽象成统一接口,Anthropic 挂了自动切 OpenAI,OpenAI 挂了自动切本地 VLLM)。

这两个小工具加起来,让他 用小模型做到了别人用大模型才能做的事。


他的六个产品分别是啥?

我整理了一下,一共是这6个产品

产品做什么商业模式
websequencediagrams.com在线画 UML 时序图Freemium + 企业版, 2008 年的老兵
zwibbler.com嵌入式白板 SDKB2B 永久许可 $5,999 一单
rhymebrain.com8 语种押韵词典广告 + API
rapt.ink浏览器矢量图形编辑器C 端 Freemium
eh-trade.ca加美股智能分析金融订阅
xreplyextension.comX/Twitter AI 回复扩展一次性点数 19/$49

评论区有个叫 @stavros 的,就留了一句话:

"Forget about the tech stack, how do I get multiple $10k MRR companies?"

别跟我说技术栈了,怎么才能做出好几个 $10K MRR 的产品?

这才是正确的问题。

答案就在六个产品合起来看。

洞察一:B2B 养 C 端。

zwibbler 一单 120K ARR。这才是六个里最赚钱的。

这种大额 B2B 订单给他底气,让他敢做 rhymebrain 这种单用户 $0 的 C 端广告产品。

经济好的时候企业预算大、B2B 好卖。经济差的时候个人用户省钱、DIY 工具好卖。

这个组合是抗周期的。

洞察二:研发复用。

zwibbler 和 rapt.ink 共享同一套矢量引擎——一个卖给公司嵌入,一个卖给用户直接用。

同一套 canvas 代码,两种商业模式。

Go + SQLite + 自写 auth——六个产品全在用。

他不是在跑六个产品,他是在经营一个"能力资产组合"。

洞察三:慢做、深做、长做。

  • websequencediagrams:2008
  • rhymebrain:2009-2010
  • zwibbler:2011-2013
  • rapt.ink:2015-2018
  • xreplyextension:2024
  • eh-trade:2025-2026

每 3-5 年才加一个新产品。

不是那种每月上一个的速度。

websequencediagrams 2008 年做的时候,HN 上最热的是"移动互联网革命"。Steve 选了画图这种看起来无聊、需求永恒的品类。

18 年过去,SEO 权重、反链、Google "sequence diagram" 第一结果—— 这些东西你今天从零做,永远追不上。

这叫时间护城河。

洞察四:定价模式比定价数字更重要。

六个产品,六种定价——

永久许可、订阅、广告+API、Freemium、一次性点数付费。

每一种都匹配那个品类最自然的用户心理。

xreplyextension 最值得学——19/$49 一次性购买点数。

规避订阅疲劳、点数用完自然回来、现金流前置、无 churn 计算。

今天 Show HN 上那个 500 分的 boringBar (Mac Dock 替代品),评论区一边倒骂订阅制。有个叫 @oa335 的留言被顶了 100 多次——

I would pay $10 one-time for this.

如果你正在纠结自己的产品该怎么定价,真的值得去看看 xreplyextension 的做法。

Steve 原文里还有一句话,放在这里正合适:

"The tech industry wants you to believe that building a real business requires complex orchestration. It doesn't."

科技行业想让你相信,做一门真正的生意需要复杂的编排。不需要。

关于技术选型,评论区最清醒的一段话

在所有争论"该用 Go 还是 Python"、"该用 SQLite 还是 Postgres"的声音里,@andersmurphy 的一段长回复是我觉得最有洞见的。

有人问他有没有书单推荐,他没有列书,而是说了一句让我停下来想了很久的话:

先设定约束,再从约束出发选技术。

他分享了自己的两套约束体系——一套是现在的(单机、Clojure、多人协作 Web app),一套是几年前的(JVM、React Native、最小化客户端逻辑)。两套完全不同,但都合理,因为约束不同。

结论是: 没有放之四海皆准的"最佳技术栈"。约束决定选择,而不是技术决定约束。

Steve 的约束是"一个人、$20/月、六个产品"。在这个约束下,Go + SQLite + 单机 VPS 几乎是唯一最优解。

你的约束可能不一样。但你得先想清楚你的约束是什么——而不是先看别人用了什么,再往自己身上套。

我们能抄什么作业?

以下是我的感受

  1. 认真考虑下就把数据库迁到 SQLite + WAL。

    体验一次响应时间从 50ms 掉到 2ms 的爽。

  2. 认真考虑把 app 从 ECS/Lambda 搬到一台 Hetzner。

    $5 能买 4GB,比 Linode 划算。systemd 一个 service 文件就起来。

  3. 试试 GitHub Copilot Chat那个定价漏洞到底香不香……

    省下来的钱,攒几个月买张 RTX 3090,从此获得无限算力

最后

评论区最后一条让我印象最深的,来自 @fcatalan:

"I ran a top 10 most visited Spanish language site on a Pentium III server. I have the technical chops to do all the article says. But 10k MRR sounds to me like travelling to Mars. I have 0 ideas and 0 initiative to push them ahead."

我用一台奔腾 III 的服务器跑过西班牙语 Top 10 流量的网站。技术上我完全做得到。但 $10K MRR 对我来说像去火星一样遥远。我缺的是 0 个想法和 0 个推动它们的动力。

我觉得这条评论代表了很多人的心声。

技术不是问题。 找到一个值得解决的问题,然后真的去做——这才是最难的部分。

关于“值得解决的问题”,我的上一篇文章正好也提到了一个Skill 其他Skill都是给AI用的,这个是给你用的

但至少,Steve 告诉我们: 技术开销不应该成为阻碍你去试的理由。

看完 Steve 的帖子,我回头算了一下自己每月的技术开销。

有点不好意思说数字。

我们这一代独立开发者,可能真的被"企业级最佳实践"洗脑太久了。

那套实践是给 FANG 那种"服务十亿用户"的公司写的。对一个 $10K MRR 的产品来说,它们 80% 是纯负担。

但你不试着砍一刀,你永远觉得它们理所应当。

你能活多久,不取决于你账户里有多少钱。

取决于" 你有多少钱 ÷ 你每月花多少钱 "。

分子你控制不了——VC 不理你、市场不买账、产品没起来——分子随时归零。

但分母你百分百能控制。

把分母压到 $20,你就可以一直活着,一直试,直到试对为止。

你就拥有了全世界最强的创业者状态——

不需要任何人的钱,也不需要任何人的同意。

2026 年了。大丈夫当如是也!


另外最后打个小广告,我最喜欢的AI创业社群九周年庆,有优惠,看评论区。


编译摘要

1. 浓缩

  • 核心结论1: 把月技术支出压到 $20 = 获得无限跑道,等同于拿 100 万美元融资
    • 关键证据: Steve Hanov 一人运营 6 个 20,月入六位数美元
    • Runway 公式: 生存时间 = 资金 ÷ 月支出,分子不可控,分母 100% 可控
  • 核心结论2: SQLite + WAL 在单机场景下比 Postgres 快 40 倍,Go 静态二进制解决部署复杂度
    • 关键证据: 10 万次 SELECT 1 benchmark — SQLite 0.07s vs PostgreSQL 2.77s (localhost TCP)
    • Go 编译成几 MB 单文件,无 pip install、无虚拟环境
  • 核心结论3: 没有最佳技术栈,约束决定选择
    • 关键证据: @andersmurphy 的两套约束体系 — 完全不同的技术选型,都合理

2. 质疑

  • 关于"SQLite 比 Postgres 快 40 倍": 这是进程内调用 vs 跨进程通信的基准测试,不是数据库引擎性能本身。实际写入场景,WAL 模式的单写者限制可能成为瓶颈
  • 关于"Go 是唯一选择": 文章忽略 Rust 的同等优势,Rust 也编译静态二进制且内存安全
  • **关于"6 个 5,999/单的高利润,其余产品的实际 MRR 未公开验证
  • 关于 Copilot per-request 漏洞: 这是历史遗留定价,GitHub 迟早会堵,不是长期策略
  • 关于"本地 AI = 无限算力": RTX 3090 $900 是硬件成本,电费未计入;且小模型质量与大模型有差距

3. 对标

  • 跨域关联1: 类似物理学的"最小作用量原理" — 系统趋向用最少的能量达到目标状态
  • 跨域关联2: 类似军事上的"非对称战争" — 弱势方通过控制成本获得持久战能力(游击战 vs 正规军)
  • 跨域关联3: 对冲基金行业"控制风险敞口" — 不预测市场方向,只控制自己输多少

关联概念