原创 刘小排 2026年4月15日 00:30
哈喽,大家好,我是刘小排。
今天早上看小龙虾递给我的每日情报的时候,被一条 Hacker News上 952分 的帖子扎到了。
标题叫:"I run multiple 20/month tech stack"。
翻译过来:我一个人跑着好几个月收入过万美元的产品,每月技术开销只要 $20
我反复看了两遍标题,确认自己没看错。
然后花了一个小时把帖子和500多条评论全看完了。
越看越安静。
主角是加拿大 Waterloo 的一个独立开发者,叫 Steve Hanov 。一个人,六个产品,每个 $10K+ MRR, 加起来每月收入六位数美元。
月固定开销: $20。
别人 VC 融 100 万,每月烧 5 万,20 个月钱花完就得死。Steve 每月只烧 20 美元—— 他可以永远不死。
这不是商业模式, 这是数学。
他在原文里写了一句话,我看完之后截图保存了:
"Keeping costs near zero gives you the exact same runway as getting a million dollars in funding."
把成本压到接近零,和拿到一百万美元融资,给你的生存时间是一样长的。
先说他的 $20 到底花在哪
一张清单,看完之后你可能会重新想想自己的 AWS 账单:
- 服务器:Linode 或 DigitalOcean, 1GB RAM,$5/月
- 数据库: SQLite (不是 Postgres!)
- 语言: Go (不是 Python 不是 Node)
- 认证:自己写的 30 行 OAuth2(不是 Auth0)
- AI 开发:GitHub Copilot 钻定价漏洞,60 的效果
- 部署:systemd 一个 service 文件
Docker?没有。
Kubernetes?没有。
AWS?更没有。
就这 $20,没了。
他的四个反共识判断
这才是真正值得学习的东西!
第一条:SQLite + WAL 就是你的 Postgres,而且快 10 倍。
评论区有个叫 @senko 的老哥说了一句特别真实的话:
"There are a lot of people out there that believe they have to start with serverless, kubernetes, fleets of servers, planet-scale databases... Saying 'you can just run things on a cheap VPS' sounds amateurish."
很多人相信自己必须从 serverless、K8s、planet-scale 数据库起步。说"你可以直接跑个便宜 VPS",听起来很业余。
但你知道吗?说实话,我以前也觉得 SQLite 是个玩具。这个认知停留在 2010 年。
打开两个 PRAGMA:
PRAGMA journal_mode=WAL;
PRAGMA synchronous=NORMAL;
SQLite 支持多读者、单写者并发。而且——注意这句—— 比你跨网络连 Postgres 快一到两个数量级。
为什么?因为你的 app 和数据库跑在同一个进程里,查询走的是 C 函数调用。纳秒级。
而 Postgres 连接要经过 TCP 往返,毫秒级。
到底差多少?评论区 @eurleif 做了一个简单粗暴的 benchmark——跑 10 万次 SELECT 1:
- PostgreSQL(localhost TCP): 2.77 秒
- PostgreSQL(Unix socket): 1.93 秒
- SQLite(内存): 0.07 秒
差距将近 40 倍。
有人嘲讽这是"没意义的 microbenchmark"。但 @eurleif 的回应很准确:这测的就是 进程内调用 vs 跨进程通信的开销本身, 和数据库引擎性能无关。这个开销是真实存在的,每一次查询都在付这个税。
就好比,你家里喝水,是伸手打开水龙头,还是每次都打电话叫外卖送桶装水?
第二条:Go 的静态二进制是部署革命。
Python / Ruby / Node 在 1GB 机器上最大的问题不是慢,是 光启动就吃掉一半内存。
Python 跑 gunicorn 4 workers,基线 500MB 就没了。
Go 编译出来就是一个几 MB 的单文件二进制。
没有 pip install,没有虚拟环境,没有"我本地跑得好好的"。
部署就是: scp binary server:/usr/local/bin/ && systemctl restart app。
一台 $5 VPS 能撑每秒几万请求。
第三条:不要买"企业云思维"的账。
Steve 帖子里最狠的一句——
企业思维让你在一个用户都没看过你 landing page 之前,就启动了 EKS 集群和 RDS 实例。
你为什么要上 K8s?"万一火了怎么办"。
你为什么要上 Multi-AZ RDS?"万一挂了怎么办"。
你为什么要上 Auth0?"万一要 SSO 怎么办"。
六个"万一"加起来一个月 $3000。
等于你要养 300 个付费用户才能回本。
而你还没发第一条营销推文。
评论区 @Leomuck 说了一句让人沉默的话:
"We're running a page with 600k users that could easily fit on a 30€ VPS. Instead, we moved to AWS and are now paying 800€ for it. No benefits whatsoever."
我们有个 60 万用户的站,30 欧 VPS 就能跑。结果搬到了 AWS,现在每月付 800 欧。没有任何好处。
你看,不只是小团队的问题。大公司更严重。
第四条:钻 GitHub Copilot 的定价漏洞。
这条我是真没想到。
Cursor、Claude Code 都是 per-token 定价——写代码一天爽用,账单 $20-50。
GitHub Copilot 有一个历史遗留的 per-request 定价——不管你这次让 Claude Opus 4.6 吐 10 个 token 还是 10000 个 token,都算一次请求,约 $0.04。
如果你习惯"大段粘贴上下文、让模型整文件改写",per-request 就是纯送钱。
Steve 一个月 500 工具栈的效果。
这个漏洞 GitHub 迟早会堵。
能钻一天赚一天吧……
第五条:家里的显卡就是无限 AI 额度。
这条是我最后悔没早看到的。
Steve 做 eh-trade.ca 的时候,需要对 11,000 只股票做深度财务分析。如果走 API,每天调 OpenAI 或 Claude 的批处理,账单不敢算。
他的做法:
先用 Ollama 在本地跑小模型测试 prompt,调通之后,换到一张 RTX 3090 (二手大概 $900)上跑 VLLM。
VLLM 有个绝活叫 PagedAttention——你同时丢 8-16 个请求进去,它会自动批处理,16 个任务跑完的时间和跑 1 个差不多。
他的原话:
"If you have a graphics card sitting somewhere in your house, you already have unlimited AI credits."
如果你家里有一张显卡,你就已经拥有了无限的 AI 额度。
$900 一次性投入,之后 批量推理永久免费。
他还自己写了两个开源工具: laconic (一个 Go 写的 AI agent,专门做"上下文分页"——像操作系统的虚拟内存一样,把不相关的对话历史 swap 出去,只保留关键信息在 8K 窗口里)和 llmhub (把所有 LLM 抽象成统一接口,Anthropic 挂了自动切 OpenAI,OpenAI 挂了自动切本地 VLLM)。
这两个小工具加起来,让他 用小模型做到了别人用大模型才能做的事。
他的六个产品分别是啥?
我整理了一下,一共是这6个产品
| 产品 | 做什么 | 商业模式 |
|---|---|---|
| websequencediagrams.com | 在线画 UML 时序图 | Freemium + 企业版, 2008 年的老兵 |
| zwibbler.com | 嵌入式白板 SDK | B2B 永久许可 $5,999 一单 |
| rhymebrain.com | 8 语种押韵词典 | 广告 + API |
| rapt.ink | 浏览器矢量图形编辑器 | C 端 Freemium |
| eh-trade.ca | 加美股智能分析 | 金融订阅 |
| xreplyextension.com | X/Twitter AI 回复扩展 | 一次性点数 19/$49 |
评论区有个叫 @stavros 的,就留了一句话:
"Forget about the tech stack, how do I get multiple $10k MRR companies?"
别跟我说技术栈了,怎么才能做出好几个 $10K MRR 的产品?
这才是正确的问题。
答案就在六个产品合起来看。
洞察一:B2B 养 C 端。
zwibbler 一单 120K ARR。这才是六个里最赚钱的。
这种大额 B2B 订单给他底气,让他敢做 rhymebrain 这种单用户 $0 的 C 端广告产品。
经济好的时候企业预算大、B2B 好卖。经济差的时候个人用户省钱、DIY 工具好卖。
这个组合是抗周期的。
洞察二:研发复用。
zwibbler 和 rapt.ink 共享同一套矢量引擎——一个卖给公司嵌入,一个卖给用户直接用。
同一套 canvas 代码,两种商业模式。
Go + SQLite + 自写 auth——六个产品全在用。
他不是在跑六个产品,他是在经营一个"能力资产组合"。
洞察三:慢做、深做、长做。
- websequencediagrams:2008
- rhymebrain:2009-2010
- zwibbler:2011-2013
- rapt.ink:2015-2018
- xreplyextension:2024
- eh-trade:2025-2026
每 3-5 年才加一个新产品。
不是那种每月上一个的速度。
websequencediagrams 2008 年做的时候,HN 上最热的是"移动互联网革命"。Steve 选了画图这种看起来无聊、需求永恒的品类。
18 年过去,SEO 权重、反链、Google "sequence diagram" 第一结果—— 这些东西你今天从零做,永远追不上。
这叫时间护城河。
洞察四:定价模式比定价数字更重要。
六个产品,六种定价——
永久许可、订阅、广告+API、Freemium、一次性点数付费。
每一种都匹配那个品类最自然的用户心理。
xreplyextension 最值得学——19/$49 一次性购买点数。
规避订阅疲劳、点数用完自然回来、现金流前置、无 churn 计算。
今天 Show HN 上那个 500 分的 boringBar (Mac Dock 替代品),评论区一边倒骂订阅制。有个叫 @oa335 的留言被顶了 100 多次——
I would pay $10 one-time for this.
如果你正在纠结自己的产品该怎么定价,真的值得去看看 xreplyextension 的做法。
Steve 原文里还有一句话,放在这里正合适:
"The tech industry wants you to believe that building a real business requires complex orchestration. It doesn't."
科技行业想让你相信,做一门真正的生意需要复杂的编排。不需要。
关于技术选型,评论区最清醒的一段话
在所有争论"该用 Go 还是 Python"、"该用 SQLite 还是 Postgres"的声音里,@andersmurphy 的一段长回复是我觉得最有洞见的。
有人问他有没有书单推荐,他没有列书,而是说了一句让我停下来想了很久的话:
先设定约束,再从约束出发选技术。
他分享了自己的两套约束体系——一套是现在的(单机、Clojure、多人协作 Web app),一套是几年前的(JVM、React Native、最小化客户端逻辑)。两套完全不同,但都合理,因为约束不同。
结论是: 没有放之四海皆准的"最佳技术栈"。约束决定选择,而不是技术决定约束。
Steve 的约束是"一个人、$20/月、六个产品"。在这个约束下,Go + SQLite + 单机 VPS 几乎是唯一最优解。
你的约束可能不一样。但你得先想清楚你的约束是什么——而不是先看别人用了什么,再往自己身上套。
我们能抄什么作业?
以下是我的感受
-
认真考虑下就把数据库迁到 SQLite + WAL。
体验一次响应时间从 50ms 掉到 2ms 的爽。
-
认真考虑把 app 从 ECS/Lambda 搬到一台 Hetzner。
$5 能买 4GB,比 Linode 划算。systemd 一个 service 文件就起来。
-
试试 GitHub Copilot Chat那个定价漏洞到底香不香……
省下来的钱,攒几个月买张 RTX 3090,从此获得无限算力
最后
评论区最后一条让我印象最深的,来自 @fcatalan:
"I ran a top 10 most visited Spanish language site on a Pentium III server. I have the technical chops to do all the article says. But 10k MRR sounds to me like travelling to Mars. I have 0 ideas and 0 initiative to push them ahead."
我用一台奔腾 III 的服务器跑过西班牙语 Top 10 流量的网站。技术上我完全做得到。但 $10K MRR 对我来说像去火星一样遥远。我缺的是 0 个想法和 0 个推动它们的动力。
我觉得这条评论代表了很多人的心声。
技术不是问题。 找到一个值得解决的问题,然后真的去做——这才是最难的部分。
关于“值得解决的问题”,我的上一篇文章正好也提到了一个Skill 其他Skill都是给AI用的,这个是给你用的
但至少,Steve 告诉我们: 技术开销不应该成为阻碍你去试的理由。
看完 Steve 的帖子,我回头算了一下自己每月的技术开销。
有点不好意思说数字。
我们这一代独立开发者,可能真的被"企业级最佳实践"洗脑太久了。
那套实践是给 FANG 那种"服务十亿用户"的公司写的。对一个 $10K MRR 的产品来说,它们 80% 是纯负担。
但你不试着砍一刀,你永远觉得它们理所应当。
你能活多久,不取决于你账户里有多少钱。
取决于" 你有多少钱 ÷ 你每月花多少钱 "。
分子你控制不了——VC 不理你、市场不买账、产品没起来——分子随时归零。
但分母你百分百能控制。
把分母压到 $20,你就可以一直活着,一直试,直到试对为止。
你就拥有了全世界最强的创业者状态——
不需要任何人的钱,也不需要任何人的同意。
2026 年了。大丈夫当如是也!
另外最后打个小广告,我最喜欢的AI创业社群九周年庆,有优惠,看评论区。
编译摘要
1. 浓缩
- 核心结论1: 把月技术支出压到 $20 = 获得无限跑道,等同于拿 100 万美元融资
- 关键证据: Steve Hanov 一人运营 6 个 20,月入六位数美元
- Runway 公式: 生存时间 = 资金 ÷ 月支出,分子不可控,分母 100% 可控
- 核心结论2: SQLite + WAL 在单机场景下比 Postgres 快 40 倍,Go 静态二进制解决部署复杂度
- 关键证据: 10 万次 SELECT 1 benchmark — SQLite 0.07s vs PostgreSQL 2.77s (localhost TCP)
- Go 编译成几 MB 单文件,无 pip install、无虚拟环境
- 核心结论3: 没有最佳技术栈,约束决定选择
- 关键证据: @andersmurphy 的两套约束体系 — 完全不同的技术选型,都合理
2. 质疑
- 关于"SQLite 比 Postgres 快 40 倍": 这是进程内调用 vs 跨进程通信的基准测试,不是数据库引擎性能本身。实际写入场景,WAL 模式的单写者限制可能成为瓶颈
- 关于"Go 是唯一选择": 文章忽略 Rust 的同等优势,Rust 也编译静态二进制且内存安全
- **关于"6 个 5,999/单的高利润,其余产品的实际 MRR 未公开验证
- 关于 Copilot per-request 漏洞: 这是历史遗留定价,GitHub 迟早会堵,不是长期策略
- 关于"本地 AI = 无限算力": RTX 3090 $900 是硬件成本,电费未计入;且小模型质量与大模型有差距
3. 对标
- 跨域关联1: 类似物理学的"最小作用量原理" — 系统趋向用最少的能量达到目标状态
- 跨域关联2: 类似军事上的"非对称战争" — 弱势方通过控制成本获得持久战能力(游击战 vs 正规军)
- 跨域关联3: 对冲基金行业"控制风险敞口" — 不预测市场方向,只控制自己输多少