先说结论
先把结论说在前面:BoostSEO 是一个没有跑完闭环的产品,是一个错误产品的复盘。
它诞生的起点,其实不是「我想做一个 SEO 工具」,而是一个更底层的念头:AI Native 到底是什么?
当时市面上已经有不少 Agent 产品,比如 OpenClaw、Manus 等等。它们在做一件看起来很酷的事:让 AI 去执行各种真实世界里的任务。但只要你稍微往里看一下,就会发现一个挺好笑、也挺残酷的画面——
Agent 打开浏览器,进入一个网站,第一件事就是「被登录难住」。
好不容易登录进去了,接下来一堆弹窗、公告、教程、新手引导,全都挡在它面前。接着它要一点点关掉各种弹窗,在复杂的图形化界面里,努力寻找真正需要操作的入口。
这些东西,对人类来说是「正常的 UI 细节」,对 Agent 来说却是额外的负担。
Skill 的出现,让我第一次非常清晰地意识到这一点:图形化页面是为人类设计的交互方式,但对 Agent 来说,最合适的方式其实是简单、清晰、可预期的 API 调用。 输入和输出结构都很干净,来源明确、结果可控,才是 Agent 最舒服的工作环境。
如果未来有一天,Agent 真能帮我们完成大量工作,那就意味着一件事:大量产品会为 Agent 提供专门的接口,或者以 MCP 之类的形式暴露出「给 Agent 用的能力」。 事实上,这件事已经在发生了。
那在人类这一端,我们还需要做什么?
我给自己的答案是:人类需要「接收和检验成果」,而不是在聊天框里读一大段纯文本。
举个例子:会议音频转录。
如果你把一段音频丢给 Agent,而你的需求是「复盘」而不是「摘要」,你大概率并不希望它只是调用 OpenAI 或 Gemini 的多模态能力,然后给你吐回一份长长的文本文件。你会更希望得到的是一个好的、可交互的页面:可以跳转时间轴、可以高亮文本、可以筛选说话人,可以方便地重新组织信息。
基于这个思考,我当时得出了一个判断:未来好的 AI Native 产品,应该同时满足两点:一端让 Agent 用得顺,一端让人看得懂、用得爽。
BoostSEO,就是我试图用一个具体场景,去验证这套思考的产物。
有了上一个 PDF 提取工具的经验,我很早就在想:怎么让一个 AI 产品,不至于被模型厂的一个新功能直接降维打击?
我意识到,大模型再强,有一个天然的短板:它没有实时的数据。它不知道此刻的股票行情、不知道网站的搜索量,也看不到每个公司内部的业务数据。大模型厂可以做的是「通用能力」,但很难直接把这些特定数据源打包成一个完整的垂直产品。
刚好那段时间,我在给 transez.ai 写 SEO 文章——这些文章都是 AI 帮我生成的,但我完全没法判断:文章里的那些关键词,到底有没有搜索量?
我只能一条一条,把关键词丢进 Google 的关键词工具里去查。
那时候我就在想:如果有一个产品,一方面可以作为 Skill 上架,让 Agent 来调用,获取可靠的搜索量数据;另一方面,又能给人类一个特别直观的页面,清楚地看到「这篇文章里的关键词搜索量到底是多少」,那是不是就同时满足了「Agent 端」和「人类端」的需求?
于是 BoostSEO 的雏形就出来了:
- 对 Agent 来说,它只是一个结构清晰的接口,传入内容,拿回一组基于 DataForSEO 的搜索量数据和一个可视化结果链接。
- 对用户来说,它是一个浏览器插件或页面工具,可以直接在当前网页上看到本页所有关键词的搜索量情况,方便决策和调优。
听起来很漂亮。
也正因为太漂亮了,后面才会有那么多「没跑完闭环」的遗憾。