每天10亿次的搜索量造就了一个百度,每天100亿次的搜索量造就了一个谷歌,每天1000亿次的搜索量又将诞生怎样的巨头?
文|钱丽娜
ID | BMR2004
服务20000家泛企业客户、数万名开发者,成为DeepSeek搜索服务提供商,占据AI搜索60%的市场份额……
按照对传统搜索的认知,至少需要上百名程序员,几亿甚至十数亿的资金量才能开发出一个优质的搜索引擎。
而在AI原生公司博查,公司员工仅仅只有十几人,加上外包和“AI员工”(自行开发的智能体),也仅仅相当于四五十名人效,创业使用的还是自己的资金。创始人刘勋和CTO翁柔莹坐在只有十几名肉身员工的办公室里,赛博世界在这里照进了现实。
01
“AI搜索是一个从0到1的大机遇,
我等不及辍学创业了”
搜索是一个技术密集型、资金密集型和劳动力密集型的赛道。
2023年,正在哥伦比亚大学攻读计算机硕士的翁柔莹决定放弃学业,加入前大厂同事刘勋的创业计划。刘勋有过大厂和国企的工作经历,从事过搜索开发,还是一名连续创业者。他向翁柔莹画了一个“大饼”:AI搜索是未来大模型的基建,目前一片空白。
翁柔莹在留学之前,从事的是基础大模型的开发工作。听完规划,她一个激灵:“国内整个产业链里就缺这么一环,这个生态位一旦错过就没有了!”她即刻决定加入,纽约杭州两地飞,作为创始合伙人,零工资加盟。“反正年轻,万一失败了,大不了滚回去继续读书。”
翁柔莹的底气来自于留学的视野。“硅谷流行辍学创业。那里有一个鄙视链,辍学创业的鄙视毕业后创业的。Meta收购的Scale AI,创始人也是一名辍学生。这说明硅谷的用人机制和想法跟国内很不一样。”
刘勋和翁柔莹都是对AI有强烈信仰的工程师,他们是第一批受惠于大模型红利的程序员。
虽然2022年年底ChatGPT-3.5的发布才引发公众对AI的关注,但是在研发圈,ChatGPT写代码的功能早已为工程师们所熟知。翁柔莹用IDE编辑器接入ChatGPT写代码,省时又省力,工程师们都觉得这个应用可能会火。
正如Anthropic CEO所言,最早从事AI应用的都是最了解大模型技术的工程师。刘勋和翁柔莹就是这样的技术极客。
刘勋在十几年前创业时,曾经做过搜索开发。经验告诉他,互联网发展至今,所有大厂的核心业务部门都是搜索,“因为搜索是一个从海量信息中提取有用信息的过程,这是人类对知识获取的底层需求。过去20年,网民们已经习惯通过搜索去获取知识。从互联网时代的谷歌、百度到移动互联网时代的小红书、抖音、微信,搜索成为底层刚需,只不过门槛特别高,没有人敢做。”
这是因为搜索是一个技术密集型、资金密集型和劳动力密集型的赛道。刘勋记得,互联网时代的搜索业务,投资起步价是3000万美元,当时只有像红杉、IDG等资金量充裕的头部机构敢投。在21世纪初,搜索业务团队动辄几百人,因为搜索技术发端于美国,因此团队需要足够的含“硅”量,要么是从美国学成归来,要么有谷歌或百度的经验。
ChatGPT发布后,刘勋决定再次进入搜索领域。他看好的是为大模型做底层的搜索基建:“大模型自身拥有的信息是有限的,需要向外部实时获取信息,我们切中的是这个场景,做给大模型使用的搜索引擎。”
但这次创业,国内的融资环境已大不如从前。刘勋反倒认为这是个绝佳的机会:“经济一直在波动,有过周期经验的创业者会觉得反倒是在环境差时,真正掌握核心技术的创业公司才能跑出来。热钱多时,反倒会出现劣币驱逐良币的现象。”
02
创业是一场豪赌
DeepSeek拉动了整个AI基础设施的建设,也使得依附于大模型的上层应用遍地开花。
如果没有DeepSeek一夜成名,刘勋甚至怀疑过,公司或许会倒在黎明到来的前夜。
2024年7月,博查AI搜索的API正式上线,到2025年2月,博查积累了2000多个企业客户,DeepSeek是博查的客户之一。这段时间团队很辛苦,客户的收入无法支撑起公司的运营,因为大模型公司没有什么用户,企业客户搜索量也不大,导致博查无法靠收取搜索调用的费用来赚钱。刘勋感叹 “炒好的菜没有人吃”,连DeepSeek都在发愁没有用户量。
刘勋甚至一度怀疑,这个市场到底存不存在。“我一直在赌AI会成为人类社会的基础设施,如果这句话不成立,我们的钱只能打水漂了。”与此同时,团队每个月都要支付一笔“天价”费用,用于支持百亿级数据的实时检索,仅服务器部分使用的数量就在1万—2万台。
迷茫的情绪开始在团队中蔓延。2024年,国内基座大模型的能力普遍不强,无法吸引用户使用,而ChatGPT还在不断地更新迭代,加之芯片受阻,国内外大模型发展的差距明显在拉大,谁也不知道,在当时国内大模型的基座上能跑出怎样的应用。“去年这个时间段,我们尝试去做一些市场推广,但是发现市场就这么大。大家连大模型API都没有玩明白,更不用说用搜索API。”刘勋忍不住跟团队吐苦水,“为什么要这么苦地创业!”
让团队不放弃的原因是,AI搜索在美国已经被验证是可以走通的,这只是一个时间问题,比如为ChatGPT提供搜索的bing(必应)调用量就非常大!刘勋说:“我们相信国内也会出现一个像ChatGPT一样的现象级应用。我们要做的就是在这个大模型成长起来之前,做好相应的搜索基础设施。”
直到DeepSeek时刻来临,博查团队是最能深刻理解“国运级创新”这几个字分量的人。DeepSeek拉动了整个AI基础设施的建设,也使得依附于大模型的上层应用遍地开花。”我们和大模型一样,是长在大模型基座上的基础设施。如果没有上层应用的普及,何来使用基座呢?”
刘勋赌对了!
03
这是一场“新能源车”与“燃油车”的竞赛
AI搜索的交付链路中多了大模型这一环,博查的服务对象是大模型,而不是人。
DeepSeek普及之后,博查的现金流很快就转正了。“为什么仅仅十几个人的团队,就能开发出过去依靠上百人的团队、几亿资金才能开发出来的业务?”等到公司活下来,这个问题的探讨才有意义。
刘勋说:“这是‘新能源车’和‘燃油车’的竞争,是AI使用的搜索和人类使用的搜索之间的区别。”
传统人们用的搜索市场已经几无增长空间。从互联网时期百度一家独大,更迭到了移动互联网时期三四足鼎立。目前,微信和小红书每天搜索量各6亿次,百度十几亿次,Tiktok加抖音约70亿次。
AI搜索的方式与人类不同。人类使用的是关键字搜索,AI使用的是语义搜索。当人类用自然语言向大模型提问后,问题会被拆解成5—10个关键子问题,大模型要向外部读取5—10次搜索请求,有些可能高达上百次。找到合适的网页链接后,大模型做好总结,将结果交付给使用者。整个交付的链路中多了大模型这一环,博查的服务对象就是大模型,而不是人。加之大模型的规模有精简化的趋势,用户需要用联网搜索来补足信息,这可以被视作一种RAG应用(即检索增强生成),世界知识搜索服务便成为基础设施,而博查填补了国内市场空白。
“我们评估下来,大模型对搜索的需求可能是人类搜索次数的5倍甚至更多。在不久的将来,可能搜索次数达到1000亿次/天。”刘勋说。每天10亿次的搜索量造就了一个百度,每天100亿次的搜索量造就了一个谷歌,每天1000亿次的搜索量又将诞生怎样的巨头呢?
从商业视角对比,传统搜索引擎采用“关键词匹配+广告竞价排名”的运作模式,其结果排序依赖关键词密度和商业推广权重。而在AI应用场景中,人工智能系统对外部知识的需求呈现出全新特征:它需要基于用户的自然语言提问,获取完整、精准的答案,这不仅要求从技术层面理解关键词本身,更要深度解析用户问题的语义内涵。为此,博查推出基于多模态混合搜索与语义排序技术的新一代搜索引擎,实现了搜索引擎技术的范式升级。
博查搜索引擎的核心优势在于无广告干扰与无竞价排名机制。当AI系统意识到自身知识储备有限,需针对用户问题调取外部知识时,博查引擎提供的是结构化的完整答案,而非掺杂商业推广或受排名算法干扰的冗余信息。这一特性与AI大模型的运行逻辑高度适配 ——大模型基于Transformer架构的语义判断能力,会依据知识与问题的语义相关性筛选最优引用内容,而博查引擎的语义排序技术恰好为这一过程提供了高质量的信息基础。
但AI搜索引擎有着显著的准入门槛,其高难度主要体现在通用知识覆盖、技术资源投入、高并发服务支撑以及超低时延响应速度四个维度:
第一,通用知识覆盖的规模化挑战。AI对外部知识的需求具有全域性特征,要求搜索引擎具备“世界知识”级别的通用搜索能力。这一需求体现在索引库的规模门槛上:基础搜索引擎的索引库起步规模即达百亿级别,若要实现多语言全球搜索,索引量需突破千亿甚至万亿级别。仅数据存储环节就需消耗海量云资源,仅基础存储需求就需部署数万台设备,构成了首要的资源门槛。
第二,技术与资源的密集型投入。搜索引擎属于典型的技术密集型领域,其核心能力依赖数据、模型与算力的协同支撑。在百亿至千亿级别的数据海洋中,需通过精密的召回与排序算法,从海量信息中精准定位最相关的结果(通常需返回10条高价值结果,且首条结果需达到极高准确率),精准检索能力的实现,需要持续优化算法模型、积累高质量训练数据并投入强大算力支持。
第三,高并发场景下的服务稳定性要求。春节期间DeepSeek用量激增,在并发处理能力上,博查实现了大规模的服务弹性扩容,仅用两小时就完成近100倍的资源扩容,峰值并发量达到2000QPS(每秒查询量),成功支撑每日上亿次的访问需求。博查采用“高并发不加价”的计费模式,与海外部分平台“并发量越高额外收费越高”的模式形成鲜明对比,有效降低了用户的高并发维护成本。
第四,博查搜索引擎实现超低时延响应速度,时长仅0.15秒左右,较其他搜索引擎的API接口1.5—2秒的响应时间快10倍。对于大模型应用场景而言,0.15秒的搜索链路耗时能为模型后续的内容总结与处理预留更充足的时间,显著提升整体服务效率。
另外,博查采用的是“一次性收费”模式,仅通过向AI提供数据服务获取收益,不在搜索结果中植入广告或采用竞价排名机制,为AI提供高质量的知识来源。
技术储备仅仅是竞赛的基础,刘勋在等一个应用大爆发的时刻。
04
等待应用大爆发
搜索引擎行业具有极高的技术壁垒,而对外提供搜索服务极易催生潜在竞争对手。
刘勋经历过互联网和移动互联网两个时代的创业浪潮,他说:“2025年称为AI应用的元年,但还不是大爆发之年。”
2009年,刘勋第一次创业,在这期间,他亲身经历了移动互联网应用大爆发的黄金年代,“几乎每天都有新应用出来,用户数量都是指数级的激增。”2010年3月美团成立,同年9月小米成立。2010年爆发3Q大战(360对战QQ)……无论是竞争者之间的口水仗还是利益战,都挡不住这个时代的创业热情。
刘勋遗憾的是,第一次创业做搜索,中途就把公司给卖掉了,这一次,他再次押注搜索。“我们做的AI搜索引擎,在中国是从0到1的产业,我们有自己的核心技术,即使有跟进者,也有一定的抵御优势。”
全球范围内,谷歌在搜索领域的地位还难以撼动。翁柔莹分析认为:“那是因为谷歌有过去20多年的搜索积累。搜索是有数据飞轮效应的,用户越多,搜索得越精准。它的市值已经到了几万亿美元,没有人会拿几万亿来竞争同样的事。”
刘勋认为,当前搜索引擎领域的核心竞争对手是谷歌,必应因战略调整已退出对外服务市场。必应的退出源于其在业务发展中遭遇的战略矛盾。搜索引擎行业具有极高的技术壁垒,而对外提供搜索服务极易催生潜在竞争对手。Perplexity凭借必应提供的搜索技术支持得以快速成长,反过来对必应的核心业务形成冲击。由于必应自身同时运营C端搜索业务,其API服务的开放直接导致C端搜索流量下滑,用户持续向竞争对手迁移。出于战略防御考量,必应最终选择终止对外服务,以避免核心业务遭受进一步侵蚀。
谷歌则始终坚持不对外提供核心搜索能力的策略。作为拥有优质千亿级索引库的行业巨头,谷歌深知开放API意味着向潜在对手输送核心竞争力、分流用户资源。这种对核心技术壁垒的严格保护,使其避免了必应面临的战略困境,但同时也将市场需求推向了真空状态。市场对专业搜索服务的需求始终存在,而谷歌的封闭策略与必应的退出决策,恰好为新兴服务商创造了发展空间。刘勋说:“我们的定位正好填补这一市场空白,在具备自主研发核心技术能力的基础上,不与谷歌等巨头形成直接竞争,而是聚焦于成为大模型企业及各类应用的专业搜索服务商。满足市场对优质外部知识接口的迫切需求,在巨头构筑的竞争壁垒之外开辟独特的价值赛道。”
“走偏门选窄路”,刘勋认为,这是一家成功的创业公司不得不走的路径,做难而正确的事情,看起来技术壁垒很高的事情,但这些反而是努力之后可以快速站稳脚跟的方向。
来源|商学院9月刊