最近大家都在谈论 CloseAI 的 Deep Research 模式,称其研究效果非常强大,但面对高达 200???? 的价格,不少人却感到难以承受。幸运的是,开源社区也有不少项目尝试复现类似的效果,尤其是 OpenDeepResearcher 和 node-DeepResearch,它们作为替代方案,吸引了许多关注。
首先谈到 node-DeepResearch,尽管这个项目的目标是实现类似 Deep Research 的效果,但测试效果普遍被认为不理想,很多用户在尝试之后直接放弃了。无论是从模型准确度,还是计算效率的角度来看,node-DeepResearch 似乎还需要更多的优化才能提供稳定可靠的研究结果。
相比之下,OpenDeepResearcher 的实现则显得更加清晰,且已获得不少社区成员的关注。其基本流程可以简化为以下几个步骤:
有社区成员进一步对 OpenDeepResearcher 进行了优化,将 RAG(Retrieval-Augmented Generation) 知识库引入模型中,结合了 本地文档,使得研究不仅依赖于网络搜索,还能够调用本地信息,从而提升了研究的针对性和深度。
不过,由于多轮搜索和大量上下文的输入,这种方法会导致 token 消耗暴涨。为了解决这个问题,社区成员增加了 token 监控 功能,使得用户可以更有效地控制成本。
尽管通过优化 token 限制和搜索轮次,OpenDeepResearcher 在准确性和实时性方面确实有所提升。例如,当查询类似 哪吒 2 票房预测 这类信息时,模型能够快速获取并分析最新数据。然而,即使进行了优化,每次的研究仍然消耗约 50 万 token,以 GPT-4 计算,单次成本大约为 1-2 美元,还不包括 API 费用。
因此,虽然该方法在研究的实时性和准确度上有明显优势,但其高昂的成本依然是一个大问题。特别是在大规模应用时,如何平衡成本和效果,仍然是需要精心考量的一个挑战。
综合来看,尽管实现的代码并不复杂,但整个过程的设计能够帮助我们更好地理解 Deep Research 模型的原理和实践。要想在实际应用中实现高质量的 Deep Research,有几个关键方向值得关注:
这两个方向可能是未来提升 Deep Research 方案的核心突破点,Maybe 或者 大概 也许就是深度优化的关键所在。
虽然当前的开源解决方案,如 OpenDeepResearcher 和 node-DeepResearch,已经展示了Deep Research 的潜力,但要真正大规模应用,仍然面临着 成本、性能 和 优化 等一系列挑战。如何在保证效果的同时,降低成本,将是决定这些技术是否能够普及的关键因素。
最终,正如技术进步的常态,Deep Research 的未来将不断面临新的挑战和机遇。在实现技术突破的同时,我们也要不断思考如何平衡 效率、成本和可持续性,以便为更广泛的用户群体提供更有效的研究工具。