最近一段时间,相信大家或多或少都被DeepSeek的相关话题或者结技术应用刷屏。无论是AI圈内,还是大众社交媒体,大家讨论的焦点似乎都变成了它。反观此前被热议的 Kimi、豆包、文小言等国产大模型,如今的声量明显弱了不少。
那么DeepSeek 到底做对了什么,能让它在短时间内迅速赢得市场的关注呢?
少谈情怀,多谈实力
过去两年,国产大模型领域涌现了不少玩家,几乎每家都在强调自己的“国产自研”,甚至将“情怀”作为卖点之一。但问题是,用户最终要的不是“国产替代”,而是真正好用的产品。DeepSeek 在这点上表现得相当务实——它不是一上来就高喊“超越 ChatGPT”,而是直接交出了一份高性价比的答卷。
DeepSeek 在代码生成和数学推理上的表现尤其突出,这两个能力点恰好是很多用户日常使用 AI 过程中最在意的。程序员测试后发现,它写代码的准确率和可读性甚至超越了 Kimi 和文小言,而在数学推理上,它的逻辑链条也比豆包等模型更加清晰。换句话说,它解决了很多国产 AI 用户之前“用得不够顺手”的痛点,让人真正有了“可以用来干活”的感觉。
紧盯 GPT-4,避开“自嗨型”竞争
还有一点就是,很多国产大模型在营销上有个问题:喜欢和 GPT-3.5 对比,试图制造“我们已经追上 OpenAI 了”的氛围。但 DeepSeek 的策略不同,它直接对标的是 GPT-4,甚至它的团队自己都承认,目标就是尽快追赶 OpenAI 的最强版本。
这种做法有几个好处:
避免“自嗨型”竞争。如果只是盯着 GPT-3.5 这个水平,可能会让用户觉得“这家 AI 只是比国内其他模型好一点,但还不够强”,但对标 GPT-4,有比较才会有“区别”。
产品进化更快。DeepSeek 先是推出了 DeepSeek Coder(专攻代码),紧接着是 DeepSeek Chat(通用大模型),每次迭代都更接近 GPT-4 的能力,用户可以真切感受到它在进步,而不是停留在宣传话术上。
开源策略的加持,搭建广泛用户基础
DeepSeek 还有一个让人意外的举动——开源。在国内 AI 圈,不少大厂对开源是比较谨慎的,为了搭建自己的护城河,更多还是在做封闭的商业产品。但 DeepSeek 选择开放了自己的 DeepSeek Coder 权重,这一步直接赢得了大量开发者的好感。
作为外行可能不明白开源意味着什么?意味着会有更多技术人愿意参与优化,可以让整个 AI 生态围绕它展开更多应用创新。相比之下,豆包、Kimi 等模型在这一点上相对保守,虽然有不错的产品能力,但缺少了一种“让开发者主动帮你宣传”的社区效应。DeepSeek开源的举措,反而让它在技术圈的口碑迅速传播,形成了更广泛的用户基础。
DeepSeek 的成功,是国产 AI 走向成熟的信号
国产大模型的竞争已经从“谁能做出来”进入“谁更好用”的阶段。在这个过程中,DeepSeek 的崛起提供了一个值得参考的路径:与其过度强调“国产替代”,不如用更务实的方式来解决用户真正的需求(打铁还需自身硬);与其满足于超越 GPT-3.5,不如直接对标 GPT-4,要做就做最牛的;与其封闭式竞争,不如用开源的方式加速成长。