大模型开源,厂商靠什么盈利?
DeepSeek-R1的推出,不仅成功实现了低成本与高性能的融合,更为关键的是,DeepSeek采取的开源策略也让闭源厂商不得不重新审视技术路线,大模型领域已显现出开源力量逐步压倒闭源模式的趋势。
开源大模型是指源代码、训练数据、架构参数完全公开的大模型,允许开发者自由使用、修改和再分发。这类模型通常免费或以极低成本提供,显著降低了应用门槛,使更多个人及企业能便捷地利用其解决实际问题。
那么问题来了:大模型厂商选择开源,就等于放弃盈利吗?
答案当然是否定的。实际上在AI领域,开源正成为大模型厂商的关键破局战略。通过构建“开源引流-服务变现-生态反哺”的闭环,可以形成一条可持续的商业化路径。具体来看:
基础设施:开源模型的商业化载体
开源模型的低成本特性,使得云服务成为最直接的盈利出口。开源模型的训练与推理对算力资源的巨大消耗,为云厂商创造了新的盈利空间。微软将OpenAI的GPT-4集成至Azure云平台,企业客户需购买Azure算力资源才能调用模型,形成“软件引流 - 硬件变现”的闭环。
自2023年阿里巴巴提出“AI驱动”战略以来,阿里云逐渐成为阿里巴巴新的增长引擎。根据阿里巴巴集团发布的2025财年年报显示,得益于AI需求强劲,阿里云公共云收入增长明显提速,AI相关产品收入已连续七个季度保持三位数同比增长,推动阿里云整体财年收入突破双位数增长。
阿里巴巴集团主席蔡崇信曾表示,开源不仅能“让AI技术更广泛地惠及大众”,还能激发人工智能应用的井喷式增长,从而显著提升对云计算服务的需求。他指出,阿里巴巴通过开源Qwen模型,旨在推动AI技术在全球范围内的普及,进而为公司的云计算业务带来强劲增长动力。
硬件厂商也在开源浪潮中受益。NVIDIA的GPU是训练和推理开源模型的核心基础设施。今年2月,DeepSeek开源了针对英伟达进行优化的一系列代码库,包括FlashMLA、DeepEP、DeepGEMM、DualPipe和EPLB,涉及Hopper GPU、FP8精度计算、MoE、并行策略等关键技术,此举无疑将进一步巩固了NVIDIA的技术壁垒。2025年财报显示,NVIDIA数据中心收入同比增长93%,其中开源模型的普及贡献显著。这种“硬件+软件”的协同效应,使得NVIDIA即使不直接参与模型开发,也能从开源生态中获利。
数据:开源模型的价值倍增器
开源模型的核心价值在于数据积累和生态构建。Meta通过Llama 2收集开发者反馈,优化模型性能并反哺广告业务,间接增加收入。Google则通过Gemini CLI收集用户交互数据,用于训练更精准的搜索模型,强化其搜索引擎的市场地位。这种“数据闭环”模式,使得开源成为提升核心业务竞争力的战略工具。
差异化:开源模型走向垂直领域
头部厂商通过开源通用模型吸引用户,再通过垂直领域的深度定制实现盈利。通用大模型难以满足企业的专业需求,厂商通过行业数据精调+端到端交付实现商业突破。
例如,科大讯飞的羚羊工业大模型,在通用星火模型基础上,结合石油、电力等行业数据训练出专业版本,为相关企业提供针对性的解决方案。这种“通用底座 + 垂直深耕”的策略,使厂商在特定领域形成技术壁垒,避免陷入同质化竞争。
由此可见,开源不仅是一种技术分享策略,更是推动行业发展、放大自身业务价值的重要手段,让厂商能在开源生态的繁荣中持续获利。
写在最后:
开源策略让技术红利与商业价值实现解耦,即模型层通过开源降低行业门槛,基础设施层通过规模化变现,应用层通过场景深耕获取超额利润。可以预见的是,随着AI监管的完善和行业需求的深化,开源大模型的盈利路径将更加多元,技术普惠与商业成功的平衡将成为厂商竞争的关键。



-
微博认证登录
-
QQ账号登录
-
微信账号登录

企业俱乐部
Copyright (C) 1997-2020 Chinabyte.com, All Rights Reserved