[ “开源的趋势早就已经摆在这儿了◈✿◈★。”一位AI应用从业者对第一财经记者分析说◈✿◈★,去年此时业界讨论开源闭源路线之争时◈✿◈★,业界都还在发力底层大模型◈✿◈★,究竟哪种模式更好还没得到真正◈✿◈★、充分的验证◈✿◈★。但很快DeepSeek◈✿◈★、阿里已经用事实说明了◈✿◈★,开源成为推动AI技术进步和产业发展的重要力量◈✿◈★。 ]
[ 记者从阿里云了解到◈✿◈★,目前◈✿◈★,通义千问Qwen衍生模型数量已突破13万◈✿◈★,超越美国Llama模型◈✿◈★。 ]
其中◈✿◈★,百度一口气开源了文心大模型4.5系列的10款模型◈✿◈★,涵盖47B龙之谷多玩论坛◈✿◈★、3B激活参数的混合专家(MoE)模型与0.3B参数的稠密型模型等◈✿◈★,并称实现预训练权重和推理代码的完全开源◈✿◈★;华为则宣布开源盘古70亿参数的稠密模型龙之谷多玩论坛◈✿◈★、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术◈✿◈★。
在百度◈✿◈★、华为之前龙之谷多玩论坛◈✿◈★,阿里早已通过一系列有竞争力的开源大模型◈✿◈★、魔搭社区布局AI开源生态◈✿◈★,腾讯混元此前也开源了混合推理MoE模型Hunyuan-A13B以及3D生成模型等◈✿◈★。
“开源的趋势早就已经摆在这儿了凯发首页官网登录◈✿◈★,◈✿◈★。”一位AI应用从业者对第一财经记者分析说◈✿◈★,去年此时业界讨论开源闭源路线之争时◈✿◈★,业界都还在发力底层大模型◈✿◈★,究竟哪种模式更好还没得到真正◈✿◈★、充分的验证龙之谷多玩论坛◈✿◈★。但很快DeepSeek◈✿◈★、阿里已经用事实说明了凯发k8国际官网登录◈✿◈★,开源成为推动AI技术进步和产业发展的重要力量◈✿◈★。
这场集体开源行动背后◈✿◈★,既是对AI进入应用为王时代的回应◈✿◈★,也暗含了各家加速抢占市场高地◈✿◈★、应对国际竞争的战略布局◈✿◈★。
在过去很长一段时间里◈✿◈★,李彦宏都是闭源大模型的坚定拥护者◈✿◈★,去年夏天的一场对话中◈✿◈★,他直言“开源其实是一种智商税”◈✿◈★。他给出的理由是◈✿◈★,开源大模型学术研究◈✿◈★、教学领域等特定场景下有存在的价值◈✿◈★,但并不适用于大多数应用场景◈✿◈★。“当你处在激烈竞争的环境中◈✿◈★,需要让业务效率比同行更高◈✿◈★、成本比同行更低◈✿◈★,这时◈✿◈★,商业化的闭源模型是最能打的链条导轨◈✿◈★。”
半年后◈✿◈★,当“黑马”DeepSeek以低成本高效率的开源模型突袭并引发全球关注◈✿◈★,搜索已经成为AI工具◈✿◈★、AI助手标配的背景下◈✿◈★,百度变了◈✿◈★。今年2月◈✿◈★,百度宣布从4月1日起文心一言全部免费◈✿◈★,上线深度搜索功能◈✿◈★,紧接着又宣布在未来几个月中陆续推出文心大模型4.5系列◈✿◈★,并在6月30日开源◈✿◈★。
同样◈✿◈★,在华为内部◈✿◈★,对于开源也经历了许久的权衡与纠结◈✿◈★。例如k8凯发◈✿◈★,从业务层面◈✿◈★,基于昇腾下的军团以及政企业务线板块的算力买卖或面临着一定的压力龙之谷多玩论坛◈✿◈★。但最终◈✿◈★,华为站在了开源大军的队伍里◈✿◈★。
“盘古72B是兼顾性能与推理成本的黄金尺寸◈✿◈★,最适合行业用户用AI改造业务◈✿◈★。”华为内部的一位技术专家曾在5月对记者表示◈✿◈★,华为以前很少对外发声凯发k8国际官网登录◈✿◈★,盘古也没有开源◈✿◈★,所以大家对昇腾算力具体的情况不是特别了解◈✿◈★,对模型的情况也不了解◈✿◈★,外界就充满了猜疑凯发k8国际官网登录◈✿◈★,甚至认为昇腾训练不出来先进的大模型◈✿◈★,但实际上目前的昇腾算力已经具备了训练出世界一流大模型的能力◈✿◈★。
从两家公司披露的开源模型情况看◈✿◈★,其中文心大模型4.5开源系列针对MoE架构提出了一种创新性的多模态异构模型结构◈✿◈★,适用于从大语言模型向多模态模型的持续预训练范式◈✿◈★,在保持甚至提升文本任务性能的基础上◈✿◈★,显著增强了多模态理解能力◈✿◈★,其优越的性能主要得益于多模态混合专家模型预训练◈✿◈★、训练推理框架和针对模态的后训练等关键技术点◈✿◈★。
百度援引数据显示◈✿◈★,文心多模态后训练模型(支持思考◈✿◈★、关闭思考)在多个多模态基准测试中达到SOTA水平◈✿◈★。其中在视觉常识◈✿◈★、多模态推理◈✿◈★、视觉感知等主流的多模态大模型评测中优于闭源的OpenAI o1◈✿◈★。在轻量模型上◈✿◈★,文心4.5-21B-A3B-Base文本模型效果与同量级的Qwen3相当◈✿◈★。
华为此次开源则选择了两款用量相对较多的模型龙之谷多玩论坛◈✿◈★。其中70亿参数的稠密模型部署门槛较低◈✿◈★,在智能客服◈✿◈★、知识库等多种场景中均可应用聚乙烯板◈✿◈★,◈✿◈★,而盘古Pro MoE 720亿参数的混合专家模型更适合处理相对复杂的任务◈✿◈★。
华为此前披露◈✿◈★,盘古Pro MoE大模型◈✿◈★,在参数量仅为720亿◈✿◈★、激活160亿参数量的情况下◈✿◈★,通过动态激活专家网络的创新设计可以实现“以小打大”的性能◈✿◈★,甚至可以达到千亿级模型的性能表现◈✿◈★。
而竞争对手的速度并不慢凯发k8国际官网登录◈✿◈★。从2023年至今◈✿◈★,阿里通义团队已开源200多款模型◈✿◈★,对开源模型竞赛始终保持着高度投入◈✿◈★。例如今年春节DeepSeek爆火期间◈✿◈★,阿里云就曾连续三个凌晨开源三款大模型◈✿◈★,一位接近阿里云的人士告诉记者◈✿◈★,目前阿里云的大模型已基本全部开源◈✿◈★,所有开源模型均免费使用◈✿◈★。
记者从阿里云了解到◈✿◈★,目前◈✿◈★,通义千问Qwen衍生模型数量已突破13万◈✿◈★,超越美国Llama模型◈✿◈★。通义千问Qwen在全球下载量超过3亿◈✿◈★,在HuggingFace社区2024年全球模型下载量中千问Qwen占比超30%◈✿◈★。
对于百度◈✿◈★、华为等的开源举动◈✿◈★,阿里云CTO周靖人在接受第一财经采访时说◈✿◈★,非常欣慰看到国内很多企业都在积极加入开源的阵营里◈✿◈★。
“开源大模型的发展对开源社区◈✿◈★、整个产业来讲是绝佳的事情◈✿◈★。”在周靖人看来◈✿◈★,在模型基础上怎么做二次的创新对AI产业的发展至关重要◈✿◈★,今天任何一个模型◈✿◈★,要直接去解决当前业务的问题都仍有距离◈✿◈★。模型的开源和开源社区的发展被视作推动AI产业创新的重要驱动力◈✿◈★。
华为也表示◈✿◈★,此举是华为践行昇腾生态战略的又一关键举措◈✿◈★,推动大模型技术的研究与创新发展◈✿◈★,加速推进人工智能在千行百业的应用与价值创造◈✿◈★。
从成本角度来看◈✿◈★,业界推测◈✿◈★,百度◈✿◈★、华为之所以在此时选择将相关大模型开源凯发k8国际官网登录◈✿◈★,意味着两家公司已经将成本降得足够低龙之谷多玩论坛◈✿◈★。此前李彦宏称大模型推理成本正以每年90%的速度递减◈✿◈★。
开源的最终目标仍然是实现商业价值的转化◈✿◈★。尽管开源了大模型◈✿◈★,开发者还可以选择使用百度◈✿◈★、华为智能云的算力服务来进行模型训练◈✿◈★、推理和部署◈✿◈★。这意味着大模型厂商们仍然可以通过提供高级的企业级解决方案和定制化服务凯发k8娱乐官网入口◈✿◈★,◈✿◈★、API接口和云服务等方式实现商业闭环◈✿◈★。
对于开源闭源两种路线◈✿◈★,也有分析人士对记者指出◈✿◈★,开闭源并存的路线共同构成了人工智能领域竞争与共生的多元环境凯发vip◈✿◈★。◈✿◈★,开源趋势会促进和推动行业在这之上的商业化龙之谷多玩论坛◈✿◈★,快速迭代◈✿◈★、快速试错◈✿◈★、共创共担◈✿◈★。但与此同时◈✿◈★,业务场景凯发k8国际官网登录◈✿◈★、用户触达不能只靠开源◈✿◈★。闭源模型核心逻辑在于能够构成商业闭环◈✿◈★,有大量的用户反馈◈✿◈★、在固定的渠道里形成壁垒◈✿◈★,假设最终其能找到真正击中用户痛点的地方◈✿◈★,且通过用户的反馈能够去提升能力凯发k8国际官网登录◈✿◈★,就能占住一个赛道进行商业化变现天生赢家 一触即发◈✿◈★。
打出开源牌的背后◈✿◈★,对百度而言◈✿◈★,应用才是未来◈✿◈★;对华为而言◈✿◈★,开源与追赶英伟达CUDA生态密不可分◈✿◈★。
九章云极的一名内部人士对第一财经记者表示◈✿◈★,未来在AI算力领域◈✿◈★,业界对英伟达的依赖或将逐步转向多元化选择◈✿◈★,这种转变不仅体现在推理环节的技术替代凯发k8国际官网登录◈✿◈★,更将延伸至训练场景的全链条能力重构◈✿◈★。
开源也伴生挑战◈✿◈★。有接近华为人士对记者表示◈✿◈★,开源虽带来诸多好处◈✿◈★,但也意味着其他企业和开发者可以基于盘古模型进行二次开发◈✿◈★,可能会出现一些与华为内部业务竞争的产品或解决方案◈✿◈★。这意味着◈✿◈★,华为内部业务线需要持续地进行技术优化◈✿◈★,从而保持自身的竞争优势◈✿◈★。而对于同时拥有开闭源模型的百度来说◈✿◈★,也有着类似的挑战◈✿◈★。
还有华为内部人士认为◈✿◈★, To B项目的成败跟软件是否开源实质上关联不大◈✿◈★,本质上还是看厂商产品能力◈✿◈★、交付能力以及对客户需求的理解◈✿◈★。但无论是谁◈✿◈★,都无法忽视开源的力量◈✿◈★,而业界围绕场景落地的较量才刚刚开始◈✿◈★。返回搜狐◈✿◈★,查看更多