公司新闻
bb平台登录贝博体育:【华鑫计算机行业周报】OpenAI发布GPT-55旗舰大模型 DeepSeek V4发布
2026年4月24日,OpenAI正式推出旗舰大模型GPT-5.5,主打AI智能体原生能力,综合性能登顶各类基准榜单,全面超越竞品模型。该模型在代码开发、办公实操、前沿科研等领域实现大幅升级,可承接复杂工程与高端科研任务。
2026年4月24日,DeepSeek正式对外发布了其最新一代模型DeepSeekV4系列。该系列模型的核心突破集中在百万级别上下文窗口的普及化,同时在智能体能力、世界知识掌握以及逻辑推理性能方面达到了开源社区的新高度。与此同步公开的还有详细的技术报告,供研究者和开发者查阅。
2026年4月,AI编程公司Cognition正寻求数亿美元新一轮融资,目标估值250亿美元。公司主打全球首个自主AI软件工程师Devin,可完成规划、编码、调试、部署全流程。企业成立不足三年,ARR迅速增加至7300万美元,估值从3.5亿美元一路攀升。
2026年4月24日,DeepSeek正式推出V4模型预览版并同步开源。本次版本迭代核心集中于超长上下文能力升级、推理架构优化及国产化算力适配,整体运行效率与成本控制能力实现明显提升。该模型同步推出pro与flash两大版本;其中pro总参数1.6T、激活参数49B、预训练数据33T,flash总参数284B、激活参数13B、预训练数据32T,两款模型统一搭载100万词元超长上下文窗口,综合性能对标行业顶尖水平,能够以更低的内存资源消耗,稳定处理大篇幅长文本处理任务。V4在底层架构层面完成全面升级,融合压缩稀疏注意力(CSA)与重度压缩注意力(HCA)混合架构,搭配mHC训练稳定机制及Muon主训练优化器,部分模块沿用AdamW架构协同运作,大幅优化长上下文场景下的推理运行效率。对比前代产品,v4-pro在百万级上下文场景中,单token推理浮点运算量缩减至原有27%,KV缓存占用仅为原先10%;flash优化效果更为突出,单词元推理浮点运算量下降至前代的10%,KV缓存占用压缩至7%,整体运行成本得到一定效果控制。与此同时,deepseek进一步推进国产化算力适配布局,深度对接华为昇腾950超级节点量产规划,随着2026年下半年该芯片产品实现大规模供货落地,v4-pro的API调用定价有望迎来明显下调,逐步提升商业化落地性价比。
此次发布的V4深度适配华为昇腾体系,通过底层架构重构优化推理调度与缓存占用,整体算力运行效率大幅改善。当前高端算力供给紧缺,持续约束大模型服务吞吐能力。伴随下半年昇腾950的批量交付,高端大模型商业化面临的算力瓶颈与成本压力将有效缓解。头部模型厂商加速推进国产芯片兼容适配,持续完善算力自主可控生态,芯模协同的共振下,国产算力产业链有望进入放量周期。
中长期,建议关注专注于半导体等高端制造业的罗博特科(300757.SZ)、新能源业务高增并供货科尔摩根等全球电机巨头的唯科科技(301196.SZ)、AI智能文字识别与商业大数据领域巨头的合合信息(688615.SH)、深耕工业AI与软件并长期服务高端装备等领域头部客户的能科科技(603859.SH)。
AI底层技术迭代速度没有到达预期。2)政策监管及版权风险。3)AI应用落地效果没有到达预期。4)推荐公司业绩没有到达预期风险。
数据显示,谷歌云AI服务Token处理效率大幅升级,当前可实现每分钟160亿Tokens的运算吞吐量,较上季度增长60%,强劲的算力底座为企业级大模型推理、多模态内容生成等高频场景提供支撑。蚂蚁百灵全新Ling-2.6-flash模型上线后市场反响热烈,依托轻量化高性能优势,短期调用规模爆发式增长,周度Token调用量涨幅突出,上线以来,其调用量持续增长,连续多日位列Trending榜首,日均tokens调用量达100B级别,周增长超5000%。DeepSeek-V4系列模型上线后,官方推出限时折扣举措,大幅下调API调用Token计价成本,极致性价比驱动客户的真实需求集中释放。多个方面数据显示,调价后DeepSeek-V4-Pro单日Token调用量环比大幅攀升,短期实现数倍增长。4月25日,DeepSeekV4-Pro的调用量为136亿Token,较前一日(4月24日)增长近四倍。
近期,阿里云与DeepSeek先后发布重磅更新,从开发工具定价到大模型服务成本,为开发者带来了影响深远的行业变化。
阿里云率先宣布,自2026年4月30日10:00起,旗下QoderTeams版将调整新购价格与额度配置:每席位每月的月额度将提升至3000Credits,同时定价调整为300元/席位/月,为团队级AI开发提供了更明确的成本预期。同时,阿里云百炼平台已首发上线-pro与DeepSeek-V4-flash两款模型,API价格与DeepSeek官网保持一致,百万Tokens输入最低仅需1元,百万Tokens输出最低2元;依托阿里云智能计算灵骏平台的算力支撑,实现了DeepSeekV4预览版的Day0稳定适配运行。
DeepSeek4月25日推出限时优惠,宣布DeepSeek-V4-Pro开启2.5折限时降价活动,活动持续至5月5日23:59。调价后,DeepSeek-V4-Pro的百万Tokens输入(缓存命中)价格低至0.25元,输入(缓存未命中)为3元,输出价格为6元,较原价实现了大幅下调。
2026年4月24日,OpenAI正式对外发布旗下新一代旗舰大模型GPT-5.5,该模型定位为Agent时代的原生智能大脑,专为实际在做的工作与智能体驱动打造,已全面上线ChatGPT与Codex平台。GPT-5.5在各项核心基准测试中斩获全榜第一,全方位超越ClaudeOpus4.7、Gemini3.1Pro等竞品,刷新全球大模型性能纪录,同时实现token效率与推理速度的双重优化,成为OpenAI迄今最强、最全能的AI模型。
GPT-5.5在智能体编程领域实现突破性领先,Terminal-Bench2.0全链路Agent工程测试中斩获82.7%的得分,较GPT-5.4提升7.6个百分点,大幅领先ClaudeOpus4.7的69.4%;OpenAI内部Expert-SWE长周期编程任务测试中,模型以73.1%的得分超越前代的68.5%,可高效完成中位耗时20小时的复杂编程任务;业界通用的SWE-BenchPro测试中,GPT-5.5取得58.6%的成绩,OpenAI指出ClaudeOpus4.7在该测试中存在部分问题子集过拟合迹象。依托Codex能力,GPT-5.5可完成端到端全流程编程任务,从零实现3D交互应用、游戏开发等复杂项目,具备极强的系统形态理解与代码问题排查能力,且完成同等任务的token消耗量显著降低。
在知识型工作场景中,GPT-5.5展现出顶尖的实用价值,GDPval职业知识工作评估中斩获84.9%,领先ClaudeOpus4.7的80.3%与Gemini3.1Pro的67.3%;OSWorld-Verified真实电脑环境操作测试得分78.7%,与ClaudeOpus4.7基本持平;复杂客服工作流测试Tau2-bench中,模型在无微调提示词的情况下达到98.0%的准确率。OpenAI内部超85%的员工每周跨部门使用Codex,公关、财务、市场等团队借助GPT-5.5实现数据分析、报表自动化、文档处理等工作,大幅度的提高办公效率。同时,Codex可直接与Web应用交互,完成界面测试、屏幕截取、文件审阅等操作,跨工具上下文流转能力显著提升。
科研领域,GPT-5.5实现重大突破,成功协助发现并验证拉姆齐数的全新数学证明,填补组合数学领域研究空白;多阶段科学数据分析测试GeneBench中得分25.0%,较GPT-5.4提升6个百分点;生物信息学测试BixBench以80.5%的成绩位列已公开模型榜首;陶哲轩参与策划的前沿数学测试FrontierMathTier4中,模型取得35.4%的高分,远超GPT-5.4的27.1%与ClaudeOpus4.7的22.9%,在高难度科研任务中优势悬殊。实际应用中,GPT-5.5可快速完成基因数据分析、代数几何应用构建等工作,将人类团队数月的工作量压缩至数小时。
此次GPT-5.5的发布,距Anthropic推出ClaudeOpus4.7仅8天,标志着全球AI大模型竞赛进入全新阶段。OpenAI将GPT-5.5定位为全新计算机工作方式的核心载体,聚焦自主任务规划、多工具调用、跨平台协同的通用智能体能力,行业竞争核心已从单纯跑分转向AIAgent化办公的实际应用与生态定义。
2026年4月24日,DeepSeek正式对外发布了其最新一代模型DeepSeekV4系列。该系列模型的核心突破集中在百万级别上下文窗口的普及化,同时在智能体能力、世界知识掌握以及逻辑推理性能方面达到了开源社区的新高度。与此同步公开的还有详细的技术报告,供研究者和开发者查阅。
DeepSeekV4系列包含两个不同定位的版本。其一是参数规模庞大的DeepSeek-V4-Pro,总参数达到1.6T,激活参数为49B,性能上对标业内顶尖的闭源模型。其二是DeepSeek-V4-Flash,总参数284B,激活参数13B,设计上更注重高效率和经济性。根据评测,Pro版本在Agent相关任务上表现出色,尤其在编码方面,其体验被认为超越了Sonnet4.5,交付质量也非常接近Opus4.6(非思考模式),已成为企业内部智能体编程的首选。此外,该模型拥有深厚的世界知识储备,在知识测评上明显领先于其他开源产品,与Gemini-Pro-3.1间的差距已非常小。在逻辑推理方面,无论是数学、STEM领域还是高难度的竞赛代码任务,Pro版本不仅在开源社区中位居榜首,也具备了挑战全球最强闭源模型的实际能力。
支撑这些性能提升的是三项底层技术创新。第一项是混合注意力机制,包含压缩稀疏注意力和重压缩注意力两种方式。前者对KV缓存进行基于token维度的压缩并结合DSA稀疏注意力,后者则采用更极致的压缩策略以维持稠密计算。两者结合形成了长短兼顾的策略,大幅度降低了模型在处理百万级别上下文时的计算量和显存需求。第二项创新是流形约束超连接结构,它改进了传统的残差连接方式,能够增强信号传播的稳定性并提升模型的表达能力,使得深层网络依然保持强大的建模能力。第三项是引入了Muon优化器,它让训练过程的收敛速度更快且更稳定。由于这些架构上的革新,DeepSeek-V4在百万token这种极端长上下文场景下,Pro版本单token的推理计算量仅为前一版本的27%,KV缓存的占用更是缩减了10%。
相比之下,Flash版本在高效率与性价比之间实现了更好的平衡。虽然它在世界知识的深度上略逊于Pro版本,但在逻辑推理水平上与之非常接近。凭借更小的参数规模和激活机制,Flash版本可提供响应速度更快、成本更低的API接入方式。在处理基础智能体任务时,Flash版本与Pro版本表现相近,只有在面对极端复杂的任务时才会体现出差距。
在长上下文解决能力上,DeepSeek-V4通过革命性的注意力机制设计,在token维度进行高效压缩,并配合DSA稀疏注意力技术,实现了全球领先的长文本处理性能。这种创新明显降低了对计算资源和显存的依赖。从发布之日起,一百万token的超长上下文慢慢的变成了DeepSeek官方服务的标准配置。
模型还针对Claude Code、OpenClaw、OpenCode、CodeBuddy等主流智能体开发生态做了深度适配。在代码编写和自动生成文档等实际应用场景中,DeepSeek-V4的生产效率获得了显著提升。
对于开发者而言,API已经同步上线,只需要简单修改model_name即可接入两款新模型。追求性能的能够正常的使用deepseek-v4-pro,追求效率的则使用deepseek-v4-flash。需要非常注意的是,原有的deepseek-chat和deepseek-reasoner这两个模型名将作为V4系列的过渡别名,分别指向Flash版本的非思考模式和思考模式,但这些旧名称会在2026年7月24日正式停用
2026年4月,AI编程智能体公司CognitionAI正洽谈新一轮数亿美元巨额融资,计划将估值提升至250亿美元,融资谈判仍在进行中。公司2023年8月成立,凭借自主AI软件工程师Devin快速崛起,截至2025年6月ARR已达7300万美元,收购Windsurf后增长进一步提速,本轮融资将全力投入Devin的技术迭代与商业化拓展。
Cognition核心产品Devin被誉为全球首个完全自主AI软件工程师,可自主达成目标规划、代码编写、调试、测试与全流程部署。执行任务前生成详细蓝图并给出置信度评分,通过多重检测降低错误率,兼顾代码质量与安全性。产品面向个人与公司可以提供分级服务,企业版支持定制化、增强安全与审计能力,已获戴尔、思科等科技巨头采用。
从2024年3月A轮估值3.5亿美元,到如今冲刺250亿美元,Cognition在AI编程赛道实现估值跨越式增长。此次巨额融资计划,凸显长期资金市场对自主AI软件工程范式的高度认可,也将进一步巩固Devin在智能编程领域的领头羊,推动软件开发向全流程自主化加速演进。
上周(2026.4.20-2026.4.24日),AI应用指数/AI算力指数/万得全A/中证红利日涨幅最大值分别为2.08%/3.23%/0.96%/0.88%,AI应用指数/AI算力指数/万得全A/中证红利日跌幅最大值分别为-1.15%/-2.79%/-0.89%/-0.09%。AI算力指数内部,富瀚微以25.49%录得上周最大涨幅,天孚通信以-14.61%录得上周最大跌幅。AI应用指数内部,富瀚微以25.49%录得上周最大涨幅,线%录得上周最大跌幅。
2026年4月24日,DeepSeek正式推出V4模型预览版并同步开源。本次版本迭代核心集中于超长上下文能力升级、推理架构优化及国产化算力适配,整体运行效率与成本控制能力实现明显提升。该模型同步推出pro与flash两大版本;其中pro总参数1.6T、激活参数49B、预训练数据33T,flash总参数284B、激活参数13B、预训练数据32T,两款模型统一搭载100万词元超长上下文窗口,综合性能对标行业顶尖水平,能够以更低的内存资源消耗,稳定处理大篇幅长文本处理任务。V4在底层架构层面完成全面升级,融合压缩稀疏注意力(CSA)与重度压缩注意力(HCA)混合架构,搭配mHC训练稳定机制及Muon主训练优化器,部分模块沿用AdamW架构协同运作,大幅优化长上下文场景下的推理运行效率。对比前代产品,v4-pro在百万级上下文场景中,单token推理浮点运算量缩减至原有27%,KV缓存占用仅为原先10%;flash优化效果更为突出,单词元推理浮点运算量下降至前代的10%,KV缓存占用压缩至7%,整体运行成本得到一定效果控制。与此同时,deepseek进一步推进国产化算力适配布局,深度对接华为昇腾950超级节点量产规划,随着2026年下半年该芯片产品实现大规模供货落地,v4-pro的API调用定价有望迎来明显下调,逐步提升商业化落地性价比。
此次发布的V4深度适配华为昇腾体系,通过底层架构重构优化推理调度与缓存占用,整体算力运行效率大幅改善。当前高端算力供给紧缺,持续约束大模型服务吞吐能力。伴随下半年昇腾950的批量交付,高端大模型商业化面临的算力瓶颈与成本压力将有效缓解。头部模型厂商加速推进国产芯片兼容适配,持续完善算力自主可控生态,芯模协同的共振下,国产算力产业链有望进入放量周期。
中长期,建议关注专注于半导体等高端制造业的罗博特科(300757.SZ)、新能源业务高增并供货科尔摩根等全球电机巨头的唯科科技(301196.SZ)、AI智能文字识别与商业大数据领域巨头的合合信息(688615.SH)、深耕工业AI与软件并长期服务高端装备等领域头部客户的能科科技(603859.SH)。
1)AI底层技术迭代速度没有到达预期。2)政策监管及版权风险。3)AI应用落地效果没有到达预期。4)推荐公司业绩没有到达预期风险。
证券研究报告:《OpenAI发布GPT-5.5旗舰大模型,DeepSeek V4发布—计算机行业周报》
任春阳:华东师范大学经济学硕士,6年证券行业经验,2021年11月加盟华鑫证券研究所,从事计算机与中小盘行业上市公司研究
本报告署名分析师具有中国证券业协会授予的证券投资咨询执业资格并注册为证券分析师,以勤勉的职业态度,独立、客观地出具本报告。本报告清晰准确地反映了本人的研究观点。本人不曾因,不因,也将不会因本报告中的具体推荐意见或观点而直接或间接收到任何形式的补偿。
本微信平台所载内容仅供华鑫证券的客户参考使用。因本资料暂时无法设置访问限制,若您并非华鑫证券的客户,为保证服务质量、控制投资风险,还请取消关注,请勿订阅、接收或使用本订阅号中的任何信息。我们对由此给您造成的不便表示诚挚歉意,很谢谢您的理解与配合!
华鑫证券不会因接收人收到本内容而视其为客户,研究观点的表述节选自已经发布的研究报告,具体分析内容(包括风险提示等)请详见完整版报告。市场有风险,投资需谨慎。在任何情况下,本微信平台所载信息或所表述的意见并不构成对任何人的投资建议。在任何情况下,本公司不对任何人因使用本微信平台中的任何内容所引致的任何损失负任何责任。返回搜狐,查看更加多
,德甲狼堡bb贝博
