Menlo Venture AI 调研:一年增长3.2倍,370亿美元的企业级AI 支出流向了哪?
日期:2025-12-20 22:46:38 / 人气:3

AI正在成为企业软件史上扩散速度最快的一次技术浪潮。
过去十年,企业软件的竞争优势往往掌握在传统巨头手中,它们拥有成熟的分发渠道、深厚的数据积累、稳固的客户关系以及强大的销售网络。但在增长最快的AI应用领域,竞争格局正在发生逆转:AI-native初创公司凭借更高的执行效率和快速迭代能力,正在实现对传统企业的超越。
这份最新的研究报告是Menlo Ventures基于对495位美国企业的AI决策者(包含C-level高管、工程与产品副总裁等)调研的观点洞察,这些数据直观地展示了企业为何购买AI,钱都花在了哪里,哪些公司又从中真正受益,以及LLM与AI infra的竞争格局会如何演进等关键问题。
•企业级AI的市场规模已在两年内从17亿美元跃升至370亿美元,较去年的115亿美元增长约3.2倍,增长速度超过历史上任何一个软件品类;
•一旦企业开始评估某项AI解决方案,47%的AI交易最终会进入生产环境,而传统SaaS的这一比例仅为25%;
•AI应用和infra在2025年分别获得了190亿和180亿美元的支出;
•当前所有AI应用支出中,有27%来自PLG模式,这一比例约为传统软件(7%)的4倍;
•在AI应用层,初创公司已占据了63%的市场份额;在infra层,传统巨头仍占据了56%的市场份额,因为许多AI应用构建者仍在使用他们信任多年的数据平台;
•今年医疗行业就吸纳了几乎一半的Vertical AI(垂直AI领域)支出,约15亿美元,较上一年的4.5亿美元增长超过三倍;
•在Horizontal AI(通用AI)中,Copilots以86%的份额(72亿美元)占据绝对主导地位,远大于agent。
01.
AI是真实的繁荣,不是短期泡沫
尽管外界普遍担忧AI投资可能出现过度,但从企业端的采用速度来看,AI扩散的规模和节奏在现代软件发展史上是前所未有的。
过去三年中,市场对AI充满了持续而强烈的信心,AI也吸引了创纪录规模的资本投入。这一浪潮不仅推动Nvidia成为全球市值最高的公司之一,AI基础模型公司也相继宣布了总额接近1万亿美元的AI infra投入计划。与此同时,Venture funding回升至历史高位,且近一半资金集中流向少数几家前沿AI labs。
随后,市场情绪在今年夏天发生明显反转。一项来自MIT的研究指出,约95%的生成式AI项目都以失败告终。这个结论引发了市场震动,也暴露出在高强度AI capex压力下市场信心的脆弱性,“AI泡沫”的讨论迅速升温。
考虑到当前巨额投入,担忧并非毫无依据,但需求端的数据呈现出截然不同的图景。因为目前AI已在企业中实现广泛落地,不仅开始贡献实际营收,也带来了可规模化的生产力提升。这更符合一场真实的“繁荣”(Boom),而非短期的“泡沫”(Bubble)。
自2023年以来,企业级AI市场规模已从17亿美元增长至370亿美元,约占全球SaaS市场6%的份额,增长速度超过了历史上任何软件类别。
企业为什么要购买AI?
2025年企业在生成式AI上的总支出达到370亿美元,较2024年的115亿美元增长约3.2倍。其中规模最大的一部分(约190亿美元)流向了用底层AI模型构建的用户端产品和软件,即AI应用层。仅应用层支出就已占整个软件市场超过6%的份额,而这一切是在ChatGPT发布后的短短三年内完成的。
目前企业级AI的增长已超出AI聊天产品本身,体现在了越来越多具体业务场景中。目前至少有10款AI产品的ARR超过10亿美元,另有约50款产品的ARR超过1亿美元。AI的增长最初由模型API供应商(如Anthropic、OpenAI、Google)带动,目前正在加速向具体业务场景扩散,包括coding、销售、客户支持、HR等,并覆盖医疗、法律以及creator economy(创作者经济)等多个垂直行业。
今年有超过一半的企业AI支出流向了AI应用,这表明企业在AI投资上正优先关注能够尽快落地并提升生产力的解决方案,而非押注周期更长、风险更高的infra建设。
•相比自建,现成的AI解决方案能够更快进入企业生产环境
过去主流观点认为企业会自行构建大部分AI解决方案,比如Bloomberg在金融领域训练了BloombergGPT,Walmart在2024年为零售业务构建了Wallaby。当时,企业普遍认为,只要掌握数据、行业知识和技术架构,内部产品就可以满足大多数AI需求。
但实际上,在2024年,47%的AI解决方案仍由企业内部构建,53%通过外部采购获得,而到了2025年,企业有76%的AI使用场景选择直接采购成熟方案。尽管企业对AI的内部研发投入依然存在,但随着企业技术栈逐步成熟,现成的AI解决方案能够更快进入生产环境,并更早体现业务价值。
去年,企业在“自建”VS“采购”的比例上还处于几乎对半的状态,今年企业在生产环境中投入使用的更多是现成的AI解决方案。
•相比传统SaaS,AI能够提供稳定且可预期的价值回报
一旦企业开始评估某项AI解决方案,最终成交并进入生产环境的概率显著高于传统软件:47%的AI交易最终会进入生产环境,而传统SaaS的这一比例仅为25%。这种更高的转化率反映出企业对AI投入的预期比较明确,即能在较短时间内获得可量化的业务价值。
数据显示,虽然大多数企业在评估AI时都会识别出多个潜在使用场景,通常多达10个以上,但实际优先推进的仍是能够在短期内带来生产力提升或成本节约的项目。
从使用对象来看,企业识别出的对内应用场景(59%)略多于面向客户的应用场景(41%)。但在从评估到落地的转化过程中,这两类项目的推进速度基本一致。这表明,无论是运营端的效率提升,还是面向客户的产品和服务创新,AI投入都能够提供稳定且可预期的价值回报。
AI买家47%的转化率(对比SaaS的25%)意味着,AI提供的即时价值足以让其“绕过”或缩短标准的采购流程。
•PLG模式使得AI产品达到企业级应用规模的速度更快
在中心化采购渠道之外,越来越多的AI解决方案是通过个体用户而非企业高层,在企业内部率先被采用并投入使用的。数据显示,当前所有AI应用支出中,有27%来自Product-Led Growth(PLG,产品驱动增长)模式,这一比例约为传统软件(7%)的4倍。
这一数字仍属保守估计。如果将“影子AI采用”(Shadow AI adoption)纳入统计,即员工使用个人信用卡购买ChatGPT Plus等工具,且其中约27%的使用场景与工作直接相关,那么由PLG驱动的工具可能已占AI应用总支出的近40%。
在AI领域,PLG模式触达并转化企业用户的速度远快于传统SaaS,因为在任何正式的签约流程开始之前,真实的日常使用就已经证明了产品的价值。
PLG模式显著加快了AI产品走向企业级规模的速度,也让AI产品的渗透深度超过了传统SaaS。Cursor在招聘第一名企业销售人员之前,营收就已达到2亿美元。n8n则依托开源社区发展,直到企业有数百名员工已成为活跃用户后,才开始正式签署企业合同。ElevenLabs、Gamma和Wispr Flow也在以类似路径实现规模化增长。
开发者和技术团队对这种模式的接受度尤为突出。许多人最初是为了个人使用而发现这些工具,在日常工作中证明了这些工具的价值,随后创造了自下而上的需求,并最终转化为企业合同。Lovable、OpenRouter和fal都遵循这一模式:一旦工具嵌入开发工作流,产品经理和工程师的非正式采用就会转化为企业级协议。
02.
AI应用层由初创主导,infra层仍依赖巨头
在AI应用层,初创公司已经取得了决定性的领先地位。数据显示,今年初创公司每赚2美元,传统巨头仅能赚1美元,初创公司已占据了63%的市场份额,而去年这一比例仅为36%。
从理论上看,这一结果并不符合常规认知。因为传统巨头拥有成熟的分发渠道、稳固的数据护城河、深厚的企业客户关系、规模化的销售体系以及更强的资产负债表基础。然而在现实中,在多个增长最快的应用领域,AI-native初创公司凭借更强的执行效率反而领先于体量大得多的传统竞争对手。
•产品与工程(初创公司市场占比71%)
代码生成是可以说明为何初创公司能够胜出的最典型案例。GitHub Copilot作为先行者,具备几乎所有结构性优势,但Cursor通过更快的产品迭代和更强的功能实现,仍然取得了可观的市场份额。它在repo级上下文、多文件编辑、diff审批以及自然语言指令等关键能力上,都比Copilot更早落地。
此外,Cursor采用模型无关(model-agnostic)的产品策略,使开发者能够在Claude Sonnet 3.5等前沿模型一经发布时就立即使用,而不受限于Microsoft的合作伙伴选择。这种产品迭代速度推动了一个典型的PLG飞轮:Cursor先在个人开发者中赢得使用场景,再由这些用户将产品带入企业级环境。
•销售(初创公司市场占比78%)
以Clay和Actively为代表的AI-native初创公司,通过切入Salesforce尚未掌控的工作流而取得优势,这些工作流包括研究、个性化和数据补全(enrichment)。这些环节高度依赖非结构化信号(如网页、社交媒体、邮件),而这些数据通常存在于CRM体系之外。
这类公司通过掌控这些CRM之外的关键使用界面(off-CRM surfaces),并持续向下游扩展,逐步成为销售人员日常实际使用的AI层(AI layer)。短期内,它们正在削弱传统system of record的中介地位;长期来看,也有可能进一步演进为新的system of record。
•财务与运营(初创公司市场占比91%)
在财务等受到高度监管的领域,Intuit QuickBooks这样的老牌巨头面临极高的准确性要求,这放缓了他们推出AI-native工作流的速度。尽管这个领域目前涉及的总体资金规模仍然不大,但这种迟滞状态为Rillet、Campfire和Numeric等初创公司在下沉市场构建AI-first的ERP创造了空间,这些产品以实时自动化和智能工作流为核心。
下图展示了这一动态在不同企业部门中的差异情况,那些需要应对高度碎片化、数据密集型工作流,且这些流程本身适合自动化的团队,在AI采用上往往走在前列。相较之下,在可靠性、集成深度和现有系统依赖性比快速迭代更重要的领域,传统巨头依然保持着较强的实力。
AI初创公司在市场调研、销售、营销和产品等部门表现活跃。而传统巨头则在IT和数据科学领域稳守阵地,在这些领域,可靠性和深度集成的重要性超过了迭代速度。
但在infra层,传统巨头仍占据了56%的市场份额,因为许多AI应用构建者仍在使用他们信任多年的数据平台。尽管像Temporal、Supabase、Neon和Pinecone这样新兴的AI-native infra公司增长势头强劲,但Databricks、Snowflake、MongoDB和Datadog等传统巨头也同样迎来了显著的业绩再加速,因为即便是新兴的AI-native应用开发者,目前仍主要选择现有的平台来管理数据、编排工作流(orchestrate workflows)以及监控运营情况。
在AI应用层,初创公司占据主导地位,营收几乎达到传统巨头的两倍;而企业在infra方面的支出则依然向传统巨头倾斜。
03.
2025年AI应用是一个190亿美元的市场
AI应用在2025年获得了190亿美元的支出,占全部生成式AI支出的一半以上。这部分支出可划分为三类:
•Departmental AI(部门级AI,73亿美元):面向特定岗位或职能构建,例如软件开发或销售;
•Vertical AI(垂直领域AI,35亿美元):针对特定行业,如医疗或金融;
•Horizontal AI(通用领域AI,84亿美元):覆盖所有职能,用于提升整体生产力。
Departmental AI:coding是生成式AI的第一个“杀手级用例”
2025年,Departmental AI的支出达到73亿美元,同比增长4.1倍。其中,coding以40亿美元(占总支出的55%)成为表现最突出的赛道,也是整个应用层中最大的细分类别,其余支出分布在IT(10%)、marketing(9%)、customer success(9%)等领域。
coding(图中的产品和工程)已成为departmental AI中的爆发式用例。
随着模型性能达到具有经济意义的水平,coding成为AI的第一个真正的“杀手级用例”(killer use case),其中Anthropic的Sonnet 3.5在2024年年中触发了这个领域的首次规模性突破。随后,AI采用率迅速攀升:目前50%的开发者每天使用AI编程工具(在处于行业前25%的顶尖机构中,这一比例高达65%)。代码补全(code completion)市场规模已增长至23亿美元,而code agents和AI应用构建工具则从几乎为零的基数迅速爆发。
随着各团队在软件开发全生命周期中采用AI工具,他们反馈的交付速度提升了15%以上:覆盖的环节包括:原型设计(Lovable)、代码重构(OpenHands)、设计到代码(Weaver)、质量保障QA(Meticulous)、PR流程(Graphite)、站点可靠性工程(site reliability engineering,Resolve)以及部署(Harness)。
今年coding支出从5.5亿美元到40亿美元的巨大跨越反映了技术能力的本质变化:模型现在已经能够理解整个代码库(codebases)并执行多步骤任务。coding正从单一环节的工具(point solution),演变为一个端到端的自动化类别。
尽管coding以40亿美元占据了departmental AI支出的半数以上,但该技术正在多个企业部门中加速渗透:
•IT运维工具规模达到7亿美元,主要源于团队实现了故障响应和infra管理的自动化;
•营销平台规模达到6.6亿美元,主要由内容生成和营销活动优化所驱动。
•Customer success(客户成功)工具获得6.3亿美元的支出,AI被用于工单分流、情绪分析以及主动触达。
这些类别均聚焦于高度重复的工作流,在这些场景中,生产力提升能够迅速体现且易于衡量。下方的市场图谱展示了各职能领域中涌现出的代表性厂商,它们共同争夺73亿美元的departmental AI总投资。
AI-native初创公司正在每一个工作职能领域迅速崛起,在2025年高达73亿美元的departmental AI支出中,它们已经占据了相当可观的市场份额。
Vertical AI:医疗行业占据了几乎一半的支出
Vertical AI解决方案在2025年获得了35亿美元的支出,几乎是2024年12亿美元投资额的3倍。按行业划分,仅医疗行业就吸纳了几乎一半的Vertical AI支出,约15亿美元,较上一年的4.5亿美元增长超过三倍,并且规模超过其后四个垂直行业的总和。
今年有35亿美元投入到各垂直行业,几乎是去年支出的3倍。其中医疗行业占15亿美元,市场份额达到43%,支出超过了排名其后的四个垂直行业的总和。
医疗行业因为长期受到采购周期漫长和监管阻力的影响,推进新事物的节奏往往较慢,但在多年行政负担不断上升、利润空间持续收窄以及人员长期短缺的背景下,医疗系统反而成为整个经济中对AI自动化需求最为强劲的领域之一。
大部分支出集中在行政和临床相关的工作流中,其中以环境式病历记录(ambient scribes)为核心。记录工具(Scribe)市场在2025年达到6亿美元规模(同比增长2.4倍),并在市场领导者Nuance的DAX Copilot之外,催生了两家新的独角兽公司:Abridge和Ambience。由于临床医生平均每提供5小时医疗服务,就需要花费约1小时进行文书记录,那些能够将文档编写时间减少50%以上的记录工具可以显著降低行政负担,使医生将更多精力投入到专业诊疗工作中。
除医疗行业之外,AI已经开始在几乎所有经济部门中落地。在Eve等公司的带动下,法律AI已成长为规模达6.5亿美元的市场,创作者工具的市场规模达到3.6亿美元,政府相关应用规模达到3.5亿美元。AI的采用在那些长期缺乏软件支持的行业中尤为强劲。这些行业的典型特征是依赖人工、流程高度非结构化,过去主要依靠人力服务完成,而如今可以通过生成式AI实现自动化。
下方的市场图谱展示了在这些领域中布局的代表性公司,它们正在争夺今年企业投入到Vertical AI的35亿美元资金中的一部分。
Vertical AI在2025年已成长为一个规模达35亿美元的类别,投资额是去年的三倍。这些公司展示了AI-native软件是如何崛起并服务于经济的每一个领域的。
Horizontal AI:Copilot支出远大于Agent
Horizontal AI的支出规模为84亿美元,依然是应用层中最大且增长最快的类别,同比增长达5.3倍。
•Copilots以86%的份额(72亿美元)占据绝对主导地位,主要由ChatGPT Enterprise、Claude for Work和Microsoft Copilot构成。
•Agent平台(如Salesforce Agentforce、Writer、Glean)占据约10%的份额(约7.5亿美元)。
•个人生产力工具(如Granola、Fyxer)则占据剩余的5%(约4.5亿美元)。
通用的copilots在当下占据主导地位,但随着agents变得更加强大,AI将从“辅助”向“自动化”转型。
04.
2025年AI infra支出达到180亿美元
AI infra层在2025年获得了180亿美元的支出,占全部生成式AI支出的另一半,较2024年的92亿美元增长了2倍。这部分支出可分为三类:
•基础模型APIs(125亿美元):为所有AI应用提供底层智能驱动;
•模型训练infra(40亿美元):支持前沿实验室和企业进行模型的训练与适配;
•AI infra(15亿美元):负责管理数据的存储、检索和编排,从而将LLMs与企业系统连接起来。
现代AI技术栈尚在开发中
尽管目前市场上围绕agent的讨论很多,但真实的生产级架构却简单得令人意外:只有16%企业部署的agent和27%的初创公司部署的agent符合真正的agent定义,即由LLM负责规划并执行行动、观察反馈并调整自身行为的系统。目前大多数系统依然是围绕固定序列或基于路由(Routing-based)的工作流构建的,本质上只是对单一模型调用的封装。
定制化模式也进一步反映了这一技术阶段的早期特征。Prompt设计仍是最主要的手段,其次是检索增强生成(RAG)。更为先进的方法,如fine-tuning、tool calling、context engineering和强化学习,目前仍属小众,主要由前沿团队采用。
大多数所谓的AI agents不过是围绕模型调用构建的基础“if-then”逻辑。简单的架构虽然能应对当下的使用场景,但也揭示了市场目前仍然处于非常早期的阶段。
由于基于LLM的应用架构仍在逐步演进,现代AI技术栈在整体形态上与去年大体相似。到目前为止,最大的受益者是那些基于企业长期信任的数据与infra平台来持续扩展AI能力的传统巨头,包括Databricks、Snowflake、MongoDB和Datadog。
相比之下,初创公司的活跃度更多集中在推理(inference)和算力(compute)层面,在这一领域,AI-native厂商正与超大规模云厂商(hyperscalers)的开发者平台正面竞争。诸如Fireworks、Baseten、Modal和Together等推理平台,凭借性能和开发者体验取胜,提供serverless、高吞吐量、开放权重(open-weight)的推理端点,并通过手写或融合内核、优化的服务栈以及精细化管理的GPU集群,实现2倍以上的性能提升。
在技术栈的更上层,一批新的可观测性(Observability)与开发工具厂商正在出现,包括LangChain、Braintrust和Judgment Labs。它们围绕评测(evals)、追踪(tracing)和持续学习(continuous learning)等开发流程切入,构建面向AI的运行时可观测性层。下方的市场图谱展示了这些为生成式AI应用提供底层支撑的关键参与者。
企业在基础模型、训练系统、数据及编排层等AI infra上投资了180亿美元。这张图展示了服务于技术栈各环节的公司。
05.
LLM竞争格局
Anthropic在企业级市场领先
基础模型格局在今年发生了决定性变化。Anthropic出人意料地取代OpenAI,成为企业级市场的领先者。目前Anthropic占据约40%的企业级LLM支出,高于去年的24%,也明显高于2023年的12%。在同一时期,OpenAI的企业端份额几乎减半,从2023年的50%下降至27%。Google同样实现了显著增长,企业市场份额从2023年的7%提升至2025年的21%。
综合来看,这三家公司合计占据了88%的企业级LLM API使用量,其余12%则分散在Meta的Llama、Cohere、Mistral以及其他大量规模更小的模型供应商中。
上面三张图共同刻画了LLM生态的变化趋势。堆叠柱状图展示了市场份额变动的幅度,趋势线突出领先厂商背后的增长动能,而编程(coding)占比则强调了竞争优势正在形成的关键领域。
Anthropic的崛起归功于其在编程市场极其持久的统治力。据估计,它目前在编程市场占据了54%的市场份额,而OpenAI仅为21%。就在六个月前,这一数字还是42%,而这一增长在很大程度上是由Claude Code的普及所推动的。
事实上,自2024年6月推出Claude Sonnet 3.5以来,Anthropic在编程领域的LLM排行榜上已连续领先近18个月,几乎无人能及。当Google在2025年11月中旬发布Gemini 3 Pro时,Model Card显示Gemini 3 Pro在大多数主要评估指标中处于领先,但唯独在SWE-bench Verified(一项衡量真实软件工程能力的基准测试)上依然落后于Claude Sonnet 4.5。
Gemini 3 Pro Model Card
仅仅一周后,Anthropic凭借Claude Opus 4.5再次拉开了差距,刷新了代码生成的最高标准,并巩固了Anthropic作为该类别最强选手的地位。
Claude Opus 4.5的表现
中国开源模型在初创和独立开发者中影响力增强
尽管今年Llama在技术前沿的速度有所放缓,但它依然是美国企业中应用最广泛的开源权重模型。然而,该模型的停滞(自4月份发布Llama 4以来再无重大更新)导致企业级开源市场的整体份额从去年的19%下降到如今的11%。
企业更倾向于选择闭源模型。目前开源LLM仅占据11%的市场份额,但开发者们正在尝试在生产环境中运行中国模型,并大规模测试新的架构。
尽管中国开源模型在今年取得了令人瞩目的进展,并在初创公司中日益流行,但美国企业对中国开源模型依然保持着格外的谨慎。总的来看,中国模型仅占LLM API总使用量的1%,约占企业级开源支出的10%。
在大企业之外,采用情况则截然不同。针对初创公司和独立开发者的两个热门基准vLLM和OpenRouter显示,Qwen(通义千问)、DeepSeek(V3、R1)、Moonshot/Kimi(月之暗面)、MiniMax以及智谱AI的GLM的采用率正在迅速获得更多用户,不过,DeepSeek的使用量在R1发布初期的激增之后已趋于平缓。
较小的模型Qwen3和GLM因在性能上能够与更大型模型竞争而尤其受欢迎。例如,Airbnb在面向用户的AI功能中大量依赖Qwen,而Cursor则将该模型作为内部模型的开源基础。
开源LLM tokens的分布正在持续演变,过去一年里,中国模型在开发者群体中的影响力显著增强。
06.
2026年AI预测
2025年,AI成为了历史上扩张速度最快的软件类别。Menlo Ventures基于整个生态系统的观察,对未来一年做出五以下预测:
1.AI将在日常实际编程任务中超越人类表现:LLM的技能不会出现停滞,尤其是在可验证的领域如数学和编程中,最先进的模型将持续不断地变得更好。
2.杰文斯悖论(Jevon’s paradox)仍然成立:尽管推理成本因推理量呈数量级增长而下降,生成式AI的净支出仍在上升。
杰文斯悖论(Jevons’s paradox)指的是技术效率提高反而可能导致资源消耗增加,而不是减少。也就是说,当某种资源使用变得更高效时,人们往往会增加使用量,最终整体消耗上升。
•基准测试虽然趋于饱和,但无法完全捕捉模型在现实世界中的实际效果。仅追求基准测试成绩的模型无法长期留住用户。
•对于前沿用例,比如coding,用户对价格实际上并不敏感,他们愿意为性能支付更多。
•模型将在coding之外的一个重要用例中获得广泛采用。
3.可解释性(explainability)与治理(governance)将成为主流。随着agent自主性和决策能力的提升,解释和管理其决策的能力将变得更加重要,这一需求来自使用AI的用户本身。Menlo Ventures预计各国政府将要求对agent结果提供可解释的决策依据和审计日志。Goodfire这样的公司可以使神经网络可解释且可引导,将在企业中变得越来越重要。
4.模型最终将移至边缘端。出于低延迟需求、隐私/安全以及其他因素的考虑,计算将持续向设备端迁移,越来越多的非前沿模型的成本将接近$0。Google、Apple和Samsung等移动设备制造商将提供专用的低功耗GPU计算,在手机上无需网络即可实现快速推理且无额外成本。
Reference
2025:The State of Generative AI in the Enterprise|https://menlovc.com/perspective/2025-the-state-of-generative-ai-in-the-enterprise/"
作者:杏彩体育
新闻资讯 News
- 抖音1.3亿播放量背后:AI动态漫...12-20
- AI“入侵”圣诞节:可口可乐、麦...12-20
- 为谈8小时恋爱,年轻人疯狂砸钱12-20
- 海南封关:政策“压箱底”已出,...12-20
案例展示 Case
- 罗纳尔迪尼奥代言杏彩体育11-04
- 杏彩体育CNYT充提返利11-04
- 杏彩体育会员日11-04
- 杏彩体育返利日11-04
- 推荐好友 财富自由11-04
- 幸运注单 福利派送11-04

