2023年中国AIGC产业全景报告
发布时间:2024-02-18 18:25:59

  古人有云:日就月将,学有缉熙于光明。人类对人工智能学的潜心钻研终于再度获得重大突破,大模型的涌现能力与AIGC的应用普及为那不一定是AGI但一定更AI的未来提供了确定性的加速度。AI2.0时代的加速到来,不仅是把AI能力融入到现有应用中,更是未来产业范式的再塑造。AI正跳跃式地加速渗透进各行各业,推动一场新的生产力与创造力革命。AI产业链各环节参与者的角色功能、产品服务和应用生态可能将发生变化。

  对此,艾瑞发布《AIGC系列报告——中国AIGC产业全景报告》,作为AIGC系列首发,报告将展开对AIGC产业的全景洞察、探究生成式AI技术对数字产业的影响变化、绘制“中国AIGC产业全景图谱”、分析主流参与厂商类型与格局策略、各类型厂商发展路径和能力要求变化等,为市场辨析产业发展价值与空间。

  AIGC(AI-Generated Content)指利用人工智能技术(生成式AI路径)来生成内容的新型内容生产方式。2022年11月上线的AIGC应用ChatGPT,凭借其在语义理解、文本创作、代码编写、逻辑推理、知识问答等领域的卓越表现,以及自然语言对话的低门槛交互方式,迅速获得大量用户,于23年1月突破1亿月活,打破前消费级应用的增速记录。微软称其在GPT-4(ChatGPT Plus背后运行的大模型)中看到了AGI(通用人工智能)的雏形。大众的生活工作日常出现了Midjourney等新形态的各类AIGC应用,各行业的智能化升级也看到了新的可能性,“AI产业”与“产业AI”的想象空间进一步拓展。AIGC应用创新的技术支撑为“生成对抗网络(GAN)/扩散模型(Diffusion)”与“Transformer预训练大模型”的两类大模型分支。在国外AIGC应用展示出大模型的能量的同时,我国企业也加强了相关产品技术布局,云厂商、AI大厂、创企、各行业公司及技术服务商等产业各领域玩家纷纷发布大模型或基于大模型的应用产品及各类技术服务。相较于一般AI应用,大模型应用的训练及推理需要更强的算力支持。综上,本报告将围绕模型、应用、算力三个角度对AIGC产业的发展进行探讨,试图在讨论开源闭源、垂直通用、知识幻觉等大模型未来发展的各种不确定性的同时,为AIGC应用的迭代升级、产业的智能化应用,提供尽可能多的研究辅助,为那个不一定是AGI但一定更AI的未来提供确定性的加速度。

  根据第50次《中国互联网络发展状况统计报告》,截至2022年6月,中国互联网普及率已高达74.4%。在网民规模持续提升、网络接入环境日益多元、企业数字化进程不断加速的宏观环境下,AIGC技术作为新型内容生产方式,有望渗透人类生产生活,为千行百业带来颠覆变革,开辟人类生产交互新纪元。艾瑞咨询预测,2023年中国AIGC产业规模约为143亿元,随后进入大模型生态培育期,持续打造与完善底层算力基建、大模型商店平台等新型基础设施,以此孕育成熟技术与产品形态的对外输出。2028年,中国AIGC产业规模预计将达到7202亿元,中国AIGC产业生态日益稳固,完成重点领域、关键场景的技术价值兑现,逐步建立完善模型即服务产业生态,2030年中国AIGC产业规模有望突破万亿元,达到11441亿元。

  2021年至2023年7月期间AIGC赛道共发生280笔投融资,展现了其高热度与高成长性。从产业细分维度,应用层创业机会最多,模型层创业受到ChatGPT影响,在2023年集中涌现;在获投的应用与模型层创业项目中,文本、影像、语音平分秋色,但相比单一模态,多模态和跨模态的应用前景更加为资本所看好。从投融资轮次维度,70%左右的项目仍处于A轮及以前阶段,同时有高达14.6%的比例属于股权、战略融资,说明赛道虽然处于起步期,但其战略价值已被公认。在全部获投的170家公司中,获投3次及以上公司约占17%。同一标的的高频融资,从企业需求侧反映AIGC前期创业所需大量资金支持,从资方供给侧表明优质创业项目仍非常稀缺。

  预训练大模型按照模态可以分为文本、图像、视频、代码、音乐生成等多种,但从底层架构上都分属两类。Transformer是一种编解码模型框架,适用于处理文本、代码这类强连续性生成任务;Diffusion、GAN、NeRF等框架善于处理图像生成类任务。叠加文-图转换技术可以形成文生图模型。由单模态模型在实际训练时融合其他模态技术,可形成多模态、跨模态大模型,如GPT-4、文心一言、 Mid journey等,由于多模态模型可接受文本、图像等不同输入输出形式,对应用场景能够更广泛适配,着力发展多模态模型成为产研两界共同趋势。

  在以OpenAI为代表的闭源模型厂商开放对外技术服务后,开源模型厂商也在加紧发力,以Meta的Llama模型为代表陆续开源迭代,意图进一步实现生态层面的跑马圈地,2023年上半年LLM与数据集迎来开源季。大模型的开源可根据开源程度分为“可研究”与“可商用”级别。2023年2月,Meta发布了开源大模型LLM的第一个版本Llama,授予“可研究”用途。2023年7月进一步发布“可商用”的Llama2版本,虽然有日活超过7亿产品需额外申请、不能服务于其他模型调优等的商用限制,但海外很多中小企业已可用Llama2的模型来做私有化部署,基于Llama2开源模型训练出定制化的可控模型。由于Llama2基本不支持中文,对中国的大模型商用生态暂时不会产生实质性变化,中国仍需开发培育适配于中文数据土壤的开源生态。闭源LLM可为B端用户和C端消费者持续提供优质的模型开发及应用服务;开源LLM可从研究角度促进广大开发者和研究者的探索创新,从商用角度加速大模型的商业化进程与落地效果。未来,开源和闭源的LLM会并存和互补,为大模型发展共同创造出多元协作的繁荣生态。

  AIGC开源社区的建设可以吸纳更多的开发者及拥有定义用户的主导权,以AI开源创新平台为杠杆,带动支撑底层AI芯片、智算中心及云服务等基础设施发展。从供给侧逻辑来看,大模型开源早期由高校和机构推动,如清华大学的ChatGLM-6B、复旦大学的MOSS,陆续有头部云厂商加入,如百度的文心系列与阿里的通义系列,共同为中国AIGC开源社区的建设“增砖添瓦”,以阿里云魔塔社区、百度云飞桨社区为代表的开源社区建设成果初现,而千亿级模型暂以闭源路径开展,凭借稳定、优质效、完整工具链等产品特点定位应用市场;从商业化路径来看,参考海外明星开源社区Hugging Face的商业模式,中国AI开源社区同样会先免费提供基础算力,为客户提供免费的社区体验、demo部署及测试,并进一步通过付费服务推送轻量级迁移的微调推理服务或深度开发的训练调优平台,提升模型产品性能,通过开源社区吸引开发者、企业客户完成更多部署应用资源的引流变现。

  大模型类似于一个能力全面且突出的“完全体”,不仅通用性强,且能力相比小模型有较大提升。因此,用大模型做应用开发,可以采用“预训练+微调”开发范式,只需要针对具体任务,对大模型进行二次开发、微调甚至只是单纯以领域知识库做辅助,就可以快速赋能应用。相比独立分散的小模型开发,标准化、流程化程度更高,在开发效率和运维成本上都有较大改善,有效促进了AI的工业化生产。同时,模型能力的提升使得更多AI服务可以落地,有效扩展了AI的应用范围,这些共同促进AI供需两侧潜力释放。

  MaaS(Model-as-a-Service),模型即服务,是指以云计算为基础,将大模型作为一项服务提供给用户使用的新业态。如今,MaaS模式已成为各家云巨头厂商发展第一战略优先级,把模型作为重要的生产元素,依托于既有IaaS设施与PaaS平台架构,为下游客户提供以大模型为核心的数据处理、特征工程、模型训练、模型调优、推理部署等服务。未来,顺应大模型开源趋势,MaaS服务商将着力打造大模型商店平台,发力大模型生态建设,纳入更多允许商用的开源模型,提升平台的基模类型及能力,并丰富工具链产品服务,通过业务积累、数据回流、模型迭代逐步形成壁垒,在拉高云服务营收天花板的同时进一步塑造厂商的核心竞争力。

  随着企业上云进程中智能化转型需求的逐步增多和传统行业领域数据的不断积累,AI应用开发过程中逐渐面临大量细分领域的深耕、非典型客户需求,对算法的通用性和延展性提出了较高要求。传统“小模型”范式的AI应用开发流程一般针对单一场景,独立完成模型选择-数据处理-模型优化-模型迭代等一系列开发环节。因此,AI应用在定制化需求、长尾需求下的开发效率较低,且模型精度、性能、可扩展性等指标质量也会受到影响。随着AI产业深入及智能化需求增加,AI在研发门槛及开发效率的问题日益凸显。“预训练大模型”应运而生,其将数据中蕴含的知识通过无监督或者自监督学习方式提取出来,存储在具有大量参数的神经网络模型中。AI应用开发流程转变为,调用通用流程-结合行业经验-解决实际问题。未来,大模型将成为AI产业的操作系统,其基础设施特性可为AI应用开发做好底座,将AI模型变得可维护、可扩展、可迭代,极大降低AI应用的开发门槛。从需求侧来看,客户能通过更低成本、高效率的MaaS(Model As a Service)路径获得AI能力,完成AIGC应用的个性化开发、优化及部署,持续兑现大模型的技术红利,将AI能力应用渗透到各行各业的场景业务中。

  大模型能力评测意义重大,评测结果可让供需两侧了解各家大模型能力的优势与不足,做出更好的产品调优与应用选择。随着大模型产业的发展迭代,评测基准体系也在不断完善。艾瑞判断,未来大模型的产品服务能力评测将作为一项工具包,打包在大模型平台中为客户提供产品服务。对此,艾瑞提出EPS-EPD评估体系,以其为核心构建一系列评测集,对市面公开大模型能力展开测评,全维度定位大模型产品的基模性能与商业能力,为业内各界对模型评估有结果需求的客户提供信息参考。

  基础大模型落地面临两大难题,一是终端客户对算力成本的接受能力,二是大模型虽擅长通用领域问题,但往往在垂直行业任务中表现欠佳。因此,基础大模型会通过领域数据或专属知识库进行训练和调优,形成垂直领域的行业大模型或业务大模型;此外,部分企业还具有深度定制、私有化部署的需求,需要在行业大模型基础上,进一步加入企业专有数据进行训练或微调,形成企业级大模型。从商业化布局角度来看,如今基础大模型厂商可分为三类参与者,分别为云巨头厂商、人工智能公司、学术研究机构及创业公司,在定位有通用能力基座的同时打通向上商业化路径。其中,云巨头厂商将借助云服务及数据库资源,更强调MaaS能力输出。AI公司或创业公司将借助业务积累或生态资源锚定几个典型行业或业务场景展开商业占领。从开闭源角度来看,基模厂商普遍采用前文所述的“轻量级开源、千亿级闭源”的发展路径,而向上分化的垂直领域厂商将基于开源模型或基模平台开发部署细分领域模型产品,厂商优势在垂类数据与业务理解。若客户,如金融行业,对模型的开源性及私有化部署有明确要求,则开源路径会是该类需求的典型落地形态。

  数据准备、ROI衡量、 Prompt工程是连接模型层与应用层的落地三要素

  在本轮大模型推动的技术浪潮下,如何连接模型能力与上层应用,完成商业化变现,构建人工智能应用主导的生态系统是AIGC各层厂商重点关注的课题。艾瑞认为,数据准备,ROI衡量与Prompt工程能力是连接模型层与应用层落地的核心三要素。由于AI研究进展缓于国外、中文数据集论文发表难度高、NLP算法改进验证与数据集语言类型关联度低等历史性原因,目前中文NLP数据集语料库在数量与质量方面仍有较大差距。从可行性、性价比与时间角度出发,追赶期间同步发展典型行业应用数据集是弥补中文NLP数据集短板的有效策略;从需求侧角度出发,大模型能力应用化需结合业务场景与成本效益选择大模型的应用方式及调用形式,若基于安全隐私性需求要求私有化部署则投入成本更高,客户端的ROI衡量是决定其能力商业化进程的关键;提示(prompt)是触发AI 模型生成内容的宽泛指令,提示工程则可进一步开发和优化提示,从指令拆解到调用能力多维度融合大模型LLM来处理各类需求,是未来影响影响交互效果与应用体验的关键。

  伴随大模型通用性的提升,模型开发厂商可能因其模型被广泛使用调用汇聚多维场景数据、积累行业场景认知并集成部分垂类功能特性,进而向上延伸拓展至完整功能应用;原有垂类应用,为巩固市场地位,可能探索开源甚至自研模型,凭借既有资源、经验积淀及领域聚焦,同样打造模型开发及应用服务的闭环迭代,因此模型层、应用层有交错发展之势。此外,企业客户参差的数字化基础及个性化的软件、流程需求依然需要解决方案厂商定制优化并部署实施,而AI开发平台也将与大模型合力,通过“稀疏、蒸馏、剪裁”等手段助力大模型解决训练、推理部署困难问题,进一步实现“低门槛、低成本、高效率”的开发部署与应用。数据标注、 安全合规等周边工具服务亦是促进AIGC产品高效开发、产业有序发展的可观商机。

  艾瑞认为,大模型的中间层-工具层构成可分为AI代理-Agent角色与AI微调-大模型服务两类。AI Agent是继大模型、AIGC后进一步火爆的中间层产品,可看作能感知环境及需求、进行决策和执行动作的智能体。如代表性产品,AutoGPT即是利用GPT-4编写自身代码并执行Python自动化脚本,持续完成GPT对问题的自我迭代与完善。目前代理角色产品仍处于初代阶段,未来将与实际场景、垂类数据结合,更加作为调度中心完成对应用层需求指令的规划、记忆及工具调用(引用自OpenAI的Lilian Weng论文观点)。大模型服务平台则是为企业提供模型训练、推理、评测、精调等全方位平台服务,并基于供给侧能力与需求侧要求进行B端私有化部署(创业公司切入点)或平台资源调用(云厂商切入点),模型与用户将呈现明显双边效应。总体来看,作为模型能力与应用需求的链接,中间层价值前景广袤,或作为另一核心入口建设起工具生态,但从另一角度出发,中间层仍嫁接于模型层之上,受限于模型层能力,“合格”的大模型能力底座将为中间层发展开拓提供更优渥土壤。

  早在20世纪80年代,计算机科学家已着手探索开发一个能与人类交互的智能软件,类似于AI Agent的雏形应用一直在被构思讨论。当下大模型的涌现能力成功赋予AI Agent更多想象与落地空间。一方面,大模型的语料资源包含了大量的人类行为数据,填补了AI Agent可行性与合理性的关键要素。另一方面,大模型涌现出优秀的上下文学习能力、复杂推理能力,在接受目标及设定后,可自发性将其拆解成简单细化的子任务,无需人类干预去完成剩下的全部工作。目前AI Agent已成为继大模型之后,更有想象空间却也更贴近应用的下一爆点。海外亚马逊、OpenAI及国内高校、云巨头厂商都热情满满,陆续发布AI Agent的学术研究成果及产品应用。未来,人与AI的协作交流或进一步由Agents作为智能媒介实现,每个人都可以使用各类AI Agent完成现实任务的处理执行,人类由此进入庞大复杂的AI智能体文明。而要想实现这些,将宝贵的垂类数据与业务理解集成到Agent框架之中,保证大模型应用在执行任务时可以访问到正确的信息并高效执行产出,是未来AI Agent能发挥出实际效用的关键。相较于模型层,AI Agents将留给创业者更多机会。

  本章节所探讨的AIGC应用,是以大模型为技术主体,同时涵盖其他AIGC技术(如语音合成、策略生成)的应用范围。总体来看,大模型基于其在内容生成、总结、逻辑推理等方面的能力,已在多种AI服务的技术开发环节中展开融合替代。其中,内容生成与理解是大模型的核心能力,AIGC的产业价值主要体现在以此为核心的“变革内容生产方式”与“变革人机交互方式”两方面。大模型对内容理解和内容生成的双向能力使其既能以极低门槛实现多模态内容生成,也可脱离内容生产核心场景泛化为一种人机对话的媒介。未来,全行业将借助大模型能力衍生出的大量AI生产工具,实现内容生产效率的飞跃,并进一步降低数字生态的人机交互门槛。

  以大模型为标志,生成式AI是一次新的技术革命,同时还具有极强的普适性,能够对人类生产、生活的方方面面进行改造与升级。在生活领域,AIGC将通过进一步下放内容创作权,激发UGC创作热情,加速内容裂变。加之社区玩法在部分内容平台的良好盈利表现,内容消费领域从技术到商业模式的路径已全线打通,以社区形式,通过用户自发交流自主创作形成粘性,是各类平台的发力方向。在生产领域,大模型能从研发流程、产品能力和交互上全方位为企服软件带来提升,也充分开拓了新的服务场景,因此各类企业数字化厂商都将围绕大模型寻找自身优势空间与定位。

  总体而言,AIGC主要影响内容创作与人机交互,因此价值链线上化程度越高,内容在价值链中占比越高,AIGC对其颠覆效应越明显;另一方面,行业自身的数据、知识、监管要求等特点也会深刻影响到AIGC技术的渗透速度。比如电商、游戏、广告、影视传媒等以内容生产为价值核心的行业,以及电商、金融等研发设计、营销等环节在行业价值链中地位较高的行业,能够快速看到AIGC应用对原有生产工具的替代和业务流程的变革。

  内容分发平台一端链接创作者,一端绑定大量用户,拥有最为完整的内容消费生态,也天然成为了AIGC内容消费的布局核心。原本,内容消费市场按照创作者和商业模式可大致分为PGC和UGC。PGC专业性强,以内容付费为主要盈利模式,需要快速大量推出新内容刺激用户购买,因此PGC平台的主要战略是前向打通内容制作环节,并为了提高用户粘性同步发展UGC;UGC内容相对生活化,本质是贩卖流量,需要将内容质量保持在可持续吸引用户注意力的水平。因此,两类平台均在积极布局面向UGC的AI创作工具。由于线上社交需求持续增长,社交业务也展现出超强的盈利能力,是内容分发平台变现的新方向,如网易云音乐2022年在社交娱乐板块收入已大大超出其音乐服务收入。各大内容平台也都在布局社群业务,盘活手中用户,其中应用到AIGC技术支撑的营销文案、电商图片甚至评论的自动生成中。此外,在各大内容、电商平台的后台普遍有大量精准推荐、智能客服等系统,平台也在逐步使用大模型替换和补充原AI技术栈,但这部分应用并不能直接产生内容消费,因而艾瑞将其归为AIGC企业服务赛道而非AIGC内容消费赛道。

  与传统内容创作工具相比,AIGC内容创作工具的最大特点为“底层模型重、前端轻”,因此产品竞争的核心要素也从功能设计变成模型能力。在这种情况下,是否拥有自研SOTA模型将成为AIGC应用厂商的关键分水岭。基于基础大模型的研发投入、使用现有模型开发高质量应用的可行性这两个核心要素来看,文本类应用和图像类应用的发展路径差异明显:大语言模型成熟度高,自研壁垒高,直接基于现有模型开发应用更为现实;而图像生成模型成熟度低,自研成本可控,因此吸引更多创业者聚集。

  自2017年谷歌提出Transformer架构后,人工智能发展逐步迈入预训练大模型时代。2018年6月,OpenAI的GPT模型参数量已经达到1.17亿,模型参数量开始实现亿级基底的飞越发展,平均每3-4个月即呈现翻倍态势,由此带来训练算力需求也“水涨船高”。算力正在成为影响国家综合实力和经济发展的关键性要素。浪潮信息发布的相关报告表明,计算力指数平均每提高1个点,数字经济和GDP将分别增长千分之3.3和千分之1.8。面对算力层的供需结构矛盾,各国积极发展算力层基础设施建设。在计算力指数国家排名中,美国坐拥全球最多超大规模数据中心,以75分位列国家计算力指数排名第一,中国获得66分位列第二,随后为日本、德国、英国等国,算力建设已然成为国家高质量发展的战略级方针。2022年末,在OpenAI的GPT模型涌现能力后,AI产业迅速进入以大模型为技术支撑的AIGC时代,巨量训推算力需求让本就供需不平的算力产业结构进一步承压。目前中国各地正加快新一批数据中心与智算建设,持续优化算力资源,满足未来高速发展的大算力需求。

  过去数据中心以租赁与自建为主,算力需求方基于自身业务量级、财务预算情况、数据隐私要求等情况进行选择租赁或自建。在AIGC时代背景下,数据中心将配置更多AI服务器满足日益剧增的智能算力需求,云厂商更是提出MaaS(Model as a Service)模型即服务的商业模式,将云计算、智能算力、模型能力等资源做高度融合,客户可以直接在云端调用、开发与部署模型,更好适配于客户的个性化需求。未来,更多长尾企业的需求体量将拥抱MaaS商业模式。相较于云端算力发展,端侧大模型虽然发展较缓,仍是各家终端厂商发展的技术焦点,如从苹果招聘信息中可观测到其对“在端侧实现推理和加速大语言模型功能“的人才需求及产品规划。未来,随着大模型轻量级开源版本的发布,大模型有望进行进一步剪裁优化,将推理能力部署在端侧,并带动手机、机器人等端侧芯片发展。

  预训练大模型的训练推理需要巨量数据资源与高性能计算机的全天候高速运转,对数据中心的网络带宽、能源消耗与散热运维等能力提出更高要求。首先,网络是数据中心最为重要的组成部分,随着数据量与计算量的飞涨,数据中心需优化网络带宽,实现数据在节点内与节点间的高吞吐低延迟的传输与连接,并进一步优化计算集群的架构与设计,保证数据中心的高效利用率;其次,能源消耗与碳排放问题是数据中心亟需关注的重点问题。普通服务器的标准功耗一般在750~1200W,而AI模型运行时会产生更多的能耗,以CPU+AI芯片(搭载4卡/8卡)异构服务器为例,系统功耗一般会达到1600W~6500W。根据斯坦福大学发布的《2023年AI指数报告》数据显示,GPT-3模型训练耗费的电力可供一个美国家庭使用数百年,CO₂排放量也相当于一个家庭排放近百年;另一方面,基于大模型算力需求的高能耗运行,其热量释放呈现倍增态势。为了确保服务器能够长期处于适合的工作温度,数据中心将更注重系统设计和散热技术的发展应用。大模型散热需求加速由风冷到液冷的技术升级,进一步提升经济性、节能效果和散热效率等。散热也将更贴近发热源,由机柜级散热、服务器级到芯片级发展。目前,中国大力推进“东数西算” 工程,并发布《新型数据中心发展三年行动计划(2021-2023年)》等政策性文件,引导新型数据中心实现集约化、高密化、智能化建设,在AIGC时代下完成中国算力产业在规模、网络带宽、算力利用率、绿色能源使用率等方面的全方位提升。

  算力是评价AI芯片的核心要素,而除了运算次数外,芯片的性能衡量还需考虑运算精度。基于运算数据精度不同,算力可分为双精度算力(FP64)、单精度算力(FP32)、半精度算力(FP16)及整型算力(INT8、INT4)。数字位数越高,代表运算精度越高,可支持的运算复杂程度越高,以此适配更广泛的AI应用场景。为了适配大模型的训练及推理,AI芯片要求有更大的内存访问带宽并减少内存访问延迟,由此带动由GDDR到HBM的技术升级,另一方面需要更高的片间互联甚至片内互联能力以满足AI加速器访存、交换数据的需求。最后,大集群不等于大算力,在大规模集群部署下,集群训练会引入额外通信成本,节点数越多算力利用率越低,且单点故障影响全局运行。因此,同比增加GPU卡数或计算节点,不能线性提升算力收益,中国面临的单卡芯片性能差距将更难通过堆料等方式解决。

  作为AIGC产业的基建层,算力是AIGC生产力卡脖子的关键环节。对此,算力生产商纷纷发力,如AMD、英特尔等追赶型企业针对AIGC的产品新品动作频频。对标英伟达的Grace Hopper,AMD推出“CPU+GPU”双架构的Instinct MI 300进军AI训练端。英特尔即将在2025年发布Falcon Shores GPU,将其混合架构改为纯GPU解决方案。目前,国内大模型训练芯片仍以英伟达GPU为主,且英伟达作为首批训推部署框架成品及平台生态将进一步巩固其在生成式AI的优势地位,但国内客户正积极与海内外追赶型企业如AMD接触,意图打破英伟达的溢价与垄断体系。自2018年以来,美国陆续对中国企业实行贸易管制,进入到美方黑名单上的中国企业已达到了千余家,尤其在半导体、人工智能等先进科技领域,国产芯片实现自主创新迫在眉睫,中国科技部也陆续出台政策推动人工智能公共算力平台建设。目前国产芯片虽在成片进度有所突破,但整体还尚未进入成熟期。以适配AIGC大模型训练角度出发,国产产品会出现宕机、兼容性差、AI框架支持度低及核心IP受限等过渡性问题。在AIGC浪潮下,AI芯片发展路径更加聚焦于AISC品类,中国算力层也会进一步尝试脱离对头部厂商英伟达的依赖,以“云巨头自研自用+独立/创业公司服务于信创、运营商等To G与To B市场”为两条主线发展路径,静待国产替代曙光,实现国产“算力+应用”的正循环。

  学术界将通过扩大模型参数量、调整模型结构、局部算法优化等方式,进一步探索大模型的能力天花板,触碰AGI可能性;以各大企业为代表的产业侧,一方面从商业化落地角度追求更小模型参数下的高模型能力维持,以及解决大模型出现的知识幻觉问题,一方面也在积极研发探索新模型架构可能性,呈现“对外模型名称为厂商能力代号,但内含技术架构随时可能改变”的发展特征。产业与科研两侧的需求都已经暴露标准Transformer架构的巨大瓶颈,即“不可能三角”。各大机构与开发团队对Transformer架构的成功改进在快速推进,未来极有可能会出现具备推广价值的新Transformer架构。

  大模型在端侧的应用,软硬一体的结合带来广阔的应用场景。端侧的应用首先需要将大模型进行剪枝、稀疏化等处理,降低参数到十亿级规模,同时根据场景进行专属知识的训练和微调以适配专门的终端设备和软件。这对终端设备的功耗、内存、延迟、成本等都提出了新的要求。具体来看,目前在手机拍照、多终端语音助手、机器人具身智能(指从第一人称视角出发,具备理解、推理、并与物理世界互动的智能系统)等方面表现出应用前景,推动物联网应用的升级与进化。2023年8月,华为推出鸿蒙4引入盘古AI大模型,在消费电子领域赋能;小米官宣13亿参数手机大模型;OPPO预计将与阿里云联合打造OPPO大模型基础设施。手机厂商纷纷入局轻量化手机大模型市场,以期为用户带来全方位智能化体验提升,也许不久将来大模型应用将成为用户体验变革换代的“新触点”。

  技术的跃迁、生产效率的提升并不会自然带来社会整体福利水平的提升,相反往往以牺牲部分人的利益为前提,进而引发社会结构、分配方式的重塑。AIGC交互界面的用户友好性、大模型开源及API价格的降低、插件服务带来的应用生态繁荣等,都使得AI技术或将成为像水、电、网络一样的基础设施,渗透并改变千行万业。然而,大模型具有认知、分析、推理能力,不同于自动化浪潮下对蓝领的冲击,AIGC时代受AI影响最大的可能是初级专业人士和技术人员,即部分白领。据麦肯锡数据预测,到2045年左右,有50%的工作将被AI替代,比此前的估计加速了10年。与此同时,具有创造力、深度思考等高阶智力的人才,将享受到AIGC带来的效率优势,成为AI的驾驭者,相应的工作需求也会增加。智力要素重要性的提升、附加值的提高,都将推动社会资源和财富向顶尖人才和组织聚集,但社会是一个整体,生产效率的提升并不代表着购买力的提升,被替代的普通职工才是购买力的最大来源,为了维持供需平衡,分配制度需要重塑。如美国总统竞选人杨安泽提出向大企业征收增值税,并向公民发放补贴,以及OpenAI创始人Sam Altman提出的世界币均等分配等,都通过反思并调整现有的分配方式,以驱动社会向更美好的方向演进。

  自AIGC逐渐应用以来,引发了知识幻觉、数据安全、个人隐私、道德伦理等诸多问题和讨论,新生的行业亟需监管措施的跟进和健康发展引导。2023年7月,网信办等七个部门正式发布了《生成式人工智能服务管理暂行办法》(以下简称《办法》),距离征求意见稿发布仅隔三个月,且监管要求更为宽松,反复强调了鼓励发展的态度。具体来看,《办法》主要规范公共服务环节,不包含有关专业机构的研发和应用环节,鼓励企业在自研自用范围加强技术攻关;其次,《办法》不强求生成内容的真实、准确性,放宽了容错率,对前期探索的企业带来一定利好,但同时也提高了用户辨别的时间和成本。同时,《办法》要求提供者对AI生成内容进行显著标识,有望从根本上杜绝AI生成内容难以辨别的问题,但也可能影响用户对内容的价值判断,对企业带来负面影响。最后,国家以立法的形式打造数据和算力协同共享的平台,最大化促进资源利用,有利于为中小型企业减负,降低研发成本。《办法》发布后,即引发了苹果应用商店对ChatGPT、讯飞星火等AIGC相关App的下架整改行动,行业整顿步伐进一步加速。

TOP