openai o1官网

掘金数字上的中国:ChatGPT中国产业链手册

chatgpt2023-07-26 00:18:09139

摘要

本研究报告成文于7月中。研究报告中所提及的具体公司不构成投资建议。文中部分文献综述与数据整理系使用ChatGPT等AI应用辅助生成。


产品端:ChatGPT正式开启AI产业新纪元ChatGPT是一款由OpenAI公司研发的“聊天机器人”程序,不仅可以用来聊天、搜索、翻译,完成写故事、写代码、写邮件等多种任务,而且能根据用户的需求和背景生成各种类型和风格的文本、提供有用的信息和建议,被誉为目前最接近“六边形”战士的聊天机器人。ChatGPT面世以来就受到了全球各界用户的热烈欢迎与好评,形成了“爆款效应”。随着下载量和使用量不断创造新高,ChatGPT已经成为了许多人日常生活和工作中不可或缺的伙伴。


需求端:ChatGPT有望应用于哪些场景?LLMs在短期内可能将大规模应用于诸多行业与场景。一是“AI+客户服务”——ICS,ICS解决方案应用往往以AI为主导,采用语音识别、自然语言处理、知识图谱等技术,将服务对象的需求自动识别,并针对性地反馈答案,从而达到高效、快捷、准确的服务目的。二是“AI+搜索引擎”——Bing AI,搜索引擎的核心在于解决信息获取效率问题,为用户提供从“问题”到“答案”的最短路径,天然具有AI基因。三是“AI+内容创作” ——AIGC,随着互联网技术的发展和智能设备的普及,自媒体在中国已经成为了一大不可小觑的行业, AIGC在此机遇下有望实现蓬勃发展。


供给端:ChatGPT中国产业链构想。中国式“ChatGPT”产业链方兴未艾,想象空间无限。如果仅根据当前产业分布对未来语言类人工智能产品产业链进行构想,可以将“泛ChatGPT”中国产业链分为:上游基础层、中游技术层、以及下游产品层。上游——基础层:数据、算力、传力、存力,以ChatGPT为代表的大语言模型的核心在于使用了上亿参数的大模型和海量语料库来生成语句,因此大数据是ChatGPT的核心驱动力,它需要高效的数据采集、数据标注和数据质检等技术来保证数据的质量和可用性。同时由于ChatGPT涉及算力、传力、存力等多项功能,因此需要强大的计算资源和网络带宽来支撑模型的运行和优化。中游——技术层:大语言模型(LLMs),大语言模型(LLMs)已经在各个领域展现出了强大的能力和潜力,引发了学术界和工业界的广泛关注和竞争。国外的OpenAI、Google、Facebook等公司先后推出了GPT、BERT、XL Net等知名的大语言模型,并开放了部分代码和预训练模型,为下游任务提供了强有力的支持。国内的学界和企业也不甘落后,相继基于大语言模型推出了自研的AI大模型,并将其应用于搜索、广告、内容生成、智能问答等场景,助力数字化转型和创新。下游——应用层:百花齐放的App,比如在文字层面可以对标ChatGPT的“文心一言”、在图像层面可以对标DALL-E的“鹿班”、在音频层面可以对标Whisper的讯飞开放平台等,都是常见的AI应用。


投资端:应如何理解此轮全球市场AI革命行情?近期由于大语言模型的火爆,关于AI技术是否可商业化、可投资化的讨论也如火如荼。如何识别一项技术能否产生商业价值、进而产生投资价值的方式,主要是看是否满足如下阶段论。我们提出了一个简单的解释是:技术进步是先偶然促进了需求,再进一步解放了供给。在市场层面,2013-2015年TMT板块上涨满足如下几个特征,其一,在技术创新上,应满足阶段论的基本条件;其二,在宏观环境上,宽松的宏观环境与市场大势是结构牛市的必要条件;其三在定价逻辑上,ROE不是科技股的主要定价因素。


结论:万亿蓝海,掘金数字上的中国。在技术端:中国已经成为人工智能技术的重要产业发展国家之一,人工智能产业大幕已经徐徐拉开,中国有望在AI产业复制新能源汽车产业的辉煌,与世界先进水平并驾齐驱。因此从技术层面看布局AI产业正当时。在需求端:中国的AI产业已经可以逐步替代人力,激发全新需求场景,未来可期,万亿规模静待花开。在供给端:中国的一众优秀科技企业不仅在技术研发、平台建设、应用落地等方面取得了显著的成就,也在市场竞争中展现了强大的实力和活力,因此从投资者角度看,挖掘中国的英伟达、OpenAI至关重要,我们认为抓住中国AI供给侧发展机遇的重点在于三大方面:第一,找到善于GPU芯片制造的自主研发和创新的传统硬件厂商,第二,找到根植于生成式AI模型自主研发创新的软件龙头,第三,追寻致力于生成式AI应用探索和创新的互联网企业。在投资端:2023与2013的TMT行情具有相似性,这已经是市场共识,参考2019-2021年的新能源汽车赛道,行情表现的四个阶段分别是:板块普涨、龙头领涨、追逐次龙头、板块估值兑现。当前AI行情已经走过第一阶段,准备转向第二阶段,对于龙头的挖掘至关重要,因此对于技术路径与公司研发能力的准确判断至关重要。但鉴于A股市场的科技赛道往往具有估值透支的特性,谨慎布局中短期行情是一个可行的配置选择。

/管清友、许博男






01


产品端:ChatGPT正式开启AI产业新纪元


1.前世今生:明星AI产品蛟龙出海


(1)ChatGPT——“六边形”战士,体验颠覆以往对话式AI应用


ChatGPT是一款由OpenAI公司研发的“聊天机器人”程序。ChatGPT全名为“Chat Generative Pre-trained Transformer”,其本质就是名中提及的“基于生成预训练变换器(Generative Pre-trained Transformer)的人工智能对话程序”。ChatGPT具有强大的人类语言理解和生成能力,可以自然地参与人类对话、回答后续问题、承认错误,甚至指出错误的说法。和普通人工智能对话程序只能处理一些简单的命令或问题不同,ChatGPT不仅可以用来聊天、搜索、翻译,完成写故事、写代码、写邮件等多种任务,而且可以根据用户的需求和背景生成各种类型和风格的文本、提供有用的信息和建议,被誉为目前最接近“六边形”战士的聊天机器人。



ChatGPT面世以来就受到了全球各界用户的热烈欢迎与好评,形成了“爆款效应”。随着下载量和使用量不断创造新高,ChatGPT已经成为了许多人日常生活和工作中不可或缺的伙伴。根据一些报道:比如在医疗领域,哈佛医学院贝斯以色列女执事医疗中心的研究人员在国际四大医学期刊之一的《美国医学会杂志》(JAMA)上发表了题为《Accuracy of a Generative Artificial Intelligence Model in a Complex Diagnostic Challenge》的论文,研究团队测试了ChatGPT在具有挑战性的医疗病历中做出准确诊断的能力,测试结果显示ChatGPT成功完成了39%的首诊正确判断;在媒体领域,美国资讯网站Buzz Feed已然宣布计划使用ChatGPT来生成新闻稿,并将其与人类记者撰写的内容进行混合发布,以提高新闻稿的质量和效率;在教育领域,在线学习平台Study.com向1000名18岁以上学生发起的一项调查显示,超过89%的学生承认使用ChatGPT来完成家庭作业,且学生们表示使用ChatGPT可以帮助他们更好地理解知识点,并且可以节省时间和精力。



ChatGPT究竟有何魔力?核心在于三大特征,以及其营造的实际使用体验。和我们此前接触过的常常于客服、营销、教育、医疗等多种场景中出现的传统对话式AI不同,ChatGPT对话场景极具真实感与功能性。从使用体验看,ChatGPT具有三大特征。



特征1:极强的结合上下文对话能力。与传统对话式AI程序的“点对点”回答方式不同的是,ChatGPT可以结合上下文进行更加完善的回应。ChatGPT可以记住用户之前提到过的信息,并在后续对话中使用这些信息。这也使得ChatGPT可以更好地理解用户的意图和需求,并提供更合适和更连贯的回答。而相比较之下,普通人工智能对话程序往往缺乏情境感知能力,无法跟踪用户之前说过的话,且每次回答都是独立和孤立的,综合体验感较差。


特征2:ChatGPT具有自我学习与进化能力,而非傻瓜式预设程序。根据OpenAI官网信息,ChatGPT可以通过收集用户对它的回答或生成内容的评价,来调整和优化它的模型参数,并不断重复这个过程,以提高它的对话质量和能力。随着被使用次数的增加,ChatGPT可以随着时间自我调整和优化,完善其性能和准确度。而普通人工智能对话程序往往缺乏自我学习和改进的机制,需要人为地更新和维护其知识库和规则库,并不具备此般学习能力,体验感逐步被拉开。


特征3:可使用场景远比传统对话式AI广泛。ChatGPT可以适应不同类型和风格的对话场景,如娱乐、教育、商业、技术等,甚至可以生成各种类型和风格的内容,如诗歌、故事、代码、摘要、歌词等。而且ChatGPT可以根据用户的要求进行重写、改进或优化。普通人工智能对话程序往往只适用于特定领域或任务、只能提供一次性和固定的答案,缺乏灵活性和多样性,使用场景较窄。



(2)OpenAI——ChatGPT背后的“梦之队”


OpenAI公司是ChatGPT背后的“梦之队”。ChatGPT有如此魔力,更在于其背后优秀的创业团队——OpenAI公司。OpenAI成立于2015年12月,最早是由山姆·阿尔特曼(Sam Altman)等人以非营利组织的形式高调成立,同时也得到了马斯克(Elon Musk)和里德·霍夫曼(Reid Hoffman)等亿万富翁科技名人的投资与资源支持。虽然马斯克最终在2018年离开OpenAI的董事会,转变为赞助者和顾问,但这位硅谷钢铁侠的投资选择仍然引得市场对于这家公司的高度关注。2019年OpenAI从微软获得了10亿美元投资与基础设施帮助,正式开启了蓬勃发展之路:2020年,OpenAI发布了其最具影响力的产品之一——GPT-3,它是当时世界上最大的神经网络模型,拥有1750亿个参数,可以处理多种自然语言任务,如问答、摘要、翻译、对话等;随后2023年初OpenAI宣布开发出了GPT-4模型,GPT-4拥有5000亿个参数,可以处理更长的文本上下文,并且具有更广泛的常识和问题解决能力,为如今我们看到的全新ChatGPT应用打下了坚实的基础。



OpenAI名声大噪始于GPT系列,但是强大的不只ChatGPT如今面世的GPT-4已然证明OpenAI拥有世界上最先进的人工智能技术之一,其在自然语言处理、计算机视觉、强化学习等领域的技术水平毋庸置疑。但OpenAI虽然成名于ChatGPT,却不仅仅只有GPT,仍在不断推出创新的产品和应用。


DALL-EDALL-E 是OpenAI旗下的图像生成应用,能够根据用户输入的文本描述来生成相应的图像。DELL-E的强大之处在于其搭载了GPT-4语言模型,所以够理解用户输入的文本描述,并将其转换为图像的潜在编码,以此处理各种复杂和抽象的概念。比如将动物和物体进行拟人化、组合不相关的概念、渲染文本、对现有图像进行变换等等;同时DELL-E在生成图像时遵循一系列的安全和负责的标准和指南,可以避免生成暴力或敏感的内容。



Whisper:Whisper是OpenAI旗下的语音识别应用,可以识别多种语言,并将语音转录为文本,同时自动翻译成英语。和我们常用的语音转文字应用不同的是,同样在GPT-4模型的加成下,Whisper具有非比寻常的文字理解能力,因此在识别精准度上要远强于一般应用。


CodexOpenAI旗下的代码生成模型,也是GitHub Copilot的底层技术,可以根据用户输入的自然语言描述或代码片段来生成相应的代码。如Python、JavaScript、C、SQL等编程语言其均可覆盖,并可以完成诸多复杂和抽象的编程任务。


2.技术核心:GPT-4——最强“大语言模型(LLM)”


ChatGPT背后的核心技术在于前文所提及的大语言模型——GPT-4,也是目前全世界最复杂、先进的大语言模型之一。


(1)NLP——GPT系列所属子学科,旨在实现“人机对话”

自然语言处理(Natural Language Processing,NLP)是人工智能和语言学的一个交叉学科,也是GPT-4背后所属的人工智能子学科。引用NVIDIA官方对于NPL这门学科的描述:NPL这门学科主要是为了实现使用 AI 处理和分析自然语言内容,以便理解和解释内容、对从内容中获得见解,并有望生成相应回复。为了较为透彻理解NLP这门学科的目的与存在意义,我们可以从这一表述中抓住两大关键词:


第一:所谓“自然语言”是指什么?自然语言指的是随文化而自然演化出来的语言,比如英语、汉语、日语均为自然语言;再比如世界语则为人造语言,并不能纳入自然语言的定义范围之内。自然语言的“自然”二字是相对于如编程语言等为计算机而设的“人造”语言而来的,和编程语言不同,自然语言是人类交流和思维的主要工具。


第二:何为“处理和分析”自然语言?这就要回归到我们前文所述,自然语言是所谓“人类语言”,而我们的目的是要使得计算机读懂并生成人类语言,因此NLP要解决的是建立人类与计算机的相互沟通,旨在实现机器语言和“人类语言”之间的相互翻译,最终实现成就如ChatGPT此般使用感受。



因此综上,NLP学科的核心目的是要实现计算机可以听懂人类语言并与人类对话。由此,既然需要实现计算机“听懂”并“对话”,NLP学科最终任务通常可以划分为两大部分,即自然语言理解(Natural Language Understanding,NLU)和自然语言生成(Natural Language Generation,NLG)。二者叠加,实现人与计算机之间互联互通。


自然语言理解:从“人类语言”到“代码”,让计算机能够像人一样,具备正常的语言理解能力。比如:计算机理解人类的自然语言的其中一大主要工作是意图识别和实体提取。例如当人类语言中表达“订闹钟”可以有多种自然的表达,如:“请在明天早上8点叫醒我”、“订一个8 AM的闹钟”、“我明天9点需要出门,请确保我不要迟到,提前一小时提醒我”等等。但机器智能处理结构化的数据,需要文字信息中包含有提前设定好“定闹钟”、“8:00”等关键词,否则系统无法识别语言的含义。因此NLU的核心目的是理解语言、文本等,提取出有用的信息,用于下游的任务。


自然语言生成:从“代码”到“人类语言”,让计算机说出我们可以读懂的话。在NLU完成信息翻译后,计算机经过一系列处理计算并得到了我们需要的答案数据,NLG则意味着将非语言格式的数据转换成人类可以理解的语言格式。以此这一来一往,实现人与计算机的交互。



(2)如何实现“人机对话”?从两个维度理解NLP技术路径


那么如何实现人机语言互通(即实现NLU、NLG)?技术路径是理解一门技术能否迎来爆发性增长,并可以短期应用于商业的重要判定标准。我们可以从两个维度理解实现“人机对话”的技术路径,分别是对于实现“人机对话”技术路径的发展思潮与任务拆分。


第一个维度是从发展思潮上看,NLP技术路径大约经历过三大阶段演化。自然语言处理的起源是从1950年开始,艾伦·图灵(Alan Turing)在论文中描述了对“思考型”机器的测试方式。他认为如果一台机器可以通过使用电传打字机成为对话的一部分,并且科技几乎完全模仿人类,那么该机器就可以被认为具有思维能力,这一测试方式也在后续被广泛成为“图灵测试”。这一论断正式拉开了NLP学科的大幕,并于后世几十年间演化出了多种实现NLP技术的思潮。



符号主义(Symbolicism)时期:50年代后期,诺姆·乔姆斯基(Avram Noam Chomsky提出了“生成式文法”这一大胆猜想。他假设在客观世界存在一套完备的自然语言生成规律,每一句话都遵守这套规律而生成。因此符号主义思潮倾向于将人的思想比作计算机程序,具有接受、操纵、处理和产生符号的能力,尽管它们具有不同的形状和结构。因此,计算机能够表征现实世界中的所有现象。


连接主义(Connectionism)时期连接主义又称仿生学派或生理学派,侧重于研究人脑的运行机制,然后将研究结果应用到人工智能的分析中。1943年形式化神经元模型(麦卡洛克-匹兹模型,McCulloch-Pitts model)被提出,以此开启了连接主义学派的发展之路。连接主义强调智能活动是由大量简单单元通过复杂连接并行运行的结果,基因于此可以人工方式构造“神经网络”,再训练人工神经网络产生智能。


深度学习(Deep learning)时期:深度学习是基于“连接主义”而发展产生的更高阶技术思潮。伴随着互联网的爆炸式发展和计算机算力的进一步提高,基于互联网海量数据,并结合深度神经网络的强大拟合能力,NLP技术更上一层楼,也正式成为了当前ChatGPT类对话式人工智能的主流技术路径。



第二个维度是从具体技术原理上看,深度学习(Deep learning)核心旨在完成三层面任务。在多种技术思潮博弈之下,最终“深度学习”极大地推动了自然语言处理领域的发展,几乎在所有的 NLP 任务上都能看到深度学习技术的应用。从具体任务层面,我们可以将深度学习完成人机对话的技术认为拆为三层:词分析、句分析、语义分析。



第一层是“词分析(Word Analysis)”。在词分析层面,计算机需要做三方面任务。一是词语划分,也就是将一句话划分为不同的词语,比如说“今天我要吃饭”是一句话,但AI需要将这句话拆分为“今天”、“我”、“要”、“吃饭”四个词语分别分析;二是发掘新词,因为一门自然语言无时无刻不在创造新词语,包括我们常见的网络用语,AI需要将这次新词入库;三是词性标注,每个单词有动词、名词之类词性,词性标注任务就是把每一个词的词性标注出来,以供后续句义分析处理。


第二层是“句分析(Sentence Analysis)”。完成词语层面的解析后,就需要对自然语言进行句子层面的分析。“句分析”的核心目的是生成“句法树”,从而将一句话从自然语言解构为机器语言。“句分析”的三大任务一是组块分析(Chunking),即标出句子中的短语块,例如名词短语(NP),动词短语(VP)等;二是超级标签标注(Super Tagging),即给每个短语块标上超级标签,得到与该短语块相关的树的结构;三是成分句法分析(Constituency Parsing),即根据超级标签标注结果进而将整个句法树完整理清。


第三层是“语义分析(Semantic Analysis)”。“语义分析”的核心目的在于将生成的“句法树”进行内容解读,通过词义消歧、语义角色标注等流程完成这一句话语义的理解。



(3)LLMs——自然语言处理的主要解决方案之一


大语言模型(Large Language ModelLLM)是一种基于机器学习和自然语言处理技术的模型。大语言模型是指:通过对大量的文本数据进行训练,并通过预测自然语言文本中下一个词或字符的概率分布来学习服务人类语言理解和生成的能力,以此形成的技术解决方案被称为“大语言模型”,即LLMs。为了实现真正的人机对话,大语言模型通常需要在大量文本数据上进行训练,以学习语言的各种模式和结构。如 GPT(Generative Pre-trained Transformer)系列就是大语言模型的代表之作,即被训练来理解和生成人类语言,完成所谓“NLP任务”。


预训练是提升LLMs能力的基础工作。在2018年以GPT和BERT为代表的基于深层Transformer的表示模型出现后,预训练语言模型这一名词才真正被大家广泛熟知,并成为LLMs的主流方案之一。训练AI语言模型需要向其提供大量的文本数据,之后AI模型利用这些数据来学习人类语言的结构、语法和语义。训练过程包括两个主要步骤——预训练(Pre-Training)和微调(Fine-Tuning):在预训练阶段,AI模型在大规模的通用文本数据上进行训练,学习语言的基本结构和各种常识;之后在微调阶段,模型在更小、更特定的数据集上进行进一步的训练,微调可以让模型更好地理解和生成这个特定领域的语言,从而更好地完成特定的任务。


预训练模型的出现打破了自然语言处理各个任务之间的壁垒。预训练模型极大地简化了LLMs的开发门槛——这种“预训练”模式使得搭建一个面向特定任务的自然语言处理模型不再需要了解非常多的任务背景,只需要根据任务的输入输出形式应用这些预训练语言模型,即可达到相应效果。


GPT系列已经成为自然语言处理学科中最大、最复杂、功能最强大的LLMOpenAI的GPT系列模型已经逐步打破LLMs使用体感上线。最早的GPT-1发布于2018年,首次将Transformer应用于预训练语言模型,预训练的语料库包括英文维基百科、WebText等大规模文本数据,参数规模为1.17亿;GPT-2发布于2019年,与GPT-1相比,参数规模大了10倍以上,规模达到15亿,因此文本质量更高也更加自然和流畅;GPT-3发布于2020年,参数规模为1750亿,已经可以实现文本自动补全、将网页描述转换为相应代码、模仿人类叙事等多种任务。GPT-3可以通过少量的样本进行零样本学习,即在没有进行监督训练的情况下,可以生成合理的文本结果;而到如今的GPT-4,回答准确性已然大幅提高,同时具备更高水平的识图能力,且能够生成歌词、创意文本,实现风格变化。



3.经济影响:或对白领工作构成巨大威胁


如今的ChatGPT所引领的人工智能已经是当今最具革命性和创新性的技术之一,它已经在各个领域和行业中发挥了重要的作用,提高了效率、质量和创造力。然而,AI也引发了一些担忧和争议,尤其是关于它对宏观经济层面、微观劳动力市场层面的争议尤甚。


(1)宏观层面:技术革命大概率将导致短期高失业与高增速


如何理解AI技术革命对于宏观经济的影响?第一次工业革命可以作为AI技术革命的一项参考模板。根据第一次工业革命英国的历史经验,技术革命大概率将会在经济层面呈现两方面特征。


一是在经济发展层面,技术革命大概率会催生高增速与资源分配问题。从历史经验看,由技术进步导致的结构性就业调整会进一步使得社会财富分配更加不均衡,在英国工业革命时期,中产阶级和富裕阶层的收入增长远快于工人阶级和贫困阶层的收入增长。根据一些学者的估算:英国在1700年到1870年期间工业部门的劳动生产率(工业增加值/全部从业人员平均人数)从每人每年100英镑上升到了200英镑,农业部门的劳动生产率从每人每年50英镑上升到100英镑,服务部门的劳动生产率从每人每年150英镑上升到250英镑。技术对于经济的贡献是毋庸置疑的。但从不同阶层的收入分配数据看:英国在1700年到1870年期间中产阶级(包括商人、专业人士、技术工人等)的收入份额从10%上升到15%,工人阶级(包括农民、手工业者、工厂工人等)的收入份额从50%下降到40%,而贵族和地主阶级的收入份额从40%上升到45%。因此可以说,工业革命使得机器代替了人力和畜力、提高了生产效率和规模、降低了生产成本和价格、扩大了市场和贸易,也使得一部分人获得了巨大的利润和财富,成为了新贵。而另一部分人则陷入了深度贫困,比如农民、手工业者、工人等,他们构成了庞大的赤贫阶级。在这一期间,英国基尼系数从0.45一路上升到0.55。



二是在居民就业层面,技术革命中早期,技术进步与就业率是无法调和的天然对立。工业革命的初期,也就是18世纪上叶,并没有出现大规模的失业潮。这是因为机械在初期并不具有经济性,当时的农业和手工业还占据了大部分的劳动力市场。但随着机器的普及、生产力的提高,在这一过程中原本以行会特许方式生存的城市手工业者,以及以庄园经济存在的农村家庭手工业者,都受到了机器生产的冲击和竞争,彼时很多农业与手工业者失去了自己的职业和收入来源。这些人被迫进入工厂从事低技能、低收入、高强度的工作,甚至沦为流浪汉或乞丐。由于没有完整的失业统计,英国当时的实际失业率难以准确估算,但从一些文献资料可以看到就业不足的现象普遍存在,而且失业所引发的社会问题已经严重困扰英国的政治稳定和社会发展。比如一些学者的统计:1848年2月,英国有超过50万人申请救济金,较1847年增加了近20万人;1847年到1848年,英国的棉纺织业、铁路建设、煤矿等主要行业的产量都出现了下降,工人的工资也相应降低了10%到20%。因此在某种意义上可以说,工业革命对于经济增长的正向作用有一定迟滞,在技术进步早期结构性高失业率是重大问题,甚至可能将数以十年计。



(2)微观层面:绝大多数职业和从业者都将受到GPT冲击


关于人工智能技术革命对于微观就业的影响,可以从OpenAI官方发布的论文中窥见一斑。OpenAI联合了宾夕法尼亚大学的研究人员在2023年3月发布了一篇题为《GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models》的论文,对大型语言模型对美国劳动力市场的潜在影响进行了分析。OpenAI与宾夕法尼亚大学团队认为,GPT类模型可以广泛地应用于不同的领域和行业,因此可能会对经济、社会和政策产生重大的影响。论文作者团队使用了美国劳动统计局(BLS)提供的数据(涵盖了2019年美国约1.5亿名工作人员的职业信息)并根据LLMs的能力和GPT-4的分类,对不同的职业进行了分析,估计了LLMs对工作任务完成时间和质量的影响,通过研究职业对于AI技术“暴露程度”来研究其对劳动力市场的影响情况。研究结构表面,AI技术革命对于美国劳动力市场的影响主要呈现了三方面特征。


特征1ChatGPT对于劳动力市场的冲击具有普遍性。根据论文内容,OpenAI团队认为LLMs对美国劳动力市场的影响是广泛而深刻的:大约80%的美国劳动力可能会受到LLMs的影响,至少有10%的工作任务会受到影响,而大约19%的工作人员可能会有至少50%的任务受到影响;从薪资结构上看,高收入的工作可能面临更大的被取代风险,例如律师、记者、教师等职业都需要大量使用语言技能,因此可能会受到LLMs较大程度的替代或辅助。



特征2:需要批判思维、深度思考的脑力劳动者可能将幸免。OpenAI团队的研究结果表明,科学和批判性思维技能的重要性与“暴露程度”(可近似理解为AI的课替代程度)呈强烈的负相关,这表明需要科学和批判性思维这类技能的职业不太可能受到LLMs的影响。而相反的,编程和写作技能与曝光率显示出强烈的正相关,意味着需要编程和写作技能的职业更容易受到LLMs的影响。



特征3:受AI影响最大的行业是与文字、数据处理相关的“白领行业”。OpenAI团队同时整理了暴露度最高的职业以及暴露度为“0”的34个职业。其中暴露度较高的职业包括税务规划、数据分析师、金融量化分析师等职业,而运动员、厨师等职业暴露度为“0”,这也说明与“数据处理、信息处理”深度相关的行业受到GPT影响最大,而体力劳动受LLMs影响小,“白领行业”首当其冲。




02


需求端:ChatGPT有望应用于哪些场景?


以ChatGPT为代表的LLMs(大语言模型)由于其具备强大的工作创造力和行业适应力,应用场景也十分广泛。考虑到“AI+”万物的想象空间之广泛难以穷尽,在此部分我们仅探讨LLMs在短期内可能大规模实现应用的行业与场景。


1.AI+客户服务——ICS


ICS,即智能客服(Intelligent Customer Service),指应用人工智能技术,代替人工进行的客户服务。ICS解决方案应用往往以AI为主导,采用语音识别、自然语言处理、知识图谱等技术,将服务对象的需求自动识别,并针对性地反馈答案,从而达到高效、快捷、准确的服务目的。


(1)传统客服“总人力”消耗过大,不具规模经济效应


客户或售后服务是产品的重要保障,也是企业的刚需。对于企业而言,客户服务是其中不可忽略的组成部分,对于客户体验的提升、企业品牌实现差异化至关重要,因此在现代企业运行体系下,客服成为了企业经营成本的重要一环。自千禧年起,二十年余间,电话客服系统在国内逐步普及,客户服务方式也逐步从一对一电话沟通,逐步过渡至电话呼叫中心,乃至此后的多渠道呼叫中心。即便互联网、大数据、云计算、人工智能等技术逐步普及后,使机器人客服渗透率大幅提升,但人工服务仍然是客服不可替代的组成部分之一。


传统客服是劳动密集型行业,规模效益较差。由于此前AI技术尚不能辅以机器人客服彻底取代人工客服,导致呼叫中心客服坐席仍是人力密集型行业。根据中企顾问、iiMedia Research、贝哲斯等咨询机构的估算,当前全国呼叫中心领域客服从业人员总数基本已经达到1000万(2022年数据)这一数量级。从企业视角看,呼叫中心坐席人员流动大、专人培训所用成本高,同时客服人员在服务过程中可能会存在因个人经验不足难以对突发高危事件及时处理,且处理不当进而给企业带来较大的损失等问题,因此大多数呼叫中心客服团队存在员工离职率高、新人合格率上岗率低、培训成本高、团队成长慢等一系列难题,规模效应较差。



此前技术革命浪潮尚未成风,难谈AI替代。虽然基于“预设置”问答内容的智能客服已经普及于各行各业,但无论是从客户使用体验还是实际经济效益来看,此前的智能客服并不能完成对于人工客服的大规模替代。根据iiMedia Research的调研数据,在2022年中国用户认为智能客服现存缺点中,51.4%消费者表示除固定话术外,不能解决个性化问题,47.9%消费者表示不能准确理解提问的问题且答非所问,43%消费者表示回答生硬机械交流缺乏情感,34.7%消费者表示无法顾及老年人、残障人士等群体,34.2%消费者表示问题解决效率低。



(2)AI有望替代浩繁人工,解放数千亿劳动力成本


技术革命已至,智能客服是大势所趋。此前,在实际客服市场中无论是问题解决程度、服务效率还是使用体验,智能客服认可度均低于人工客服,因此智能客服需求天花板一直较低。但对于未来,我们认为:在LLMs(大语言模型)的超级文字能力加持下,在大数据、云计算等技术赋能下,客服机器人进行会话、质检、业务处理将会成为常态,从客服领域有望迅速释放人力成本、提高响应效率。根据iiMedia Research的调研数据,在2022年中国用户对未来智能客服完全取代人工客服期待中,66.8%消费者表示会,33.2%消费者表示不会。



LLMs助力之下,5000亿智能客服市场空间有望被激发。如果基于前文中全国呼叫中心领域客服从业人员总数1000万、大约80%(根据OpenAI所发布的论文数据)的劳动力可能会受到LLMs的影响这两项假设计算,在LLMs加持下的新一代智能客服有望取代800万人工客服从业者;若以平均年薪6万元人民币计算,新一代人工智能客服每年有望取代4800亿元劳动力成本。



对于智能客服未来可能的使用场景,我们做出了如下展望:


使用场景1:银行等金融机构终端应用。金融行业是客服系统的最典型的应用场景之一,比如业务咨询、投资顾问、售后服务等等,都是常见的金融机构客服场景。一方面,国内泛金融行业客服咨询需求量极大,根据广州服务贸易与服务外包行业协会披露的调研统计数据,私募基金相关销售人员平均每天打电话次数超过百次,由此侧面反映出了金融领域从业人员在寻找优质客户资源上压力巨大;另一方面,金融业咨询对于专业度要求较高,因此未经历专业培训的客服人员很可能由于其自身能力有限,且没有专业的解答咨询团队能够及时提供辅助,导致无法快速解决客户提出的问题,有损客户转化率,也不利于树立金融机构专业、权威形象。由此,银行等金融机构终端应用搭配GPT语言系统,并通过深度学习预整合相关专业知识,可能将是新一代智能客服的重要应用场景。



使用场景2:电商售后服务。电商也是智能客服的一个重要应用场景。在电商行业中,客服部门经常面临着处理大量咨询和问题的挑战。传统的客服方式往往回复速度较慢,无法满足用户实时的需求,同时客服人员的水平和经验不一致,回复的质量和准确性也可能存在差异,进而影响了用户的信任度。此前电商客服尚未出现全自动的技术方案来处理上述痛点,而随着AI技术推进,通过GPT等LLMs模型接入电商终端,有望实现真智能客服,同时提升客服效率和客户体验。



使用场景3:互联网线上服务应用。基于互联网的泛服务行业——比如在线医疗、在线教育、在线法律咨询等行业有望受益于AI技术进步而普及。由于上述泛服务业通常具有单价较高的特点,因此营销费往往不低,而智能客服营销可以在其中占有一席之地。比如在智能医疗应用中,AI客服系统在强大的知识库功能下为客服沟通效率提供有力保障,支持一键快捷回复。面对重复度较高的问题, AI在线客服系统有着多重问法去精确识别,相似文法检索,匹配准确答案。



2.AI+搜索引擎——Bing AI


(1)搜索引擎的诞生目的在于打破信息屏障,天然具有AI基因


搜索引擎的核心在于解决信息获取效率问题。搜索引擎作为人们日常生活难以离开的应用,在互联网高速发展和用户规模不断增长的背景下成为了我们生活不可或缺的一部分。搜索引擎诞生之初要解决的是信息获取效率的问题,为用户提供从“问题”到“答案”的最短路径。但事实上,当前市场常见的搜索引擎在解决信息获取效率问题时仍有些许痛点。


痛点1:搜索结果往往需要使用者进行二次筛选。传统搜索引擎反馈的相关信息太多,用户并不容易快速定位到真正想要的信息上,因此需要进行繁复的“二次检索”工序,并未从根本意义上帮助用户实现从“问题”到“答案”的最短路径。


痛点2:传统搜索引擎需要对问题进行“预处理”。传统搜索引擎往往只能以关键词的逻辑组合来表达检索需求,很难直接识别用户使用自然语言表达的查询问句的意图。因此针对某一具体问题,传统搜索引擎需要用户自行提取问题中的关键词,并针对关键词进行搜索,过程较为繁琐。


痛点3:搜索的精确度有待提升。传统搜索引擎缺乏自然语言处理(NLP)技术的支撑,以关键词为基础的索引、匹配算法尽管简单易行,但实则仅停留在语言的表层而没有触及语义,使得检索效果不尽精准。



如何解决上述痛点?此前类似的检索任务先后由《大英百科全书》、网络黄页等信息工具来承载,直至算法出现。算法让搜索引擎天然拥有AI基因,因为机器执行任务的前提是“理解”搜索框背后的需求,因此AI天然具备解决搜索引擎痛点的能力。


(2)GPT-4赋能“New Bing”,激发全新使用场景


微软将大模型GPT强大的语言理解和生成能力注入现有的搜索引擎,推出“New Bing”。由于New Bing使用了GPT系列作为其核心技术之一,因此其可以借助GPT语言模型的强大能力来提高搜索引擎的理解和生成水平,具有从海量的文本数据中学习语言的能力,得以实现各种自然语言处理任务。同时与ChatGPT相比,New Bing的新功能也为大语言模型带来更多使用场景。


优点1:搜索功能。与ChatGPT相比,由于New Bing是基于搜索引擎升级而成,因此其能够根据用户输入的内容通过自带搜索引擎进行搜索,并可以根据最新、最相关、最全面的信息来支持自己的回答。而相比较之下,此前推出的基于GPT-3的ChatGPT并没有检索能力,它只能依靠自己内部的知识和信息来回答问题(信息更新仍然停留至2021年),可能会导致回答的内容不准确、不完整或不即时。


优点2:更多语言。New Bing诞生于互联网巨头微软公司,这也使得可以整合进New Bing的外接功能也更多,其中一个较为重要的功能就是多语言系统。由于可以与翻译应用相对接,并通过GPT-4的超强语言能力实现多语言用户沟通互动,使得New Bing能够提供更多国家、语言的信息内容并不会被限制受众范围和信息来源。


优点3:更多模式。New Bing能够根据用户的需求和偏好,切换不同的模式。New Bing配置了三种模式:平衡模式、创意模式和精确模式。平衡模式即默认模式,能够提供合理、有用、有趣的回答;创意模式是用于生成创意内容的模式,比如提供诗歌、故事、代码、歌词等;精确模式是用于提供精确信息和建议的模式,它能够提供数据表格、数学公式、代码块等。这些模式使得New Bing可以适应不同的场景和目标,并且增加了对话的多样性和趣味性。



使用场景:学术研究助手。考虑到和ChatGPT、传统搜索引擎相比,New Bing具备较为实用的多语言搜索功能,因此New Bing十分适合作为学术研究的辅助工具。一方面,和ChatGPT相比,搜索功能使得New Bing可以用于协助查阅最新的学术文献与研究成果;另一方面,受益于多语言环境,New Bing可以应用在各个常见语言的学术环境,有望打通学术语言壁垒。比如可以在New Bing的搜索栏输入研究主题或问题,如“人口结构对经济有哪些影响?”。之后查看New Bing提供的网页搜索结果,选择最新、最相关、最全面的信息,并可以通过点击链接查看原文献。如果需要进一步的文献综述辅助,只需要输入“请帮我将这些文献中,关于人口结构与经济之间关系的论述,简要总结一下”,即可得到所需结果。



3.AI+内容创作——AIGC


AIGC(Artificial Intelligence Generative Content)指利用人工智能技术生成内容这一功能,指的是AI接收到人下达的任务指令,通过处理人的自然语言,自动生成图片、视频、音频等,被认为是继PGC(Professional Generated Content,专业生产内容)和UGC(User Generated Content,用户生产内容)之后的新型内容生产方式。事实上AIGC代表了AI技术发展的新趋势。过去传统人工智能偏向分析能力,而现在人工智能正在生成新内容,通过大量的训练数据和生成算法模型,实现智能创作。


(1)自媒体行业腾飞催生万亿内容创作需求


ChatGPT点燃自媒体行业情绪,产业布局逐渐完整。随着OpenAI发布GPT-3后,泛AI应用得到市场的广泛重视,AIGC逐步进入蓬勃发展期。全球互联网巨头也集体加强投资布局,发布多领域的预训练模型。如谷歌发布了Imagen等模型,Facebook发布了OPT-175B、M2M-100等模型,百度也在语言应用领域深耕,发布了“文心一言”。此外,与AIGC相关的创业企业融资热度高涨,2022年10月,Stability AI获得约1亿美元融资,估值高达10亿美元;Jasper拿下1.25亿美元A轮融资,估值15亿美元。


AIGC有望实现“全使用模态”覆盖,颠覆内容创作AIGC行业。泛AIGC的应用领域非常广泛,按照模态区分,可以分为音频生成、文本生成、图像生成、视频生成,及图像-视频-文本间的跨模态生成等。例如在音频生成层面,OpenAI推出的Jukebox是一个能够生成音乐的神经网络模型,它可以根据歌手、风格、歌词等条件来生成原创或仿制的音乐作品,再如华为云推出的AI语音合成服务Model Arts-TTS,也可以根据文本内容和语音风格来合成自然流畅的语音;在图像生成层面,Stability AI可以根据用户输入的文本或图像来生成高质量的图像,NVIDIA推出的StyleGAN2-ADA是一个能够根据不同风格和属性来生成逼真人脸图像的模型;在文本生成层面,ChatGPT对于大语言模型的颠覆与引领作用也已然无需赘述。


自媒体催生AIGC应用新场景,激发万亿市场空间。领先于AIGC蓬勃发展的行业是国内的自媒体行业,随着互联网技术的发展和智能设备的普及,自媒体在中国已经成为了一大不可小觑的行业。根据中国互联网络信息中心发布的第50次《中国互联网络发展状况统计报告》,截至2022年6月,我国短视频的用户规模达9.62亿,占网民整体的91.5%;直播用户规模达6.12亿,占网民整体的57.9%。而取代自媒体从业者,或将成为AIGC的新应用场景,根据CSDN的公开数据,到2021年中国自媒体营销市场规模突破2500亿元,较2015年增长了近8倍;同时自媒体从业者人数也呈现出爆发式增长,2015年自媒体从业者已突破200万,2021年末人数达到了370万人,而兼职人数则超过了600万,总计约有970万人在从事自媒体行业。若以80%的劳动力可能会受到AI影响计、以平均年薪10万元人民币计算,截至2021年末自媒体行业约有6208亿元市场空间可被AIGC所蚕食。



(2)AIGC重新定义媒体内容生产力


对于AIGC未来可能的使用场景,我们做出了如下展望:


使用场景1:辅助新闻生成。LLMs的一项可能普及的使用场景是新闻写作领域。比如新闻记者可以在ChatGPT聊天框中输入想要生成新闻稿的主题,例如“你现在是一个财经记者,写一篇关于‘XXXX挂牌新三板’的新闻稿,字数在800字左右,语言风格类似于财经网”。对于新闻工作者来说,可以在提问时尽可能地提供更多的细节和信息,这样可以帮助ChatGPT生成更准确和完整的新闻稿。之后ChatGPT会根据输入的主题,自动搜索相关的信息,并生成一篇新闻稿的草稿。同时ChatGPT也会按照新闻稿的常用格式和结构来写作,包括标题、导语、正文、结语等。对于生成的新闻稿草稿,使用者也可以进一步要求ChatGPT对其进行修改、补充或优化,例如增加或删除某些内容、调整语言或格式、添加引用或链接等。



使用场景2:短视频文案创作。ChatGPT等大语言模型取代媒体创作者的另一项主要领域则是文字创作。比如对于短视频自媒体从业者来说,ChatGPT等大语言模型可以用来进行视频文案的创作。例如可以在ChatGPT聊天框中输入“请帮我写一段短视频文案,主题是‘展望下半年中国经济’,请使用相对轻松的语言”,ChatGPT则可以搜索并整合出一篇适用于相关平台的短视频文案,极大地降低并减少了自媒体从业者的专业门槛与工作内容。




03


供给端:ChatGPT中国产业链构想


中国式“ChatGPT”产业链方兴未艾,想象空间无限。如果仅根据当前产业分布对于未来语言类人工智能产品产业链进行构想,可以将“泛ChatGPT”中国产业链分为:上游基础层、中游技术层、以及下游产品层。




1.上游——基础层:数据、算力、传力、存力


以ChatGPT为代表的大语言模型的核心,在于使用了上亿参数的大模型和海量语料库来生成语句,因此大数据是ChatGPT的核心驱动力,它需要高效的数据采集、数据标注和数据质检等技术来保证数据的质量和可用性。同时由于ChatGPT涉及算力、传力、存力等多项功能,因此需要强大的计算资源和网络带宽来支撑模型的运行和优化。



(1)数据——大语言模型预训练基石


数据采集、标注、处理,都是大语言模型工作的重要环节。上述环节均可以帮助人工智能模型获取、理解和利用数据,从而提高模型的性能和效果。


数据采集:LLMs需要大量的对话数据来训练自己的语言模型,这些数据可以来自于互联网上的公开语料库,也可以来自于专门为LLMs设计的对话数据集——如OpenAI自己收集的人工对话数据。但对于多数LLMs来说,数据供应就成为了上游产业链不可或缺的一环。


数据标注:数据标注指把需要计算机进行机器学习的文字、图片等初级数据打上标签,通过人工贴标签的方式,为机器提供可学习的样本数据,最终使机器可以自主识别数据。原始数据一般通过数据采集获得, 随后的数据标注相当于对数据进行加工, 然后输送到人工智能算法和模型里完成调用,最终实现对模型的训练。比如对LLMs而言,可以对数据进行预标注处理以便于区分不同的说话者、话题、情感等信息,这些信息可以帮助LLMs合成更合适和更有逻辑的回复。


数据处理:在预训练部分LLMs需要对数据进行预处理,以便于适应自己的模型结构和输入格式。因此通过清洗、转换、整合等方式对数据进行预处理,如将文本转换为数字编码,将长文本切分为短文本等在上游数据供给端也十分重要。



代表公司1: 拓尔思——最早专注于NLP技术的集AI数据采集、处理一站式平台企业。拓尔思是国内最早涉及NLP技术的公司之一,也是领先的大数据、人工智能和数据安全产品及服务提供商。拓尔思的主营业务涵盖数据采集、处理、分析,堪称一站式AI数据供应商。比如在数据采集层面,拓尔思为B端用户提供海蜘系统(分布式采集系统),这是一款可在本地部署的新一代分布式大数据采集系统,支持多种数据源和格式的采集、清洗、转换和存储。在行业整体解决方案层面,拓尔思提供数字政府、金融科技、媒体融合、网络空间治理、公共安全、企业数字化转型、知识产权、出版等多个行业领域的解决方案,帮助客户实现数字化升级和创新。



代表公司2: 海天瑞声——国内AI训练数据龙头供应商,自动驾驶有望打开新增长空间。海天瑞声是一家全球AI训练数据服务商,主营业务是训练数据研发设计、生产(即已标注数据)及销售,所生产的训练数据主要运用于人工智能算法模型开发训练,覆盖智能音箱、语音导航、搜索服务、智能驾驶、机器翻译等多种产品相关的算法模型训练过程中。其中,数据标注是海天瑞声的核心业务之一,海天瑞声拥有自研一体化数据平台,平台内上千款自研标注工具联合打通,支持复杂业务场景标注需求。海天瑞声在自动驾驶领域也有着深入的探索和应用,而数据作为自动驾驶研发与量产车的交互媒介,一定程度上决定了自动驾驶技术的上限。海天瑞声的“DOTS-AD自动驾驶平台”,助力自动驾驶企业和研发人员高效利用数据,与自动驾驶企业共建数据驱动链路,加速数据闭环利用的正向迭代。



(2)算力——AI模型成长的催化剂


算力是数据后的下一步重要训练保障。大语言模型的开发过程需要进行大量的数据处理和模型训练,而在数据采集、清洗、标注后,则需要根据数据特征和任务需求进行大语言模型的算法设计、模型训练等,过程中需要利用大量的数据和算法,使模型能够学习到数据中的规律和知识。以上步骤中,将采集、清洗、标注的数据输入模型后,模型设计、训练、评估、优化等主要涉及到计算资源,即算力。



大语言模型需要大量算力来支持其开发过程。人工智能的发展离不开算力的支撑,而算力的规模和性能取决于AI芯片和服务器等基础设施。例如大语言模型需要使用复杂的神经网络结构和参数,这些结构和参数通常以张量形式存储在服务器的内存或显存中,占用了大量的内存资源,以ChatGPT为例,GPT-4拥有1750亿个参数,占用了约700GB的显存;大语言模型的运行需要进行大规模的矩阵运算,根据OpenAI的论文,训练1750亿参数的ChatGPT模型需要的总算力消耗约为3640 P FLOPS/day(算力可以用每秒浮点运算次数即FLOPS衡量,一个PFLOPS/peta FLOPS等于10^15次的浮点运算),即假如每秒计算“一千万亿”次,需要计算3640天。如果使用1024块A100 GPU并行训练则大概需要34天。因此,AI算力性能提升和优化成为决定人工智能突破的关键因素。


国内厂商积极布局大语言模型,廉价算力需求有望彻底释放。百度、阿里巴巴、腾讯、华为等“大厂”都推出了自己的AI大模型,并在各自的业务场景中展现出了优异的效果和创新的应用。AI大模型的研发和应用也对数据和计算资源提出了更高的要求,因此如何提高数据质量和计算效率,降低成本和环境影响,也是国内厂商面临的重要挑战,也必将催生巨大的算力需求。



AI服务器:服务器是AI算力的基础设施,提供计算服务的硬件设备,可以安装不同类型的AI芯片来提供不同级别的算力。所谓AI服务器主要包括云端和边缘两种形式,用于部署和运行AI大模型。不同形式的服务器有各自的优势和适用场景,例如云端服务器位于数据中心或云平台上的服务器,通常由多个AI芯片组成集群或超级计算机,提供强大的计算能力和存储空间,适合处理海量数据和复杂模型的训练和推理任务。而边缘服务器位于离用户或数据源较近的位置的服务器,通常由单个或少量的AI芯片组成,提供较快的响应速度和较低的网络延迟,适合处理实时性要求高、数据规模较小的推理任务。目前,越来越多的AI应用需要在边缘端进行智能处理。



AI芯片:指专门用于处理人工智能应用中的大量计算任务的芯片,如GPU、FPGA、ASIC等,它们在不同的计算场景和精度下各有优势。


GPU(图形处理器):最早用于图形渲染,后来被广泛应用于深度学习领域,因为它具有高度并行化、高吞吐量、高能效等特点,适合处理大规模的矩阵运算。目前,英伟达是全球最大的GPU厂商,其产品被多数AI企业和研究机构使用。


FPGA(现场可编程门阵列):介于GPU和CPU之间的一种芯片,具有可重构、可定制、低功耗等特点,适合处理实时性要求高、数据规模较小的任务。目前,赛灵思和英特尔是全球最大的FPGA厂商,其产品被多数云服务商和边缘设备使用。


ASIC(专用集成电路):专门为某一种任务而设计的芯片,具有高性能、高效率、低延迟等特点,适合处理稳定性要求高、数据规模较大的任务。目前,谷歌和亚马逊等互联网巨头都推出了自己的ASIC芯片,如TPU和Inferentia等,用于加速自己的AI服务。




代表公司1: 景嘉微——高性能通用GPU设计龙头,高算力时代有望实现国产替代。景嘉微的业务范围涵盖集成电路设计、图形图像处理、计算与存储产品、小型雷达系统、无线通信系统、电磁频谱应用系统等方向,广泛应用于有高可靠性要求的航空、航天、航海、车载等专业领域。公司的竞争力在于其图形图像处理方面具有较强的技术实力,目前公司已成功研发JM5400、JM7200、JM9为代表的系列图GPU并成功实现产业化,可以支持OpenGL 2.0的3D电脑图像运算,具有硬件高清解码能力,同时可以用于AI相关的图像识别、渲染、增强等应用,有望成为全民超级算力时代新宠。



代表公司2: 寒武纪——芯片领头羊,是国内稀缺的AI 算力芯片公司。寒武纪是一家专注于人工智能芯片产品的研发与技术创新的无厂半导体公司,是全球第一个量产商业人工智能芯片的公司。寒武纪在图形图像处理方面也具有较强的技术实力,其GPU芯片也已经与国产CPU、国产操作系统、国产软件等进行技术适配,打造国产电脑生态系统,为民用市场提供更多选择。



代表公司3:浪潮信息——AI服务器龙头,有望受益于AI算力高速增长。浪潮信息是全球领先的智慧计算方案供应商,拥有业界最全、最强大的AI服务器产品阵列,支持业界最全的AI加速卡和国产AI芯片,广泛适用于互联网AI公有云平台、企业级AI云平台、视频编解码等场景。浪潮信息在人工智能领域走在了业界前列,在突破AI核心技术的同时,完成了在硬件、平台、管理和框架等四个层面的业务布局,实现了AI全场景覆盖,并通过全球首款开放加速服务器和人工智能业务创新平台AI Station,为多元AI芯片开发、测试和大规模部署提供开放平台,加速多元AI芯片的产品商业化落地。浪潮信息在2021年保持了全球AI服务器市场第一的地位,市场份额达到20.9%,同比增长68.3%,在中国市场份额超过50%。浪潮信息在2022年发布了国内首款元宇宙服务器Meta Engine,将为AI模型训练提供强大算力。



(3)传力、存力——保障模型训练的基础设施


我们常见的AI大模型,对其进行训练、使用都是一种传力、存力敏感的计算业务,需要在在多个设备之间传输大量的数据和参数,比如从云端服务器到边缘服务器、从边缘服务器到用户终端。因此二者的作用也不可忽略。



传力:数据传输速度对于训练AI大模型也十分重要,是大模型使用体验的重要保障。随着AI模型的参数规模不断增长,传统的网络传输性能已经无法满足训练的需求,很容易达到设备之间的通信瓶颈,进而降低AI大模型的训练速度和用户使用大模型体感准确度。而5G的应用场景——增强型移动宽带(eMBB)、超高可靠与低延迟的通信(uRLLC)和大规模机器通信(mMTC)——使得5G能够为AI大模型训练提供更好的网络支撑。因此,5G可以利用其高速率和低时延的优势,缩短通信耗时,提高GPU或者AI加速器的利用率,加速AI大模型训练的进程。例如,在MoE(混合专家系统)这种基于All-to-All通信模式的大模型架构中,5G可以用多个轨道并行传输加速,并且把大部分流量都聚合在轨道内传输,小部分流量才会跨轨道传输,大幅减轻了大规模下的网络通信压力。据报道,采用1.6Tbps超带宽网络的星脉高性能计算网络架构,可以实现AI大模型通信性能的10倍提升,GPU利用率40%提升,通信时延降低40%,单集群规模达到2K(最大规模32K),基于全自研网络硬件平台网络建设成本降低30%,模型训练成本节省30%~60%。


存力:另一项制约AI训练的重要技术模块是存力。存力是指数据存储的综合能力,包括存储规模、性能、安全等方面。存力是另一项制约AI训练的重要技术,因为海量的数据需要进行有效的保存、管理和调用,以支持AI模型的训练和应用。没有强大的AI存力,就无法实现高效、可靠、安全地利用数据驱动智能化发展。


AI存力的两大技术路径:一是全闪存化:“全闪存”是相对机械硬盘与闪存混合使用而言的,指采用闪存作为存储介质的存储设备。相比于传统的机械硬盘,全闪存具有高密度、低能耗、高性能、高可靠等优点,能够有效提升数据的容量和速度。二是存算一体化:存算一体化指将存储资源中嵌入计算能力,实现数据的就地处理,以减少数据频繁移动带来的延迟和能耗方面的开销。以实现数据的高效率、低延迟、低功耗等。存算一体化能够有效应对AI模型的频繁访问和调用,以及AI应用的实时性和智能化需求。



代表公司1:中国电信——“传力”+“算力”,5G龙头积极拥抱新一代AI技术,加快推进AI云计算。中国电信作为国内领先的电信运营商,积极拥抱新一代人工智能技术,以“5G+云计算+AI”为面向行业客户的标配,为通用人工智能发展提供高品质的云、网、算力等服务。旗下天翼云是基于AI大模型的云计算平台,提供了包括数据中心、云服务器、云存储、云数据库、云安全等在内的一站式云服务。根据2022年度业绩报告,中国电信经营收入为4814亿元,同比增长9.5%,服务收入为4349亿元,同比增长8.0%,而其中天翼云收入实现再翻番,达到了人民币156亿元,占服务收入的3.6%,成为公司增长的重要引擎。天翼云已经在政务、金融、教育、医疗等多个行业领域提供了优质的数字化解决方案,帮助客户提升效率和降低成本。



代表公司2:兆易创新——闪存巨头,DRAM业务打开AI存储想象空间。作为国内领先的闪存芯片供应商,兆易创新主营业务包括存储器、微控制器、传感器等,其中存储器业务占比最高,主要包括NOR FLASH、SPI NAND FLASH、DRAM等产品。兆易创新于2022年实现闪存业务收入29.69亿元,占公司总收入的36.5%。其中,NOR Flash收入为25.15亿元,占闪存业务收入的84.7%;NAND Flash收入为4.54亿元,同比增长1.1%,占闪存业务收入的15.3%。兆易创新2022年在全球NOR Flash市场中市占率达到14.8%,排名第三,仅次于华邦和旺宏。根据IC Insights预测,2023年全球NOR Flash市场规模约占整个存储市场的1.8%(约28亿美元),兆易创新目前对应市占率为16.3%。兆易创新还在积极布局DRAM领域,拟募资43.24亿元用于DRAM芯片自主研发以及产业化项目。


代表公司3:恒烁股份——深耕NOR Flash存储器,“存算一体”打开第二成长曲线。恒烁股份深耕NOR Flash存储芯片和MCU芯片,2022年公司的营业收入为4.33亿元,其中存储芯片收入占比88.62%;据招股书显示,恒烁股份于2019年成功设计出第一版存算一体AI原理验证芯片(恒芯1号),在武汉新芯65nm NOR Flash制程上流片成功,同时搭建了一套完整的CiNOR存算一体AI推理系统,可实现人脸检测、手写识别和心电图检查(ECG)等多项的系统验证。恒烁股份披露最新调研纪要(2023年7月)称,公司目前的恒芯2号芯片预计2023年下半年去流片。



2.中游——技术层:大语言模型(LLMs)


大语言模型(LLMs)已经在各个领域展现出了强大的能力和潜力,引发了学术界和工业界的广泛关注和竞争。国外的OpenAI、Google、Facebook等机构先后推出了GPT、BERT、XL Net等知名的大语言模型,并开放了部分代码和预训练模型,为下游任务提供了强有力的支持。国内的学界和企业也不甘落后,相继基于大语言模型推出了自研的大模型,并将其应用于搜索、广告、内容生成、智能问答等场景,助力数字化转型和创新。


大语言模型是AI应用的底层技术,旨在为AI应用提供人机交互基础辅助,是上下游的核心枢纽。大语言模型对于下游“应用层”的核心作用在于可以帮助这些应用“听懂”人类的自然语言,因为大语言模型通过自监督学习的方式,从大量的文本数据中学习语言的规则、结构、语义和逻辑。生成自然语言意味着模型可以根据上下文和任务,产生合适、流畅、有意义的文本内容。这样一来,大语言模型就可以帮助我们常见的AI应用理解人类的自然语言并与人类进行交流和互动。因此大语言模型是承接上游硬件与下游应用的核心枢纽。



(1)海外:科技巨头百舸争流,大模型万亿市值将花落谁家?


微软——“陪跑”OpenAIGPT系列大模型一骑绝尘。众所周知,微软(Microsoft)是全球最大的软件公司之一,也是云计算服务提供商之一,其参与AI大模型“军备竞赛”的方式也很特别,即“陪跑”OpenAI。微软和OpenAI之间的合作始于2016年,OpenAI同意使用微软的Azure云计算软件来运行其人工智能实验;随后在2019年,微软向OpenAI投资了10亿美元,共同开发新的超级计算技术,这一投资旨在继续支持OpenAI构建人工通用智能(AGI),即能够在广泛的经济领域中产生利益的人工智能。最终GPT(Generative Pre-trained Transformer)问世,这是一种Transformer的生成式预训练模型,也是ChatGPT背后的技术基底。2023年1月,双方宣布进入合作第三阶段,微软将对OpenAI进行多年多亿美元的投资。



微软和OpenAI合作对于双方以及整个人工智能领域都具有重要的意义和影响。


对于微软:合作使其能够利用OpenAI的先进的AI大模型,提升自身产品和服务的竞争力和吸引力。例如微软将OpenAI的技术集成到其应用程序中,如GitHub Copilot、Microsoft Designer等,为用户提供了更智能、更便捷、更有趣的体验;微软还推出了智能搜索引擎New Bing(整合了GPT-4模型)服务,该服务使搜索引擎使用者能够通过直接访问OpenAI模型来搭建全新的人工智能使用场景。这些举措不仅增加了微软在消费者和企业市场的份额和收入,也提高了微软在人工智能领域的声誉和影响力。


对于OpenAI合作使其能够利用微软的强大的AI超级计算系统,加速自己的独立AI研究。例如,OpenAI使用微软提供的高性能、高效率、高可扩展和高可靠的计算资源,训练了其突破性的模型,如GPT、DALL-E和Codex等。这些模型展示了人工智能在语言、图像、代码等方面的强大能力,引发了人们对人工智能未来可能性的想象和探索。此外,OpenAI还通过微软获得了稳定和可持续的资金支持,以及更广泛和更深入的市场渗透和用户反馈。这些因素不仅促进了OpenAI实现其人工通用智能(AGI)的愿景,也增强了OpenAI在人工智能领域的创新力和领导力。



谷歌——深耕技术,PaLM2有望开发更多可行应用空间。谷歌作为AI领域的领导者之一,一直在不断地探索和创新大语言模型的技术和应用。2018年,谷歌开发出了BERT模型,这是一种基于Transformer架构的自编码模型,可以通过预训练大规模文本数据,提取出词向量的同时,能够学习到上下文信息。BERT模型在自然语言理解任务上取得了优异的表现,并开启了预训练语言模型(PLM)的热潮。2019年,谷歌随之推出T5模型,它是一种基于BERT的编码解码器模型,可以将所有自然语言处理任务统一为文本到文本的转换问题,并通过预训练海量语料库数据,实现了一体化的自然语言处理能力。T5模型在多个生成式任务上刷新了纪录,并引入了标度律的概念,即模型性能随着模型大小、数据量和计算量的增加而增加。有了BERT和T5的经验,最终谷歌于2022年发布了名为PaLM(Pathways Language Model)的自然语言预训练大模型,拥有5400亿参数,可以执行各种文本生成和编辑任务。在2023年3月,谷歌宣布开放PaLM的商业API使用,并将其大语言模型的能力引入了Google Workspace等产品中,为用户提供生成文本、图像、代码、视频、音频等的服务。此外,谷歌还在开发一个名为Gemini的新的大语言模型,由其子公司DeepMind负责,预计将在2023年下半年发布。


PaLM模型是目前最大的语言模型之一,拥有5400亿参数。PaLM的模型参数量(5400亿)远大于GPT-4,是目前最大的语言模型(根据公开资料,GPT-4的参数量则略大于GPT-3,GPT-3的参数量为1750亿)。因此,在部门领域,PaLM 2在多语言处理、推理和编程方面有着更好的表现,如在Wino Grande、DROP、ARC-C等任务上,超过了GPT-4;而GPT-4则在更通用和广泛的任务上有着更好的表现,比如在MMLU、Hella Swag、ARC-E等任务上超过了PaLM。



(2)国内:互联网公司AI技术百尺竿头,谁将有望竞争OpenAI?


百度——最早入局,“文心”系列有望成为中文大模型领导者。百度自2019年开始深耕预训练大模型研发,打造了“文心”大模型家族,包括文心ERNIE、文心PLATO、文心VIMER、文心ERNIE-ViLG等多个模型,涵盖了自然语言处理、对话生成、视觉理解、跨模态生成等多个领域。在技术层面,“文心”大模型在国际排行榜Super GLUE和GLUE等超过了人类排名第一的水平;在使用场景层面,“文心”可以实现语言理解、语言生成、对话生成、图文生成等多种场景化的文本生成能力,支持输入一段文本描述,并选择生成风格和分辨率,模型就会根据输入的内容自动创作出符合要求的图像或文本;在使用门槛层面,模型已接入BML全功能AI开发平台和Easy DL零门槛AI开发平台,提供预置模型调参和Notebook建模技术方向,支持用户自定义Prompt,模型根据零样本或少样本的输入提示生成结果。




腾讯——“混元”大模型,根植于微信与游戏。腾讯作为国内领先的互联网企业,一直致力于推动人工智能的创新和应用,为用户提供更优质的产品和服务。为了实现这一目标,腾讯发布了“混元”AI大模型。“混元”是一系列超大规模的人工智能模型,覆盖了计算机视觉、自然语言处理、多模态内容理解、文案生成、文生视频等多个方向。“混元”模型是腾讯基于太极机器学习平台自研的训练框架Angel PTM开发的,相比业界主流的解决方案, Angel PTM单机可容纳的模型可达55B,20个节点(A100-40Gx8)可容纳万亿规模模型,节省45%训练资源,并在此基础上训练速度提升1倍。与此同时,“混元”大模型采用了ZeRO-Cache优化策略,通过统一视角去管理内存和显存,在去除模型状态冗余的同时扩大单个机器的可用存储空间上限,通过Contiguous Memory显存管理器管理模型参数的显存分配/释放进而减少显存碎片,通过多流均衡各个硬件资源的负载,通过引入SSD进一步扩展单机模型容量。



“混元”大模型已经在腾讯系多个核心业务场景落地。比如在微信搜索领域,“混元”大模型可以实现微信文章、小程序、视频号等内容的检索和推荐,提升用户的搜索体验和满意度;在游戏领域,“混元”大模型可以实现游戏对话系统、游戏剧情生成、游戏角色生成、游戏画面生成等功能,在增强游戏的互动性和趣味性的同时,降低游戏开发的难度和成本。



阿里巴巴——“通义”大模型有望助力实现全模态和全任务通用。此前在世界人工智能大会上,阿里巴巴达摩院副院长周靖人发布了阿里巴巴最新的“通义”大模型系列,并宣布相关核心模型向全球开发者开源开放。通义模型是阿里巴巴达摩院最新发布的大模型系列,是基于AI统一底座构建的,这也是业界首个实现了模态表示、任务表示、模型结构的统一的AI底座。这意味着一个单一的模型结构可以同时处理不同类型的数据和任务,从而实现了AI的“融会贯通”。通义模型系列中包括了多个核心模型,如语言大模型Alice Mind-PLUG、多模态理解与生成统一模型Alice Mind-mPLUG、多模态统一底座模型M6-OFA等,它们在各自领域都取得了国际领先的成果。通义模型系列中的核心技术和能力已经向全球开发者开源开放,以促进人工智能行业的发展和创新。



3.下游——应用层:百花齐放的App


(1)文字应用:对标ChatGPT


文字应用指可以让用户文本与AI进行自然的交流的相关应用,比如搭载了GPT-4模型的ChatGPT文字AI应用有多种应用形式,例如:“FAQ”机器人、虚拟个人助理等等,这些应用可以整合进各个行业和领域中提供各种服务,如前文所提及的客户支持、智能搜索、医疗保健等。基于文字的对话式AI也是人类与智能机器和应用程序互动的基本构建块,可以实现前所未有的个性化服务标准。这也引得国内诸多厂商争先布局。


百度——“文心一言”是中国最先问世的文字AI应用。文心一言是百度推出的一款基于深度学习的对话AI产品。和ChatGPT一样,可以根据用户的输入生成响应回复。文心一言的名字来源于《文心雕龙》中的一句话:“文心者,一言以蔽之,曰心也。”意思是说,写作的本质就是表达自己的心意,寓意着公司希望通过自然语言生成技术,让机器能够更好地理解和表达人类的情感和意图。当前“文心一言”也是诸多互联网公司之中最早推出的文字类AI应用。


腾讯——多个对话平台有望搭载“混元”模型。对于腾讯而言,公司并未如百度一般较早布局类似“文心一言”的对话式AI。但腾讯早已对外披露正在开发一个超大规模的AI智能模型,即前文所介绍的“混元”大模型,可以作为对话AI的技术底座。当前腾讯旗下的“微信对话开放平台”等应用有望搭载“混元”模型,实现多种文字AI使用场景。


阿里巴巴——达摩院旗下AI已经开始内测。基于此前阿里研发的“通义”大模型,阿里推出了会议AI助理“听悟”、智能对话机器人“小蜜”等国内领先的创新产品,在机器翻译、智能客服、文档智能、法律应用等场景服务客户数超百万。同时有消息称阿里达摩院正在研发类ChatGPT的对话机器人,目前已开放给公司内员工测试。阿里巴巴方面此后回应,确实在研发相关产品,目前处于内测阶段。



(2)图像应用:对标DALL-E


所谓图像应用指的可以根据输入的文字、图像或其他条件,生成与之相关的图像,从而实现内容创造相关功能的应用。在应用层面,参考OpenAI旗下DALL-E等图像应用,AI之于图像可以应用在如下场景:其一,图像修复,比如美图AI可以修复损坏的图像、去除噪声,并可以根据具体图像自动调整亮度和对比度等,使图像看起来更加清晰和美观。二是图像生成或合成,比如DALL-E可以生成完全虚构的图像,包括人物、风景、物体等,甚至可以通过学习艺术作品的风格和特征,生成新的艺术创作;它也可以将一幅图像转换成具有不同艺术风格的图像,例如将一张照片转换成油画风格或印象派风格的图像。


百度——“文心一格”,精准对标DALL-E“文心一格”是由百度飞桨深度学习平台和“文心”大模型等技术支撑的图像生成应用,它使用了知识增强算法和混合专家扩散模型建模,学习了海量优质文图数据,全面提升图像生成质量和语义一致性。比如对其输入“请画一幅‘会游泳的猫’”之后,选择生成图片的数量、比例及其他需求,即可得到相关图片。



阿里巴巴——“鹿班”,脱胎并服务于阿里系应用。“鹿班”是由阿里巴巴智能设计实验室自主研发的一款设计产品,可以在短时间内完成大量banner图、海报图和会场图的设计,提高工作效率 。用户只需任意输入想达成的风格、尺寸,“鹿班”就能代替人工完成素材分析、抠图、配色等耗时耗力的设计项目,实时生成多套符合要求的设计解决方案。在定位上,“鹿班”不仅可以服务于阿里旗下的淘宝、1688等电商平台,也可以帮助其他企业和个人解决设计问题。例如,盒马鲜生通过“鹿班”平台能够释放更多设计师资源,总部上传设计首发后,各区域运营可直接修改上线。



(3)音频、视频,以及其他应用:对标Whisper等


科大讯飞——“讯飞开放平台”有望对标Whisper,成为最强音频AI应用。科大讯飞是国内知名的智能语音企业,从事智能语音、自然语言理解、计算机视觉等核心技术研究并保持了国际前沿技术水平。旗下以智能语音和人机交互为核心的人工智能开放平台——讯飞开放平台,是一个以语音交互为核心的人工智能开放平台。它基于科大讯飞的核心技术,功能覆盖语音识别、语音合成、语义理解、机器翻译等多项服务。其对中文语音识别的准确程度有望对标Whisper。


腾讯——“腾讯智影”:AI视频制作、数字人等功能全覆盖。“腾讯智影”是腾讯旗下一款云端智能视频创作工具,集素材搜集、视频剪辑、渲染导出和发布于一体的免费在线剪辑平台。在视频功能上,“腾讯智影”提供了在线智能视频生成功能,可以根据用户提供的文字,自动生成语音并配以音乐、图片,迅速生成视频;在数字人功能上,“腾讯智影”可以帮助用户定制专属的数字人形象,并通过语音或文本驱动数字人进行视频播报或直播互动。



掘金数字上的中国:ChatGPT中国产业链手册



04


投资端:应如何理解此轮全球市场AI革命行情?


探寻上一轮TMT行情的技术特征、商业特征、市场特征,对于理解本轮AI行情至关重要。近期由于大语言模型的火爆,关于AI技术是否可商业化、可投资化的讨论也如火如荼。通过复盘2010年以来的科技商业发展史,从5G通信、移动互联网的爆发,到人工智能技术革命,技术演进道路之间看似并不相干,但实则有线性关联。


1.在技术层面:如何判断当前AI技术是否可商业化、可投资?


如何识别一项技术能否产生商业价值、进而产生投资价值的方式,是看是否满足如下阶段论。我们对技术的演进过程提出了一个理论:技术进步是先偶然促进了需求,再进一步解放了供给。一项技术创新可能十分先进,但同时在短期内并无商业意义。而在这些偶发的技术当中,总会有一些可以为刺激需求所用,比如淘宝、微信、美团、抖音等互联网平台的诞生催生了网购、外卖、观看短视频的用户行为,进而引发了一系列的经济活动,从而实现总需求的扩张。然而供给侧的创新,从逻辑上讲,理应在需求侧之后。随着互联网平台的进一步发展壮大,更多的网购、外卖、短视频需求也应运而生。预制菜、剪映的诞生解决了生产力问题。由此循环往复,形成了供给与需求的周期交替。


因此详尽复盘这一轮互联网技术革命的四个阶段论,才得以此理解当前的TMT行情究竟缘何而起。



(1)阶段1:技术激发需求,比如移动互联网催生了诸多全新终端应用场景


2010s是中国移动互联网的爆发式增长阶段,智能手机、移动应用、移动支付、移动社交等成为用户日常生活的重要组成部分。同时,中国互联网公司开始进行多元化和跨界的布局,涉足金融、教育、医疗、娱乐、文化等领域,打造了庞大的生态系统和平台效应。


4G催生了新需求,因此互联网技术是一项商业化、可投资化技术。4G技术是点燃移动互联需求的里程碑。2013年工信部正式向三大运营商发放了4G牌照,标志着我国电信产业正式进入了4G时代。4G技术提高了移动网络的速度和容量,使得移动互联网的应用场景更加丰富和多样,普及了视频、音乐、游戏等多媒体内容的流畅播放和下载,推动了移动支付、电子商务、共享经济等新兴业务的兴起,助推了远程医疗、远程教育、远程办公等新模式的实现。这一阶段的技术革命发生在需求侧,激发了不同场景的互联网使用需求。



(2)阶段2:供给出现不足,无法满足技术激发的需求


随着需求的增加,产能形成缺口,人才涌入,企业成本上升。供求错位的第一步一定是价格上涨。而互联网是一个“羊毛出在猪身上,狗来付钱”的行业,因此行业的通胀更加体现在供给侧,也就是企业成本。在互联网行业的快速扩张期,互联网企业初期扩张速度难以跟上需求扩张速度,以满足日趋变大的市场需求,因此形成了产能缺口。


以头部互联网公司为例:2013-2015年期间,百度人员成本从2013年的355.9亿元增长到2015年的416.4亿元,增长幅度高达60.4%;腾讯从2013年的424.2亿元增长到2015年的607.5亿元,增长幅度为27.4%;而京东则从2013年的319.3亿元增长到2015年的459.4亿元,增长幅度高达70.2%。“烧钱抢市场份额”成为了彼时互联网公司的主要业务模式。在此后的几年,动终端APP的Java程序员、互联网节目的音视频剪辑师、带货主播、短视频文案策划从业人数大幅攀升,TMT变为了一种技术型劳动密集行业。


(3)阶段3:技术进一步发展,弥补了供给缺口


从长期经济前景看,AI技术革命无疑会逐渐弥补由于需求暴增所导致的产能缺口。由于“一阶”技术进步所诞生的电商、自媒体等行业,也注定将会受到“二阶”技术进步所影响。AI可以在一定程度上取代或辅助一些重复性高、创造性低、逻辑性强的工作,从而提高工作效率。


比如:ChatGPT可以通过大数据模型来生成吸引人的广告语、营销素材、产品介绍等内容,从而提高直播电商的转化率和收益,甚至替代绝大多数的自媒体工作者。ChatGPT也可以在极大程度上降低了程序员的入门门槛,取代了很大比例低端程序员的基础工作。


(4)阶段4:产能过剩,供给侧结构性出清


技术最终会导致产能过剩。技术的“二阶”进步虽然给予了我们对于经济增长的预期,但从中、短期视角看,仍将对经济增长与就业产生一定影响。在经济增速层面,人工智能技术革命可以改变增长函数,即重新定义劳动、资本、技术等要素之间的相互作用和影响,最终得以实现全要素生产率的提升。但在物价与就业层面,参考第一次工业革命,在中短期内AI技术会导致劳动力的结构性错配,促使失业率走高。但同时由于供给被AI替代,实现企业的成本减少。这一现象也可以理解为AI直接影响失业率和通胀率之间的均衡关系。很多研究工作者也将其解释为菲利普斯曲线的斜率变动。综上,在短期内AI技术主导的此轮TMT技术革命,带来了更加稳定的物价水平与暂时高企的失业,供给侧的出清在所难免。



2.在市场层面:此轮行情能否类比13-15年TMT行情?


如果根据四个阶段论的划分方式,当前AI革命已然标志着TMT行业走入了第三个阶段。在市场层面,每一次的牛市都有其相同之处,这一次的技术革命也可以通过上一次窥见一斑。2013-2015年TMT板块上涨满足如下几个特征。



(1)在技术创新上,应满足四个阶段论的基本条件


是否符合四个阶段论的划分,是从技术层面上识别概念是炒作还是革命的重要判断标准。有无数科技创新诞生于高校或企业,但一项技术若不能大量激发需求或者大规模替代供给,则不能视为一项成熟的技术。一项技术可以实际上激发需求,或者替代供给,是识别技术是否足以进入市场化的重要标准。比如:元宇宙可能是一项很好的概念,但是现有的元宇宙标的公司,可能是受制于其他技术场景,技术无法形成实际规模性需求。正如2000年我们常说“物联网”概念,这一概念在当时并无实际意义,仅是概念。但是当移动终端普及、智能化程度提升,家电、汽车、3C的万物互联才有了实际落脚之处,成为了有意义的技术创新。


(2)在宏观环境上,宽松的宏观环境与市场大势是结构牛市的必要条件


宏观基本面是资本市场表现优异的必要非充分条件。2012-2013年值政府换届之年,初期政策动向尚不明确,两年间货币政策总体保持稳健克制,2013年全年银行存款准备金率按兵不动,A股市场震荡前行。但随之,TMT技术端爆发“一阶”进步,移动互联网爆发,外延并购带来的优质标的价格上攻奠定了2014下半年到2015上半年的牛市基础。叠加2013年,正值“四万亿”政策正面影响逐步消散,分季度GDP同比一路“破8”,此后的2014-2015年稳经济成为首要任务之一。2015年央行以累计200bp的激进幅度降准,最终释放了接近20%的加权平均存款准备金率,“货币之水天上来”。彼时两年间,证监会发布放宽了创业板首发条件以及建立创业板再融资制度,杠杆资金环境宽松,直接催化成当年的“疯牛市”,TMT也成为了这一轮牛市的弄潮儿。而2023年与十年期具有同样的宏观环境:相对较大的下行压力、暂时克制的货币政策与蠢蠢欲动的新主线行情。


(3)在定价逻辑上,ROE不是科技股的主要定价因素


作为一个新兴市场,研究者过去常将国内的科技公司作为成长类公司进行定价研究。因此对于互联网、通信等TMT科技公司的长期增长是一个重要的定价因素。其中一个观察视角是ROE。如果一家公司长期保持高ROE,也就意味如果在不考虑分红的前提下,这家公司的净资产价值将会长期以这一ROE水平增长,资产价格亦然。但是在A股市场中,ROE却不是科技股的重要定价因素。我们通过观察2013-2015年的TMT行情,发现A股市场中技术演进大多是先透支估值,再兑现业绩——预期先行。这两年间的TMT板块总利润增速与行情基本印证了这一观点。另一个验证方式是滚动市盈率与股价表现的关系已经十分明显。由于滚动市盈率每次需要等到当季度财报披露才能进行修正,因此实际上市场估值的领先性要领先于图表的显示。





05


结论:万亿蓝海,掘金数字上的中国


1.在技术端:科技巨头伺机而动


中国已经成为人工智能技术的重要产业发展国家之一。近年来中国的人工智能产业在政策、资本、企业和场景等方面都取得了显著的进步。根据《2021全球人工智能创新指数报告》,中国与美国并列为第一梯队的AI创新国家,中国的AI创新指数为0.76,仅次于美国的0.78。中国在AI开源项目、超算中心、AI专利和论文等方面都位居全球前列,显示出了中国在AI技术水平上的优势。


我国人工智能产业大幕已经徐徐拉开。在产业端,受益于多年以来互联网产业、通信产业、计算机产业的蓬勃发展,中国已经在上游数据、算力、传力、存力,与下游AI应用端形成了较为完备的产业链基础;同时互联网与科技巨头,如“BAT”、华为、京东等企业,也已经紧随国际脚步,逐步布局中游技术端的AI大模型开发。一场人工智能产业发展大幕已经徐徐拉开,中国有望在AI产业复制新能源汽车产业的辉煌,与世界先进水平并驾齐驱。因此从技术层面看布局AI产业正当时。


2.在需求端:万亿市场静待花开


中国的AI产业已经可以逐步替代人力,激发全新需求场景。从技术发展的四个阶段论看,中国的AI产业已经可以逐步取代人力,进入第三阶段。我们提出的“四个阶段论”中认为,第一阶段互联网技术激发了需求,第二阶段产能不足无法满足需求,第三阶段AI技术替代了供给,第四阶段供给过剩出现出清,依照当前情况,部分AI应用的发展,已经逐步威胁到人力劳动,替代了人力使用场景,有望激发万亿劳动力市场需求。


当前AI使用场景方兴未艾,但未来可期,万亿规模静待花开。根据前瞻网数据,2021年末中国人工智能市场规模已经达到2058亿元,增速30%,到2025年突破5000亿元。但根据我们在前文的测算,市场规模远不如此:如果基于前文中全国呼叫中心领域客服从业人员总数1000万、大约80%(根据OpenAI所发布的论文数据)的劳动力可能会受到LLMs的影响这两项假设计算,在LLMs加持下的新一代智能客服有望取代800万人工客服从业者;若以平均年薪6万元人民币计算,新一代人工智能客服每年有望取代4800亿元劳动力成本。以同样的方式计算,以970万人在从事自媒体行业计算,若以80%的劳动力可能会受到AI影响计、以平均年薪10万元人民币计算,自媒体行业约有6208亿元市场空间可被AIGC所蚕食。


3.在供给端:产品博弈箭在弦上


中国企业在AI产业中扮演着重要的角色。中国诸多的优秀科技企业不仅在技术研发、平台建设、应用落地等方面取得了显著的成就,也在市场竞争中展现了强大的实力和活力。比如目前百度、阿里云、腾讯、华为、京东和科大讯飞为人工智能平台的代表性企业已经跃跃欲试;而小米、平安科技、苏宁、滴滴等融合产业较活跃的企业已经开始布局细分市场;此外还有技术层企业代表,商汤科技、旷视科技、云从科技和依图科技作为独角兽公司,通过与传统行业的龙头企业合作,不断深化了其技术应用面和市场竞争力。


谁将成为中国的NVIDIA、OpenAI中国有着庞大的市场需求和数据资源,以及众多优秀的AI企业和人才,具备成为生成式AI领域的领导者和创新者的潜质。因此从投资者角度看,挖掘中国的英伟达、OpenAI至关重要。未来,我们认为抓住中国AI供给侧发展机遇的重点在于三大方面:第一,找到善于GPU芯片制造的自主研发和创新的传统硬件厂商,提升国产芯片的性能和可靠性,减少对外国芯片的依赖是中国AI技术发展保障重点。第二,找到根植于生成式AI模型自主研发创新的软件龙头,对中国来说,不仅要追赶外国模型的规模和性能,更要突破外国模型的局限和缺陷,提出更适合中文语境和场景的技术思路和方法。第三,追寻致力于生成式AI应用探索和创新的互联网企业,因为应用侧是AI产业收入的最下游,是最直接创造价值的产业链部分。


4.在投资端:2023神似2013?


2023与2013的TMT行情具有相似性,这已经是市场共识。综合上一轮技术革命行情特点:


从技术角度看,AI技术已经可以在实际工作中大量替代重复性、机械性脑力劳动,符合四个阶段论的基本假设,与2013年的“一阶”技术革命激发需求,具有相似的技术应用前景。从宏观视角看,经济下行与Q3宽松预期并存,为结构性牛市行情奠定了一定基础,从换手率等市场热度指标看,此轮AI所引领的TMT行情对A股市场具有引领作用。


从板块节奏上看,参考2019-2021年的新能源汽车赛道,行情表现的四个阶段分别是:板块普涨、龙头领涨、追逐次龙头、板块估值兑现。当前AI行情已经走过第一阶段,准备转向第二阶段,对于龙头的挖掘至关重要,因此对于技术路径与公司研发能力的准确判断至关重要。但鉴于A股市场的科技赛道往往具有估值透支的特性,谨慎布局中短期行情是一个可行的配置选择。

- END -

*商务合作:19801183753(微信号)

(添加好友请备注机构及姓名)

本文链接:https://openai-o1.cc/chatgpt/404.html

相关文章

网友评论