
“强势出圈”的ChatGPT和AIGC
OpenAI创立于2015年12月,发布ChatGPT引燃AI行业热度。GPT(Generative Pre-trained Transformer)系列是OpenAI采用以Transformer结构为核心的,打造的自然语言处理(NLP)领域的大语言模型(LLM),其最大特点是使用了大量的未标注的语料进行无监督的预训练,然后在各种有监督的任务上进行微调。基于文本预训练的GPT-1,GPT-2,GPT-3三代模型都采用以Transformer结构为核心的模型。微软在2019年向OpenAI投资10亿美元,并为OpenAI建造了一台由数万个A100 GPU组成的大型AI超级计算机,成本或超过数亿美元。GPT模型正是由这台超级计算机提供支持,OpenAI试图训练更多需要学习海量数据、拥有超大参数规模的AI模型,需要长期访问强大的云计算服务,GPT-3的参数量达到了1,750亿,微软构建了一个可在非常大的范围内运行且可靠的系统架构,这使得 ChatGPT成为可能。OpenAI于2022年11月先后推出了GPT-3.5和ChatGPT,GPT-3.5使用了更新的语料进行预训练,而ChatGPT是基于GPT-3.5的对话机器人,能够根据用户的输入生成流畅、有逻辑的回答,以及完成撰写论文报告、翻译文字、编写代码等文本生成任务,并且能根据聊天的上下文进行互动。
AIGC(AI Generated Content)即生成式AI,被认为是继专业生产内容(PGC)、用户生产内容(UGC)之后的新型内容生产方式,指利用人工智能技术生成内容,包括文字、图片、音频、视频等。而ChatGPT是一款智能聊天机器人程序,ChatGPT即属于AIGC的一种表现形式。AIGC涉及无监督和半监督学习算法,截至目前其发展历程主要分为三个阶段:统计机器学习方法阶段(2010年前):首先对数据进行手工标注,然后构建其重要特征,最后构建概率模型并进行参数优化,从而将概率最大的输出作为结果;基于深度学习的神经网络模型(2010年-2017年):深度学习算法被引入,本质上是通过大量数据训练神经网络,主要表现形式为:CNN(卷积神经网络)、RNN(循环神经网络)等。相比统计学习方法,省去了复杂且手工的特征构建;基于Transformer结构的预训练模型(2017年至今):利用大量无标注数据进行自监督学习,然后再使用少量的标注数据对下游任务进行微调(即迁移学习)。数据、算力、算法为AIGC核心要素。

AIGC从何而来
目前,AI发展所取得的大部分成就都和大数据(Big Data)密切相关。通过数据采集、处理、分析,从各行各业的海量数据中,获得有价值的洞察,为更高级的算法提供素材,与此同时,人工智能的出现也提高了可利用数据的广度,通过算力、算法结合应用。数据作为新兴生产要素,数据的拥有者、加工者是产业发展的基础。国内头部互联网厂商如腾讯、阿里、百度在研发、算力投入等方面具备持续大规模投入的能力,另一方面本身也是海量数据的拥有者,未来有望推出全球的中文语言大模型。
算力(Computing Power)作为基础设施,大语言模型以及AIGC将带来对底层算力需求的急剧增加,是AIGC资本开支的主要受益者,核心参与者英伟达、AMD竞争优势显著。算力相关厂商包括芯片厂商、服务器厂商、数据中心及云服务厂商三类厂商,且从市场需求及供应链安全等视角看,芯片厂商的受益程度居前,包括CPU、GPU、 FPGA、ASIC等细分领域。
相比于ASIC芯片,GPGPU具有更强的通用性。主流的AI加速芯片市场上,GPGPU占到90%的市场份额。传统的小体量模型依赖CUDA,因此GPGPU更加合适,而大模型对于CUDA生态的依赖小,因此GPGPU和ASIC的差距不明显。但是国内的大模型训练目前只有GPGPU可以完成,ASIC还不够成熟。第一梯队的海光芯片(深算1号)可以运行通用的大模型,只是效率比较差。第二位应该是华为的昇腾910,但是只能运行华为自己优化后的大模型。寒武纪只能运行大模型的推理。景嘉微不属于这个市场。沐曦的C100预期性能对标英伟达的H100,壁仞的BR100受到了美国商务部的限制。目前最值得期待厂商的是沐曦。AI芯片的硬件门槛不高,软件门槛较高。在几个核心专利中国内都没有积累,因此会受到美国限制。
除了 CPU/GPU 等算力硬件需求强劲,网络端也催生了更大带宽需求,以匹配日益增长的流量。与传统数据中心的网络架构相比,AI 数据中心的网络架构可能存在一些变化。在传统的数据中心中,网络侧主要包括传统三层架构和叶脊架构,AI 数据中心中,由于内部数据流量较大,因此无阻塞网络成了重要需求之一。英伟达的 AI 数据中心中,采用了胖树(fat-tree)的网络架构来实现无阻塞的功能,在此架构中存储侧独立组网,与计算侧网络架构分开,也需要一定数量的交换机和光模块。因此,相比较传统数据中心,AI 数据中心中的交换机及光模块数量大幅提升。
人工智能的发展将对算力提出更高要求,算力网络基础设施需求有望持续提升。根据中国信通院数据,2021年全球计算设备算力总规模达到 615EFlops(每秒浮点运算次数),同比增长 44%,其中基础算力规模为369EFlops,智能算力规模为232EFlops,超算算力规模为 14EFlops,预计 2030 年全球算力规模将达到 56ZFlps平均年均增长 65%。我国智能算力规模持续高速增长,2021年智能算力规模已经超过通用算力。根据中国信通院数据, 我国计算设备算力总规模达到202EFlops,全球占比约为33%,保持 50%以上的高速增长态势,增速高于全球,其中智能算力增长迅速,增速为85%,在我国算力中的占比超过 50%。
算法(Algorithm)是AIGC的技术壁垒,当前通用型AI由GPT领跑,而在细分领域上,行业内的主要参与者包括谷歌、Meta、Anthropic、Hugging Face和百度等公司。随着细分龙头竞相研发创新算法和优化现有技术、以及模型迭代下对数据、算力的需求高速膨胀,AIGC行业技术壁垒将不断提高,现有优秀参与者护城河极深。
AIGC市场潜力巨大,应用领域迎来生产力解放。全球AI软件市场规模将在2025年达到1260亿美元,2021年到2025年年复合增长率为41.02%。二级市场的火热也反映了AIGC发展的确定性趋势。在大模型的快速迭代推动下,搜索引擎、办公软件、汽车、媒体、AI绘画设计、AI广告营销、智能工作助理等应用率先落地的行业将具备较强商业化机会。其中海外是否有映射、API能否接入、场景是否有容错等将成关键考量因素。
AIGC向何而去
ChatGPT的大火,带来了AIGC技术及相关应用的“强势出圈”。除了感慨AI超强的内容生成输出能力之外,各界也开始思考AIGC可能产生的潜在风险。3月31日,据央视报道,意大利个人数据保护局表示,已就OpenAI聊天机器人ChatGPT涉嫌违反数据收集规则展开调查,即日起禁止使用ChatGPT,并暂时限制OpenAI处理意大利用户数据。据悉,OpenAI公司必须在20天内通过其在欧洲的代表,向意大利个人数据保护局通报公司执行保护局要求而采取的措施,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。此外,欧盟执法机构欧洲刑警组织警告ChatGPT可能被滥用于网络钓鱼、虚假信息和网络犯罪;非营利组织人工智能与数字政策中心(CAIDP)也向美国联邦贸易委员会(FTC)投诉称,GPT-4“有偏见性,欺骗性,对隐私和公共安全构成风险”。AIGC模型的形成和完善依赖于大量的数据训练,而用于训练的数据往往包含受法律保护的内容。如何规范发展AIGC是“强势出圈”下一步需要思考的问题,优化与完善模型设计,是AIGC避免潜在风险的重要途径之一。

