人工智能自1956年诞生以来,经历了三次发展浪潮在深度学习的推动下,人工智能成为重要的科技创新方向,以计算机视觉,自然语言处理等为代表的AI技术加速对下游传统行业进行改造我们看到AI在替代或辅助人类工作上提效降本的潜能,且可以通过自动驾驶,智慧医疗等方式创造全新的生活体验并推动多行业效率的提升,在下游行业智能化转型的驱动下,能够带来人民币万亿级的市场空间我们认为AI规模化落地的关键是获取海量数据并低成本解决行业痛点
摘要
优质数据是AI发展的关键,IoT是AI落地最佳载体,碎片化应用场景催生物联网平台型公司计算机视觉,自然语言处理等AI技术建立在训练海量数据的基础上,模型准确性及复杂度的提升对数据规模提出更高的要求我们看到,物联网能够触达大量优质数据,为人工智能的应用提供底层支撑我们认为,面对物联网碎片化的特性,平台型公司具备在实际应用场景中快速迭代模型,打通接入设备及沉淀可复用业务模块的优势,能够将数据优势转化为规模效应
运算能力决定了AI模型训练与推理的效率,处理器性能是关键不同部署场景及应用阶段对AI芯片的需求不同,终端与云端的芯片分别表现出高性价比化及高性能化各类型的芯片在功耗,通用性,成本,编程难度等方面存在差异,CPU通用性强,但运算效率难以达到AI的要求,GPU长于并行处理,以CUDA作为简易编程接口,编程框架成熟,但仍存在提效空间,FPGA具有灵活度高,功耗低的优势,但编程较为复杂,ASIC是针对AI特性开发的芯片,兼具高算力和低功耗,但开发周期长,流片成本高
智能算法是AI的基石,横向开源平台与纵向深耕行业并行AI算法的底层技术相对公开,领先企业需要构建开放平台,将技术优势转化为生态优势同时,伴随着传统行业智能化转型的推进,通用型算法难以满足多样化场景需求,算法企业需要深耕行业以沉淀专业知识及业务模型我们认为触达行业优质数据,针对行业痛点提供高效算法是AI算法企业的核心竞争力
价值创造是人工智能实现规模应用的关键,人工智能对传统行业的改造将带来万亿级市场空间目前的人工智能技术以感知智能为主,我们看好AI技术在包括工业生产,药物研发,医学诊断,智能驾驶等多场景下替代重复性机械工作,提升效率,复刻专家能力,提高生活体验的落地空间
风险
AI落地不及预期,企业的数字化转型不及预期,物联网的发展不及预期。
正文
AI总述:感知智能技术发展成熟,降低成本及模型复用成为AI规模应用的关键
赋予机器人类智慧,人工智能发展历经三次浪潮
自1956年人工智能概念诞生以来,AI的发展经历了三次发展浪潮根据《人工智能标准化白皮书》,人工智能是利用数字计算机或者数字计算机控制的机器模拟,延伸和扩展人的智能,感知环境,获取知识并使用知识获得最佳结果的理论,方法,技术及应用系统
图表 1:AI发展历史中的三次浪潮
回顾人工智能的历史,我们发现控制主义,符号主义,连接主义三种流派在AI的不同发展时期分别占据主导地位。
第一次浪潮:1956年Dartmouth会议的召开被广泛认为标志着AI的诞生,1957年感知机算法被提出这一阶段基于抽象数学推理的计算机已经出现,符号主义得到快速发展,尤其是人机自然语言交流的实现,引领了AI发展的第一个小高潮但模型本身的局限性导致研究进展缓慢,预期过高的资本切断所有资助,人工智能随后进入寒冬
第二次浪潮:1982年神经网络算法诞生,但由于算力不足,AI仍未实现规模落地这一阶段,控制主义流派专注于机器人的基本工程问题1980年后一种叫专家系统的AI程序被世界各地广泛采用,掀起了AI发展的第二个高潮,但由于成本高,应用领域局限,不能自主学习等原因走向衰落
第三次浪潮:90年代计算机的速度和容量的巨大增长引爆了AI革命,标志性事件如1997年深蓝打败人类象棋冠军,2006年由神经网络进阶的深度学习算法领域取得突破性进展,连接主义随之成为人工智能主旋律,2010年后数据的大规模积累继续促进AI发展,标志性事件如2016年AlphaGo打败人类围棋冠军,目前AI迎来了发展的又一个繁荣时期。
经过60多年的发展,人工智能距离赋予机器人类智能水平仍存在较大差距计算机仅拥有低水平的智能,不具有自适应,自学习,自优化等能力,缺乏社会常识或专业知识,只能被动地按照既定的步骤进行工作人工智能的发展初衷是让计算机拥有像人脑一样的智能,而目前的人工智能技术距离人类智能的全部模拟遥遥无期
感知智能的技术发展成熟,深度学习推动AI的繁荣
AI处于弱人工智能阶段,仅能实现感知智能
人工智能包括弱人工智能,强人工智能,超人工智能三个阶段,目前人工智能仅能实现感知智能弱人工智能是仅能感知外界信号做出反应的感知智能,强人工智能是具有人类的思维逻辑,可以自主行动的认知智能的初级阶段,超人工智能是超越人类意志和能力的认知智能的高级阶段
感知智能发展成熟,但AI距离实现认知智能仍存在较大差距目前机器在记忆和多任务处理,图像和语音识别领域具有优势2015年,微软亚洲研究院在图像识别任务上实现了对人类的超越但在理解,情感,联想等高级功能方面,机器仍难以与人类水平相比
图表 2:人工智能纵向分类:弱人工智能,强人工智能,超人工智能
深度学习技术成为主流,自然语言处理及计算机视觉发展成熟
自然语言处理,计算机视觉等感知智能相关技术的成熟度较高,也成为落地较为顺利的AI技术。
图表3 :过去六年AI技术发展及2020年全球AI技术领域占比
伴随着数据量快速增长及算力发展,深度学习成为推动AI发展的主流技术如图表4所示,传统的机器学习算法,比如支持向量机或logistic回归,在数据量增加时,模型性能会伴随着并行机器数目的增加而提高,但很快到达平台期,无法处理海量数据,而利用神经网络的深度学习算法其推理的准确性会伴随着数据量增长不断提升算力的发展及数据量的提升推动深度学习成为AI的主流,进而迎来了人工智能的爆发式繁荣
图表 4:机器学习平台期原因深度学习与机器学习对比
降低成本及提升服务效率是AI规模应用的关键
高成本及低迁移性限制了AI赋能碎片化场景的能力
目前AI已经能实现较高水平的感知智能,但其商业化能力仍存在较大的提升空间,我们认为具体的限制如下:
#1:训练模型的标注成本高,边际成本较高根据IDC预测,全球每年生产的数据量将从2016年的16.1ZB增长至2025年的163ZB,其中80%~90%是非结构化数据,海量数据必须经过清洗与标注才能成为AI训练使用的结构化数据人工成本在一定程度上导致了AI企业的毛利率水平较低,对比SaaS公司,AI公司整体毛利率在50%—60%区间,整体低于SaaS的60%—80%基准
#2:场景碎片化,多样化,模型难以复用AI企业投入高,原因在于:1)根据亿欧智库,多达 40%的现有技术场景存在于需求的长尾中,导致大量技术无法落地,2)面对特定的应用场景,需要结合行业及AI算法知识对模型加以训练,3)即使已有成功落地的经验,AI项目仍然难以泛化,模型具有局限性
图表 5:SaaS公司毛利率高于AI公司
图表6 :2020年全球AI企业技术产品领域分布
AI将沿着单点技术降本及开源框架的路线发展
针对以上发展痛点,我们认为AI未来的方向是单点技术降本及开源框架,最终满足提效降本的需求,构建人机协同的人工智能生态圈。
#1无监督学习,迁移学习,预训练模型推动单点技术降本:无监督学习能够从无监督数据中自行构造标签,降低模型训练过程中的人工干预2020年初,Google,Facebook分别提出SimCLR和MoCo两个无监督表征学习算法(2)迁移学习——将已成功实现模型开发经验迁移到新项目,预训练模型——只需调用已搭好模型的参数已成趋势,AI模型开发难度有望下降,AI模型训练成本有望降低
#2横向开源扩展:未来广泛使用的开源框架和平台将降低AI模型的开发难度及成本,开放共享的平台将全面整合成熟的行业技术,帮助传统企业完成智能化转型。
图表 7:迁移学习与零基础学习对比
支撑AI发展的基础技术:数据,算力,算法
海量数据,强大算力,智能算法是人工智能的三大基石,三者相互依存一方面,如果缺乏海量数据作为输入,难以提升AI算法及模型的准确性,另一方面,海量数据训练模型也对硬件的运算能力提出了较高的要求我们认为,AI行业发展的关键是能够获取海量优质数据并基于此提供低成本的落地方案
海量数据是AI模型的必要输入,数据优势将转化为规模优势
一方面,数据规模会影响训练模型的准确性,对模型的使用效果及范围产生影响,另一方面,模型的日益复杂也推动着数据量需求的提升。
数据量影响模型准确性数据规模与深度学习模型的有效性紧密相关,较大的数据量可以防止模型出现过度拟合以EGU利用近红外光谱数据预测土壤性质的深度学习模型为例,伴随着训练数据规模的增加,深度学习模型的准确性提升,如图表8所示
模型复杂度快速提升,数据量及算力成为模型改进的关键人工智能模型的参数是从历史数据中训练得到的,前沿模型的参数呈现指数级的增长根据《福布斯·模型参数量排行榜》,2011年的AlexNet有0.6亿个参数,而2020 年OpenAI 发布的GPT—3模型拥有1,750亿个参数,2021 年Google发布的Switch Transformer模型将参数量提升至1.6万亿,成为首个参数量超过万亿级的模型对海量数据的触达及运用能力成为AI公司的核心竞争力
图表 8:训练样本量对深度学习模型准确性的影响模型的参数数量呈指数级增长
物联网能够触达大量优质数据,为人工智能的应用提供底层支撑,而碎片化的下游需求特征将催生平台型的物联网公司。
物联网通过5G,NB—IoT,蓝牙等多种通信技术实现万物互联互通,能够多渠道获取不同场景中的海量用户数据,为AI模型的训练提供了必要素材根据GSMA预测,2025年中国物联网的连接数将达到80亿物联网海量数据为AI模型的训练提供了基础,目前在视频监控,智能家居,自动驾驶等领域都实现应用
我们认为物联网平台的竞争核心是数据为王,数据优势将最终体现为规模效应物联网的下游应用场景及需求高度碎片化,难以实现AI模型及底层资源的复用,导致AI赋能的成本维持在较高水平,比如目前安防领域和智能家居领域的AI应用我们认为物联网平台型公司将积累和学习多行业多场景的数据,对下游需求的共性形成理解并沉淀可复用的模块化数据处理方式及AI模型,最终实现跨场景的低成本服务能力
图表9:中国物联网连接数
图表10:安防市场需求呈现碎片化
物联网平台型公司能够实现多场景海量数据的收集及分析,是AI海量数据输入与物联网万物互联结合的关键。具体而言,物联网平台型公司的价值在于:
积累实际场景落地数据,实现AI模型的快速更新迭代物联网平台型企业可以形成应用落地—数据积累—算法优化市场接受度提升—应用落地的飞轮效应以自动驾驶场景为例,特斯拉在车载计算机上搭载FSD系统,实现实时数据采集并在云端自有超算中心进行神经网络模型训练,再将模型通过OTA推送到用户端,通过自动化的数据闭环,逐步覆盖各种场景并提升自动驾驶可靠性
打通碎片化接入设备,构建开放生态圈物联网的接入设备碎片化,设备类型,品牌多样,数据吞吐量差异较大,需要软件平台来承托整个连接网络小米通过投资+孵化的形式打造生态圈,并向消费类硬件提供智能化产品的开发平台,推出Xiaomi Vela操作系统,在各种物联网硬件平台上实现统一软件服务,打通碎片化应用场景
积累多场景行业经验,沉淀可复用的业务模块物联网平台企业通过打造行业标杆的方式,积累行业典型模型,并沉淀算法库以实现模型复用根据公司2020年年报,大华股份将各行业的成功经验总结成为高度标准化的业务模块,实现产品发布效率提升超过40%,降低产品边际成本,形成良性循环
图表 11:小米智能家居全景图
运算能力决定了模型训练与推理的效率,AI芯片技术路线多样化
数据量及算法复杂度提升,算力需求指数级上升
数据量及模型复杂度的指数型增长都要求硬件算力快速提升
伴随着模型复杂度的提升,训练模型所需的芯片算力需求呈指数型增长以2019年Google提出的EfficientNetB7的深度学习模型为例,该模型每完成一次前向计算都需要进行3.61×10^10次基本运算,是2012年同类模型AlexNet运算需求的50倍根据英伟达的数据,自2017年底发布Tesla V100之后,训练最大模型的算力需求增长了3,000倍
海量数据作为AI模型训练,推理的核心输入,将提升AI对于运算能力的需求以自动驾驶为例,伴随着处理数据量的提升,自动驾驶对单设备的算力需求显著提升,如图表12所示根据华为的预测,人工智能相关领域对于算力的需求在2030年将达到16,206 EFLOPS,相当于1,600亿颗高通骁龙855内置的人工智能芯片所能提供的算力
图表 12:无人驾驶不同级别的算力需求(单车)人工智能算力要求
传统CPU难以满足AI运算需求,GPU,FPGA,AISC被引入AI芯片
AI芯片的需求存在差异化,伴随着部署场景(云边端),应用阶段(训练及推理)的不同而变化终端侧芯片高性价比化,主要追求低功耗与高效能,以推理任务为主,而云端AI芯片高性能化,主要追求高计算能力,需要兼顾推理和训练任务
图表 13:端边云的芯片需求
传统CPU难以满足人工智能的运算需求,GPU,FPGA,AISC等被引入AI的芯片解决方案人工智能运算对于芯片的微架构,指令集,制造工艺甚至配套系统软件都提出了较大的挑战
CPU通用性强,但运算效率难以达到AI要求CPU作为通用型的芯片,能够灵活适配不同的应用场景,CPU内部主要由控制器和运算器组成,其中仅ALU(逻辑运算单元)用于完成数据计算,其他模块是为了保证指令能够有序执行CPU只能通过提升主频(单位时间内执行指令的条数)来提升运算速度,而主频不能无限制提高,这也成了CPU应用于AI难以逾越的瓶颈厂商可以对传统CPU的硬件架构进行调整以适应AI的应用需求,英特尔推出的第三代至强芯片支持深度学习加速技术,同时支持多达6个英特尔UPI通道,增强了平台可拓展性
GPU擅长数据并行处理,编程框架成熟,但存在提效空间GPU的特点是单任务,数据并行计算,且内部存储器的宽接口可提升存储器吞吐量,使得GPU的计算速度远高于CPU,适合处理大量类型统一的数据GPU强大的并行计算能力缓解了深度学习算法的训练瓶颈,从而释放了人工智能的发展潜力同时,GPU的编程框架成熟,英伟达于2006年发布的CUDA提供了GPU编程的简易接口,支持C/C++,Python等多种编程语言但由于GPU仍需要进行取指令,指令译码,指令执行的过程,能耗水平较高,要求数据中心的散热模式由风冷改为水冷,并面临较高的运营电费同时,GPU架构最初并非针对人工智能而设计,各代产品必须持续支持图形渲染和科学计算等传统领域,对于实时性要求比较高的推理方向,GPU实际算力可能只有峰值算力的1/10甚至更低(4)针对此,NVIDIA推出了全新的A100系列,A100 通用系统可处理各种 AI 工作负载,包括分析,训练和推理,首次实现了强大算力的精细分配,利用多实例GPU功能,管理员可针对特定工作负载分配合适的资源,确保能从容应对复杂的大任务和简单的小任务
FPGA具有灵活度高,功耗低的优势,但编程复杂FPGA的实现原理是利用门电路直接运算,用户可以灵活定义门电路和存储器之间的布线,因此属于半定制芯片FPGA在并行计算上具有优势,芯片内部可以根据数据包步骤搭建相应的流水线,实现数据并行,流水线并行,FPGA功耗低,根据头豹研究的数据,FPGA的平均功耗(10W)远低于GPU的平均功耗(200W),常用于推理端,同时,FPGA的可编程性导致其灵活性更强,尤其适合特定算法和演进中的算法,而CPU,GPU无法改动硬件资源不过FPGA 通过硬件实现软件的方式导致其编程难度大,编译时间长
ASIC是针对AI特性开发的芯片,但开发周期较长,流片成本高ASIC是为实现特定场景应用要求而定制的芯片,根据不同需求呈现出多样的形态和功能对比前三种芯片,ASIC具备性能更强,体积更小,功耗更低,可靠性更高等优点Google的TPU,地平线的BPU都属于ASIC芯片ASIC 的性能提升非常明显,根据清华大学《人工智能芯片研究报告》,Google的TPU比 CPU和GPU的方案快30—80倍,与CPU和GPU相比,TPU把控制电路进行了简化,因此减少了芯片的面积,降低了功耗但ASIC一般是针对特定应用场景而设计的,灵活性不足,且开发周期长,流片成本也比较高昂
图表 14:AI芯片类型及其技术特点
注:CPU市场份额为1Q21数据,GPU市场份额为2Q21数据,FPGA市场份额为2019年全年数据
图表15:ASIC部分玩家
智能算法是构建模型的关键,横向构建开源平台与纵向深耕行业并行
开放平台构建开发者生态,推动AI产业化进程
开源平台是基础软件的必然选择,算法难以构成长期技术壁垒AI底层算法的发展由学界及产业研发驱动,通过发表论文保持相对公开性,使得算法难以在长期形成技术壁垒回顾分布式开源平台Hadoop的发展历史,Doug Cutting等人根据Google未开源框架MapReduce的论文,利用2年业余时间开发了Hadoop作为MapReduce的开源实现,后被Yahoo,Amazon和Facebook等企业用于数据挖掘
领先企业需要构建开放平台,将技术优势转化为生态优势由于难以形成其的技术壁垒,开源是基础软件走向市场有效的推广手段,可以帮助基础软件完成从技术领先到生态领先以百度为例,百度在其AI开放平台中建立百度AI市场,已经开放语音,图像,自然语言处理,视频,增强现实,知识图谱,数据智能七大方向,超过100项技术能力,帮助企业或开发者基于平台构建AI产品
图表 16:百度基于开放平台构建AI生态
AI开放框架的终极形态是类安卓的开发者生态模式,目前仍处于起步阶段头部智能企业延续移动互联网典型发展模式,提供视觉,语音等技术服务,凭借第三方开发Google,Facebook等海外厂商目前占据了大部分的市场,但由于行业发展时间较短,尚未形成完善的生态体系,各自的开源框架也存在改善的空间,市场竞争格局尚未形成稳态,国内的百度,华为,旷视等构建了开放平台,加速生态建设
图表 17:截至2020年3月全球AI开放平台底层技术框架市场份额
图表 18:深度学习框架开源历史
服务下游应用领域要求专业知识,特殊场景需要特定算法
伴随着传统产业智能化转型的推进,纯粹基础技术输出难以完全满足AI与各行业深度融合的需求,行业深层次的知识和经验尤为重要由于训练算法的迁移性较弱且不同行业的需求存在较大差异,通用型的算法难以满足下游多样化场景需求,需要获取优质的行业数据以训练高效的算法模型AI算法企业向深耕行业的方向发展,代表公司如旷视,云从,地平线,商汤科技我们认为短期内横向赋能和纵向深耕行业两种模式将并行存在,但长期来看获得行业优质数据,提供高效算法以赋能行业是AI算法企业商业化的必由之路
图表 19:AI算法公司的业务方向
探寻AI需求:降本提效是AI规模应用的关键
任何新技术想要在行业中实现规模应用,都需要为企业创造价值就目前的AI技术水平而言,通常只有在点应用上助力企业,而无法全面地助力企业我们认为AI当前主要致力于:替代重复性机械工作,提升生产效率,获取专业知识,提高生活体验等
利用AI在重复事件上的优势,替代人工的繁琐机械工作
AI能够扩大机器处理任务的能力范围,机器在处理机械繁琐的事件中具有优势,能够长时间,稳定工作我们认为,人工智能规模应用的关键在于部署人工智能技术的净收益要高于传统人工方式,因此人工智能的渗透率是因时,因地,因事而异的
工业视觉质量检测:传统质量检测需要质检员高专注,长时间,全方位巡查而智能质检基于计算机视觉技术进行自动光学检测,相机可以自动扫描出被测产品的质量缺陷智能质检在解放人力的同时,也大幅降低了企业的生产成本博世在对一个工厂进行光学检测改造后,减少了45%的测试时间,节省了130万美元的成本(5)
虚拟助理/智能客服:客服的人工成本及培训费用高,且无法随时响应智能客服利用人机语言交互,自然语言处理,知识图谱等AI技术,协助人工完成会话,业务处理等任务,降低人力投入并提高效率中国电信熠星智能客服机器人上线后,2019—2020两年释放话务人员数量10%,公司预计2021年还将释放10%(6)
Robotruck:长途货运存在运输效率不高,有效里程偏低,疲劳驾驶等行业痛点,而Robotruck在长途物流运输中可以将2名司机减少为1名,在短途运输中可以减轻单个司机的工作量,为货运企业及司机实现成本优化同时,Robotruck可以通过算法控制最优的油耗性能和安全距离
图表 20:自动驾驶和人工驾驶货车的油耗与人力成本对比测算
辅助人工活动以提升效率,降低企业运营成本
在部分对认知能力要求较高的任务中,AI虽然无法做到完全替代人类的工作,但可以通过辅助人类工作来提升企业运营效率。
数字孪生:数字孪生是物理对象,流程或服务的数字表示以数字孪生城市为例,管理者可以根据参考平台的演算结果提升城市运行效率杭州依托阿里云建设的城市大脑进行城市道路管理,根据国家信息中心的数据,杭州的城市拥堵排名从2015年的全国前三下降至2020年的第48位,信号灯自动配时路段的平均道路通行速度提升11%
智能药物研发: 药物研发的本质符合锁钥理论,即要找到合适的药物分子来激活或者抑制疾病相关的靶蛋白,这正是机器学习擅长的领域根据Exscientia的数据,通过将致病蛋白质有关的信息与包含大约十亿种蛋白质相互作用的数据库进行比较,可以缩小可能适用的化合物范围,这一技术可以将药物研发周期由四年半缩短至一年,并节省80%的资金(7)
化学材料合成:化学合成目前处于手工操作的阶段,低产率及高成本导致其难以商业落地AI赋能化学合成是指机器利用人工智能的逆合成分析,机器学习,神经网络等技术,迅速找到合成路径根据机器之心的数据,麻省理工学院开发的化学合成开源软件ASKCOS,能根据训练数据来构筑新的化合物,该系统能够处理30种反应类型,完成简单的合成过程只需两个小时(8)
图表21:机器学习在药物研发中的应用
复刻专家能力,提升稀缺资源的可得性
获取专业人士的帮助往往需要付出高昂的成本,AI能够通过复刻专家的知识和能力,减少资源的稀缺性。
智慧医疗:我国医疗资源分布不均,智慧医疗有助于弥补医疗资源分配的不足临床决策支持系统CDSS将医学相关的指南,文献,专家共识以及电子病历作为数据输入,利用大数据分析以及神经网络技术训练临床诊断模型,从而提供临床诊断以辅助医生,最终节约全社会的医疗成本
法律服务:根据司法部数据,截至2020年底我国专职律师为42.44万名,中国平均每3,400人才拥有一名律师,而根据美国律师协会数据,2019年初美国在职律师135.20万名,平均246人拥有一名律师,我国法律专业人才相对缺乏NLP技术的发展,司法透明化都促进了AI对法律服务的赋能,AI可以学习法律文书及历史案件并提供法律建议
智能教育:教育行业的痛点是公平性及个性问题智能教育可以基于大数据分析和多维度识别系统向用户提供个性化解决方案,具有随时可获取,效率高等优点AI在教育中的具体应用包括学生评分和评估,学生保留和辍学预测,情感分析,智能辅导,课堂监控和推荐系统等
图表 22:临床决策支持系统CDSS的理论结构
创造新需求,全面提升生活体验
AI将深刻改变人们的生活方式,通过与物联网的结合全面提升生活体验我们认为相应场景下AI对生活体验的提升至关重要,安全,流畅成为AI规模化应用的关键
智能安防:传统的安防产品以摄像头为主,倾向于记录数据以作为事后证据,缺乏实时主动分析的能力而智能安防利用计算机视觉,人脸识别,车辆识别等技术,能够实现对可疑人员,违法场景的自动识别与跟踪,提升安防效率根据海康威视官网披露,采用全程智慧监控解决方案后,破案线索排查效率提升了20—100倍
智能汽车:乘用车智能化趋势改善了乘车体验智能座舱将实现智能互联新服务,而智能驾驶能够减少人类在驾驶过程中操作,有望实现无人化的驾驶体验我们认为,智能座舱已经步入商业化阶段,而智能驾驶处于高级别(L3及以上)的量产前夜
智能家居:AI助力智能家居实现功能升级,提高生活体验我们认为,智能家居可以通过环境感知,视觉识别等技术进行数据采集并与云端实现互联,在用户数据大量沉淀的基础上,开展大数据分析,构建人物画像,最终实现主动智能,代表公司有小米,涂鸦智能,海尔智家等
图表 23:智能驾驶的定义
产业链及市场空间测算
AI产业链包括基础层,技术层和应用层,其中基础层为AI训练提供强大的算力及处理和储存海量数据,技术层为人工智能产业链提供技术能力,应用层针对特定行业及应用场景提供产品和服务。
基础层:亚马逊AWS,微软Azure,阿里云,腾讯云,百度云等为人工智能提供了算力资源,英伟达,英特尔,寒武纪(已覆盖),地平线,燧原科技,灵汐科技,云天励飞等为AI的计算需求提供底层硬件芯片。
技术层:以 Google,Facebook,阿里巴巴(互联网组覆盖),百度(互联网组覆盖)为代表的互联网巨头较早地布局了AI算法相关领域,Google的TensorFlow是目前最热门的开源算法框架,其他企业则布局细分技术领域,例如致力于计算机视觉的商汤,云从,依图,旷视,聚焦机器学习领域的第四范式等。
应用层:目前大部分AI领域的科技创新企业都属于应用层,包括智慧安防领域的大华股份(已覆盖),千方科技(已覆盖),智慧医疗领域的汇医慧影,推想科技,智慧家居领域的小米(已覆盖),智慧建筑领域的Verdigris,特斯联等。
图表 24:人工智能产业链
在技术发展,成本降低及渗透率提升的推动下,AI有望保持快速发展根据Grand view research的数据,2020年全球AI市场规模为623.5 亿美元,预计2028年将达到9,978亿美元,2021—2028年CAGR为40.2%根据Statista的数据,2020年中国人工智能的市场规模为143亿美元,2015—2020年的CAGR为54.97%
图表 25:全球AI市场规模及预测(亿美元)
图表 26:中国AI市场规模(亿美元)
中美两国是全球AI企业的集中地,亚太区将成长为全球最大市场根据中国信通院,截至2019年3月,全球共有5386家AI企业,其中美国AI企业占全球40.3%,中国占全球22.1%根据Grand view research,到2028年亚太地区AI市场规模将取代北美成为第一在中国,AI企业主要集中于京津冀,长三角,珠三角三大都市圈,北京以468家高居榜首,上海233家紧随其后
图表 27:全球AI分地区市场(亿美元)
下游应用以广告,金融和医疗为主,制造业的数字化转型释放市场空间根据Grand view research的数据,2020年全球AI市场规模前三名分别为广告媒体,银行和金融服务,医疗,到2028年预计前三名为医疗,银行和金融服务,制造业同时,针对下游行业在行业渗透率以及市场规模两个维度的表现,各行业可以落入四个象限,分别是过渡期,萌芽期,成长期和发展期
图表 28:全球AI市场规模中分下游行业占比
图表 29:全球AI技术在各行业的应用(渗透率及市场规模)
从市值分布情况来看,截至2020年底,中国的444家AI上市公司中,77.7%的AI上市企业市值在100亿元以内,100亿元市值之上的企业仅占22.3%,其中9.46%的企业市值超过400亿元。
图表 30:2020年中国AI上市企业市值分布情况
[责任编辑:顾晓芸]
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。