2019年“网红”芯片大盘点,哪一颗让你印象最深刻?

百家 作者:AI100 2019-12-09 13:39:17


作者 | Aaron
来源 |TechSugar(ID:TechSugar)

【导读】今年的芯片发布会是一场接着一场,不管是传统芯片厂商,亦或者一些新进者,都在2019年牟足了劲,秀一把芯片实力。今天,我们就来看一看,都有哪些芯片“惊艳”了2019年。


对于半导体圈来说,2019年绝对是一个不平凡的一年。就拿最新的数据来说,世界半导体贸易统计协会(WSTS)称,2019年全球半导体市场规模自前次(6月)预估的4120.86亿美元(年减12.1%)下修至4089.88亿美元、预计年减12.8%,将创自IT泡沫破灭后的2001年(年减32.0%)以来的最大减幅。

 

即便如此,今年的芯片发布会也是一场接着一场,不管是传统芯片厂商,亦或者一些新进者,都在2019年牟足了劲,秀一把芯片实力。今天,我们就来看一看,都有哪些芯片“惊艳”了2019年。

  

华为终端5G芯片巴龙5000和5G基站芯片天罡

 

1月24日,华为发布了两款5G芯片,分别是5G 基站核心芯片华为天罡和5G终端的基带芯片巴龙5000。

 

(图源 | 华为官网)


其中,天罡首次在极低的天面尺寸规格下, 支持大规模集成有源PA(功放)和无源阵子;极强算力,实现2.5倍运算能力的提升,搭载最新的算法及Beamforming(波束赋形),单芯片可控制高达业界最高64路通道;极宽频谱,支持200M运营商频谱带宽。此外,天罡也为AAU 带来了革命性的提升,实现基站尺寸缩小超50%,重量减轻23%,功耗节省达21%,安装时间比标准的4G基站,节省一半时间。

 

资料显示,巴龙5000具备5项世界之最,1个世界领先:全球领先的集成2G、3G、4G的多模单芯模组;速度世界最快,Sub-6 GHz 200MHz:下行链路速度4.6Gbps,上行速度2.5Gbps。世界首个上行/下行解耦多模终端芯片;世界首个同时支持NSA和SA架构的芯片组;世界最快的高峰下行速度:毫米波 800MHz Gbps;世界首个5G芯片上的R14 V2X。

 

依图科技“求索”

 

5月9日,依图科技发布一款云端深度学习推理定制化SoC芯片——依图芯片questcore,中文名“求索”。

 

资料显示,这款深度学习云端定制SoC芯片从设计到制造实现全面国产化,拥有自主知识产权的ManyCore架构,基于领域专用架构(Domain Specific Architecture,DSA)理念,专为计算机视觉应用而生,针对视觉领域的不同运算进行加速,适用于人脸识别、车辆检测、视频结构化分析、行人再识别等多种视觉推理任务。

 

据介绍,在实际的云端应用场景,依图questcore最高能提供每秒15 TOPS的视觉推理性能,最大功耗仅20W,比一个普通的电灯泡还小。

 

在同等功耗下,questcore的视觉推理性能是市面现有主流同类产品的2~5倍,其安防摄像头单路功耗仅为英伟达GPU P4的30%。

 

华为麒麟810

 

6月21日,华为在湖北武汉的发布会上推出了新款手机芯片麒麟810,总体来看,核心亮点包括:台积电7nm制程工艺,华为自研达芬奇架构NPU,旗舰版A76大核CPU,定制GPU,旗舰版IVP和ISP。

 

百度远场语音交互芯片“鸿鹄”

 

7月3日,在2019百度AI开发者大会上,百度发布一款新的芯片远场语音交互芯片“鸿鹄”。

 


鸿鹄芯片使用了HiFi4自定义指令集,双核DSP核心,平均功耗仅100mW。这款芯片是根据车规级标准打造,将为车载语音交互、智能家具等场景带来巨大的便利。

 

阿里RISC-V处理器玄铁910

 

7月25日,在上海举办的 2019 阿里云峰会上,阿里巴巴集团副总裁戚肖宁博士宣布推出业界最强的 RISC-V 处理器——玄铁 910。

 

玄铁 910 采用 16core 结构,12 级乱序流水线,并行 3 发射 8 执行 2 内存访问,最大支持 8MB 二级缓存,AI 增强的向量计算引擎。

 

在性能上,玄铁 910 较主流的 RISC-V 指令性能提升 40%,较标准指令提升 20%。戚肖宁介绍,这源于平头哥体系架构、指令系统、系统优化,以及中天微十余年的量产经验而达到的整体效果。

 

阿里方面介绍,玄铁910支持16核,单核性能达到7.1 Coremark/MHz,主频达到2.5GHz,比目前业界最好的RISC-V处理器性能高40%以上。

 

而且玄铁面向AIoT,面向更丰富的万物互联场景,性能更高,适用性更广,开发和进一步流片量产的门槛更低。

 

清华天机类脑芯片架构登上Nature封面

 

8月1日,顶级学术期刊《Nature》的封面文章刊登了清华大学施路平团队近日发布的研究成果——类脑计算芯片“天机芯”。该成果实现了中国在芯片和人工智能两大领域《Nature》论文零的突破。

 


28nm的天机芯片由156个FCores组成,面积为3.8×3.8毫米,包含大约40000个神经元和1000万个突触,可以同时支持机器学习算法和类脑电路。这篇论文名为《面向通用人工智能的异构融合芯片架构“天机”(Towards artificial general intelligence with hybrid Tianjic chip architecture)》。

 

世界最大芯片

 

8月19日,Cerebras公司发布了全球最大的芯片WSE(Wafer Scale Engine),专注于AI运算,总计1.2万亿个晶体管,核心面积超过46225mm2,集成了40万个核心以及18GB SRAM缓存,带宽超过100Pb/s。WSE芯片基于台积电16nm工艺。

 

WSE将逻辑运算、通讯和存储器集成到单个硅片上,是一种专门用于深度学习的芯片。它创下了4项世界纪录:

 

晶体管数量最多的运算芯片:总共包含1.2万亿个晶体管。虽然三星曾造出2万亿个晶体管的芯片,却是用于存储的eUFS。

 

芯片面积最大:尺寸约20厘米×23厘米,总面积46,225平方毫米。面积和一块晶圆差不多。

 

片上缓存最大:包含18GB的片上SRAM存储器。

 

运算核心最多:包含40万个处理核心。

 

赛灵思最大容量FPGA Virtex UltraScale+VU19P

 

8月22日赛灵思公司(Xilinx)在其于美国硅谷举办的赛灵思首届创新日(Innovation Day)前夜正式推出目前世界上最大容量的FPGA – Virtex UltraScale+ VU19P。


据悉,这款VU19P采用16nm工艺,基于Arm架构,拥有350 亿个晶体管,即有史以来单颗芯片最高逻辑密度和最大I/O 数量,可以支持未来最先进ASIC 和SoC 技术的仿真与原型设计。同时,VU19P也将广泛支持测试测量、计算、网络、航空航天和国防等相关应用。

 

资料显示,VU19P拥有900 万个系统逻辑单元、每秒高达1.5 Terabit 的DDR4 存储器带宽、每秒高达4.5 Terabit 的收发器带宽和超过2,000 个用户I/O。它为创建当今最复杂SoC 的原型与仿真提供了可能,同时它也可以支持各种复杂的新兴算法,如用于人工智能(AI)、机器学习(ML)、视频处理和传感器融合等领域的算法。相比上一代业界最大容量的FPGA  ( 20 nm 的UltraScale 440 FPGA ) ,VU19P 将容量扩大了1.6 倍。

 

地平线国内首款已量产车规级边缘AI视觉芯片——征程2.0

 

8月30日,地平线推出国内首款车规级 AI 芯片——地平线征程二代 Jounrney 2,面向 ADAS 市场感知方案,这是一款已经步入商业化阶段的成熟芯片。

 


征程二代采用双核 Cortex A53 处理器,双核地平线第二代 BPU(伯努利架构),满足车规级 AEC-Q100,等效算力超过 4Tops,典型功耗 2 瓦,采用台积电 28nm 制程工艺,17*17mm BGA 封装工艺。

 

在性能亮点方面,征程二代可将典型算法模型的算力利用率提升到 90% 以上,每 TOPS 算力可处理的帧数同等算力 GPU10 倍以上。感知能力方面,可实现像素级语义分割,每帧高达 60 个目标及其特征的准确感知与输出,车辆及行人测距测速误差均优于国际同等主流方案,识别精度超过 99%,每秒识别目标数超过 2000 个。

 

华为麒麟990

 

2019年9月6日,华为在德国柏林和北京同时发布麒麟990和麒麟990 5G两款手机芯片。

 


发布会上华为表示,麒麟990处理器是业界首款旗舰5G SoC(System on Chip 系统级芯片)芯片,拥有最佳5G、最佳AI与最佳性能体验,使用的是台积电二代的7纳米工艺制造,集成巴龙5000 5G基带芯片,同时支持 SA/NSA两种5G组网模式,由4个A76大核+4个A55小核构成,还有十六核GPU,整体性能会比麒麟980提升10%左右。

 

比特大陆第三代云端AI推理芯片BM1684

 

9月17日,比特大陆正式发布其第三代AI芯片BM1684,该芯片采用台积电12nm工艺制程,Winograd卷积加速下INT8算力可达35.2TOPS,典型功耗仅16W,为视频结构化和加解密算法均做了特别优化。据称是全球唯一一款城市大脑专用芯片。


此外,比特大陆联合创始人兼董事长詹克团表示,7nm云端AI芯片BM1686将于明年发布。

 

阿里平头哥AI芯片含光800

 

在9月25日的杭州云栖大会上,达摩院院长张建锋现场展示了这款全球最强的AI芯片——含光800。在业界标准的ResNet-50测试中,含光800推理性能达到78563 IPS,比目前业界最好的AI芯片性能高4倍;能效比500 IPS/W,是第二名的3.3倍。在杭州城市大脑的业务测试中,1颗含光800的算力相当于10颗GPU。

 

 

清华大学湃方科技AI芯片Tritium 103

 

10月22日,清华大学湃方科技发布人工智能(AI)芯片产品阵列,包括Sticker系列AI芯片IP核、面向视觉应用的首款超低功耗嵌入式AI协处理器Tritium 103、工业视觉边缘计算平台Reactor。


Sticker系列AI芯片能效最高达140.3 TOPS/W,功耗低于40mW,曾在今年7月底的ISLPED 2019上获得设计竞赛一等奖,已在中石油、中石化、山东双轮等行业龙头企业进行了应用,可满足智慧工业、智慧城市、智能制造等各类高能效、高性能应用场景的需求。

 

科大讯飞AI芯片CSK400X系列   

 

10月24日,科大讯飞推出了科大讯飞云端语音操作系统2.0和人工智能物联网平台,并拿出了讯飞与穹天科技联合打造的家电产业专用语音AI芯片CSK400X系列,以及基于CSK400X的四套智能家电模组。


据介绍,此次发布的语音AI芯片CSK400X系列,算力可达128GOPS/s,集成了讯飞的语音AI算法,可以通过深度神经网络算法解决家居中的噪音问题,同时还支持200个唤醒词作为命令词。

 

地平线旭日二代边缘AI芯片

 

10月29日,地平线正式发布了旭日二代边缘AI芯片及一站式全场景芯片解决方案。

 


旭日二代是地平线面向未来物联网推出的新一代智能应用加速引擎,也是地平线在自动驾驶芯片领域技术先发优势的一次成功迁移。旭日二代上的实际测试结果表明,分类模型MobileNetV2的运行速度超过每秒700张图片,检测模型YoloV3的运行速度超过每秒40张图片。

 

在运行这些业界领先的高效模型方面,旭日二代能够达到甚至超过业内标称4TOPS算力的AI芯片,而其功耗仅为2W。

 

英特尔Movidius VPU和Nervana NNP

 

11月13日凌晨,Intel在旧金山举办的人工智能峰会上正式发布了新一代英特尔Movidius VPU(视觉处理单元),代号为Keem Bay,可用于边缘媒体、计算机视觉和推理应用,并计划于明年上半年上市。

 


据介绍,Keem Bay的性能相较上一代VPU提升了10倍以上,达到了英伟达的TX2的4倍,华为Ascend 310的1.25倍,并且功耗也只有约30W。Intel表示,如果能充分利用Intel OpenVINO工具包的开发者可以再获得50%的额外性能。另外,在特定情况下,Keem Bay每瓦性能比英伟达TX2高出了6.2倍。在单位面积所能提供的推理性能密度上,Keem Bay达到了英伟达TX2的8.7倍。

 

Intel表示,Keem Bay将于2020年上半年推出,落地形式包括PCIe接口和M.2接口的产品。

 

此外,英特尔展示了面向训练(NNP-T1000)和面向推理(NNP-I1000)的Nervana 神经网络处理器(NNP)。

 

据官方介绍,NNP-I是全新构建的,具备高能效和低成本,且其外形规格灵活,非常适合在实际规模下运行高强度的多模式推理。NNP-T针对深度学习训练开发,在计算、通信和内存之间取得了平衡,最终的目的是赋能分布式训练。

 

点击查看《英特尔2019年发布的所有芯片》

 

联发科天玑1000

 

11月26日,联发科发布了旗下首款集成5G调制解调的智能手机SoC移动平台——天玑1000。

 

(图源 | 百度百科)


据资料显示,天玑1000采用7nm工艺制造,CPU部分集成4个ARM Cortex-A77核心和4个ARM Cortex-A55核心,其中大核主频高达2.6GHz,小核主频为2.0GHz。图形处理器方面,天玑1000采用ARM Mali-G77 GPU芯片。据悉Mali-G77可在5G速度下带来畅快的流媒体和游戏体验。同时,天玑1000支持120Hz的FHD+显示和90Hz的2K+显示,并且它是全球第一个支持4K分辨率下60帧谷歌AV1格式的移动平台。

 

此外,天玑1000集成MediaTek 5G调制解调器,除了节省能耗外,还支持5G双载波聚合(2CC CA)技术,同时也是全球第一款支持5G双卡双待的芯片。论速度,天玑1000 在Sub-6GHz频段达到4.7Gbps下行和2.5Gbps上行速度。它还支持Sub-6GHz频段SA独立组网与NSA非独组网,以及2G到5G的各代蜂窝网络连接。

 

Imagination的IMG A系列

 

12月3日,Imagination Technologies公司针对图像及视频应用,发布了PowerVR 第十代(Series10)图形处理架构IMG A系列(IMG A-Series)。据称,IMG A系列是Imagination Technologies有史以来发布的性能最强大的图形处理器(GPU)半导体知识产权(IP)产品,首次搭载该IP的SoC器件预计在2020年出货。


IMG A系列在相同的时钟和半导体工艺上,比正在出货的PowerVR设备性能提高了2.5倍,机器学习处理速度提高了8倍,且功耗降低了60%。据称,与当前可用的其它GPU IP相比,IMG A在性能、功耗、带宽和面积上都有优化,并且具有包括确保50%的图像压缩数据等特异性优势。

 

高通骁龙865和骁龙765/765G

 

北京时间12月4日,在高通骁龙技术峰会首日,高通正式发布了最新处理器骁龙865 和骁龙765/765G。

 

骁龙865依然没有集成基带。高通表示,骁龙865搭载了X55 5G基带,采用了第5代AI引擎,支持了HDR10+,5G网络方面则是支持mmWave毫米波,Sub-6 GHz, CA, DSS, 独立和非独立组网。高通骁龙865的AI性能达到了15 TOPS,是上代的两倍,支持 8K30 帧或者是64MP 4K视频拍摄,最高支持200 MP的相机。

 

性能方面,高通骁龙865的GPU性能提升了25%,将给手机游戏带来桌面版的体验。综合性能方面,高通表示骁龙865 在 CPU、GPU 等项目中持续性能第一。

 

骁龙865平台包括SoC处理器、骁龙X55基带和相关组件两大部分,其中SoC处理器采用台积电7nm工艺制造(骁龙765/骁龙765G是三星7nm EUV),内部集成Kryo 485 CPU处理器、Adreno 650 GPU图形核心、Spectra 480 CV-ISP计算视觉图像处理器、Hexagon 698 DSP信号处理器、传感器中枢(Sensing Hub)、SPU安全处理器、内存控制器等诸多模块。

 

以上所发布的芯片,哪一款让你印象最深刻呢?如有遗漏,欢迎在评论区补充。


(*本文为AI科技大本营转载文章,转载请联系原作者)



精彩公开课




推荐阅读

关注公众号:拾黑(shiheibook)了解更多

[广告]赞助链接:

四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

公众号 关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接