随着我们进入开源的第三年,深度学习平台PaddlePaddle得到了重大升级。4月23日,在国家深度学习技术应用研究院与百度联合举办的首届WAVE SUMIT2019深度学习开发者峰会上,PaddlePaddle首次展示了全景,抛出了11个重磅发布!

新发布的PaddleNLP开源工具集(业界首个视频识别工具集)和业界首个视频识别工具集。培训课程展示了大规模分布式训练和工业级数据处理的两大特点;部署过程,第一个预测服务Paddle Serving和PaddleSlim用于模型压缩;工具方面,预训练模型管理工具PaddleHub,深度强化学习工具PARL的重大升级,自动化网络结构设计AutoDL Design正式开源。在服务方面,宣布了价值1亿元的计算能力支持计划和企业深度学习实战阵营。深度学习将人工智能推向工业生产阶段,深度学习框架是智能时代的操作系统。从开发、培训、部署、工具到服务,PaddlePaddle展示了经过行业实践磨练的“工具”的全面、稳定和高效功能。第一,发展:在添加了两个主要模型工具集NLP(视频)的模型库方面,PaddlePaddle开源了60多个官方模型,这些模型在真实商业场景中经过验证,涵盖了视觉、自然语言处理和推荐等AI核心技术领域。它已成为拥有最官方支持模型的深度学习平台。现在,PaddlePaddle再次发布了PaddleNLP,这是一个工业NLP开源工具和预训练模型集,以及业界首个视频识别工具集。

PaddleNLP是一个基于PaddlePaddle构建的工业汉语NLP工具集,涵盖了全方位的汉语处理任务,工业效果较好。PaddleNLP提供了全面而丰富的中文处理任务,拥有目前业界最有效的中文语义表达模型ERNIE和基于用户大数据的应用任务模型。基于PaddlePaddle深度学习框架构建的基本NLP算法模型和NLP应用任务的灵活组合,使相同类型的算法模型可以灵活插入,真正高效且易于使用。

此外,PaddlePaddle还发布了业界首个视频识别工具集,旨在为开发人员提供一个方便高效的模型来解决视频理解、视频编辑和视频生成等一系列任务。该工具集提供了适合视频任务的通用骨架代码,涵盖视频识别方向的7个主流模型,包括StNet、Attention LSTM和Attention Cluster三个自主开发模型,百度视觉团队在国际竞赛中获得了冠军。目前,主要的视频理解技术已应用于百度的一些核心业务,如百度Feed Stream、百度搜索、百度Cloud VCA系统,视频标签组前五位准确率达到96%,百度Feed Stream短视频分类完全无需审核。培训:业界最强大的超大规模并行深度学习能力

在培训课程中,超大规模深度学习并行技术一直是PaddlePaddle的优势之一。大规模分布式训练主要从三个方面进行升级,首先实现了对多机器多卡训练的全面支持,具有良好的扩展性。此外,我们还提出了在恶劣网络条件下进行稀疏通信的技术,大大降低了带宽对训练速度的影响。其次,为了应对超大规模稀疏参数的挑战,我们设计并开放了超大规模稀疏参数服务器,以便开发人员可以轻松下载相关图像。基于对实际推荐场景的数据验证,PaddlePaddle在100个节点 *10个线程/节点的情况下,可以实现60万到140万 /s的吞吐量,取决于批量大小,每小时可以处理20亿到50亿的数据,在批量大小为512的情况下,可以实现90%的加速率。该系统已应用于百度馈送流和凤凰商业推广系统,可以有效地解决超大规模推荐系统、超大规模数据、自膨胀的大规模特征和高频模型迭代问题,具有超大吞吐量和高效率。第三,大规模分布式培训支持在各种容器上的快速执行,同时支持在K8S生态系统中使用PaddlePaddle进行培训。在这个大数据场景中,数据吞吐量是非常重要的,数据处理往往是一个很大的痛点,因此PaddlePaddle开发了一个数据处理组件供开发人员使用。优化分布式IO,以提高远程文件系统的流式读取能力。GPU多机器多卡同步训练通过添加稀疏通信功能提高了对带宽不敏感的训练能力,并在低网络带宽网络环境(如10G网络)中将同步训练速度提高了10倍。部署:在开始开发和训练预测服务PaddleServing和用于模型压缩的PaddleSlim之后,将模型部署到各种应用场景中是一个重要的步骤。部署链接需要一个快速推理引擎,在此基础上,我们需要进行模型压缩才能部署到更多的硬件上,如果实际使用的话,还需要支持硬硬集成功能。

(PaddlePaddle端到端全流程部署方案)PaddlePaddle目前提供了一个完整的端到端全流程部署方案。PaddlePaddle支持多种硬件,提供了一个全面的、最先进的加速库和推理引擎。PaddlePaddle推出了预测服务PaddleServing和用于模型压缩的PaddleSlim。

Paddle Serving与核心框架的模型训练课程无缝协作,提供深度学习预测云服务、嵌入式模型和批量预测。Paddle Serving目前已在百度的许多产品线中使用。

PaddleSlim实现了基于PaddlePaddle的模型压缩,可以在精度损失小的情况下有效地进行模型体积压缩,涵盖了当前主流网络的修剪、量化和蒸馏三种压缩策略。参数是集中管理的,并在两行Python代码中调用自动模型压缩。即使MobileNet模型的尺寸很小,也可以在不影响模型效应的情况下实现70%以上的尺寸压缩。工具:开源AutoDL设计、升级PARL以及PaddleHub的灵活性、效率和易用性是PaddlePaddle受欢迎的重要原因。在许多新版本和重大升级中,工具组件特别突出。这一次,PaddlePaddle不仅对开源AutoDL Design、深度强化学习框架PARL进行了升级,还首次提出并发布了预训练模型管理工具PaddleHub。

传统神经网络的结构设计是由人类根据经验设计的,不断调整以获得最佳结果,过程更加复杂和耗时。AutoDL设计自动化网络结构设计是一种深度学习设计,在理想状态下,用户只需要提供一个数据集,整个系统将根据数据集本身不断尝试各种类型的网络结构和连接方式,训练一些神经网络模型,逐步自动化迭代和尝试。我们将输出模型。我们开源了基于PaddlePaddle的AutoDL Design源代码,以及在CIFAR-10数据集上训练的6个模型,并将这6个模型集成在一起,实现了98%以上的准确率。

PARL是一款基于百度PaddlePaddle构建的深度强化学习工具,继NeurIPS2018假肢挑战冠军训练代码和主流强化学习模型1.0版之后,此次升级专注于并行,可以通过简单的修饰符实现并行化。使用此限定符时,计算密集型任务(如数据预处理或模拟器模拟)将自动部署到用户指定的计算资源中,不再占用主线程的计算资源。以PARL实现的IMPALA算法的评估结果为例,在Atari的经典评估环境中,Pong游戏在7分钟内达到了20分,breakout游戏在25分钟内达到了400分。

PaddleHub是一个简单易用的预训练模型管理框架,旨在帮助用户更有效地管理模型并执行迁移学习,提供三种功能:预训练模型管理、命令行一键使用和迁移学习。模型管理可以使用集线器命令行来完成诸如下载、搜索和版本控制基于PaddlePaddle的预训练模型等功能。无需代码,您可以直接从命令行使用预训练模型进行预测,并快速调查训练模型的有效性。对于迁移学习,我们提供了基于预训练模型的Finetune API。在这次活动中,Ma Yanjun展示了一个很棒的演示,只用10行代码就完成了迁移学习。服务:价值1亿元的计算能力辅助计划!计算能力是深度学习发展不可或缺的重要“能源”。为此,PaddlePaddle宣布了一项“富有”的计划,让场地兴奋不已。百度一站式开发平台AI Studio推出了价值1亿元的计算能力支持计划,打破计算能力对开发者的束缚。

免费计算能力主要有两种模式,第一种是一人一卡模式,你可以使用邀请码来获得计算能力时间。另一种是远程集群模式,PaddlePaddle提供高性能集群,开发人员只需登录AI Studio即可免费使用。

但这并不是深度学习开发人员的唯一支持。对于大学,我们推出了深度学习教师培训课程、联合教育特别基金和AI Studio教育版。对于开发人员,我们提供免费的在线课程,免费的计算支持和不间断的事件交互。对于企业来说,我们推出了深度学习架构师培训项目黄浦学院,并进一步推出了覆盖1000家企业的企业深度学习实战阵营--AI快车道。三年的开源--更精细的基础框架设计,更丰富的算法模型,更强大的系统性能和稳定性,更完整的异构硬件支持,更全面和亲密的开发者生态系统--PaddlePaddle不断在实践中锻造,为中国开发者打造了一个“神军”。为什么是智能时代的剑?PaddlePaddle是你的选择。