云服务器价格_云数据库_云主机【优惠】最新活动-搜集站云资讯

京东云_石家庄的网站建设公司_新用户

小七 141 0

100兆宽带上行和下行_哪个_数据分析数据库

为了加快今天部署的最大规模机器学习(ML)应用程序的速度,并实现明天ML应用程序的快速开发,国内大数据公司排名,Google创建了称为Tensor Processing Units(TPU)的定制硅芯片。当组装成多机架ML超级计算机(称为Cloud TPU Pods)时,这些TPU可以在几分钟或几小时内完成ML工作负载,而以前在其他系统上则需要几天或几周的时间。今天,Google Cloud TPU v2 Pods和Cloud TPU v3 Pods在beta版中首次公开,以帮助ML研究人员、工程师和数据科学家更快地迭代,并训练更具能力的机器学习模型。

交付商业价值

Google Cloud致力于提供全系列的ML加速器,云服务器主机,包括云和云GPU和云TPU。云tpu提供了极具竞争力的性能和成本,通常可以更快地培训尖端的深度学习模型,同时显著节省成本。如果您的ML团队正在构建复杂模型并在大型数据集上进行培训,我们建议您在需要时评估云TPU:

虽然一些定制的硅芯片只能执行单个功能,但TPU是完全可编程的,这意味着云TPU吊舱可以加速各种最先进的ML工作负载,包括许多最流行的深度学习模式。例如,云TPU v3 Pod只需两分钟就可以在ImageNet数据集上从头开始训练ResNet-50(图像分类),或者只需76分钟就可以训练BERT(NLP)。

云TPU的客户看到了跨越可视化产品搜索、金融建模、能源生产和其他领域的工作负载的显著加快。在最近的一个案例研究中,递归制药公司反复测试合成分子治疗罕见疾病的可行性。花了24小时在他们的on-prem集群上训练的东西在一个云TPU吊舱上只用了15分钟就完成了

云TPU吊舱里的东西

一个云TPU吊舱可以包含1000多个单独的TPU芯片,这些芯片通过一个超高速的二维环形网状网络连接,如下所示。TPU软件栈使用这种网状网络,使许多机架的机器能够通过各种灵活的高级API编程为一台巨型ML超级计算机。

最新一代的Cloud TPU v3吊舱采用液体冷却,以获得最佳性能,大数据开发平台,每一个吊舱都能提供超过100 PB的计算能力。就每秒的原始数学运算而言,云TPU v3 Pod可与全球排名前五的超级计算机相媲美(尽管其运算的数值精度较低)。

也可以使用称为"切片"的较小部分云TPU Pod。我们经常看到ML团队在单个云TPU设备上开发其初始模型(这些设备是一般可用),然后通过数据并行和模型并行扩展到逐渐增大的云TPU Pod切片,以实现更高的训练速度和模型规模。

您可以在本博客文章或本互动网站中了解更多关于TPU底层架构的信息,大数据啥意思,您还可以了解更多关于单个云TPU设备的信息和云TPU豆荚切片在这里。

开始

这是很容易和有趣的尝试云TPU在您的浏览器现在通过这个交互式Colab,使您能够应用一个预先训练的面具R-CNN图像分割模型到您选择的图像。你可以在最近的博客中了解更多关于云TPU图像分割的信息。

下一步,我们建议通过我们的云TPU快速启动,然后尝试下面列出的一个优化的开源云TPU参考模型。我们仔细地优化了这些模型以节省您的时间和精力,广西大数据,它们展示了各种云TPU最佳实践。在越来越大的pod切片上的公共数据集上对我们的一个官方参考模型进行基准测试,是获得大规模云TPU性能的一个很好的方法。

图像分类

移动图像分类

目标检测

图像分割

自然语言处理

语音识别

生成性对抗网络

在云TPU上使用上述参考模型之一后,我们的性能指南、评测工具指南和故障排除指南可以为您提供深入的技术信息,帮助您使用高级TensorFlow API自行创建和优化机器学习模型。一旦您准备好请求云TPU Pod或云TPU Pod片来加速您自己的ML工作负载,请联系Google云销售代表。