云服务器价格_云数据库_云主机【优惠】最新活动-搜集站云资讯

服务器_python访问数据库_哪家好

小七 141 0

在具有新的200 TB对象大小的Blob存储上运行高规模工作负载

Azure Blob存储是一个可大规模扩展的对象存储解决方案,它为每个客户提供从少量到数百PB的数据,这些数据类型包括日志记录、文档、媒体、基因组学、地震处理等等。阅读azureblob存储的简介,了解如何在各种场景中使用它。增加对Blob存储的文件大小支持现在有工作负载的客户使用受文件系统限制的文件,文件大小最大可达EB。大多数使用量不会达到文件系统的限制,但对于使用大文件的特定工作负载,其大小确实可以扩展到数十TB。我们最近宣布了我们新的最大blob大小200tb(特别是209.7tb)的预览,增加了当前5TB的大小限制,这是40倍的增长!每个对象增加的大小超过200TB,比其他提供最大对象大小5TB的供应商要大得多。这一增加使得当前需要多TB大小文件的工作负载能够移动到Azure,而无需额外的工作来分解这些大型对象。对象大小限制的增加将解除阻止工作负载,包括地震分析、备份文件、媒体和娱乐(视频渲染和处理),以及其他包括使用多TB对象大小的场景的工作负载。举个例子,一家试图从私有数据中心迁移到Azure的媒体公司现在可以利用我们的能力支持200TB大小的文件来做到这一点。增加我们的对象大小就不需要在将工作负载迁移到Azure的计划中仔细地清点现有的文件大小。考虑到许多本地解决方案可以存储10到数百TB大小的文件,消除这一差距可以简化到Azure的迁移。有了大文件大小的支持,能够将一个对象分解成块以便于上传和下载是至关重要的。每个Azure Blob都由多达50000个块组成。这允许将一个数TB的对象分解为可管理的部分进行写入。以前的最大5 TB(4.75TiB)是基于最大块大小100 MiB x 50000块计算的。预览将块大小增加到4000 MiB,并为每个对象保留50000个块,最大对象大小为4000 MiB x 50000=190.7 TiB。从概念上讲,在您的应用程序中(或者在实用程序或SDK中),大文件被分成块,每个块被写入Azure存储,并且,毕竟块已经成功上载,整个文件(对象)都被提交。作为存储帐户中总体关系的示例,下图显示了一个存储帐户contosa,它包含一个包含两个blob的容器。第一个是一个由5万个街区组成的大团。第二个是一个由单个块组成的小水滴。所有地区都支持200 TB的预览块blob大小,使用的层包括高级、热、冷和归档。这种预览功能不需要额外收费。我们不支持使用Azure门户上载非常大的对象。将数据传输到Azure的各种方法将被更新以利用这个新的blob大小。要从今天开始选择语言:.Net。爪哇。JavaScript。蟒蛇。休息一下。下一步行动我们期待着您通过电子邮件或在Azure存储technet论坛上发布反馈。了解有关Azure Blob存储的更多信息。