云服务器价格_云数据库_云主机【优惠】最新活动-搜集站云资讯

游戏服务器_企业邮箱如何收费_新注册优惠

小七 141 0

AWS客户在Spark+AI峰会上的重要会议

在Databricks,我们很高兴亚马逊网络服务(AWS)作为第一届虚拟火花+人工智能峰会的赞助商。我们与AWS的合作继续使Databricks与其他AWS服务更好地集成,使我们的客户更容易推动巨大的分析结果。 作为Spark+AI峰会的一部分,我们想重点介绍一些AWS客户可能感兴趣的顶级会议。许多在AWS上运行Databricks的客户在Spark+AI峰会上发表了演讲,他们来自AirBNB、CapitalOne、Lyft、Zynga和Atlassian等机构。下面的会话是根据他们在AWS云平台上使用Databricks的客户的主题选择的,展示了关键的服务集成。如果您对您的AWS平台或服务集成有疑问,请访问Spark+AI峰会上的AWS展位。为关键任务分析构建数据平台惠普公司星期三上午11:00(PDT)本次会议将由HP大数据系统架构师Sally Hoppe进行演示。Sally和她的团队开发了一个惊人的数据平台来处理来自HP打印机的物联网信息,使他们能够深入了解客户的使用情况,并从HP打印机提供更好、更持续的服务体验。HP平台包括Databricks和Delta Lake与AWS服务(如Amazon S3和Amazon Redshift)以及Apache Airflow和Apache Kafka等其他技术的集成。本次会议还将邀请AWS的合作伙伴解决方案架构师Igor Alekseev和Databricks的合作伙伴解决方案架构师Denis Dubeau参加。大规模的数据驱动决策康卡斯特星期三,上午11:35(太平洋时间)康卡斯特是美国最大的有线电视和互联网提供商,拥有超过3000万客户,随着对天空电视台的收购,康卡斯特继续扩大在欧盟的影响力。康卡斯特推出了他们的Flex设备,允许客户直接将内容流式传输到他们的电视上,而不需要额外的有线电视订阅。他们每天使用的分析数据量超过了3bs。为了使PABS团队能够继续推动对海量数据集的可消费见解,同时仍然能够控制存储的数据量,PABS团队一直在S3上使用Databricks和Databricks Delta Lake进行高电流低延迟读/写,以建立可靠的实时数据管道,以提供见解,并能够及时进行高效删除。通过Databricks和AWS,深度学习支持价格行为星期三下午2:30(太平洋时间)预测股票、外汇、大宗商品等价格行为工具的走势,多年来一直是数量战略家的一个棘手问题。简单地将机器学习应用于原材料价格的变动已经证明会产生令人失望的结果。当应用于传统技术指标而不是价格(包括相应的进入和退出信号)时,深度学习的新工具可以大大提高成果的质量。在这节课上,Kris Skrinak和Igor Alekseev探讨如何使用Databricks分析工具,以及通过Amazon的SageMaker获得的深度学习培训,以提高MACD和Slow随机性两个技术指标的预测能力。用统一的数据和人工智能方法节省家庭能源星期四上午11:35(太平洋时间)Quby是一家总部位于阿姆斯特丹的技术公司,提供解决方案,使房主能够控制他们的电、气和水的使用。该公司利用欧洲最大的能源数据集,包括数PB的物联网数据,开发出了以人工智能为动力的产品,每天有数十万用户使用这些产品来维持家中舒适的气候,减少他们的环境足迹。本课程将介绍Quby如何利用完整的Databricks堆栈快速原型化、验证、发布和扩展数据科学产品。他们还将介绍Delta Lake如何允许对相同的物联网数据进行批处理和流式传输,以及这些工具对团队本身的影响。2020年人口普查和调查创新美国人口普查局星期四下午12:10(PDT)美国人口普查局是有关美国人民及其经济的高质量数据的主要来源。十年一次的人口普查是美国进行的最大规模的动员和行动——招募了数十万名临时工——需要多年的研究、规划和发展方法和基础设施,以确保准确和完整地统计美国目前估计为3.3亿人的人口。人口普查局副局长扎克·施瓦茨(Zack Schwartz)将在幕后概述2020年人口普查是如何进行的,并深入了解技术方法和采用行业最佳实践。他将讨论亚马逊GovCloud内置的应用程序监控系统,用于监控多个集群和数千个应用程序运行,这些应用程序被用于开发2020年人口普查的信息披露避免系统。本报告将使听众对普查的规模和技术所起的作用表示赞赏,同时对调查的未来有一个展望,以及与会者如何在确保每个人都被计算在内方面尽到自己的责任。在iFood建立实时功能商店星期四下午2:30(太平洋时间)iFood是拉丁美洲最大的食品科技公司。我们每月为超过15万家餐厅提供2600多万份订单。在本次讲座中,您将看到iFood如何构建一个实时特性存储,使用数据块和Spark结构化流来处理事件流,将其存储到历史上的Delta Lake表存储和Redis低延迟访问群集,并将其开发过程结构化,以实现产品级,可靠且经过验证的代码。使用MLflow和AWS Sagemaker为企业AI场景连续交付基于Deep Transformer的NLP模型外展公司星期五上午10:00(太平洋时间)在本演示文稿中,外展部将演示他们如何使用MLflow和AWS Sagemaker在领先的销售参与平台上,为指导销售参与场景制作基于deep transformer的NLP模型,外展.io.从ML-Ops的角度来看,我们对这次会议非常兴奋。外联小组将分享他们在以下领域的经验教训:在不同的机器学习阶段有效地管理和协调数据、模型和工件(例如词汇文件)的发布/消费框架一种新的MLflow模型风格,支持在不同阶段记录和加载模型的deep transformer模型一种设计模式,用于使用MLProject入口点(训练、测试、包装、部署)将模型逻辑与生产场景的部署配置和模型定制分离。一种CI/CD管道,提供模型的连续集成和交付到Sagemaker端点,以服务于生产使用我们认为这次会议不容错过。我们希望您发现这些会话对于学习在AWS平台上集成数据块的更多方法非常有用。请访问AWS展台,讨论您的用例,并有机会了解AWS专家的观点免费试用Databricks。今天就开始吧