云服务器价格_云数据库_云主机【优惠】最新活动-搜集站云资讯

对象存储_阿里云oss配置_测评

小七 141 0

这是一个由3部分组成的博客系列,涵盖了SAP BW on HANA和Apache Hadoop作为近线存储解决方案的端到端集成场景。

第1部分:Apache Hadoop作为SAP HANA的NLS解决方案第1部分

第3部分:即将推出

在搜索了数小时和数天的internet之后,微信返利机器人安全吗,为了弄清HANA和Hadoop的集成过程,我意识到有很多文章都在讨论这个过程的Why's What's和Who's,云服务市场,但是没有多少文章深入研究了这个过程的"How"方面。因此,私有云市场,这是我谦虚的尝试。

准备Hadoop

为了准备Hadoop作为NLS解决方案,需要执行几个关键的配置步骤。可以使用集群管理工具(如Ambari或Cloudera Manager)进行这些配置更改,或者直接在操作系统级别编辑xml文件。使用群集管理工具的优点是,一旦您更改了参数或值,该工具就会识别所有其他受影响的参数并建议它们的适当值。此外,这些工具还可以识别由于更改而需要重新启动的服务/角色。这两种工具还保留了xml的多个版本,因此您可以随意使用配置,您将需要执行以下步骤来配置Apache Hadoop以与HANA上的BW集成:

请按照SAP Note 2363218中的"配置步骤>Apache Hadoop"部分来配置Hadoop集群中的上述关键组件。

我想分享一些关于我在本空间学习如何配置上述组件的技巧件。

HDFS和WebHDFS:

专业提示:您可以通过Ambari或Cloudera Manager浏览文件系统,或按此处所述,来测试WebHDFS。

纱线:

专业提示:SAP Spark Controller在运行时,最多可启动6个容器,并可预留更多容器。确保您的配置与可用的硬件资源一致。此外,纱线配置不考虑可用的硬件资源,这将是您的责任。

配置单元:

专业提示:代理用户设置是关键。确保配置参数hadoop.proxyuser.hive.主机和hadoop.proxyuser.hive.groups,因为用户hanaes应该能够模拟sap用户,企业建站平台,以便能够使用配置单元从HDFS目录进行写入和读取,以及在配置单元中的sap数据库/架构中创建表。

WebHCAT:

Pro提示:WebHCAT和HCatalog是已安装配置单元,从配置单元版本0.11.0开始。无需其他步骤。您可以使用在SAP中创建的HTTP连接来测试WebHCAT,或如下:

:50111/templeton/v1/status

SAP Spark Controller:

SAP Spark Controller是将SAP HANA连接到配置单元数据库的适配器框架,还允许SAP使用Spark访问HDFS持久存储

请参阅SAP帮助部分以安装和配置SAP Spark控制器。您可以使用群集管理工具之一或手动安装控制器。在使用集群管理工具停止和启动控制器时,会出现一些错误,但在大多数情况下,大数据下载,安装、配置和管理都相当简单。密切关注"先决条件",因为Spark程序集Jar文件和代理用户设置是关键。

为了成功地将Hadoop集成为SAP BW的NLS解决方案,您需要确保这些关键组件配置正确并定义了必要的属性。

在HANA中创建远程源:

您可以在SAP HANA中创建远程源,使用SAP HANA Studio或SQL控制台将SAP HANA连接到SAP Spark Controller。

这是第二部分的结束。在下一篇博客中,我将详细介绍BW端配置以及在BW中为ADSO创建数据归档过程。

即将推出:ApacheHadoop作为SAP HANA的NLS解决方案第3部分