栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

Atlas学习二

Atlas学习二

文章目录
      • 一、安装atlas
        • 1.集成 Hbase:
        • 2.集成 Solr:
        • 3.集成 Kafka:

  首先调大虚拟机内存为6G左右:

一、安装atlas
mvn clean -DskipTests package -Pdist,external-hbase-solr -Denforcer.skip=true

# 由于atlas只提供源码,所以需要我们先将源码编译后,再将压缩包上传到服务器
tar -zxvf apache-atlas-2.1.0-server.tar.gz
1.集成 Hbase:
root@ubuntu:/opt/bigdata-packages/atlas# vim apache-atlas-2.1.0/conf/atlas-application.properties
# 修改 atlas 存储数据主机
atlas.graph.storage.hostname=127.0.0.1:2181

root@ubuntu:/opt/bigdata-packages/atlas# ln -s /opt/bigdata-packages/hbase/hbase-2.0.6/conf/ /opt/bigdata-packages/atlas/apache-atlas-2.1.0/conf/hbase/

root@ubuntu:/opt/bigdata-packages/atlas# vim apache-atlas-2.1.0/conf/atlas-env.sh
#添加Hbase配置文件路径
export Hbase_CONF_DIR=/opt/bigdata-packages/hbase/hbase-2.0.6/conf
2.集成 Solr:
root@ubuntu:/opt/bigdata-packages/atlas# vim apache-atlas-2.1.0/conf/atlas-application.properties
# 修改配置为
atlas.graph.index.search.solr.zookeeper-url=atlas.graph.index.search.solr.zookeeper-url=127.0.0.1:2181

# 将 Atlas 自带的 Solr 文件夹拷贝到外部 Solr 集群的各个节点。
root@ubuntu:/opt/bigdata-packages/atlas# cp -r apache-atlas-2.1.0/conf/solr/ /opt/bigdata-packages/solr/solr-8.9.0

# 修改拷贝过来的配置文件名称为atlas_conf
root@ubuntu:/opt/bigdata-packages/solr/solr-8.9.0# mv solr atlas_conf

# 在Cloud模式下,启动Solr(需要提前启动Zookeeper集群),并创建collection
root@ubuntu:/opt/bigdata-packages/solr/solr-8.9.0# bin/solr create -c vertex_index -d atlas_conf -shards 3 -replicationFactor 2 -force
root@ubuntu:/opt/bigdata-packages/solr/solr-8.9.0# bin/solr create -c edge_index -d atlas_conf -shards 3 -replicationFactor 2 -force
root@ubuntu:/opt/bigdata-packages/solr/solr-8.9.0# bin/solr create -c fulltext_index -d atlas_conf -shards 3 -replicationFactor 2 -force

注:如果需要删除vertex_index、edge_index、fulltext_index等collection可以执行如下命令:bin/solr delete -c ${collection_name}

验证创建collection成功:访问 http://192.168.223.128:8983/solr/#/~cloud 看到如下图显示:

遇到的问题:创建collection的时候会报错:Unable to read additional data from server sessionid 0x17c831dd49f0009, likely server has closed socket。

可能的原因:我这里zookeeper装的是单节点的,zookeeper有个选举算法,当整个集群超过半数机器宕机,zookeeper会认为集群处于不可用状态。一般至少需要三个zk才可以,一般是2n+1的数量部署。目前来看collection都已近创建成功了,不知道zookeeper单节点有没有问题,先往后走吧,不行的话再改成三个节点的吧。

3.集成 Kafka:
root@ubuntu:/opt/bigdata-packages/atlas# vim apache-atlas-2.1.0/conf/atlas-application.properties
# 修改配置为
atlas.notification.embedded=false
atlas.kafka.data=/opt/bigdata-packages/atlas/apache-atlas-2.1.0/data/kafka
atlas.kafka.zookeeper.connect=localhost:2181
atlas.kafka.bootstrap.servers=localhost:9092
atlas.kafka.zookeeper.session.timeout.ms=4000
atlas.kafka.zookeeper.connection.timeout.ms=2000

atlas.kafka.enable.auto.commit=true


转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/326105.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号