- 博客(14)
- 资源 (1)
- 问答 (1)
- 收藏
- 关注
原创 Linux 常用命令
lsattr --文件查看属性 md5sum — 验证 vimdiff hbase-env.sh hbase_bak-env.sh ----对比文件 jmap -heap namenode进程号,查看内存进度 wget http://yum/hadoop/mysql-connector-java-5.1.40-bin.jar -O /usr/share/java/mysql-connector-java.jar—下载hadoop fs -count -q -h hdfs://10.127.0.0/t
2023-10-17 10:01:12
1315
原创 Elasticsearch元数据实例搭建
##Elasticsearch元数据集群来支持平台核心指标数据的存储,如集群维度指标、节点维度指标等。#修改配置文件(参考一下配置)#创建ES数据存储目录。#配置用户的打开文件数。
2023-10-16 16:05:19
104
1
原创 安装Mvn
1、安装 wget 命令:yum -y install wget 2、下载maven安装包wget http://mirrors.cnnic.cn/apache/maven/maven-3/3.5.4/binaries/apache-maven-3.5.4-bin.tar.gz3.解压maven安装包tar -zxvf apache-maven-3.5.4-bin.tar.gz 4.配置maven: vim /etc/profile在配置文件配置中加上:export MAVEN_HOME=/opt/apac
2023-10-16 16:04:18
87
1
原创 安装Nginx服务
curl -I -H “Accept-Encoding: gzip, deflate” “http://10.135.16.24:8188/” ----查看Conten-Encoding 是否是gzip类型 (优化方案)在总的nginx.conf 下 http{ }中配置。--使用nginx -t 检查配置是否正确。sudo nginx -s reload 使用配置生效。
2023-10-16 16:03:21
82
1
原创 LDAP客户端部署
systemctl restart nslcd --重启生效 sudo systemctl restart nslcd.service。vi /etc/nslcd.conf --修改成URI对齐server端 **************************vi /etc/nsswitch.conf —配置要对齐server端 **************************sudo yum install nss-pam-ldapd ----安装 nslcd.sercer。
2023-10-10 14:40:05
192
1
原创 mysql搭建
-更改MySQL账号密码;rpm -ivh --nodeps --force *.rpm -----其中:–nodeps属性表示忽略任意依赖包。-------------mysql忘记密码------------------------------------rpm安装顺序---------#获取初始密码并修改。
2023-10-10 14:32:49
57
1
原创 安装grafana服务
添加数据源(其中url参数需要修改成真实的elasticsearch服务地址)#导入大盘模版(示例是其中之一,七个模版都要导入)
2023-10-10 14:30:58
122
1
原创 JAVA环境变量配置
##版本要求11#下载安装包#解压到指定目录#更改目录名#添加到环境变量AVAHOMEbinPATHAVAHOMElibdtjar。
2023-10-10 14:28:52
296
1
原创 Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.metrics.Updater
标题 Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.metrics.Updater 这个小bug的问题就是依赖产生了两次 删掉一次就解决了 最后记得一定到刷新呦!!!!
2020-12-19 18:43:43
456
1
原创 HDFS高可用集群搭建
HDFS高可用集群搭建 1.使用完全分布式,实现namenode高可用 2.安装包解压 停止之前的hadoop集群的所有服务,然后重新解压编译后的hadoop压缩包 在三台机器上分别创建以下目录: mkdir -p /opt/software mkdir -p /opt/server 解压压缩包 node1机器执行以下命令进行解压 cd /opt/software tar -zxvf hadoop-2.7.5.tar.gz -C /opt/server/ cd /opt/server/hadoop-2.7.
2020-12-17 19:31:18
226
原创 hosts文件
Windows 里面hosts 保存不上的方法 这里是hosts的路径 1 找到hosts复制一份出来 放到桌面上 2 在桌面上的hosts里面添加域名映射 3. 4.然后把桌面上的hosts放在etc路径里面的hosts去替换掉原来的hosts;
2020-12-11 17:02:11
314
Hadoop get100个日志命令
2021-07-11
TA创建的收藏夹 TA关注的收藏夹
TA关注的人