首页 > TAG信息列表 > 172.19

Flink独立集群部署和HA部署

场景描述 172.19.9.202 主节点 JobManager 主/从 172.19.9.201 从节点 TaskManager 主/从 172.19.9.203 从节点 TaskManager 主/从 一、SSH主节点从节点设置要统一 ssh-keygen -t rsa -P "" 不设置密码 cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys chmod 60

nebula graph 集群安装并使用go client测试

目录 nebula安装 go环境搭建 nebula安装 最小集群安装 1、下载nebula graph(多线程下载) yum install axel axel -a -n 10 https://oss-cdn.nebula-graph.com.cn/package/2.0.1/nebula-graph-2.0.1.el7.x86_64.rpm cp *~ cd /data/mlamp/workspace/nebulagraph 安装 rpm -ivh

Ansible初级应用

安装 $ git clone git://github.com/ansible/ansible.git --recursive $ cd ./ansible $ source ./hacking/env-setup $ sudo pip install paramiko PyYAML Jinja2 httplib2 six 说明:一旦运行env-setup脚本,就意味着Ansible从源码中运行起来了.默认的inventory文件是 /etc/ansible

docker单节点安装elasticsearch7.1.1集群

1. 环境准备   本次部署为单机部署三节点集群, 3maser节点, 同时也是数据节点. #docker安装略,拉取es镜像#cat /etc/redhat-release   CentOS Linux release 7.5.1804 (Core) #docker pull elasticsearch:7.1.1 #docker pull kibana:7.1.1    新建数据持久化目录: mkdi

postman:全局变量、环境变量、collection模块变量

环境变量: 系统测试:   st-a:172.19.18.12   st-b:172.19.18.13 验收测试:   uat-a:172.19.18.14   uat-a:172.19.18.15 模拟测试:   ip:172.19.18.16 设置环境变量:   设置全局变量:作用域为所有项目    设置collection变量:作用域为web这个模块  

docker搭建redis集群(cluster)

1,准备准备好redis镜像docker pull redis准备好集群网络docker network create 172.19 --gateway 172.19.0.1 --subnet 172.19.0.0/24redis集群官方建议最少6个节点,准备如下6个节点ip172.19.0.11,172.19.0.12,172.19.0.21,172.19.0.22,172.19.0.31,172.19.0.32准备如下文件

docker跨网段搭建gp测试环境

(1)制作docker镜像: #docker run -i -d --name sdw1 -h sdw1 centos #拉取一个基础镜像,然后在此基础上修改   容器里面操作: #yum install vim wget compat-openssl10 langpacks-en glibc-all-langpacks readline-devel bzip2 krb5-devel perl rsync libevent apr apr-util

[NewLife.Net]单机400万长连接压力测试

目标 对网络库NewLife.Net进行单机百万级长连接测试,并持续收发数据,检测网络库稳定性。 【2020年8月1日晚上22点】 先上源码:https://github.com/NewLifeX/NewLife.Net   结论,8月1日晚达到200万,8月2日下午达到404万。   上一次百万级压测是2017年4月1日,失败了,只达到84.5万。后来做

kafka学习

1、安装kafka   安装包的修改配置文件server.properties broker.id=0 listeners=PLAINTEXT://172.19.0.5:9092 zookeeper.connect=172.19.0.4:2181,172.19.0.5:2181,172.19.0.6:2181/kafka   启动kafka    ./kafka-server-start.sh ../config/server.properties 2、创建

搭建一套Kubernetes(K8S)集群

1. 服务器资源规划 服务器角色 IP地址 安装组件 K8S-Master 172.19.230.120 kube-apiserver kube-controller-manager kube-scheduler etcd K8S-node1 172.19.230.121 kubelet kube-proxy docker etcd K8S-node2 172.19.230.122 kubelet kube-proxy docker etcd

NAT网络下tcp_tw_recycle参数引起的故障

记录一次阿里云服务器故障排查思路 公司网络是nat 环境 问题: 同一个服务有两台服务器 172.19.19.252 172.19.19.187 两台服务器 要连node5 发现172.19.19.252 这台服务器连不通 思路: 1.两台服务器是同一个安全组 环境相同 所以排除安全组 防火墙的问题 2. ping node5 发

搭建Redis集群(下)

1.安装Redis镜像 # 拉取镜像 docker pull yyyyttttwwww/redis # 修改镜像名称 docker tag yyyyttttwwww/redis redis 2.创建net2网段 docker network create --subnet=172.19.0.0/16 net2 3.创建6节点Redis容器 docker run -it -d --restart=always --name r1 -p 5001:6379

jenkins触发式自动构建python应用镜像并发布至kubernetes集群

一、制作Dockerfile文件1.在172.19.2.51上部署上传安装包至该目录并解压mkdir -pv /opt/git/obd cd /opt/git/obd tar zxvf flask.tar.gz vim Dockerfile FROM python:2.7 RUN mkdir -pv /opt/flask ADD flask /opt/flask RUN pip install flask RUN pip install

jenkins触发式自动构建tomcat镜像并发布至kubernetes集群

一、制作Dockerfile文件1.在172.19.2.51上部署mkdir -pv /opt/git git clone http://172.19.2.140:18080/lvqingshan/gcgj.git cd /opt/git/gcgj scp app@172.19.2.1:/home/app/portal-tomcat/webapps/portal.war ./ scp app@192.168.37.34:/home/app/portal-tomcat/conf/s

jenkins触发式自动构建docker镜像上传至harbor并发布

一、制作Dockerfile文件1.在172.19.2.51上部署mkdir -pv /opt/git git clone http://172.19.2.140:18080/lvqingshan/gcgj.git cd /opt/git/gcgj scp app@172.19.2.1:/home/app/portal-tomcat/webapps/portal.war ./ scp app@192.168.37.34:/home/app/portal-tomcat/conf/s

ELK集群搭建和filebeat安装配置

访问elasticsearch集群:http://172.19.2.141:9100访问kibana:http://172.19.2.141:5601访问cerebro:http://172.19.2.50:1234一、安装配置elasticsearch#在["172.19.2.49", "172.19.2.50", "172.19.2.51", "172.19.2.140", "172.19.2.141"