首页 > TAG信息列表 > 172.31
Envoy tcp_proxy配置
环境说明 envoy:Front Proxy, 地址为 172.31.1.2 webserver01:后端服务,地址为 172.31.1.11 webserver01:后端服务,地址为 172.31.1.12 envoy配置文件 static_resources: listeners: name: listener_0 address: socket_address: { address: 0.0.0.0, port_value: 80 }Envoy http-egress配置
环境说明 envoy:Front Proxy, 地址为 172.31.4.2 webserver01:后端服务,地址为 172.31.4.11 webserver01:后端服务,地址为 172.31.4.12 egress配置文件 static_resources: listeners: - name: listener_0 address: socket_address: { address: 127.0.0.1, port_value: 80二进制安装k8s-1.20.4之搭建etcd集群
1、部署etcd文件 cd /data/app/k8s-ssl/ cp ca.pem kubernetes-key.pem kubernetes.pem /data/app/etcd/ssl/ 2、 创建etcd服务配置文件vim etcd.sh ETCD_NAME=`hostname` INTERNAL_IP=`hostname -i` INITIAL_CLUSTER=zy-nph-skg-fat-channel-redis-yace01=https://17a16.ansible 生产实战案例 --docker基于镜像仓库安装harbor-https方式 playbook
1.docker基于镜像仓库 playbook [root@ansible-server ansible]# mkdir playbook/docker [root@ansible-server ansible]# cd playbook/docker/ [root@ansible-server docker]# vim files/daemon.json { "registry-mirrors": [ "https://hzw5xiv7.mirroa11.ansible 生产实战案例 --docker基于二进制 roles
docker基于二进制 roles [root@ansible-server ansible]# mkdir -p roles/docker-binary/{tasks,files,vars} [root@ansible-server ansible]# cd roles/docker-binary/ [root@ansible-server docker-binary]# ls files tasks vars [root@ansible-server docker-binary]#a10.ansible 生产实战案例 --docker基于二进制 playbook
docker基于二进制 playbook [root@ansible-server ansible]# mkdir -p playbook/docker-binary [root@ansible-server ansible]# cd playbook/docker-binary/ [root@ansible-server docker-binary]# wget https://mirrors.cloud.tencent.com/docker-ce/linux/static/stable/利用nginx部署本地yum源
1、部署环境准备 1.1准备工作 系统环境:两台虚拟机Centos7.9(80端口未被占用),本机Windows10 镜像软件:CentOS-7-x86_64-DVD-2009.iso或者下载CentOS-7-x86_64-Everything-2009.iso 下载链接: https://mirrors.aliyun.com/centos/7.9.2009/isos/x86_64/ nginx软件:yum安装 1.2挂载本a9.ansible 生产实战案例 --docker基于镜像仓库 roles
docker基于镜像仓库 roles [root@ansible-server ansible]# mkdir -p roles/docker/{tasks,files,vars} [root@ansible-server ansible]# cd roles/docker/ [root@ansible-server docker]# vim files/daemon.json { "registry-mirrors": [ "https://hzwa5.ansible 生产实战案例 --chrony客户端playbook
chrony客户端playbook [root@ansible-server ansible]# cd playbook/chrony [root@ansible-server chrony]# vars.yml SERVER1: 172.31.0.101 SERVER2: 172.31.0.104 [root@ansible-server chrony]# vim install_chrony_client.yml --- -envoy- 优先级调度
root@user:/opt/servicemesh_in_practise/Cluster-Manager/priority-levels# cat front-envoy-v2.yaml admin: access_log_path: "/dev/null" address: socket_address: address: 0.0.0.0 port_value: 9901 static_resources: listeners51.第十一章 进程和计划任务(三)
2.10 进程对应的内存映射 pmap 格式: pmap [options] pid [...] 常用选项 -x: 显示详细格式的信息 范例: [root@rocky8 ~]# pmap 1 1: /usr/lib/systemd/systemd --switched-root --system --deserialize 17 000055b2f93c0000 1288K r-x-- systemd 000055b2f9701000 248.第十章 网络协议和管理配置(九)
4.6 多网卡 bonding 将多块网卡绑定同一IP地址对外提供服务,可以实现高可用或者负载均衡。直接给两块网卡设置同一IP地址是不可以的。通过 bonding,虚拟一块网卡对外提供连接,物理网卡的被修改为相同的MAC地址 4.6.1 Bonding 工作模式 共7种模式:0-6 Mode Mode 0 (balance-rr): 轮44.第十章 网络协议和管理配置(五)
3.2.2 UDP User Datagram Protocol 3.2.2.1 UDP特性 工作在传输层 提供不可靠的网络访问 非面向连接协议 有限的错误检查 传输性能高 无数据恢复特性 更多关于udp的内核参数,可参看man 7 udp 3.2.2.2 UDP包头 3.3 Internet 层 3.3.1 Internet Control Message Protocol 范43.第十章 网络协议和管理配置(四)
3.2 transport 层 TCP和UDP 3.2.1 TCP Transmission Control Protocol 3.2.1.1 TCP特性 工作在传输层 面向连接协议 全双工协议 半关闭 将数据打包成段,排序 确认机制 数据恢复,重传 错误检查 流量控制,滑动窗口 拥塞控制,慢启动和拥塞避免算法 更多关于tcp的内核参数,可参看ma安卓adb
adb连接指定设备的shelladb -s 15496e3a0806 shelladb -s 172.31.12.223:5555 shell 启动adb serveradb -s 15496e3a0806 tcpip 5555 杀掉当前adb serveradb -s 15496e3a0806 kill-server 连接wifi的adbadb connect 172.31.13.254:5555 查看当前设备adb devices22.第六章 Shell脚本编程基础入门(五)
3.bash的配置文件 bash shell的配置文件很多,可以分成下面类别 3.1 按生效范围划分两类 全局配置:针对所有用户 /etc/profile /etc/profile.d/*.sh /etc/bashrc 个人配置:只针对特定用户有效 ~/.bash_profile ~/.bashrc 3.2 shell登录两种方式分类 3.2.1 交互式登录 直接通过ELK-filter过滤器使用方法
kibana自带grok插件工具 处理日志读取,思路是:先分析日志信息是什么格式,以及日志规则需要filter里面的什么模块处理或者组合使用处理?? 官网地址 https://www.elastic.co/guide/en/logstash/7.12/filter-plugins.html grok正则测试 https://grokdebug.herokuapp.com/ logstash的groklogstash收集nginx日志
准备条件: 环境:jdk,安装好 logstash 上传包,安装Nginx [root@es-web1 src]# tar xf nginx-1.18.0.tar.gz [root@es-web1 src]# cd nginx-1.18.0/ 帮助 [root@es-web1 nginx-1.18.0]# ./configure --help 编译 [root@es-web1 nginx-1.18.0]# ./configure --prefix=/apps/nginx [roologstash收集日志并写入Redis再到es集群
redis做数据缓存 图形架构: 环境准备 172.31.2.101 es1 + kibana 172.31.2.102 es2 172.31.2.103 es3 172.31.2.104 logstash1 172.31.2.105 logstash2 172.31.2.106 Redis 172.31.2.107 web1 安装redis [root@es-redis ~]# apt install redis -y 改redis 配置 [root@es-redis ~logstash收集日志并写入kafka再到es集群
条件: 有kafka环境 图形架构: 环境准备 172.31.2.101 es1 + kibana 172.31.2.102 es2 172.31.2.103 es3 172.31.2.104 logstash1 172.31.2.105 logstash2 172.31.2.41 zookeeper + kafka 172.31.2.42 zookeeper + kafka 172.31.2.43 zookeeper + kafka 172.31.2.107 web1 先启动zo使用filebeat 替代logstash 收集日志kafka
在web服务器 有就停止 root@long:~# systemctl stop logstash 监控单个日志配置: 上传deb包,安装 [root@es-web2 src]# dpkg -i filebeat-7.12.1-amd64.deb 先启动zookeeper [root@mq1 ~]# /usr/local/zookeeper/bin/zkServer.sh restart [root@mq2 ~]# /usr/local/zookeeper/bin/使用filebeat 替代logstash 收集日志redis
在web服务器 有就停止 [root@es-web1 ~]# systemctl stop logstash 监控单个日志配置: 上传deb包,安装 [root@es-web1 src]# dpkg -i filebeat-7.12.1-amd64.deb filebeat改配置文件 root@long:~# grep -v "#" /etc/filebeat/filebeat.yml| grep -v "^$" filebeat.inputs: - type使用filebeat 收集日志到logstash 收集日志fakfa再到logstash到es
大型场合的工作流程图 filebeat -->logstash ---> fakfa ---> logstash --->es 工作环境: 需要两台logstash, 172.31.2.101 es1 + kibana 172.31.2.102 es2 172.31.2.103 es3 172.31.2.105 logstash2 172.31.2.107 web1 + filebeat + logstash1 172.31.2.41 zookeeper + kafka 172.使用filebeat 收集日志到logstash 收集日志redis再到logstash到es
大型场合的工作流程图 filebeat -->logstash ---> redis ---> logstash --->es 工作环境: 需要两台logstash, 安装jdk8 [root@es-web1]# apt install openjdk-8-jdk -y 这里已经安装filebeat 配置filebeat(这里的输出只能写一个,如果之前已经存在有,需要注释,或者删除即可) [root@es-we搭建kafka
Kafka 被称为下一代分布式消息系统,由 scala 和 Java 编写,是非营利性组织 ASF(Apache Software Foundation,简称为 ASF)基金会中的一个开源项目,比如 HTTP Server、Hadoop、ActiveMQ、Tomcat 等开源软件都属于 Apache 基金会的开 源软件,类似的消息系统还有 RbbitMQ、ActiveMQ、ZeroMQ