首页 > TAG信息列表 > KKB

如何安装hadoop集群

三台机器上传压缩包并解压 cd /kkb/soft/ tar -xvzf hadoop-3.14.tar.gz -C /kkb/install bin/hadoop checknative #查看一下openssl的状态如果为false 那么所有的机器都需要在线安装 openssl-devel sudo yum -y install openssl-devel #三台机器都要装 mv hadoop-3.14 hadoop

hive开启远程连接

1、开启hdfs start-dfs.sh 2、在root下: 在root下: node01输入: /kkb/install/hive/bin/hive --service metastore 克隆node01输入: /kkb/install/hive/bin/hive --service hiveserver2 node03输入: /kkb/install/hive/bin/beeline  ! connect jdbc:hive2://node01:10000

hive部署实战-内嵌模式

  参考:https://i.cnblogs.com/posts/edit 1、准备压缩包 下载hive-3.1.2(我用到的版本),传到node01上 在线下载连接:Index of /dist/hive/hive-3.1.2 (apache.org) 下面是网盘连接 链接:https://pan.baidu.com/s/1bIRXqaaWEyeiw-q34wOdxQ 提取码:i623       将安装包上传到node

hbase安装

[hadoop@node01 install]$ cd /kkb/soft/ [hadoop@node01 soft]$ tar -zxvf hbase-2.2.6-bin.tar.gz -C /kkb/install/ 3.1、修改hbase-env.sh文件 [hadoop@node01 soft]$ cd /kkb/install/hbase-2.2.6/conf [hadoop@node01 conf]$ vim hbase-env.sh export JAVA_HOME=/kkb/

Hadoop集群配置(二)免密登录和集群配置

写在开头: 难难难道德玄,不对知音不可谈,对了知音谈几句,不对知音枉费舌尖~~ 咱们书接上回,上一篇写完了基础环境的配置,这篇就来说硕同样重要的免密登录,当然还有Hadoop集群的配置。 2.1 三台linux服务器环境准备 1. 三台机器IP设置 三台机器修改ip地址: # 对网库进行设置 vi /etc/s

zookeeper-3.4.5-cdh5.14.2安装部署(三节点)

文章目录 1. 三台机器安装zookeeper集群1.1 下载zookeeeper的压缩包,下载网址如下1.2 解压1.3 修改配置文件1.4 添加myid配置1.5 安装包分发并修改myid的值1.6 配置环境变量1.7 三台机器启动zookeeper服务1.8 如何关闭zookeeper集群 1. 三台机器安装zookeeper集群 注

KKB : SSM框架的整合

框架的搭建 1、创建web-app 的maven项目 2、创建main包下的java文件夹和resource文件夹 3、添加依赖包,统一框架版本 规定spring的版本   <dependencies> <!-- 加入ServletAPI --> <dependency> <groupId>javax.servlet</groupId> <artifactId>javax.servlet-api</artifactId>

KKB :mybatis实现多表查询:一对多,多对一,多对多,一对一

Mybatis查询之多表查询:一对多 记得一句话:一方存多方的集合,多方存储一方的属性。 在一对多的例子中,一:年级 ,多:学生 在年级中存储学生的集合,在学生bean中存储年级的属性 编写接口 编写配置文件 首先我们需要在mysql中先编写好查询语句, 先描述自身的信息,然后描述关联表的信息,id标

MyBatis一级缓存与二级缓存简介

一级缓存 在MyBatis中,默认开启了一级缓存,它的作用域仅限在单个SqlSession对象中。 例如,在使用一个SqlSession进行一次查询后,查询结果会缓存在当前SqlSession中,再次用当前SqlSession进行相同查询时,只需在缓存中查找数据而不用到数据库中。 这里我们可以使用log4j打印数据库查

KKB:过滤器初识、介绍过滤器的几个使用场景

什么是过滤器 过滤器实际上就是对web资源进行拦截,做一些处理后再交给下一个过滤器或servlet处理,通常都是用来拦截request进行处理的,也可以对返回的response进行拦截处理 过滤器的语法格式: 编写过滤类:   配置web.xml文件   使用场景 1、统一设置编码方式 2、防止用户未登录

KKB : 什么是JSP、JSP的内置对象、JSP三大指令

什么是JSP? JSP全名为java server page,中文名叫 java服务器页面,其根本是一个简化的Servlet设计   Servlet展示信息不方便,引入了JSP JSP本质上也是一个servlet JSP就是在HTML页面中嵌入了java代码 JSP在编译之后会生成java代码   JSP原理 当浏览器访问后缀名为jsp的页面比如inde

KKB: MySQL的bug :删除数据,不会导致ibdata1文件 缩小

删除索引 发现ibd的文件大小不会发生改变   而再次添加相同的索引的,idb文件也不会改变   添加其他列的索引,ibd文件会变大   查阅资料发现: https://bugs.mysql.com/bug.php?id=1341 我们注意到删除包含5G数据的数据库不会导致ibdata1文件 缩小,因此一旦将计算机用于此目的,它将

KKB:mysql数据库表引擎与字符集utf8mb4

存储引擎 存储引擎以前又叫做表处理器,它的功能就是接受上层传下来的指令,然后对表中的数据进行提取或写入操作     MyISAM和InnoDB表引擎的区别   1、事务支持 myisam 不支持 事务,innoDB支持   2、存储结构 MyISAM:每个MyISAM在磁盘上存储成三个文件 .frm文件存储表的结构.MY

2020-12-03《Presto分布式SQL查询引擎——kkb笔记复习》

Presto分布式SQL查询引擎 一、课前准备 jdk版本要求:Java 8 Update 151 or higher (8u151+), 64-bit 安装好hadoop集群 安装好hive 二、课堂主题 介绍presto presto架构 prsto安装部署 presto使用 三、课堂目标 理解presto 独立完成presto安装部署 使用presto   四

Oracle 19c AutoIndex Tips

Prepare Intro Practise Test trace Auto Index REPORT Appendix Oracle 19c AutoIndex Tips Env: Exa/EE 19c Prepare Oracle 19c Automatic Indexing auto index只有云产品和ExadataEE才能使用,测试各种命令可以使用模拟exadata环境去实践这些相关命令 alter system set "_exad

Hadoop配置lzo和lzop

在使用flume采集日志写入到hdfs时,用到了lzo压缩算法,这个算法将让保存的文件缩小为原文件的三分之一。由于此压缩算法不是hadoop默认的,需要另外安装,下面记录下,全文主要参考文末博文完成。 编译安装lzo和lzop 注意,有多少个节点,就安装多个少!注意,有多少个节点,就安装多个少!注意,有多少个

设计模式 --kkb

设计模式概念 前人总结的代码最佳实践。 设计模式是一套被反复使用、多人知晓的、经过分类的、代码设计经验的总结。   订阅/发布模式(观察者模式) class Event{ constructor(){ this.callbacks = {} } $on(name, fn){ // 监听 // if(!this.callbacks[name]){ // th

Hive基础练习二

下面是hive基本练习,持续补充中。 Hive导出数据有几种方式,如何导出数据 1.insert # 分为导出到本地或者hdfs,还可以格式化输出,指定分隔符 # 导出到本地 0: jdbc:hive2://node01:10000> insert overwrite local directory '/kkb/install/hivedatas/stu3' select * from stu; INFO :