首页 > TAG信息列表 > 分区
Windows Server 2012 R2在硬盘的分区
1.进入Server 2012的操作系统,打开CMD框,输入:diskmgmt.msc,回车。2.操作完第一步后会弹出“磁盘管理”的框。鼠标右键点击红框所在位置,选中“压缩卷”3.在“输入压缩空间量(MB)”选项框中,输入你需要从C盘压缩出来的磁盘空间量,点击“压缩”4.MySQL 默认字符集建议:使用 utf8mb4 ,而非 utf8
MySQL 中 utf8 最多使用3个字节(bytes)来存放一个字符,因此和utf8mb3是一个意思。 而 utf8mb4 是 utf8mb3 的超集,最多允许使用4个字符来存放字符。 在实践中,建议使用 utf8mb4 来作为默认的字符集,如果使用 utf8 ,可能有很多生僻字,比如"mysql - 单表千万数据插入速度过慢解决方法-分库/分表/分区
问题场景 某数据上传接口经常timeout,发现是因为查询的某消费记录数据库,起初定制时没有按照月份进行分表操作,而是按照客户手机尾号进行了分表,因此固定为9个定位问题原因 由于是历史数据,所以单表数据达到千万级别,导致数据过多 因为设置了unique id,导致插入过慢 建议不由mysql本身确数据库系统设计:分区
数据库系统设计:分区 术语澄清 分区 (partition),对应 MongoDB、ES 中的 shard,HBase 的 Region,Bigtable 的 tablet,Cassandra 的 vnode,Couchbase 的 vBucket。但分区 (partitioning) 是最普遍的。 定义 每条数据(或每条记录,每行或每个文档)属于且仅属于某特定分区。每个分区都能视为一linux系统基于新磁盘和同磁盘其他分区的目录扩容
linux系统基于新磁盘和同磁盘其他分区的目录扩容 (1)基于新建磁盘目录扩容 例如:新增1块3G的磁盘 sdb,扩容/tmp 至13G # pvcreate /dev/sdb1 #将新磁盘创建成物理卷 vgdisplay得知/tmp的卷组为vg-libin,将物理卷/dev/sdb1加载至vg-libin卷组 # vgextend vg-libin /dev/sdb1扩容挂载点--Linux
情景:当服务器磁盘挂载的目录空间不足时,就需要对相应的挂载点进行扩容,以/home挂载点为例 一、检查磁盘是否做过RAID 将硬盘插入到服务器可用的槽位 重启服务器进入bios设置,依次选择 Chipset-->PCH Configuration-->PCH SATA Configuration-->Configure SATA as-->RAID 确认待扩分布式事务
何为分布式事务? 事务,要么全部成功,要么全部失败,分布式事务的这些操作位于不同的服务(进程)中。 分布式事务 要遵循CAP理论: C:consistency 一致性; A:availability 可用性; P:分区容忍性 partition tolerance; 但CAP不能同时满足, CP:zookeeper 满足一致性、分区容忍性;刚性事务需要满足CP,对ubuntu增加swapfile文件大小
ubuntu环境下用g++编译时,有时候会出现内存不足导致编译器被kill掉的情况,此时一般增加swapfile能够解决该问题。 步骤如下: 1. 查看交换分区大小: swapon -s 2. 关闭交换分区: sudo swapoff /swapfile 3. 调整交换分区大小,这里增加到6G: sudo dd if=/dev/zero of=/swapfile bs=1MLFS(Linux From Scratch)构建过程全记录(二):磁盘分区
写在前面 本文将会详细记录LFS中,构建分区,构建文件系统和挂载分区的全过程 准备新硬盘 为了更加符合“从零开始构建Linux”的要求,我在虚拟机中,新建了一个磁盘 我们将会在这个新磁盘上构建所需的分区和文件系统,并对其进行挂载Hive-day3
Hive分区 在大数据中,最常见的一种思想就是分治,我们可以把大的文件切割划分成一个个的小的文件,这样每次操作一个个小的文件就会很容易了,同样的道理,在hive当中也是支持这种思想的,就是我们可以把大的数据,按照每天或者每小时切分成一个个小的文件,这样去操作小的文件就会容易很多了。电脑新硬盘安装操作系统
一、安装固态硬盘 二、分区,我使用老毛桃,选择快速分区,分区分为主分区和逻辑分区,主分区是系统分区,负责启动,分区表类型选择MBR方式, 注意:thakpad需要支持Mbr方式, 三、安装系统到C盘,选择一键安装系统 三、启动无法进入系统,如图 四、设置硬盘启动在生产环境中运行 Kafka 后的经验教训
在生产环境中运行 Kafka 后的经验教训 Kafka logo 在生产环境中运行自托管 Kafka 超过 2 年。在这里,我编制了一个提示和陷阱列表。 背景:我们使用 Kafka 作为我们的主要 Pub-Sub 来设置多个管道和接近 100 个主题,超过 5000 个 pod(客户端)连接到它,每天在最繁忙的主题之一上产生和消Windows/Ubuntu 双系统完美教程
观前提示 此处假定你已经安装好Windows,并且能够看懂英语。 下载Ubuntu 这里 不同于一般推荐于英文官网下载,此处建议在中文官网下载。这样可以利用Ubuntu在国内架设的镜像,也方便日后使用apt-get等工具安装软件。(实际作者并不清楚安装时是否会自动测试镜像列表) 即使使用国内官方镜像Ubuntu日常使用
双系统是前阵子装的啦,有的东西可能记得不太清楚了。 系统安装 系统版本选择 装Ubuntu的一大原因是要用ROS,而ROS还很挑Ubuntu版本。当前ROS已分出了ROS1和ROS2,虽然ROS1的最后一个版本只支持到2025年,但是考虑到很多即将用到的包还是在ROS1下写的,所以还是装了配合ROS1最后一个版本关闭swap分区
一、临时关闭 swapoff -a 二、查看效果 free -h 三、启用swap分区(不必操作) swapon -a 四、永久关闭 vim /etc/sysctl.conf #修改vm.swappiness为0 vm.swappiness=0 #保存退出后使配置生效 sysctl -pLinux下创建swap分区
1.创建一个swap文件。 cd /var sudo mkdir swap sudo dd if=/dev/zero of=swapfile bs=1024 count=2000000 count代表的是大小,我这里是2G。 2.把文件转换为swap文件 在 var目录执行: sudo mkswap swapfile 3.激活swap文件这里可以直接用命令挂载上一个swap分区,但是重启后要VirtualBox扩展Ubuntu主分区
过去有写过一篇用VirtualBox增加虚拟硬盘的文章,该方法可以扩展虚拟机系统其他空间(/dev/sdb,/dev/sdc),不过要想增加虚拟机内系统主分区(/dev/sda)空间,那种方法就不行了。 想要扩展VirtualBox虚拟机内系统主分区空间,可以用下面方法: 1. 打开cmd,cd到VirtualBox安装目录下。 2. 输入VB220830-linux磁盘系统初识
linux中,每一个设备都会被当做一个文件来看待。在linux中,所有的硬件设备文件都会在/dev这个目录下。而SATA接口的硬盘文件名称会被命名为/dev/sd[a-d]。 分区的命名:Windows上面一块磁盘,会分成C盘、D盘、E盘、F盘。linux中的磁盘也会做分区,假如/dev/sda有两个分区,则这两个分区的名字kafka术语
Topic:发布订阅的对象称为主题(topic),可以为每个应用,每个业务甚至每个类创建专属的主题。 clients:生产者和消费者统称为clients。 Producer:向主题发布消息的客户端应用称为生产者,生产者程序通常不断的向一个或多个主题发送消息。 Consumer:订阅这些主题消息的客户端应用称为消挂载硬盘
思路 查看硬盘id,fdisk分区,格式化硬盘 umount -l /mnt/sda1 # 卸载分区 (根据情况修改, 有时并非 /mnt/sda1) fdisk -l # 查看磁盘情况 fdisk /dev/sda # 进入命令行分区界面 (根据情况修改) (注意, 这里是 sda 而不是 sda1) 输入 o 设置新分区为 msdos 格式MySQL分区介绍与使用
一、MySQL分区创建 MySQL创建方式一共有四种:range、list、hash和key。 1.range(官方文档) 1.1 int create table staff( id int(32) not null, code_ varchar(30), fname varchar(30), time_ date, primary key(`id`,`time_`) ) partition by range(id)( partition p分区函数和快排(快排分为递归和非递归两个版本)
package class08; import java.util.Arrays; import java.util.Stack; /** * 分区函数和快排。 * 快排分为递归和非递归两个版本。 */ public class Code03_PartitionAndQuickSort { /** * 分区。结果是分为两个区域,小于等于区(不保证有序),和大于区(不保证有序)。消息队列 kafka
Kafka 概念解释 topic:队列 producer:生产者,指发送消息端 consumer:消费者,消息消费端 consumer group:消费者组,消息会发给每个消费者组,每个消费者对应一个消费者组 border:kafka服务器 partition:分区 replication-factor:副本 ar:分区中的所有副本统称为AR isr:所有与leader副本保持如何在 Linux 中扩展 XFS 根分
最近在3A平台的平台下开通了Linux服务器,学习Linux服务器相关知识。 在某些情况下,/ 分区在 Linux 中磁盘空间不足。即使压缩和删除旧的日志文件也无济于事,因此在这种情况下,我们别无选择,只能扩展 / 文件系统。在本文中,我们将演示如何在 Linux 系统中扩展不是LVM逻辑卷中的xfs根分区记一次使用“msck repair table 表名”这个命令
背景: 数据导入到hive后,查询不到数据 原因: MSCK REPAIR TABLE命令主要是用来解决通过hdfs dfs -put或者hdfs api写入hive分区表的数据在hive中无法被查询到的问题。 我们知道hive有个服务叫metastore,这个服务主要是存储一些元数据信息,比如数据库名,表名或者表的分区等等信息。如