Browse Source

增加了zk的学习笔记

seamew 3 years ago
parent
commit
1d29b60f2c

+ 4 - 4
linux/linux常见命令/学习正则表达式.md

@@ -1,4 +1,4 @@
-# 基本使用
+## 基本使用
 
 ## grep  "搜索的字符"  文件名
 
@@ -41,11 +41,11 @@
 
 
 
-# 高级使用
+## 高级使用
 
-## 可以使用$()或者``结合运行复杂命令
+### 可以使用$()或者``结合运行复杂命令
 
-```
+```shell
 docker rmi --force `docker images | grep doss-api | awk '{print $3}'`    
 或者
 docker rmi --force $(docker images | grep doss-api | awk '{print $3}')

+ 1 - 1
linux/linux服务器配置/zsh/zsh的配置文件.md

@@ -8,7 +8,7 @@ export ZSH=/home/seamew/.oh-my-zsh
 # Set name of the theme to load. Optionally, if you set this to "random"
 # it'll load a random theme each time that oh-my-zsh is loaded.
 # See https://github.com/robbyrussell/oh-my-zsh/wiki/Themes
-# zhs的主题
+# zhs的主题 crunch
 ZSH_THEME="ys"		
 # Set list of themes to load
 # Setting this variable when ZSH_THEME=random

+ 1 - 1
linux/linux服务器防护/linux防火墙.md

@@ -18,7 +18,7 @@ yum install -y firewalld firewalld-config
 # 开机启动
 systemctl enable firewalld
 # 禁止开机启动
-sytemctl disable firewalld
+systemctl disable firewalld
 # 查看状态
 systemctl status firewalld
 ```

+ 26 - 2
云原生/docker/4.docker数据卷.md

@@ -1,4 +1,4 @@
-# 1.基本概念
+# 1基本概念
 
 数据卷就是宿主机上的一个文件或目录
 当容器目录和数据卷(宿主机)目录绑定,双方修改会立即同步操作
@@ -6,9 +6,33 @@
 数据卷作用:容器数据的持久化 外部机器和容器间接通信 容器之间数据交换
 使用 -v命令。
 
-# 2.数据卷添加的方式
+# 2数据卷添加的方式
 
 容器内与宿主机实现数据的共享
 数据卷--添加两种方式
 1. 直接命令形式添加   docker run -it -v 宿主机绝对路径目录:容器内目录 镜像文件名称
 2. Dockerfile方式添加
+
+# 3、数据卷的使用细节
+
+1. 如果宿主机没有对应的目录,那么就会自动创建它
+2. 不论宿主机有没有目录和文件,容器内部的目录都会被覆盖
+3. 挂载成功后,如果修改挂载文件的内容,容器内的文件不会实时更新,需要重启容器。如果修改的是挂载目录下的文件,则会实时更新,所以推荐挂载目录
+4. 容器目录不可以为相对路径
+5. 如果只是-v指定一个目录,会挂载的是宿主机上的/var/lib/docker/volumes/test1/_data目录。这是随机生成的
+6. 挂载宿主机已存在目录后,在容器内对其进行操作,报“Permission denied”。
+
+```shell
+1> 关闭selinux。
+
+临时关闭:# setenforce 0
+
+永久关闭:修改/etc/sysconfig/selinux文件,将SELINUX的值设置为disabled。
+
+2> 以特权方式启动容器
+
+指定--privileged参数
+
+如:# docker run -it --privileged -v /test:/soft centos /bin/bash
+```
+

+ 3 - 3
后端/Java/JAVA高阶/JUC编程/CAS.md

@@ -6,12 +6,12 @@
 注意:mysql 的 innodb 引擎中存在行锁的概念
 2. 站在 java 锁层面,如果没有获取到锁,则会阻塞等待,后期唤醒的锁的成本就会非常高,重新被我们 cpu 从就绪调度为运行状态。
 例如Lock syn 锁等,悲观锁没有获取到锁的线程会阻塞等待;
-![image-20211031163542154](../../../照片/image-20211031163542154.png)
+![image-20211031163542154](../../../../照片/image-20211031163542154.png)
 
 ## 乐观锁: 
 
 乐观锁比较乐观,通过预值或者版本号比较,如果不一致性的情况则通过循环控制修改(不断循环查询版本号),当前线程不会被阻塞,是乐观,效率比较高,但是乐观锁比较消耗 cpu 的资源。
-![image-20211031163822733](../../../照片/image-20211031163822733.png)
+![image-20211031163822733](../../../../照片/image-20211031163822733.png)
 乐观锁:获取锁----如果没有获取到锁,当前线程是不会阻塞等待,通过死循环控制。
 
 ## Mysql 层面如何实现乐观锁呢
@@ -65,7 +65,7 @@ CAS:没有获取到锁的线程是不会阻塞的,通过循环控制一直
 
 CAS: Compare and Swap,翻译成比较并交换。 执行函数 CAS(V,E,  N)
 CAS 有 3 个操作数,内存值 V,旧的预期值 E(V的备份值),要修改的新值 N。当且仅当预期值 E 和内存值 V 相同时,将内存值 V 修改为 N,否则什么都不做。
-![image-20211031175057474](../../../照片/image-20211031175057474.png)
+![image-20211031175057474](../../../../照片/image-20211031175057474.png)
 
 1. Cas 是通过硬件指令,保证原子性,不能同时修改
 2. Java 是通过 unsafe jni 技术

+ 1 - 1
后端/Spring/SpringBoot/springboot.md

@@ -497,7 +497,7 @@ server.port=8081
 
 YAML是 "YAML Ain't a Markup Language" (YAML不是一种标记语言)的递归缩写。在开发的这种语言时,YAML 的意思其实是:"Yet Another Markup Language"(仍是一种标记语言)
 
-**这种语言以数据\**\*\*\*\**\*为中心,而不是以标记语言为重点!**
+**这种语言以数据作为中心,而不是以标记语言为重点!**
 
 以前的配置文件,大多数都是使用xml来配置;比如一个简单的端口配置,我们来对比下yaml和xml
 

+ 2 - 2
大数据/kafka/1.kafka笔记.md

@@ -159,14 +159,14 @@ kafka⾃带了⼀个producer命令客户端,可以从本地⽂件中读取内
 
 如果多个消费者在同⼀个消费组,那么只有⼀个消费者可以收到订阅的topic中的消息。换⾔之,同⼀个消费组中只能有⼀个消费者收到⼀个topic中的消息。
 ```
-./kafka-console-consumer.sh --bootstrap-server 192.168.245.21:9092 --consumer-property group.id=testGroup --topic test
+./kafka-console-consumer.sh --bootstrap-server 192.168.0.4:9092 --consumer-property group.id=testGroup --topic test
 ```
 
 ## 8.多播消息
 
 不同的消费组订阅同⼀个topic,那么不同的消费组中只有⼀个消费者能收到消息。实际上也是多个消费组中的多个消费者收到了同⼀个消息。
 ```
-./kafka-console-consumer.sh --bootstrap-server 127.0.0.1:2181 --consumer-property group.id=testGroup1 --topic test
+./kafka-console-consumer.sh --bootstrap-server 192.168.0.4:9092 --consumer-property group.id=testGroup1 --topic test
 
 ./kafka-console-consumer.sh --bootstrap-server 192.168.245.21:9092 --consumer-property group.id=testGroup2 --topic test
 ```

+ 8 - 7
部署文档/大数据平台/大数据平台环境搭建.md

@@ -651,30 +651,30 @@ export HIVE_AUX_JARS_PATH=/opt/modules/atlas-2.2.0/hook/hive
 1. 在`hdfs`中新建文件夹
 
    ```shell
-   hadoop fs -mkdir /tmp/altas_data
+   hadoop fs -mkdir /tmp/atlas_data
    ```
 
 2. 将这两张表的数据导出到`hdfs`中
 
    ```shell
-   hbase org.apache.hadoop.hbase.mapreduce.Export apache_atlas_entity_audit hdfs://lab1:8020/tmp/hbase/altas_data/apache_atlas_entity_audit
+   hbase org.apache.hadoop.hbase.mapreduce.Export apache_atlas_entity_audit hdfs://lab1:8020/tmp/hbase/atlas_data/apache_atlas_entity_audit
    
-   hbase org.apache.hadoop.hbase.mapreduce.Export apache_atlas_janus hdfs://lab1:8020/tmp/hbase/altas_data/apache_atlas_janus
+   hbase org.apache.hadoop.hbase.mapreduce.Export apache_atlas_janus hdfs://lab1:8020/tmp/hbase/atlas_data/apache_atlas_janus
    ```
 
 3. 新建本地文件夹`altas_data`,将导出的文件保存到该文件夹内
 
    ```shell
-   hadoop fs -get  /tmp/hbase/altas_data/apache_atlas_entity_audit ./
+   hadoop fs -get  /tmp/hbase/atlas_data/apache_atlas_entity_audit ./
    
-   hadoop fs -get  /tmp/hbase/altas_data/apache_atlas_janus ./
+   hadoop fs -get  /tmp/hbase/atlas_data/apache_atlas_janus ./
    ```
 
 4. 将这两份文件上传至目标机器的`hdfs`中
 
    ```shell
    # 将上述的两个文件夹,放入lab2j
-   hdfs dfs -put ./altas_data/  hdfs://lab1:8020/tmp/
+   hdfs dfs -put ./atlas_data/  hdfs://lab1:8020/tmp/
    ```
 
 5. 查看`hbase`表结构并在目标机器中创建这两张表,注意需要删除原表结构中的`TTL => 'FOREVER'`
@@ -690,7 +690,7 @@ export HIVE_AUX_JARS_PATH=/opt/modules/atlas-2.2.0/hook/hive
 6. 将导出的数据导入到新建的`hbase`表中
 
    ```shell
-   hbase org.apache.hadoop.hbase.mapreduce.Import apache_atlas_janus hdfs://lab1:8020/tmp/atlas_data/apache_atlas_entity_audit
+   hbase org.apache.hadoop.hbase.mapreduce.Import apache_atlas_entity_audit hdfs://lab1:8020/tmp/atlas_data/apache_atlas_entity_audit
    
    hbase org.apache.hadoop.hbase.mapreduce.Import apache_atlas_janus hdfs://lab1:8020/tmp/atlas_data/apache_atlas_janus
    ```
@@ -767,3 +767,4 @@ echo 1 > /proc/sys/vm/overcommit_memory
 | solr      | 7.7.3      |
 | atlas     | 2.2.0      |
 
+