├── .gitignore ├── images ├── AIO.png ├── BIO.png ├── j10.png ├── j11.png ├── j13.png ├── j3.jpg ├── j4.jpg ├── j5.jpg ├── j6.jpg ├── j7.jpg ├── j8.gif ├── tcp.png ├── wxg.png ├── JVM1.8.png ├── JVM规范.png ├── NIO-1.png ├── NIO-3.png ├── NIO-4.png ├── aws1.png ├── aws2.png ├── aws3.png ├── aws4.png ├── aws5.png ├── aws6.png ├── config.jpg ├── consul.jpg ├── pay_wx.png ├── socket.jpg ├── socket.png ├── wxg2.jpg ├── wxg2.png ├── 分布式事务1.png ├── 分布式事务2.png ├── 分布式事务3.png ├── 分布式事务4.png ├── 堆的内存分配.png ├── 消息顺序性.jpg ├── 知识星球.JPG ├── 策略模式.png ├── 装饰器模式.png ├── 观察者模式.jpg ├── heapsort.gif ├── kafka集群.png ├── redis主从.png ├── redis哨兵.png ├── redis键空间.png ├── redis集群.png ├── 一致性hash1.jpg ├── 一致性hash2.jpg ├── 一致性hash3.jpg ├── 一致性hash4.jpg ├── 一致性hash5.jpg ├── 一致性hash6.jpg ├── 一致性hash7.jpg ├── 分布式-限流-1.gif ├── 分布式-限流-2.png ├── quicksort.gif ├── redis数据类型.png ├── zookeeper1.png ├── zookeeper2.png ├── zookeeper3.png ├── zookeeper4.png ├── api-gateway-1.jpg ├── api-gateway-2.jpg ├── api-gateway-3.jpg ├── cyclicbarrier.png ├── wechat_qrcode.jpg └── countdownlatch.png ├── MD ├── 算法-其他-二十进制相加.md ├── 微服务-服务配置中心.md ├── 算法-数组-对撞指针-最大蓄水.md ├── 算法-二叉树-递归-二叉树反转.md ├── 算法-链表-双指针-删除倒数第n个.md ├── 通用基础-操作系统.md ├── 微服务-服务注册与发现.md ├── 算法-数组-滑动窗口-最小连续子数组.md ├── 微服务-网关.md ├── 分布式-ID生成方式.md ├── 系统设计-高并发抢红包.md ├── 算法-数组-归并排序-合并有序数组.md ├── 分布式-协调器.md ├── 通用基础-排序算法.md ├── 算法-动态规划-连续子数组最大和.md ├── Java基础-IO.md ├── 算法-二叉树-多叉树中最长的连续序列.md ├── 算法-链表-反转链表-链表相加.md ├── 微服务-服务容错保护.md ├── 算法-数据结构-LRU淘汰算法.md ├── 算法-数组-快速排序-第k大个数.md ├── 秒杀架构.md ├── 分布式-一致性hash.md ├── 分布式-限流.md ├── 通用基础-设计模式.md ├── Java基础-集合.md ├── Web框架-Spring.md ├── 分布式-消息队列.md ├── 分布式-CAP理论.md ├── 分布式-锁.md ├── 分布式-事务.md ├── 通用基础-网络通信协议.md ├── 数据库-Redis.md ├── Java基础-JVM原理.md ├── Java基础-多线程.md └── 数据库-MySQL.md ├── LICENSE └── README.md /.gitignore: -------------------------------------------------------------------------------- 1 | .idea -------------------------------------------------------------------------------- /images/AIO.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/AIO.png -------------------------------------------------------------------------------- /images/BIO.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/BIO.png -------------------------------------------------------------------------------- /images/j10.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/j10.png -------------------------------------------------------------------------------- /images/j11.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/j11.png -------------------------------------------------------------------------------- /images/j13.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/j13.png -------------------------------------------------------------------------------- /images/j3.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/j3.jpg -------------------------------------------------------------------------------- /images/j4.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/j4.jpg -------------------------------------------------------------------------------- /images/j5.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/j5.jpg -------------------------------------------------------------------------------- /images/j6.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/j6.jpg -------------------------------------------------------------------------------- /images/j7.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/j7.jpg -------------------------------------------------------------------------------- /images/j8.gif: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/j8.gif -------------------------------------------------------------------------------- /images/tcp.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/tcp.png -------------------------------------------------------------------------------- /images/wxg.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/wxg.png -------------------------------------------------------------------------------- /images/JVM1.8.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/JVM1.8.png -------------------------------------------------------------------------------- /images/JVM规范.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/JVM规范.png -------------------------------------------------------------------------------- /images/NIO-1.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/NIO-1.png -------------------------------------------------------------------------------- /images/NIO-3.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/NIO-3.png -------------------------------------------------------------------------------- /images/NIO-4.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/NIO-4.png -------------------------------------------------------------------------------- /images/aws1.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/aws1.png -------------------------------------------------------------------------------- /images/aws2.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/aws2.png -------------------------------------------------------------------------------- /images/aws3.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/aws3.png -------------------------------------------------------------------------------- /images/aws4.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/aws4.png -------------------------------------------------------------------------------- /images/aws5.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/aws5.png -------------------------------------------------------------------------------- /images/aws6.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/aws6.png -------------------------------------------------------------------------------- /images/config.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/config.jpg -------------------------------------------------------------------------------- /images/consul.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/consul.jpg -------------------------------------------------------------------------------- /images/pay_wx.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/pay_wx.png -------------------------------------------------------------------------------- /images/socket.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/socket.jpg -------------------------------------------------------------------------------- /images/socket.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/socket.png -------------------------------------------------------------------------------- /images/wxg2.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/wxg2.jpg -------------------------------------------------------------------------------- /images/wxg2.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/wxg2.png -------------------------------------------------------------------------------- /images/分布式事务1.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/分布式事务1.png -------------------------------------------------------------------------------- /images/分布式事务2.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/分布式事务2.png -------------------------------------------------------------------------------- /images/分布式事务3.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/分布式事务3.png -------------------------------------------------------------------------------- /images/分布式事务4.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/分布式事务4.png -------------------------------------------------------------------------------- /images/堆的内存分配.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/堆的内存分配.png -------------------------------------------------------------------------------- /images/消息顺序性.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/消息顺序性.jpg -------------------------------------------------------------------------------- /images/知识星球.JPG: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/知识星球.JPG -------------------------------------------------------------------------------- /images/策略模式.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/策略模式.png -------------------------------------------------------------------------------- /images/装饰器模式.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/装饰器模式.png -------------------------------------------------------------------------------- /images/观察者模式.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/观察者模式.jpg -------------------------------------------------------------------------------- /images/heapsort.gif: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/heapsort.gif -------------------------------------------------------------------------------- /images/kafka集群.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/kafka集群.png -------------------------------------------------------------------------------- /images/redis主从.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/redis主从.png -------------------------------------------------------------------------------- /images/redis哨兵.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/redis哨兵.png -------------------------------------------------------------------------------- /images/redis键空间.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/redis键空间.png -------------------------------------------------------------------------------- /images/redis集群.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/redis集群.png -------------------------------------------------------------------------------- /images/一致性hash1.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/一致性hash1.jpg -------------------------------------------------------------------------------- /images/一致性hash2.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/一致性hash2.jpg -------------------------------------------------------------------------------- /images/一致性hash3.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/一致性hash3.jpg -------------------------------------------------------------------------------- /images/一致性hash4.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/一致性hash4.jpg -------------------------------------------------------------------------------- /images/一致性hash5.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/一致性hash5.jpg -------------------------------------------------------------------------------- /images/一致性hash6.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/一致性hash6.jpg -------------------------------------------------------------------------------- /images/一致性hash7.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/一致性hash7.jpg -------------------------------------------------------------------------------- /images/分布式-限流-1.gif: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/分布式-限流-1.gif -------------------------------------------------------------------------------- /images/分布式-限流-2.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/分布式-限流-2.png -------------------------------------------------------------------------------- /images/quicksort.gif: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/quicksort.gif -------------------------------------------------------------------------------- /images/redis数据类型.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/redis数据类型.png -------------------------------------------------------------------------------- /images/zookeeper1.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/zookeeper1.png -------------------------------------------------------------------------------- /images/zookeeper2.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/zookeeper2.png -------------------------------------------------------------------------------- /images/zookeeper3.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/zookeeper3.png -------------------------------------------------------------------------------- /images/zookeeper4.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/zookeeper4.png -------------------------------------------------------------------------------- /images/api-gateway-1.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/api-gateway-1.jpg -------------------------------------------------------------------------------- /images/api-gateway-2.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/api-gateway-2.jpg -------------------------------------------------------------------------------- /images/api-gateway-3.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/api-gateway-3.jpg -------------------------------------------------------------------------------- /images/cyclicbarrier.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/cyclicbarrier.png -------------------------------------------------------------------------------- /images/wechat_qrcode.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/wechat_qrcode.jpg -------------------------------------------------------------------------------- /images/countdownlatch.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/xbox1994/Java-Interview/HEAD/images/countdownlatch.png -------------------------------------------------------------------------------- /MD/算法-其他-二十进制相加.md: -------------------------------------------------------------------------------- 1 | 在二十进制中,我们除了使用数字0-9以外,还使用字母a-j(表示10-19),给定两个二十进制整数,求它们的和。 输入是两个二十进制整数,且都大于0,不超过100位; 输出是它们的和(二十进制),且不包含首0。我们用字符串来表示二十进制整数。 2 | ``` 3 | /* 4 | 二十进制相加 5 | sample 6 | input 7 | 8 | 1234567890+abcdefghij 9 | 99999jjjjj+9999900001 10 | 11 | output 12 | 13 | bdfi02467j 14 | iiiij00000 15 | */ 16 | ``` 17 | 18 | -------------------------------------------------------------------------------- /MD/微服务-服务配置中心.md: -------------------------------------------------------------------------------- 1 | 我们的每个服务的配置文件都是在自身代码库中,当服务数量达到一定数量后,管理这些分散的配置文件会成为一个痛点。这节课我么就来解决配置文件管理的痛点 2 | 3 | ![](../images/config.jpg) 4 | 5 | Spring Cloud Config的目标是将各个微服务的配置文件集中存储一个文件仓库中(比如系统目录,Git仓库等等),然后通过Config Server从文件仓库中去读取配置文件,而各个微服务作为Config Client通过给Config Server发送请求指令来获取特定的Profile的配置文件,从而为自身的应用提供配置信息。同时还提供配置文件自动刷新功能。 6 | 7 | https://sjyuan.cc/service-config-server/ 8 | 9 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 10 | -------------------------------------------------------------------------------- /MD/算法-数组-对撞指针-最大蓄水.md: -------------------------------------------------------------------------------- 1 | https://leetcode.com/problems/container-with-most-water/ 2 | 3 | 给出一个非负整数数组,每一个整数表示一个竖立在坐标轴x位置的一堵高度为该整数的墙,选择两堵墙,和x轴构成的容器可以容纳最多的水 4 | 5 | ```java 6 | class Solution { 7 | public int maxArea(int[] height) { 8 | int i = 0, j = height.length - 1; 9 | int max = 0; 10 | while(i < j){ 11 | max = Math.max(max, Math.min(height[i], height[j])*(j-i)); 12 | if(height[i] < height[j]){ 13 | i++; 14 | }else{ 15 | j--; 16 | } 17 | } 18 | return max; 19 | } 20 | } 21 | ``` 22 | 23 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 24 | -------------------------------------------------------------------------------- /MD/算法-二叉树-递归-二叉树反转.md: -------------------------------------------------------------------------------- 1 | ```text 2 | 原二叉树: 3 | 4 4 | / \ 5 | 2 7 6 | / \ / \ 7 | 1 3 6 9 8 | 9 | 反转后的二叉树: 10 | 11 | 4 12 | / \ 13 | 7 2 14 | / \ / \ 15 | 9 6 3 1 16 | ``` 17 | 18 | ```java 19 | class Solution { 20 | public TreeNode invertTree(TreeNode root) { 21 | if(root == null){ 22 | return null; 23 | } 24 | invertTree(root.left); 25 | invertTree(root.right); 26 | TreeNode temp = root.left; 27 | root.left = root.right; 28 | root.right = temp; 29 | return root; 30 | } 31 | } 32 | ``` 33 | 34 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 35 | -------------------------------------------------------------------------------- /MD/算法-链表-双指针-删除倒数第n个.md: -------------------------------------------------------------------------------- 1 | https://leetcode.com/problems/remove-nth-node-from-end-of-list/ 2 | 3 | 给一个链表,删除倒数第n个节点 4 | 5 | ```java 6 | class Solution { 7 | public ListNode removeNthFromEnd(ListNode head, int n) { 8 | ListNode dummy = new ListNode(0); 9 | dummy.next = head; 10 | 11 | ListNode q = dummy, p = dummy; 12 | while(n-->-1){ 13 | p = p.next; 14 | } 15 | while(p!=null){ 16 | q = q.next; 17 | p = p.next; 18 | } 19 | q.next = q.next.next; // 优化:释放被删除节点 20 | return dummy.next; 21 | } 22 | } 23 | ``` 24 | 25 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 26 | -------------------------------------------------------------------------------- /MD/通用基础-操作系统.md: -------------------------------------------------------------------------------- 1 | ## 线程和进程区别 2 | 1. 进程是资源分配的最小单位,线程是程序执行的最小单位 3 | 2. 进程有自己的独立地址空间,每启动一个进程,系统就会为它分配地址空间,建立数据表来维护代码段、堆栈段和数据段。线程是共享进程的数据空间,因此CPU切换一个线程的花费远比进程要小很多,同时创建一个线程的开销也比进程要小很多 4 | 3. 线程之间的通信更方便,同一进程下的线程共享全局变量、静态变量等数据,而进程之间的通信需要以通信的方式(IPC)进行。不过如何处理好同步与互斥是编写多线程程序的难点。 5 | 6 | ## 硬链接与软链接的区别 7 | 每个文件都是创建了一个指针指向inode(代表物理硬盘的一个区块),可以通过`ls -i`查看。 8 | 硬链接是创建另一个文件,也通过创建指针指向inode。当你删除一个文件/硬链接时,它会删除一个到底层inode的指针。当inode的所有指针都被删除时,才会真正删除文件。 9 | 软连接是另外一种类型的文件,保存的是它指向文件的全路径,访问时会替换成绝对路径 10 | 11 | ## 查看某个进程中的线程 12 | `ps -T -p ` 13 | 14 | ## 查看某个文件夹中每个文件夹的大小 15 | `du --max-depth=1 -h` 16 | 17 | ## CPU负载的含义 18 | 一段时间内CPU正在处理和等待处理的进程总数与CPU最大处理进程数的比例。对于多核CPU来说最大LOAD是最大的核心数量。 19 | 使用`top`和`top -Hp`查找到CPU占用比较大的线程,进而使用`jstack`来排查Java程序的问题 -------------------------------------------------------------------------------- /MD/微服务-服务注册与发现.md: -------------------------------------------------------------------------------- 1 | ## 定义 2 | 在微服务应用中,运行的服务实例集会动态更改。实例能动态分配网络位置。所以为了使客户端向服务端发送请求它必须使用服务发现机制。 3 | 4 | 客户端应用进程向注册中心发起查询,来获取服务的位置。服务发现的一个重要作用就是提供一个可用的服务列表。 5 | 6 | ## 原理 7 | ![](../images/consul.jpg) 8 | 9 | 1. 当User Service启动的时候,会向Consul发送一个POST请求,告诉Consul自己的IP和Port 10 | 2. Consul 接收到User Service的注册后,每隔10s(默认)会向User Service发送一个健康检查的请求,检验User Service是否健康(Consul其实支持其他健康检查机制) 11 | 3. 当Order Service发送 GET 方式请求/api/addresses到User Service时,会先从Consul中拿到一个存储服务 IP 和 Port 的临时表,从表中拿到User Service的IP和Port后再发送GET方式请求/api/addresses 12 | 4. 该临时表每隔10s会更新,只包含有通过了健康检查的Service 13 | 14 | 上面注册、查询的逻辑不是Consul提供的,一般是你使用的微服务框架中已经封装好的服务注册发现功能,如果没有特殊的需求是不会修改这部分逻辑的 15 | 16 | https://sjyuan.cc/service-registration-and-discovery/ 17 | 18 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 19 | -------------------------------------------------------------------------------- /MD/算法-数组-滑动窗口-最小连续子数组.md: -------------------------------------------------------------------------------- 1 | https://leetcode.com/problems/minimum-size-subarray-sum/ 2 | 3 | 给定一个整形数组和一个数字s,找到数组中最短的一个连续子数组,使得连续子数组的数字和sum>=s,返回这个最短的连续子数组的长度值 4 | 5 | ```java 6 | class Solution { 7 | public int minSubArrayLen(int s, int[] nums) { 8 | int i = 0, j = -1, sum = 0, minLength = Integer.MAX_VALUE; 9 | while(i < nums.length){ 10 | if(j + 1 < nums.length && sum < s){ 11 | sum+=nums[++j]; 12 | }else{ 13 | sum-=nums[i++]; 14 | } 15 | if(sum >= s){ 16 | minLength = Math.min(j-i+1, minLength); 17 | } 18 | } 19 | if(minLength == Integer.MAX_VALUE){ 20 | return 0; 21 | } 22 | return minLength; 23 | } 24 | } 25 | ``` 26 | 27 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 28 | -------------------------------------------------------------------------------- /MD/微服务-网关.md: -------------------------------------------------------------------------------- 1 | ## 定义 2 | API网关。它是系统的单个入口服务器。它类似于面向对象的外观模式。它封装了内部系统架构并且提供了每个客户端定制的API。它可能还有其他的职责比如身份验证、监控、负载均衡、缓存、请求整理和管理还有静态相应处理。 3 | 4 | ## 优点 5 | ### 流量统一管理、路由 6 | 它用于解决微服务过于分散,没有一个统一的出入口进行流量管理、路由映射、监控、缓存、负载均衡的问题。 我们用两张图来解释: 7 | 8 | ![](../images/api-gateway-1.jpg) 9 | 10 | 如上图所示的mst-user-service, mst-good-service, mst-order-service,这些应用会需要一些通用的功能,比如Authentication, 这些功能过于分散,代码就需要在三个服务中都写一遍,因此需要有一个统一的出入口来管理流量,就像下图 11 | 12 | ![](../images/api-gateway-2.jpg) 13 | 14 | ### 设备适配 15 | 还可以针对不同的渠道和客户端提供不同的API Gateway,对于该模式的使用由另外一个大家熟知的方式叫Backend for front-end, 在Backend for front-end模式当中,我们可以针对不同的客户端分别创建其BFF。 16 | ![](../images/api-gateway-3.jpg) 17 | 18 | ### 协议转换 19 | 客户端直接调用微服务可能会使用对网络不友好的协议。内部服务之间可能使用Thrift二进制RPC、gRPC协议。两个协议对浏览器不友好并且最好是在内部使用。应用应该在防火墙之外使用HTTP或者WebSocket之类的协议。 20 | 21 | ## 缺点 22 | API网关是一个必须被开发、部署、管理的高可用组件。还有一个风险是它变成开发瓶颈。开发人员必须更新API网关来暴露每个微服务接口。因此更新API网关的过程越少越好。然而,对于大多数现实世界的应用,使用API网关是有意义的。 23 | 24 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 25 | -------------------------------------------------------------------------------- /MD/分布式-ID生成方式.md: -------------------------------------------------------------------------------- 1 | ### UUID 2 | 优: 3 | 4 | 1. 本地生成没有了网络之类的消耗,效率非常高 5 | 6 | 缺: 7 | 8 | 1. 不易于存储:UUID太长,16字节128位,通常以36长度的字符串表示,很多场景不适用。 9 | 2. 信息不安全:基于MAC地址生成UUID的算法可能会造成MAC地址泄露,这个漏洞曾被用于寻找梅丽莎病毒的制作者位置。 10 | 11 | ### snowflake 12 | 这种方案把64-bit分别划分成多段(机器、时间) 13 | 14 | 优: 15 | 16 | 1. 毫秒数在高位,自增序列在低位,整个ID都是趋势递增的 17 | 2. 本地生成没有了网络之类的消耗,效率非常高 18 | 3. 可以根据自身业务特性分配bit位,非常灵活。 19 | 20 | 缺: 21 | 22 | 1. 强依赖机器时钟,如果机器上时钟回拨,会导致发号重复或者服务会处于不可用状态 23 | 24 | ### 数据库 25 | 可以利用 MySQL 中的自增属性 auto_increment 来生成全局唯一 ID,也能保证趋势递增。 但这种方式太依赖 DB,如果数据库挂了那就非常容易出问题。 26 | 27 | 优: 28 | 29 | 1. 非常简单,利用现有数据库系统的功能实现,成本小,有DBA专业维护。 30 | 2. ID号单调自增,可以实现一些对ID有特殊要求的业务。 31 | 32 | 缺: 33 | 34 | 1. 强依赖DB,当DB异常时整个系统不可用,属于致命问题。配置主从复制可以尽可能的增加可用性,但是数据一致性在特殊情况下难以保证。主从切换时的不一致可能会导致重复发号。 35 | 2. ID发号性能瓶颈限制在单台MySQL的读写性能。 36 | 37 | 参考: 38 | https://tech.meituan.com/MT_Leaf.html 39 | https://github.com/crossoverJie/Java-Interview/blob/master/MD/ID-generator.md 40 | 41 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 42 | -------------------------------------------------------------------------------- /MD/系统设计-高并发抢红包.md: -------------------------------------------------------------------------------- 1 | ## 题目 2 | 总共有10亿个红包,在某个时间一起来抢红包,如何设计 3 | 4 | ## 分析 5 | 主要考察的是如何设计高并发系统,但实际上存在一定变通处理方式,不一定全在技术上 6 | 7 | 通常在考虑系统QPS时,应当按业务上的极限QPS作为系统必须承担的QPS设计,比如10亿个红包,因为用户量巨大,极限QPS是可能是10亿 8 | 9 | 但是一般来说几万QPS已经是比较高的并发了,就需要比较大的集群和高并发架构来处理了,所以不可能真正实现10亿的并发架构,而是通过一些变通的方法来处理,比如在业务上做一些处理规避掉部分流量 10 | 11 | 但尽可能地需要实现高并发架构,思路是将大部分流量拦截在系统承载能力低的模块之前 12 | 13 | ## 回答 14 | #### 业务上适当规避 15 | 在相应法律法规、规章制度、活动说明、用户体验允许的情况下,可以做以下处理 16 | 17 | 1. 根据某些规则对部分用户直接返回没抢到。比如有些用户曾经被系统识别为恶意用户、垃圾用户、僵尸用户,直接告诉用户已经抢完 18 | 2. 分散不同客户端打开活动入口的时间。比如将1秒内的10亿流量分散到10秒,那么平均每秒只有1亿了 19 | 3. 增加客户端入口点击门槛。比如需要手机摇一摇、画一个图案才能触发抢红包的接口 20 | 21 | #### 技术上硬核抗压 22 | 网关是会接触实打实10亿流量的地方,也是拦截掉最多无效流量的地方,同理,缓存也是 23 | 24 | 1. 限流策略。比如在压力测试中我们测到系统1亿QPS达到了极限,那么超过的部分直接返回已经抢完,通过Nginx的lua脚本可以查redis看到QPS数据从而可以动态调节 25 | 2. 作弊拦截。通过对UA、IP规则直接将抢红包的作弊流量拦截掉 26 | 3. 异步削峰。对Redis中的红包预减数量,立即返回抢红包成功请用户等待,然后把发送消息发给消息队列,进行流量的第二次削峰,让后台服务慢慢处理 27 | 4. 服务逻辑。比如业务逻辑是使用事务控制对数据库的创建红包记录,减红包数量的操作,那么创建操作要放到减数量操作之前,从而避免减数量update的行锁持有时间 28 | 5. 机器配置。当然是服务器机器配置约高越好,数据库配置越猛越好,高并发抢红包主要是CPU的负载较高,要选择偏向CPU性能的机器 29 | -------------------------------------------------------------------------------- /MD/算法-数组-归并排序-合并有序数组.md: -------------------------------------------------------------------------------- 1 | https://leetcode.com/problems/merge-sorted-array/ 2 | 3 | Given two sorted integer arrays nums1 and nums2, merge nums2 into nums1 as one sorted array. 4 | 5 | Note: 6 | 7 | * The number of elements initialized in nums1 and nums2 are m and n respectively. 8 | * You may assume that nums1 has enough space (size that is greater or equal to m + n) to hold additional elements from nums2. 9 | Example: 10 | ``` 11 | Input: 12 | nums1 = [1,2,3,0,0,0], m = 3 13 | nums2 = [2,5,6], n = 3 14 | 15 | Output: [1,2,2,3,5,6] 16 | ``` 17 | 18 | 归并排序的合并操作 19 | 20 | ```java 21 | 22 | class Solution { 23 | public void merge(int A[], int m, int B[], int n) { 24 | int i=m-1; 25 | int j=n-1; 26 | int k = m+n-1; 27 | while(i >=0 && j>=0) 28 | { 29 | if(A[i] > B[j]) 30 | A[k--] = A[i--]; 31 | else 32 | A[k--] = B[j--]; 33 | } 34 | while(j>=0) 35 | A[k--] = B[j--]; 36 | } 37 | } 38 | ``` 39 | 40 | 41 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 42 | -------------------------------------------------------------------------------- /MD/分布式-协调器.md: -------------------------------------------------------------------------------- 1 | ### 分布式协调 2 | 这个其实是 zookeeper 很经典的一个用法,简单来说,就好比,你 A 系统发送个请求到 mq,然后 B 系统消息消费之后处理了。那 A 系统如何知道 B 系统的处理结果?用 zookeeper 就可以实现分布式系统之间的协调工作。A 系统发送请求之后可以在 zookeeper 上**对某个节点的值注册个监听器**,一旦 B 系统处理完了就修改 zookeeper 那个节点的值,A 立马就可以收到通知,完美解决。 3 | 4 | ![](../images/zookeeper1.png) 5 | 6 | ### 分布式锁 7 | 举个栗子。对某一个数据连续发出两个修改操作,两台机器同时收到了请求,但是只能一台机器先执行完另外一个机器再执行。那么此时就可以使用 zookeeper 分布式锁,一个机器接收到了请求之后先获取 zookeeper 上的一把分布式锁,就是可以去创建一个 znode,接着执行操作;然后另外一个机器也**尝试去创建**那个 znode,结果发现自己创建不了,因为被别人创建了,那只能等着,等第一个机器执行完了自己再执行。 8 | 9 | ![](../images/zookeeper2.png) 10 | 11 | ### 元数据/配置信息管理 12 | zookeeper 可以用作很多系统的配置信息的管理,比如 kafka、storm 等等很多分布式系统都会选用 zookeeper 来做一些元数据、配置信息的管理,包括 dubbo 注册中心不也支持 zookeeper 么? 13 | 14 | ![](../images/zookeeper3.png) 15 | 16 | ### HA高可用性 17 | 这个应该是很常见的,比如 hadoop、hdfs、yarn 等很多大数据系统,都选择基于 zookeeper 来开发 HA 高可用机制,就是一个**重要进程一般会做主备**两个,主进程挂了立马通过 zookeeper 感知到切换到备用进程。 18 | 19 | ![](../images/zookeeper4.png) 20 | 21 | https://github.com/doocs/advanced-java/blob/master/docs/distributed-system/zookeeper-application-scenarios.md 22 | 23 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 24 | -------------------------------------------------------------------------------- /MD/通用基础-排序算法.md: -------------------------------------------------------------------------------- 1 | ## 快速排序 2 | ![](../images/j5.jpg) 3 | 4 | ![](../images/quicksort.gif) 5 | 6 | 首先任意选取一个数据(通常选用数组的第一个数)作为关键数据,然后将所有比它小的数都放到它前面,所有比它大的数都放到它后面,这个过程称为一趟快速排序 7 | 8 | 最好情况:每次划分过程产生的区间大小都为n/2,一共需要划分log2n次,每次需要比较n-1次,O(nlog2n) 9 | 最坏情况:每次划分过程产生的两个区间分别包含n-1个元素和1个元素,一共需要划分n-1次,每次最多交换n-1次,这就是冒泡排序了,O(n2) 10 | 11 | ## 堆排序 12 | 13 | 1. 根据初始数组去构造初始堆(构建一个完全二叉树,保证所有的父结点都比它的孩子结点数值大)。 14 | 2. 每次交换第一个和最后一个元素,输出最后一个元素(最大值),然后把剩下元素重新调整为大根堆。 15 | 16 | ![](../images/j11.png) 17 | 18 | ![](../images/heapsort.gif) 19 | 20 | 堆排序过程的最好和最坏时间复杂度是O(nlog2n) 21 | 22 | ## TOP K 23 | 如何在N个元素中寻找前K大的数? 24 | 25 | 快速排序: 26 | 27 | * 原理:每次快速排序中的划分过程能找到一个全部大于左边元素的一个值。如果该值的位置等于K,那么这个值和它左边的所有元素就是前K大的数;如果该值的位置小于K,那么对右边的元素继续划分排序;如果该值的位置大于K,那么对左边的元素继续划分排序 28 | * 问题:但空间复杂度是O(N),如果你要在很多元素中找很少几个top K的元素,或者在一个巨大的数据流里找到top K,快速排序是不合适的,堆排序更省地方 29 | 30 | 堆排序: 31 | * 原理:申请一个容量为K的数组,存入数组的前K个元素,创建长度为K的最小堆;从K开始循环数组的剩余元素,如果元素(a)比最小堆的根节点大,将a设置成最小堆的根节点,然后重建最小堆;循环完成后,最小堆中的所有元素就是需要找的最大的K个元素。 32 | * 优点:可以在N个元素中找到top K,时间复杂度是O(N log K),空间复杂的是O(K) 33 | 34 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 35 | -------------------------------------------------------------------------------- /LICENSE: -------------------------------------------------------------------------------- 1 | MIT License 2 | 3 | Copyright (c) 2018 Tianyi Wang 4 | 5 | Permission is hereby granted, free of charge, to any person obtaining a copy 6 | of this software and associated documentation files (the "Software"), to deal 7 | in the Software without restriction, including without limitation the rights 8 | to use, copy, modify, merge, publish, distribute, sublicense, and/or sell 9 | copies of the Software, and to permit persons to whom the Software is 10 | furnished to do so, subject to the following conditions: 11 | 12 | The above copyright notice and this permission notice shall be included in all 13 | copies or substantial portions of the Software. 14 | 15 | THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR 16 | IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, 17 | FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE 18 | AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER 19 | LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, 20 | OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE 21 | SOFTWARE. 22 | -------------------------------------------------------------------------------- /MD/算法-动态规划-连续子数组最大和.md: -------------------------------------------------------------------------------- 1 | https://www.nowcoder.com/profile/844008/codeBookDetail?submissionId=1519441 2 | 3 | {6,-3,-2,7,-15,1,2,2},连续子数组的最大和为8(从第0个开始,到第3个为止)。给一个数组,返回它的最大连续子序列的和 4 | 5 | ```text 6 | 使用动态规划 7 | F(i):以array[i]为末尾元素的子数组的和的最大值,子数组的元素的相对位置不变 8 | F(i)=max(F(i-1)+array[i] , array[i]) 9 | res:所有子数组的和的最大值 10 | res=max(res,F(i)) 11 | 12 | 如数组[6, -3, -2, 7, -15, 1, 2, 2] 13 | 初始状态: 14 | F(0)=6 15 | res=6 16 | i=1: 17 | F(1)=max(F(0)-3,-3)=max(6-3,3)=3 18 | res=max(F(1),res)=max(3,6)=6 19 | i=2: 20 | F(2)=max(F(1)-2,-2)=max(3-2,-2)=1 21 | res=max(F(2),res)=max(1,6)=6 22 | i=3: 23 | F(3)=max(F(2)+7,7)=max(1+7,7)=8 24 | res=max(F(2),res)=max(8,6)=8 25 | i=4: 26 | F(4)=max(F(3)-15,-15)=max(8-15,-15)=-7 27 | res=max(F(4),res)=max(-7,8)=8 28 | 以此类推 29 | 最终res的值为8 30 | ``` 31 | 32 | ```java 33 | public int FindGreatestSumOfSubArray(int[] array) { 34 | int res = array[0]; //记录当前所有子数组的和的最大值 35 | int max=array[0]; //包含array[i]的连续数组最大值 36 | for (int i = 1; i < array.length; i++) { 37 | max=Math.max(max+array[i], array[i]); 38 | res=Math.max(max, res); 39 | } 40 | return res; 41 | } 42 | ``` 43 | 44 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 45 | -------------------------------------------------------------------------------- /MD/Java基础-IO.md: -------------------------------------------------------------------------------- 1 | 同步/异步关注的是消息通信机制 (synchronous communication/ asynchronous communication) 。所谓同步,就是在发出一个调用时,在没有得到结果之前, 该调用就不返回。异步则是相反,调用在发出之后,这个调用就直接返回了,所以没有返回结果 2 | 3 | 阻塞/非阻塞关注的是程序在等待调用结果(消息,返回值)时的状态.阻塞调用是指调用结果返回之前,当前线程会被挂起。调用线程只有在得到结果之后才会返回。非阻塞调用指在不能立刻得到结果之前,该调用不会阻塞当前线程。 4 | 5 | ## BIO 6 | Block-IO:InputStream和OutputStream,Reader和Writer。属于同步阻塞模型 7 | 8 | 同步阻塞:一个请求占用一个进程处理,先等待数据准备好,然后从内核向进程复制数据,最后处理完数据后返回 9 | 10 | ![](../images/BIO.png) 11 | 12 | ## NIO 13 | NonBlock-IO:Channel、Buffer、Selector。属于IO多路复用的同步非阻塞模型 14 | 15 | 同步非阻塞:进程先将一个套接字在内核中设置成非阻塞再等待数据准备好,在这个过程中反复轮询内核数据是否准备好,准备好之后最后处理数据返回 16 | 17 | ![](../images/NIO-1.png) 18 | 19 | IO多路复用:同步非阻塞的优化版本,区别在于IO多路复用阻塞在select,epoll这样的系统调用之上,而没有阻塞在真正的IO系统调用上。换句话说,轮询机制被优化成通知机制,多个连接公用一个阻塞对象,进程只需要在一个阻塞对象上等待,无需再轮询所有连接 20 | 21 | ![](../images/NIO-3.png) 22 | 23 | 在Java的NIO中,是基于Channel和Buffer进行操作,数据总是从通道读取到缓冲区中,或者从缓冲区写入到通道中。Selector用于监听多个通道的事件(比如:连接打开,数据到达) 24 | 25 | 因此,单个线程可以监听多个数据通道,Selector的底层实现是epoll/poll/select的IO多路复用模型,select方法会一直阻塞,直到channel中有事件就绪: 26 | 27 | ![](../images/NIO-4.png) 28 | 29 | 与BIO区别如下: 30 | 31 | 1. 通过缓冲区而非流的方式进行数据的交互,流是进行直接的传输的没有对数据操作的余地,缓冲区提供了灵活的数据处理方式 32 | 2. NIO是非阻塞的,意味着每个socket连接可以让底层操作系统帮我们完成而不需要每次开个线程去保持连接,使用的是selector监听所有channel的状态实现 33 | 3. NIO提供直接内存复制方式,消除了JVM与操作系统之间读写内存的损耗 34 | 35 | ## AIO 36 | Asynchronous IO:属于事件和回调机制的异步非阻塞模型 37 | 38 | ![](../images/AIO.png) 39 | 40 | AIO得到结果的方式: 41 | 42 | * 基于回调:实现CompletionHandler接口,调用时触发回调函数 43 | * 返回Future:通过isDone()查看是否准备好,通过get()等待返回数据 44 | 45 | 但要实现真正的异步非阻塞IO,需要操作系统支持,Windows支持而Linux不完善 46 | -------------------------------------------------------------------------------- /MD/算法-二叉树-多叉树中最长的连续序列.md: -------------------------------------------------------------------------------- 1 | 二叉树:https://cheonhyangzhang.gitbooks.io/leetcode-solutions/content/solutions-501-550/549-binary-tree-longest-consecutive-sequence-ii.html 2 | 3 | 多叉树:https://gist.github.com/thanlau/34bd056dd0b1662d5fd483e157a27dfb 4 | ```java 5 | /** 6 | * Definition for a multi tree node. 7 | * public class MultiTreeNode { 8 | * int val; 9 | * List children; 10 | * MultiTreeNode(int x) { val = x; } 11 | * } 12 | */ 13 | public class Solution { 14 | /** 15 | * @param root the root of k-ary tree 16 | * @return the length of the longest consecutive sequence path 17 | */ 18 | int max = 0; 19 | 20 | public int longestConsecutive3(MultiTreeNode root) { 21 | // Write your code here 22 | if (root == null){ 23 | return 0; 24 | } 25 | helper(root); 26 | return max; 27 | } 28 | 29 | public int[] helper(MultiTreeNode root) { 30 | int up = 0; 31 | int down = 0; 32 | if (root == null){ 33 | return new int[]{down, up}; 34 | } 35 | for ( MultiTreeNode node : root.children ){ 36 | int[] h = helper(node); 37 | if (node.val == root.val + 1){ 38 | down = Math.max(down, h[0] + 1); 39 | } 40 | if (node.val + 1 == root.val){ 41 | up = Math.max(up, h[1] + 1); 42 | } 43 | } 44 | max = Math.max(max, down + up + 1); 45 | return new int[]{down, up}; 46 | } 47 | } 48 | 49 | ``` 50 | -------------------------------------------------------------------------------- /MD/算法-链表-反转链表-链表相加.md: -------------------------------------------------------------------------------- 1 | https://leetcode.com/problems/add-two-numbers/ 2 | 3 | You are given two non-empty linked lists representing two non-negative integers. The digits are stored in reverse order and each of their nodes contain a single digit. Add the two numbers and return it as a linked list. 4 | 5 | You may assume the two numbers do not contain any leading zero, except the number 0 itself. 6 | 7 | Example: 8 | ``` 9 | Input: (2 -> 4 -> 3) + (5 -> 6 -> 4) 10 | Output: 7 -> 0 -> 8 11 | Explanation: 342 + 465 = 807. 12 | ``` 13 | 14 | 对于这个问题还有一个很好的方法: 15 | 16 | 1、将两个链表逆序,这样就可以依次得到从低到高位的数字 17 | 18 | 2、同步遍历两个逆序后链表,相加生成新链表,同时关注进位 19 | 20 | 3、当两个链表都遍历完成后,关注进位。 21 | 22 | 4、将两个逆序的链表再逆序一遍,调整回去 23 | 24 | 25 | ```java 26 | public class ListNode { 27 | int val; 28 | ListNode next; 29 | ListNode(int x) { val = x; } 30 | } 31 | 32 | public class Solution { 33 | public ListNode addTwoNumbers(ListNode l1, ListNode l2) { 34 | ListNode listNode= new ListNode(0); 35 | ListNode p = listNode; 36 | int sum = 0; 37 | 38 | while (l1 != null || l2 != null || sum != 0) { 39 | if (l1 != null) { 40 | sum += l1.val; 41 | l1 = l1.next; 42 | } 43 | if (l2 != null) { 44 | sum += l2.val; 45 | l2 = l2.next; 46 | } 47 | p.next = new ListNode(sum % 10); 48 | sum = sum / 10; 49 | p = p.next; 50 | } 51 | return listNode.next; 52 | } 53 | } 54 | ``` 55 | 56 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 57 | -------------------------------------------------------------------------------- /MD/微服务-服务容错保护.md: -------------------------------------------------------------------------------- 1 | ## 服务降级 2 | 服务降级类似女生旅行:在用户访问量高峰期,整体资源面临不足的时候,将一些重要优先程度相对较低的服务先关掉,等到过了高峰期再恢复。比如京东商城在双十一期间,可能会对评论服务进行服务降级。 3 | 4 | 回到微服务系统,服务A调用服务B,当我们对服务B进行降级后,服务A将直接调用预定义的降级逻辑(即方法调用代替跨服务请求),从而快速获取返回结果,而降级方法逻辑的返回结果与真实服务B的返回结果的区别 就好比 残次品与良品的区别,此时我们认为服务B所提供的服务质量降低了,即我所说的降级。 5 | 6 | ```java 7 | // 主逻辑 8 | @FeignClient(value = "mst-goods-service", fallback = GoodClientFallback.class) 9 | public interface GoodsClient { 10 | @RequestMapping(method = RequestMethod.GET, path = "/api/goods/{goods_id}") 11 | GoodsDTO getOne(@PathVariable("goods_id") Long goodsId); 12 | } 13 | 14 | // 降级逻辑 15 | @Component 16 | public class GoodClientFallback implements GoodsClient { 17 | @Override 18 | public GoodsDTO getOne(Long goodsId) { 19 | return new GoodsDTO(1l, 12.3, 2l, "name"); 20 | } 21 | } 22 | ``` 23 | 24 | ## 服务熔断 25 | 在分布式架构中,断路器模式的作用也是类似的,如果某个目标服务调用慢或者有大量超时,此时,熔断该服务的调用,对于后续调用请求,不再调用目标服务,直接返回结果,快速释放资源,避免最终因为服务不可用蔓延导致系统雪崩灾难。 26 | 27 | ### 断路器什么时候会打开 28 | 这里涉及到断路器的三个重要参数: 29 | 30 | 1. 快照时间窗:断路器确定是否需要统计一些请求和错误数据,而统计的时间范围就是快照时间窗,默认10秒 31 | 2. 请求总数下限:在快照时间窗内,必须满足请求总数下限才会启用熔断。默认20,意味着在10秒内,如果调用不足20次,即便所有的请求都失败,断路器都不会打开 32 | 3. 错误百分比下限:当请求总数在快照时间内超过了下限,比如发生了30次调用,如果在这 30次调用中,有16次发生了超时异常,也就是超过50%的错误百分比,在默认设定50%下限的情况下,断路器就会打开 33 | 34 | ### 断路器打开之后发生什么 35 | 熔断打开之后,再有请求调用的时候,将不会调用主逻辑,而是直接调用降级逻辑,这个时候就会快速返回,而不是等待5秒后才返回fallback。通过断路器实现了自动发现错误并将降级逻辑切换为主逻辑,减少响应延迟的效果 36 | 37 | ### 主逻辑如何恢复 38 | Hystrix会启动一个休眠时间窗,在这个时间窗内,降级逻辑是临时的成为主逻辑,当休眠时间窗到期,断路器就进入半开状态,释放一次请求到原来的主逻辑上。如果此次请求正常返回,那么断路器将会关闭,主逻辑恢复正常。否则,断路器继续保持打开状态,而休眠时间窗会重新计时 39 | 40 | https://sjyuan.cc/service-fault-tolerant-protected-with-hytrix/ 41 | 42 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 43 | -------------------------------------------------------------------------------- /MD/算法-数据结构-LRU淘汰算法.md: -------------------------------------------------------------------------------- 1 | https://leetcode.com/problems/lru-cache/ 2 | 3 | LRU,全称Least Recently Used,最近最少使用缓存。 4 | 5 | ```java 6 | import java.util.HashMap; 7 | import java.util.LinkedList; 8 | 9 | class LRUCache { 10 | private HashMap cacheMap = new HashMap<>(); 11 | private LinkedList recentlyList = new LinkedList<>(); 12 | private int capacity; 13 | 14 | public LRUCache(int capacity) { 15 | this.capacity = capacity; 16 | } 17 | 18 | public int get(int key) { 19 | if (!cacheMap.containsKey(key)) { 20 | return -1; 21 | } 22 | recentlyList.remove((Integer) key); 23 | recentlyList.add(key); 24 | return cacheMap.get(key); 25 | } 26 | 27 | public void put(int key, int value) { 28 | if (cacheMap.containsKey(key)) { 29 | recentlyList.remove((Integer) key); 30 | }else if(cacheMap.size() == capacity){ 31 | cacheMap.remove(recentlyList.removeFirst()); 32 | } 33 | recentlyList.add(key); 34 | cacheMap.put(key, value); 35 | } 36 | 37 | public static void main(String[] args) { 38 | LRUCache2 cache = new LRUCache2(2); 39 | cache.put(1, 1); 40 | cache.put(2, 2); 41 | System.out.println(cache.get(1)); // returns 1 42 | cache.put(3, 3); // 驱逐 key 2 43 | System.out.println(cache.get(2)); // returns -1 (not found) 44 | cache.put(4, 4); // 驱逐 key 1 45 | System.out.println(cache.get(1)); // returns -1 (not found) 46 | System.out.println(cache.get(3)); // returns 3 47 | System.out.println(cache.get(4)); // returns 4 48 | } 49 | } 50 | ``` 51 | 52 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 53 | -------------------------------------------------------------------------------- /MD/算法-数组-快速排序-第k大个数.md: -------------------------------------------------------------------------------- 1 | https://leetcode.com/problems/kth-largest-element-in-an-array/ 2 | 3 | Find the kth largest element in an unsorted array. Note that it is the kth largest element in the sorted order, not the kth distinct element. 4 | 5 | Example 1: 6 | 7 | ``` 8 | Input: [3,2,1,5,6,4] and k = 2 9 | Output: 5 10 | ``` 11 | 12 | Example 2: 13 | 14 | ``` 15 | Input: [3,2,3,1,2,4,5,5,6] and k = 4 16 | Output: 4 17 | ``` 18 | 19 | Note: 20 | You may assume k is always valid, 1 ≤ k ≤ array's length. 21 | 22 | 快排的每一次排序就是找到一个第N大的数,修改快排的递归逻辑。算法复杂度为O(N)。 23 | 24 | ```java 25 | class Solution { 26 | public int findKthLargest(int[] nums, int k) { 27 | return sort(nums, 0, nums.length-1, k); 28 | } 29 | 30 | private int sort(int[] nums, int left, int right, int k){ 31 | int base = nums[left]; 32 | int leftt = left; 33 | int rightt = right; 34 | while(leftt < rightt){ 35 | while(leftt < rightt && nums[rightt] > base){ 36 | rightt--; 37 | } 38 | if(leftt < rightt){ 39 | int temp = nums[rightt]; 40 | nums[rightt] = nums[leftt]; 41 | nums[leftt] = temp; 42 | leftt++; 43 | } 44 | while(leftt < rightt && nums[leftt] < base){ 45 | leftt++; 46 | } 47 | if(leftt < rightt){ 48 | int temp = nums[rightt]; 49 | nums[rightt] = nums[leftt]; 50 | nums[leftt] = temp; 51 | rightt--; 52 | } 53 | } 54 | int rank = nums.length - leftt; 55 | if(rank == k){ 56 | return nums[leftt]; 57 | }else if(rank0条件 52 | 53 | #### 优化 54 | 1. 将7层负载均衡Nginx与4层负载均衡LVS一起使用进一步提高并发量 55 | 2. 以上是应用架构上的优化,在部署的Redis、消息队列、数据库、虚拟机偏向选择带宽与硬盘读写速度高的 56 | 3. 提前预热,将最新的静态资源同步更新到CDN的所有节点上,在Redis中提前加载好需要售卖的产品信息 57 | 4. 使用分布式限流减少Redis访问压力,在Nginx中配置并发连接数与速度限制 58 | 59 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 60 | -------------------------------------------------------------------------------- /MD/分布式-一致性hash.md: -------------------------------------------------------------------------------- 1 | # 一致 Hash 算法 2 | 分布式缓存中,如何将数据均匀的分散到各个节点中,并且尽量的在加减节点时能使受影响的数据最少。 3 | 4 | ## Hash 取模 5 | 随机放置就不说了,会带来很多问题。通常最容易想到的方案就是 `hash 取模`了。 6 | 7 | 可以将传入的 Key 按照 `index = hash(key) % N` 这样来计算出需要存放的节点。其中 hash 函数是一个将字符串转换为正整数的哈希映射方法,N 就是节点的数量。 8 | 9 | 这样可以满足数据的均匀分配,但是这个算法的容错性和扩展性都较差。 10 | 11 | 比如增加或删除了一个节点时,所有的 Key 都需要重新计算,显然这样成本较高,为此需要一个算法满足分布均匀同时也要有良好的容错性和拓展性。 12 | 13 | ## 一致 Hash 算法 14 | 15 | 一致 Hash 算法是将所有的哈希值构成了一个环,其范围在 `0 ~ 2^32-1`。如下图: 16 | 17 | ![](../images/一致性hash1.jpg) 18 | 19 | 之后将各个节点散列到这个环上,可以用节点的 IP、hostname 这样的唯一性字段作为 Key 进行 `hash(key)`,散列之后如下: 20 | 21 | ![](../images/一致性hash2.jpg) 22 | 23 | 之后需要将数据定位到对应的节点上,使用同样的 `hash 函数` 将 Key 也映射到这个环上。 24 | 25 | ![](../images/一致性hash3.jpg) 26 | 27 | 这样按照顺时针方向就可以把 k1 定位到 `N1节点`,k2 定位到 `N3节点`,k3 定位到 `N2节点`。 28 | 29 | ### 容错性 30 | 这时假设 N1 宕机了: 31 | 32 | ![](../images/一致性hash4.jpg) 33 | 34 | 依然根据顺时针方向,k2 和 k3 保持不变,只有 k1 被重新映射到了 N3。这样就很好的保证了容错性,当一个节点宕机时只会影响到少少部分的数据。 35 | 36 | ### 拓展性 37 | 38 | 当新增一个节点时: 39 | 40 | ![](../images/一致性hash5.jpg) 41 | 42 | 在 N2 和 N3 之间新增了一个节点 N4 ,这时会发现受影响的数据只有 k3,其余数据也是保持不变,所以这样也很好的保证了拓展性。 43 | 44 | ## 虚拟节点 45 | 到目前为止该算法依然也有点问题: 46 | 47 | 当节点较少时会出现数据分布不均匀的情况: 48 | 49 | ![](../images/一致性hash6.jpg) 50 | 51 | 这样会导致大部分数据都在 N1 节点,只有少量的数据在 N2 节点。 52 | 53 | 为了解决这个问题,一致哈希算法引入了虚拟节点。将每一个节点都进行多次 hash,生成多个节点放置在环上称为虚拟节点: 54 | 55 | ![](../images/一致性hash7.jpg) 56 | 57 | 计算时可以在 IP 后加上编号来生成哈希值。 58 | 59 | 这样只需要在原有的基础上多一步由虚拟节点映射到实际节点的步骤即可让少量节点也能满足均匀性。 60 | 61 | https://github.com/crossoverJie/JCSprout/blob/master/MD/Consistent-Hash.md 62 | 63 | ## Redis用了吗? 64 | 降低扩容缩容时传统哈希算法重建映射影响范围,一致性哈希不是唯一的解决办法。 65 | 66 | redis 缓存采用了固定哈希槽的方式维护 Key 和存储节点的关系。每个节点负责一部分槽,槽的总数是固定的 16384,无论节点数怎么变, Key 进行哈希运算再对槽总数取模的值都是不变的。 67 | 68 | 插入数据时,先算出数据应该分配到哪个槽,再去查槽在哪个节点,这样就实现了把 Key 通过哈希算法均匀的分布到大量的槽上。槽分配到哪个节点是人为配置的,只要配置的槽均匀,最终节点上的 Key 就会均匀分布到物理节点,扩容缩容时也只需要迁移部分槽的数据。 69 | 70 | 在一致性哈希算法中,引入虚拟节点其实和固定哈希槽有异曲同工之妙,都是将最终存储的节点和数据的 Key 之间多做一层转换,避免节点总数的变动影响太多映射关系,虽然固定哈希槽不如一致性哈希加虚拟节点灵活,但是考虑到 redis 的存储的数据量级与多数分布式数据库相比差距很大, 固定哈希槽策略对于 redis 已经完全够用了。 71 | 72 | 一致性哈希算法的应用非常广泛,在分布式数据库 Cassandra 、缓存Memcache、分布式服务框架Dubbo中都有应用。 73 | 74 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 75 | -------------------------------------------------------------------------------- /MD/分布式-限流.md: -------------------------------------------------------------------------------- 1 | # 常见算法 2 | 对于限流常见有两种算法: 3 | 4 | 1. 漏桶算法 5 | 2. 令牌桶算法 6 | 7 | 漏桶算法比较简单,就是将流量放入桶中,漏桶同时也按照一定的速率流出,如果流量过快的话就会溢出(漏桶并不会提高流出速率)。溢出的流量则直接丢弃。 8 | 9 | 如下图所示: 10 | 11 | ![](../images/分布式-限流-2.png) 12 | 13 | 漏桶算法虽说简单,但却不能应对实际场景,比如突然暴增的流量。 14 | 15 | 这时就需要用到令牌桶算法:令牌桶会以一个恒定的速率向固定容量大小桶中放入令牌,当有流量来时则取走一个或多个令牌。当桶中没有令牌则将当前请求丢弃或阻塞。 16 | 17 | ![](../images/分布式-限流-1.gif) 18 | 19 | 相比之下令牌桶可以应对一定的突发流量. 20 | 21 | # RateLimiter实现 22 | 23 | 对于令牌桶的代码实现,可以直接使用Guava包中的RateLimiter。 24 | 25 | ```java 26 | @Override 27 | public BaseResponse getUserByFeignBatch(@RequestBody UserReqVO userReqVO) { 28 | //调用远程服务 29 | OrderNoReqVO vo = new OrderNoReqVO() ; 30 | vo.setReqNo(userReqVO.getReqNo()); 31 | 32 | RateLimiter limiter = RateLimiter.create(2.0) ; 33 | //批量调用 34 | for (int i = 0 ;i< 10 ; i++){ 35 | double acquire = limiter.acquire(); 36 | logger.debug("获取令牌成功!,消耗=" + acquire); 37 | BaseResponse orderNo = orderServiceClient.getOrderNo(vo); 38 | logger.debug("远程返回:"+JSON.toJSONString(orderNo)); 39 | } 40 | 41 | UserRes userRes = new UserRes() ; 42 | userRes.setUserId(123); 43 | userRes.setUserName("张三"); 44 | 45 | userRes.setReqNo(userReqVO.getReqNo()); 46 | userRes.setCode(StatusEnum.SUCCESS.getCode()); 47 | userRes.setMessage("成功"); 48 | 49 | return userRes ; 50 | } 51 | ``` 52 | 53 | 代码可以看出以每秒向桶中放入两个令牌,请求一次消耗一个令牌。所以每秒钟只能发送两个请求。按照图中的时间来看也确实如此(返回值是获取此令牌所消耗的时间,差不多也是每500ms一个)。 54 | 55 | 使用RateLimiter 有几个值得注意的地方: 56 | 57 | 允许先消费,后付款,意思就是它可以来一个请求的时候一次性取走几个或者是剩下所有的令牌甚至多取,但是后面的请求就得为上一次请求买单,它需要等待桶中的令牌补齐之后才能继续获取令牌。 58 | 59 | 60 | # 其他算法 61 | 1. 固定窗口算法又叫计数器算法,是一种简单方便的限流算法。主要通过一个支持原子操作的计数器来累计 1 秒内的请求次数,当 1 秒内计数达到限流阈值时触发拒绝策略。每过 1 秒,计数器重置为 0 开始重新计数。虽然我们限制了 QPS 为 2,但是当遇到时间窗口的临界突变时,如 1s 中的后 500 ms 和第 2s 的前 500ms 时,虽然是加起来是 1s 时间,却可以被请求 4 次。 62 | 2. 滑动窗口算法在固定窗口的基础上,将一个计时窗口分成了若干个小窗口,然后每个小窗口维护一个独立的计数器。当请求的时间大于当前窗口的最大时间时,则将计时窗口向前平移一个小窗口。平移时,将第一个小窗口的数据丢弃,然后将第二个小窗口设置为第一个小窗口,同时在最后面新增一个小窗口,将新的请求放在新增的小窗口中。同时要保证整个窗口中所有小窗口的请求数目之后不能超过设定的阈值。有效解决了窗口切换时可能会产生两倍于阈值流量请求的问题。 63 | 64 | ![](https://p3-juejin.byteimg.com/tos-cn-i-k3u1fbpfcp/4b39534226cf4981a4c4632f0cab335e~tplv-k3u1fbpfcp-zoom-in-crop-mark:1512:0:0:0.awebp) 65 | 66 | 67 | -------------------------------------------------------------------------------- /MD/通用基础-设计模式.md: -------------------------------------------------------------------------------- 1 | ## 单例模式 2 | 3 | 1. 懒汉(线程不安全,懒加载):如果没有实例就创建并返回,会有线程安全问题,简单加synchronized解决,但效率不高,升级版本是DCL 4 | 2. 懒汉的升级DCL(线程安全,懒加载):加两个if是因为可能会有多个线程一起进入同步块外的if,如果在同步块内不进行二次检验的话就会生成多个实例了;`instance = new Singleton()`这句会有重排序的问题,用`volidate`解决 5 | 3. 饿汉(线程安全,非懒加载):利用类加载器保证线程安全,但不是懒加载 6 | 4. 饿汉升级静态内部类(线程安全,懒加载):在饿汉的基础上使用静态内部类解决非懒加载问题 7 | 5. 枚举(线程安全,非懒加载):写法最简单,防止反序列化,但不是懒加载 8 | 一般情况下直接使用饿汉式就好了,如果明确要求要懒加载会倾向于使用静态内部类,如果涉及到反序列化创建对象时会试着使用枚举的方式来实现单例。 9 | 10 | http://wuchong.me/blog/2014/08/28/how-to-correctly-write-singleton-pattern 11 | 12 | ## 状态模式 13 | https://www.cnblogs.com/xyzq/p/11090344.html 14 | 15 | ## 装饰器模式 16 | 在保持原有功能接口不变的基础上动态扩展功能的模式。 17 | Java IO包中就使用了该模式,InputStream有太多的实现类如FileInputStream,如果要在每个实现类上加上几种功能如缓冲区读写功能Buffered,则会导致出现ileInputStreamBuffered, StringInputStreamBuffered等等,如果还要加个按行读写的功能,类会更多,代码重复度也太高,你说改原来的接口也行啊,但是这样就是改变接口的内容了,现在我想做到不更改以前的功能,动态地增强原有接口。 18 | 所以使用FilterInputStream这个抽象装饰器来装饰InputStream,使得我们可以用BufferedInputStream来包装FileInputStream得到特定增强版InputStream,且增加装饰器种类也会更加灵活。 19 | 20 | 缺点: 21 | 会引入很多小类,从而增加使用复杂度,多层装饰的时候很容易导致不知道如何使用 22 | 23 | ![](../images/装饰器模式.png) 24 | 25 | ## 策略模式 26 | 一个类的行为或其算法可以在运行时更改。这种类型的设计模式属于行为型模式。在策略模式中,我们创建表示各种策略的对象和一个行为随着策略对象改变而改变的 context 对象。策略对象改变 context 对象的执行算法。 27 | 28 | 比如利用策略模式优化过多 if else 代码,将这些if else算法封装成一个一个的类,任意地替换 29 | 30 | ![](../images/策略模式.png) 31 | 32 | 整体思路如下: 33 | 34 | 1. 定义一个 InnerCommand 接口,其中有一个 process 函数交给具体的业务实现。 35 | 2. 根据自己的业务,会有多个类实现 InnerCommand 接口;这些实现类都会注册到 Spring Bean 容器中供之后使用。 36 | 3. 通过客户端输入命令,从 Spring Bean 容器中获取一个 InnerCommand 实例。 37 | 4. 执行最终的 process 函数。 38 | 39 | https://juejin.im/post/5c5172d15188256a2334a15d 40 | 41 | 缺点: 42 | 1. 策略类会增多 43 | 2. 所有策略类都需要对外暴露。 44 | 45 | ## 观察者模式 46 | 当对象间存在一对多关系时,则使用观察者模式(Observer Pattern)。比如,当一个对象被修改时,则会自动通知它的依赖对象。定义对象间的一种一对多的依赖关系,当一个对象的状态发生改变时,所有依赖于它的对象都得到通知并被自动更新。 47 | 48 | ![](../images/观察者模式.jpg) 49 | 50 | 观察者模式使用三个类 Subject、Observer 和 Client。Subject 对象带有绑定观察者到 Client 对象和从 Client 对象解绑观察者的方法。我们创建 Subject 类、Observer 抽象类和扩展了抽象类 Observer 的实体类。 51 | 52 | 缺点: 53 | 1. 如果一个被观察者对象有很多的直接和间接的观察者的话,将所有的观察者都通知到会花费很多时间 54 | 2. 如果在观察者和观察目标之间有循环依赖的话,观察目标会触发它们之间进行循环调用,可能导致系统崩溃 55 | 3. 观察者模式没有相应的机制让观察者知道所观察的目标对象是怎么发生变化的,而仅仅只是知道观察目标发生了变化 56 | 57 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 58 | -------------------------------------------------------------------------------- /MD/Java基础-集合.md: -------------------------------------------------------------------------------- 1 | ## 集合 2 | ### ArrayList与LinkedList区别 3 | 4 | |ArrayList|LinkedList| 5 | |--------|--------| 6 | |数组|双向链表| 7 | |增删的时候在扩容的时候慢,通过索引查询快,通过对象查索引慢|增删快,通过索引查询慢,通过对象查索引慢| 8 | |当数组无法容纳下此次添加的元素时进行扩容|无| 9 | |扩容之后容量为原来的1.5倍|无| 10 | 11 | ### HashMap 12 | 1. JDK 1.8 以前 HashMap 的实现是 数组+单链表,即使哈希函数取得再好,也很难达到元素百分百均匀分布。当 HashMap 中有大量的元素都存放到同一个桶中时,这个桶下有一条长长的链表,这个时候 HashMap 就相当于一个单链表,假如单链表有 n 个元素,遍历的时间复杂度就是 O(n),完全失去了它的优势。针对这种情况,JDK 1.8 中引入了红黑树(查找时间复杂度为 O(logn))来优化这个问题 13 | 2. 为什么线程不安全?多线程PUT操作时可能会覆盖刚PUT进去的值;扩容操作会让链表形成环形数据结构,形成死循环 14 | 3. 容量的默认大小是 16,负载因子是 0.75,当 HashMap 的 size > 16*0.75 时就会发生扩容(容量和负载因子都可以自由调整)。 15 | 4. 为什么容量是2的倍数?在根据hashcode查找数组中元素时,取模性能远远低于与性能,且和2^n-1进行与操作能保证各种不同的hashcode对应的元素也能均匀分布在数组中 16 | 17 | ### HashMap rehash过程: 18 | 1.7: 19 | 1. 空间不够用了,所以需要分配一个大一点的空间,然后保存在里面的内容需要重新计算 hash 20 | 2. 在准备好新的数组后,map会遍历数组的每个“桶”,然后遍历桶中的每个Entity,重新计算其hash值(也有可能不计算),找到新数组中的对应位置,以头插法插入新的链表 21 | 3. 因为是头插法,因此新旧链表的元素位置会发生转置现象。元素迁移的过程中在多线程情境下有可能会触发死循环(无限进行链表反转),因此HashMap线程不安全 22 | 23 | 1.8: 24 | 1. 底层结构为:数组+单链表/红黑树。因此如果某个桶中的链表长度大于等于8了,则会判断当前的hashmap的容量是否大于64,如果小于64,则会进行扩容;如果大于64,则将链表转为红黑树 25 | 2. java1.8+在扩容时,不需要重新计算元素的hash进行元素迁移。而是用原先位置key的hash值与旧数组的长度(oldCap)进行"与"操作。 26 | 3. 如果结果是0,那么当前元素的桶位置不变。 27 | 4. 如果结果为1,那么桶的位置就是原位置+原数组 长度 28 | 5. 值得注意的是:为了防止java1.7之前元素迁移头插法在多线程是会造成死循环,java1.8+后使用尾插法 29 | 30 | ### ConcurrentHashMap原理 31 | [http://www.jasongj.com/java/concurrenthashmap/](http://www.jasongj.com/java/concurrenthashmap/) 32 | 33 | HashTable 在每次同步执行时都要锁住整个结构。ConcurrentHashMap 锁的方式是稍微细粒度的。 ConcurrentHashMap 将 hash 表分为 16 个桶(默认值) 34 | 最大并发个数就是Segment的个数,默认值是16,可以通过构造函数改变一经创建不可更改,这个值就是并发的粒度,每一个segment下面管理一个table数组,加锁的时候其实锁住的是整个segment 35 | #### Java7 36 | ![](../images/j3.jpg) 37 | 38 | ConcurrentHashMap 类中包含两个静态内部类 HashEntry 和 Segment。HashEntry 用来封装映射表的键 / 值对;Segment 用来充当锁的角色,每个 Segment 对象守护整个散列映射表的若干个桶。每个桶是由若干个 HashEntry 对象链接起来的链表。一个 ConcurrentHashMap 实例中包含由若干个 Segment 对象组成的数组。 39 | 40 | #### Java8 41 | ![](../images/j4.jpg) 42 | 43 | 1. 为进一步提高并发性,放弃了分段锁,锁的级别控制在了更细粒度的table元素级别,也就是说只需要锁住这个链表的head节点,并不会影响其他的table元素的读写,好处在于并发的粒度更细,影响更小,从而并发效率更好 44 | 2. 使用CAS + synchronized 来保证实现put操作:如果Key对应的数组元素为null,则通过CAS操作将其设置为当前值。如果Key对应的数组元素(也即链表表头或者树的根元素)不为null,则对该元素使用synchronized关键字申请锁,然后进行操作。如果该put操作使得当前链表长度超过一定阈值,则将链表(寻址时间复杂度为O(N))转换为红黑树(寻址时间复杂度为O(log(N)),插入操作完成之后如果所有元素的数量大于当前容量(默认16)*负载因子(默认0.75)就进行扩容。 45 | 46 | 47 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 48 | -------------------------------------------------------------------------------- /MD/Web框架-Spring.md: -------------------------------------------------------------------------------- 1 | ## Spring 2 | ### 什么是Spring 3 | Spring是个包含一系列功能的合集,如快速开发的Spring Boot,支持微服务的Spring Cloud,支持认证与鉴权的Spring Security,Web框架Spring MVC。IOC与AOP依然是核心。 4 | 5 | ### Spring MVC流程 6 | 7 | 1. 发送请求——>DispatcherServlet拦截器拿到交给HandlerMapping 8 | 2. 依次调用配置的拦截器,最后找到配置好的业务代码Handler并执行业务方法 9 | 3. 包装成ModelAndView返回给ViewResolver解析器渲染页面 10 | 11 | ### 解决循环依赖 12 | 无参数构造器、字段注入 13 | 14 | ### Bean的生命周期 15 | 16 | 1. Spring对Bean进行实例化 17 | 2. Spring将值和Bean的引用注入进Bean对应的属性中 18 | 3. 容器通过Aware接口把容器信息注入Bean 19 | 4. BeanPostProcessor。进行进一步的构造,会在InitialzationBean前后执行对应方法,当前正在初始化的bean对象会被传递进来,我们就可以对这个bean作任何处理 20 | 5. InitializingBean。这一阶段也可以在bean正式构造完成前增加我们自定义的逻辑,但它与前置处理不同,由于该函数并不会把当前bean对象传进来,因此在这一步没办法处理对象本身,只能增加一些额外的逻辑。 21 | 6. DisposableBean。Bean将一直驻留在应用上下文中给应用使用,直到应用上下文被销毁,如果Bean实现了接口,Spring将调用它的destory方法 22 | 23 | ### Bean的作用域 24 | 25 | * singleton:单例模式,Spring IoC容器中只会存在一个共享的Bean实例,无论有多少个Bean引用它,始终指向同一对象。 26 | * prototype:原型模式,每次通过Spring容器获取prototype定义的bean时,容器都将创建一个新的Bean实例,每个Bean实例都有自己的属性和状态。 27 | * request:在一次Http请求中,容器会返回该Bean的同一实例。而对不同的Http请求则会产生新的Bean,而且该bean仅在当前Http Request内有效。 28 | * session:在一次Http Session中,容器会返回该Bean的同一实例。而对不同的Session请求则会创建新的实例,该bean实例仅在当前Session内有效。 29 | * global Session:在一个全局的Http Session中,容器会返回该Bean的同一个实例,仅在使用portlet context时有效。 30 | 31 | 32 | ### IOC(DI) 33 | * 控制反转 34 | 35 | 由 Spring IOC 容器来负责对象的生命周期和对象之间的关系。IoC 容器控制对象的创建,依赖对象的获取被反转了 36 | 没有 IoC 的时候我们都是在自己对象中主动去创建被依赖的对象,这是正转。但是有了 IoC 后,所依赖的对象直接由 IoC 容器创建后注入到被注入的对象中,依赖的对象由原来的主动获取变成被动接受,所以是反转 37 | 38 | * 依赖注入 39 | 40 | 组件之间依赖关系由容器在运行期决定,由容器动态的将某个依赖关系注入到组件之中,提升组件重用的频率、灵活、可扩展 41 | 通过依赖注入机制,我们只需要通过简单的配置,而无需任何代码就可指定目标需要的资源,完成自身的业务逻辑,而不需要关心具体的资源来自何处,由谁实现 42 | 43 | 注入方式:构造器注入、setter 方法注入、接口方式注入 44 | 45 | ### Spring AOP 46 | #### 介绍 47 | 面向切面的编程,是一种编程技术,是OOP(面向对象编程)的补充和完善。OOP的执行是一种从上往下的流程,并没有从左到右的关系。因此在OOP编程中,会有大量的重复代码。而AOP则是将这些与业务无关的重复代码抽取出来,然后再嵌入到业务代码当中。常见的应用有:权限管理、日志、事务管理等。 48 | 49 | #### 实现方式 50 | 实现AOP的技术,主要分为两大类:一是采用动态代理技术,利用截取消息的方式,对该消息进行装饰,以取代原有对象行为的执行;二是采用静态织入的方式,引入特定的语法创建“方面”,从而使得编译器可以在编译期间织入有关“方面”的代码。Spring AOP实现用的是动态代理的方式。 51 | 52 | #### Spring AOP使用的动态代理原理 53 | jdk反射:通过反射机制生成代理类的字节码文件,调用具体方法前调用InvokeHandler来处理 54 | cglib工具:利用asm开源包,对代理对象类的class文件加载进来,通过修改其字节码生成子类来处理 55 | 56 | 1. 如果目标对象实现了接口,默认情况下会采用JDK的动态代理实现AOP 57 | 2. 如果目标对象实现了接口,可以强制使用CGLIB实现AOP 58 | 3. 如果目标对象没有实现了接口,必须采用CGLIB库,spring会自动在JDK动态代理和CGLIB之间转换 59 | 60 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 61 | -------------------------------------------------------------------------------- /MD/分布式-消息队列.md: -------------------------------------------------------------------------------- 1 | ## 优点 2 | 1. 减少请求响应时间。比如注册功能需要调用第三方接口来发短信,如果等待第三方响应可能会需要很多时间 3 | 2. 服务之间解耦。主服务只关心核心的流程,其他不重要的、耗费时间流程是否如何处理完成不需要知道,只通知即可 4 | 3. 流量削锋。对于不需要实时处理的请求来说,当并发量特别大的时候,可以先在消息队列中作缓存,然后陆续发送给对应的服务去处理 5 | 6 | ## 缺点 7 | 1. 系统可用性降低。系统引入的外部依赖越多,越容易挂掉。 8 | 2. 系统复杂度提高。保证消息没有重复消费?处理消息丢失的情况?保证消息传递的顺序性? 9 | 10 | ## 消息重复消费问题 11 | 1. 消费端处理消息的业务逻辑保持幂等性,在消费端实现 12 | 2. 利用一张日志表来记录已经处理成功的消息的ID,如果新到的消息ID已经在日志表中,那么就不再处理这条消息。消息系统实现,也可以消费端实现 13 | 14 | ## 消息丢失问题 15 | ### 生产者弄丢了数据 16 | 生产者将数据发送到 RabbitMQ 的时候,可能数据就在半路给搞丢了。 17 | 18 | RabbitMQ 提供的事务功能,就是生产者发送数据之前开启 RabbitMQ 事务。然后发送消息,如果消息没有成功被 RabbitMQ 接收到,那么生产者会收到异常报错。但吞吐量会下来,因为太耗性能。 19 | 20 | 可以开启confirm模式,你每次写的消息都会分配一个唯一的 id,然后如果写入了 RabbitMQ 中,RabbitMQ 会给你回传一个ack消息,告诉你说这个消息 ok 了。事务机制是同步的,但confirm机制是异步的,发送个消息之后就可以发送下一个消息,RabbitMQ 接收了之后会异步回调你一个接口通知你这个消息接收到了。所以用confirm机制 21 | 22 | ### RabbitMQ 弄丢了数据 23 | RabbitMQ 自己挂掉导致数据丢失 24 | 25 | 开启 RabbitMQ 的持久化,消息写入之后会持久化到磁盘,哪怕是 RabbitMQ 自己挂了,恢复之后会自动读取之前存储的数据 26 | 27 | ### 消费端弄丢了数据 28 | RabbitMQ 如果丢失了数据,主要是因为你消费的时候,刚消费到,还没处理,结果进程挂了,比如重启了,RabbitMQ 认为你都消费了,这数据就丢了。 29 | 30 | 关闭 RabbitMQ 的自动ack,可以通过一个 api 来调用就行,然后每次你自己代码里确保处理完的时候,再在程序里ack一把。RabbitMQ 就认为你还没处理完,这个时候 RabbitMQ 会把这个消费分配给别的 consumer 去处理,消息是不会丢的。 31 | 32 | ## 消息顺序性 33 | 消息有序指的是可以按照消息的发送顺序来消费。例如:一笔订单产生了 3 条消息,分别是订单创建、订单付款、订单完成。消费时,要按照顺序依次消费才有意义。 34 | 35 | 消息体通过hash分派到队列里,每个队列对应唯一一个消费者。比如下面的示例中,订单号相同的消息会被先后发送到同一个队列中: 36 | 37 | ![](../images/消息顺序性.jpg) 38 | 39 | 在获取到路由信息以后,会根据MessageQueueSelector实现的算法来选择一个队列,同一个订单号获取到的肯定是同一个队列。 40 | 41 | ## 集群模式 42 | ### 普通集群模式 43 | 在多台机器上启动多个 RabbitMQ 实例。你创建的 queue,只会放在一个 RabbitMQ 实例上,但是每个实例都同步 queue 的元数据(元数据可以认为是 queue 的一些配置信息,通过元数据,可以找到 queue 所在实例)。你消费的时候,实际上如果连接到了另外一个实例,那么那个实例会从 queue 所在实例上拉取数据过来。 44 | 45 | 缺点是不能保证高可用、还有拉去数据的开销、以及单实例的性能瓶颈,所以这个方案是为了提高吞吐量的 46 | 47 | ### 镜像集群模式 48 | 每个 RabbitMQ 节点都有这个 queue 的一个完整镜像,包含 queue 的全部数据的意思。然后每次你写消息到 queue 的时候,都会自动把消息同步到多个实例的 queue 上。任何一个机器宕机了,没事儿,其它机器(节点)还包含了这个 queue 的完整数据,别的 consumer 都可以到其它节点上去消费数据。 49 | 50 | 缺点是即时满足了高可用,但因为同步数据量太重导致难以扩展节点,也没有在架构上实现负载均衡,可以参考Redis的集群模式进行优化。 51 | 52 | ### Kafka 的高可用性 53 | Kafka 一个最基本的架构认识:由多个 broker 组成,每个 broker 是一个节点;你创建一个 topic,这个 topic 可以划分为多个 partition,每个 partition 可以存在于不同的 broker 上,每个 partition 就放一部分数据 54 | 55 | 每个 partition 的数据都会同步到其它机器上,形成自己的多个 replica 副本。所有 replica 会选举一个 leader 出来,那么生产和消费都跟这个 leader 打交道,然后其他 replica 就是 follower。写的时候,leader 会负责把数据同步到所有 follower 上去,读的时候就直接读 leader 上的数据即可。 56 | 57 | 如果某个 broker 宕机了,没事儿,那个 broker上面的 partition 在其他机器上都有副本的,如果这上面有某个 partition 的 leader,那么此时会从 follower 中重新选举一个新的 leader 出来,大家继续读写那个新的 leader 即可。这就有所谓的高可用性了。 58 | 59 | ![](../images/kafka集群.png) 60 | 61 | https://github.com/doocs/advanced-java#%E6%B6%88%E6%81%AF%E9%98%9F%E5%88%97 https://dbaplus.cn/news-73-1123-1.html 62 | 63 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 64 | -------------------------------------------------------------------------------- /MD/分布式-CAP理论.md: -------------------------------------------------------------------------------- 1 | ## 理论 2 | CAP原则又称CAP定理,指的是在一个分布式系统中,Consistency(一致性)、 Availability(可用性)、Partition tolerance(分区容错性),三者不可兼得。 3 | 4 | * 一致性(C):对某个指定的客户端来说,读操作能返回最新的写操作结果 5 | * 可用性(A):非故障节点在合理的时间返回合理的响应 6 | * 分区容错性(P):分区容错性是指当网络出现分区(两个节点之间无法连通)之后,系统能否继续履行职责 7 | 8 | CAP理论就是说在分布式系统中,最多只能实现上面的两点。而由于当前的网络硬件肯定会出现延迟丢包等问题,所以考虑最差情况,分区容忍性是一般是需要实现的 9 | 10 | 虽然 CAP 理论定义是三个要素中只能取两个,但放到分布式环境下来思考,我们会发现必须选择 P(分区容忍)要素,因为网络本身无法做到 100% 可靠,有可能出故障,所以分区是一个必然的现象。如果我们选择了 CA 而放弃了 P,那么当发生分区现象时,为了保证 C,系统需要禁止写入,当有写入请求时,系统返回 error(例如,当前系统不允许写入),这又和 A 冲突了,因为 A 要求返回 no error 和 no timeout。因此,分布式系统理论上不可能选择 CA 架构,只能选择 CP 或者 AP 架构。 11 | 12 | BASE理论的核心思想是:BASE是Basically Available(基本可用)、Soft state(软状态)和Eventually consistent(最终一致性)的缩写,它接受在短时间内可能存在的不一致性,但保证最终达到一致性。与ACID(原子性、一致性、隔离性、持久性)相比,BASE更注重系统的可用性和可伸缩性,牺牲了严格的即时一致性。 13 | 14 | ## 强一致如何实现 15 | 什么是强一致性:在分布式存储系统中,强一致性是指系统保证任意时刻数据是一致的,即无论在任何节点上进行的操作,都能立即在所有节点上访问到最新的数据。 16 | 17 | 分布式共识算法。其中,Paxos 和 Raft 是两个著名的共识算法,它们可以用于实现分布式系统的强一致性。这些算法通过选举和投票来确保各个节点的操作顺序一致,从而达到强一致性的要求。 18 | 1. Paxos 算法通过多个阶段的提议、投票和决议过程来确保一个值被所有参与者接受。算法包括提议者(Proposer)、接受者(Acceptor)和学习者(Learner)的角色,并且使用一系列编号递增的消息来进行通信,确保在任何时候只有一个提议会被接受。 19 | 2. Raft 使用了明确的领导者(Leader)角色,简化了状态机复制的过程。领导者负责处理所有的客户端请求并维护集群状态的一致性。它通过日志复制、心跳机制以及选举流程确保在任何时刻都有一个有效的领导者,并保持集群内的日志一致性。 20 | 3. Raft 可以看作是对 Paxos 算法的一种工程化改进,它保留了 Paxos 对于分布式一致性问题的核心解决方案,同时通过对算法进行模块化和清晰化设计,极大地降低了开发者理解和实施分布式共识协议的难度 21 | 22 | 23 | ## 数据一致性解决方案 24 | 强一致性(Strong Consistency) 25 | 通过事务(如ACID事务)确保每次操作都看到最新的数据状态。这通常需要两阶段提交(2PC)或其他复杂的事务协议,但可能导致性能下降。 26 | 27 | 最终一致性(Eventual Consistency) 28 | 允许短暂的数据不一致,但保证在一段时间后所有副本间达到一致。这种模型在分布式系统中广泛使用,如Cassandra和Amazon DynamoDB。 29 | 30 | 分布式事务 31 | 如两阶段提交(2PC)、三阶段提交(3PC)和多阶段提交(MPC)等协议,用于跨节点的事务协调。 32 | 33 | 复制策略 34 | 同步复制:更新在所有副本之间同步完成,保证强一致性,但可能影响性能。 35 | 异步复制:更新在主节点上完成,副本随后更新,牺牲一致性以换取性能。 36 | 37 | PAXOS/Raft共识算法 38 | 用于在分布式系统中选举领导者并达成一致性决策。 39 | 40 | 幂等性设计 41 | 确保多次执行相同操作不会改变系统状态,有助于防止因重试或网络问题导致的数据不一致 42 | 43 | ## 高可用多活面试题 44 | 解释什么是“多活”架构,并描述其在高可用性中的作用。 45 | 多活架构是指在一个分布式系统中,多个数据中心或节点同时处于活动状态,每个节点都能独立处理请求,从而提高系统的可用性和容灾能力。当某个节点出现故障时,其他节点仍能继续提供服务。 46 | 47 | 描述一下典型的多活架构部署策略,例如如何处理数据同步和流量路由。 48 | 多活架构通常采用数据同步机制(如主从复制、分布式数据库)保持数据一致性,同时使用智能DNS、负载均衡器或路由策略将流量分散到各个活节点。在故障发生时,可以快速切换流量路由,确保服务不中断。 49 | 50 | 如何在多活架构中实现故障检测和自动切换? 51 | 通过心跳检测、健康检查、Zookeeper或Consul等服务发现机制监控各个节点的状态,一旦检测到故障,立即触发流量切换策略,将流量导向其他正常运行的节点。 52 | 53 | 谈谈多活架构下的数据一致性挑战及解决方案 54 | 数据一致性是多活架构中的主要挑战。可以采用异步复制、分布式事务(如2PC、Saga)、最终一致性等方法来平衡数据一致性和高可用性。 55 | 56 | 如何设计一个高可用多活系统?请简述关键要素。 57 | 关键要素包括:负载均衡(如DNS轮询、硬件负载均衡器)、数据复制与一致性(如主从复制、分布式数据库)、故障检测与切换机制(如健康检查、心跳检测)、网络连通性保障(如SDN、专线连接)、自动化运维工具(如自动化部署、监控报警)。 58 | 59 | 多活架构面临的主要挑战有哪些?如何解决? 60 | 主要挑战包括数据一致性、网络延迟、故障检测与恢复、运维复杂度等。解决方案涉及采用合适的数据同步技术、优化网络架构(如使用CDN、专线)、实施自动化运维工具、以及建立完善的监控和告警体系。 61 | 62 | 在多活架构中,如何处理跨数据中心的事务? 63 | 可以采用分布式事务协调服务(如Seata、LRA),或者通过Saga模式、TCC(Try-Confirm-Cancel)模式来处理跨数据中心的长事务,确保事务的原子性和一致性。 64 | -------------------------------------------------------------------------------- /MD/分布式-锁.md: -------------------------------------------------------------------------------- 1 | ## 为什么用 2 | 在分布式环境中,需要一种跨JVM的互斥机制来控制共享资源的访问。 3 | 4 | 例如,为避免用户操作重复导致交易执行多次,使用分布式锁可以将第一次以外的请求在所有服务节点上立马取消掉。如果使用事务在数据库层面进行限制也能实现的但会增大数据库的压力。 5 | 6 | 例如,在分布式任务系统中为避免统一任务重复执行,某个节点执行任务之后可以使用分布式锁避免其他节点在同一时刻得到任务 7 | 8 | ## 实现方式 9 | ### 数据库 10 | 在数据库中创建一个表,表中包含方法名等字段,并在方法名字段上创建唯一索引,想要执行某个方法,就使用这个方法名向表中插入数据,成功插入则获取锁,执行完成后删除对应的行数据释放锁。 11 | 12 | ```sql 13 | DROP TABLE IF EXISTS `method_lock`; 14 | CREATE TABLE `method_lock` ( 15 | `id` int(11) unsigned NOT NULL AUTO_INCREMENT COMMENT '主键', 16 | `method_name` varchar(64) NOT NULL COMMENT '锁定的方法名', 17 | `desc` varchar(255) NOT NULL COMMENT '备注信息', 18 | `update_time` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP, 19 | PRIMARY KEY (`id`), 20 | UNIQUE KEY `uidx_method_name` (`method_name`) USING BTREE 21 | ) ENGINE=InnoDB AUTO_INCREMENT=3 DEFAULT CHARSET=utf8 COMMENT='锁定中的方法'; 22 | ``` 23 | 24 | 执行某个方法后,插入一条记录 25 | 26 | ```sql 27 | INSERT INTO method_lock (method_name, desc) VALUES ('methodName', '测试的methodName'); 28 | ``` 29 | 30 | 因为我们对method_name做了唯一性约束,这里如果有多个请求同时提交到数据库的话,数据库会保证只有一个操作可以成功,那么我们就可以认为操作成功的那个线程获得了该方法的锁,可以执行方法体内容。 31 | 32 | 成功插入则获取锁,执行完成后删除对应的行数据释放锁: 33 | 34 | ```sql 35 | delete from method_lock where method_name ='methodName'; 36 | ``` 37 | 38 | 优点:易于理解实现 39 | 40 | 缺点: 41 | 42 | 1. 没有锁失效自动删除机制,因为有可能出现成功插入数据后,服务器宕机了,对应的数据没有被删除,当服务恢复后一直获取不到锁,所以,需要在表中新增一列,用于记录失效时间,并且需要有定时任务清除这些失效的数据 43 | 2. 吞吐量很低 44 | 3. 单点故障问题 45 | 4. 轮询获取锁状态方式太过低效 46 | 47 | ### 基于Redis 48 | NX是Redis提供的一个原子操作,如果指定key存在,那么NX失败,如果不存在会进行set操作并返回成功。我们可以利用这个来实现一个分布式的锁,主要思路就是,set成功表示获取锁,set失败表示获取失败,失败后需要重试。再加上EX参数可以让该key在超时之后自动删除。 49 | 50 | ```java 51 | public void lock(String key, String request, int timeout) throws InterruptedException { 52 | Jedis jedis = jedisPool.getResource(); 53 | 54 | while (timeout >= 0) { 55 | String result = jedis.set(LOCK_PREFIX + key, request, SET_IF_NOT_EXIST, SET_WITH_EXPIRE_TIME, DEFAULT_EXPIRE_TIME); 56 | if (LOCK_MSG.equals(result)) { 57 | jedis.close(); 58 | return; 59 | } 60 | Thread.sleep(DEFAULT_SLEEP_TIME); 61 | timeout -= DEFAULT_SLEEP_TIME; 62 | } 63 | } 64 | ``` 65 | 66 | 优点: 67 | 68 | 1. 吞吐量高 69 | 2. 有锁失效自动删除机制,保证不会阻塞所有流程 70 | 71 | 缺点: 72 | 73 | 1. 单点故障问题 74 | 2. 锁超时问题:如果A拿到锁之后设置了超时时长,但是业务还未执行完成且锁已经被释放,此时其他进程就会拿到锁从而执行相同的业务。如何解决?Redission定时延长超时时长避免过期。为什么不直接设置为永不超时?为了防范业务方没写解锁方法或者发生异常之后无法进行解锁的问题 75 | 3. 轮询获取锁状态方式太过低效 76 | 77 | ### 基于ZooKeeper 78 | 1. 当客户端对某个方法加锁时,在Zookeeper上的与该方法对应的指定节点的目录下,生成一个临时有序节点 79 | 2. 判断该节点是否是当前目录下最小的节点,如果是则获取成功;如果不是,则获取失败,并获取上一个临时有序节点,对该节点进行监听,当节点删除时通知唯一的客户端 80 | 81 | 优点: 82 | 83 | 1. 解决锁超时问题。因为Zookeeper的写入都是顺序的,在一个节点创建之后,其他请求再次创建便会失败,同时可以对这个节点进行Watch,如果节点删除会通知其他节点抢占锁 84 | 2. 能通过watch机制高效通知其他节点获取锁,避免惊群效应 85 | 3. 有锁失效自动删除机制,保证不会阻塞所有流程 86 | 87 | 缺点: 88 | 89 | 1. 性能不如Redis 90 | 2. 强依赖zk,如果原来系统不用zk那就需要维护一套zk 91 | 92 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 93 | -------------------------------------------------------------------------------- /MD/分布式-事务.md: -------------------------------------------------------------------------------- 1 | ### 两阶段提交方案/XA方案 2 | 所谓的 XA 方案,即:两阶段提交,有一个**事务管理器**的概念,负责协调多个数据库(资源管理器)的事务,事务管理器先问问各个数据库你准备好了吗?如果每个数据库都回复 ok,那么就正式提交事务,在各个数据库上执行操作;如果任何其中一个数据库回答不 ok,那么就回滚事务。 3 | 4 | 这种分布式事务方案,比较适合单块应用里,跨多个库的分布式事务,而且因为严重依赖于数据库层面来搞定复杂的事务,效率很低,绝对不适合高并发的场景。如果要玩儿,那么基于 `Spring + JTA` 就可以搞定,自己随便搜个 demo 看看就知道了。 5 | 6 | 这个方案,我们很少用,一般来说**某个系统内部如果出现跨多个库**的这么一个操作,是**不合规**的。我可以给大家介绍一下, 现在微服务,一个大的系统分成几十个甚至几百个服务。一般来说,我们的规定和规范,是要求**每个服务只能操作自己对应的一个数据库**。 7 | 8 | 如果你要操作别的服务对应的库,不允许直连别的服务的库,违反微服务架构的规范,你随便交叉胡乱访问,几百个服务的话,全体乱套,这样的一套服务是没法管理的,没法治理的,可能会出现数据被别人改错,自己的库被别人写挂等情况。 9 | 10 | 如果你要操作别人的服务的库,你必须是通过**调用别的服务的接口**来实现,绝对不允许交叉访问别人的数据库。 11 | 12 | ![](../images/分布式事务1.png) 13 | 14 | ### TCC 方案 15 | TCC 的全称是:Try、Confirm、Cancel。 16 | 17 | - Try 阶段:这个阶段说的是对各个服务的资源做检测以及对资源进行**锁定或者预留**。 18 | - Confirm 阶段:这个阶段说的是在各个服务中**执行实际的操作**。 19 | - Cancel 阶段:如果任何一个服务的业务方法执行出错,那么这里就需要**进行补偿**,就是执行已经执行成功的业务逻辑的回滚操作。(把那些执行成功的回滚) 20 | 21 | 这种方案说实话几乎很少人使用,我们用的也比较少,但是也有使用的场景。因为这个**事务回滚**实际上是**严重依赖于你自己写代码来回滚和补偿**了,会造成补偿代码巨大,非常之恶心。 22 | 23 | 比如说我们,一般来说跟**钱**相关的,跟钱打交道的,**支付**、**交易**相关的场景,我们会用 TCC,严格保证分布式事务要么全部成功,要么全部自动回滚,严格保证资金的正确性,保证在资金上不会出现问题。 24 | 25 | 而且最好是你的各个业务执行的时间都比较短。 26 | 27 | 但是说实话,一般尽量别这么搞,自己手写回滚逻辑,或者是补偿逻辑,实在太恶心了,那个业务代码很难维护。 28 | 29 | ![](../images/分布式事务2.png) 30 | 31 | ### 本地消息表 32 | 本地消息表其实是国外的 ebay 搞出来的这么一套思想。 33 | 34 | 这个大概意思是这样的: 35 | 36 | 1. A 系统在自己本地一个事务里操作同时,插入一条数据到消息表; 37 | 2. 接着 A 系统将这个消息发送到 MQ 中去; 38 | 3. B 系统接收到消息之后,在一个事务里,往自己本地消息表里插入一条数据,同时执行其他的业务操作,如果这个消息已经被处理过了,那么此时这个事务会回滚,这样**保证不会重复处理消息**; 39 | 4. B 系统执行成功之后,就会更新自己本地消息表的状态以及 A 系统消息表的状态; 40 | 5. 如果 B 系统处理失败了,那么就不会更新消息表状态,那么此时 A 系统会定时扫描自己的消息表,如果有未处理的消息,会再次发送到 MQ 中去,让 B 再次处理; 41 | 6. 这个方案保证了最终一致性,哪怕 B 事务失败了,但是 A 会不断重发消息,直到 B 那边成功为止。 42 | 43 | 这个方案说实话最大的问题就在于**严重依赖于数据库的消息表来管理事务**啥的,会导致如果是高并发场景咋办呢?咋扩展呢?所以一般确实很少用。 44 | 45 | ![](../images/分布式事务3.png) 46 | 47 | ### 可靠消息最终一致性方案 48 | 这个的意思,就是干脆不要用本地的消息表了,直接基于 MQ 来实现事务。比如阿里的 RocketMQ 就支持消息事务。 49 | 50 | 大概的意思就是: 51 | 52 | 1. A 系统先发送一个 prepared 消息到 mq,如果这个 prepared 消息发送失败那么就直接取消操作别执行了; 53 | 2. 如果这个消息发送成功过了,那么接着执行本地事务,如果成功就告诉 mq 发送确认消息,如果失败就告诉 mq 回滚消息; 54 | 3. 如果发送了确认消息,那么此时 B 系统会接收到确认消息,然后执行本地的事务; 55 | 4. mq 会自动**定时轮询**所有 prepared 消息回调你的接口,问你,这个消息是不是本地事务处理失败了,所有没发送确认的消息,是继续重试还是回滚?一般来说这里你就可以查下数据库看之前本地事务是否执行,如果回滚了,那么这里也回滚吧。这个就是避免可能本地事务执行成功了,而确认消息却发送失败了。 56 | 5. 这个方案里,要是系统 B 的事务失败了咋办?重试咯,自动不断重试直到成功,如果实在是不行,要么就是针对重要的资金类业务进行回滚,比如 B 系统本地回滚后,想办法通知系统 A 也回滚;或者是发送报警由人工来手工回滚和补偿。 57 | 6. 这个还是比较合适的,目前国内互联网公司大都是这么玩儿的,要不你举用 RocketMQ 支持的,要不你就自己基于类似 ActiveMQ?RabbitMQ?自己封装一套类似的逻辑出来,总之思路就是这样子的。 58 | 59 | ![](../images/分布式事务4.png) 60 | 61 | ### 最大努力通知方案 62 | 这个方案的大致意思就是: 63 | 64 | 1. 系统 A 本地事务执行完之后,发送个消息到 MQ; 65 | 2. 这里会有个专门消费 MQ 的**最大努力通知服务**,这个服务会消费 MQ 然后写入数据库中记录下来,或者是放入个内存队列也可以,接着调用系统 B 的接口; 66 | 3. 要是系统 B 执行成功就 ok 了;要是系统 B 执行失败了,那么最大努力通知服务就定时尝试重新调用系统 B,反复 N 次,最后还是不行就放弃。 67 | 68 | ### 你们公司是如何处理分布式事务的? 69 | 如果你真的被问到,可以这么说,我们某某特别严格的场景,用的是 TCC 来保证强一致性;然后其他的一些场景基于阿里的 RocketMQ 来实现分布式事务。 70 | 71 | 你找一个严格资金要求绝对不能错的场景,你可以说你是用的 TCC 方案;如果是一般的分布式事务场景,订单插入之后要调用库存服务更新库存,库存数据没有资金那么的敏感,可以用可靠消息最终一致性方案。 72 | 73 | 友情提示一下,RocketMQ 3.2.6 之前的版本,是可以按照上面的思路来的,但是之后接口做了一些改变,我这里不再赘述了。 74 | 75 | 当然如果你愿意,你可以参考可靠消息最终一致性方案来自己实现一套分布式事务,比如基于 RocketMQ 来玩儿。 76 | 77 | https://github.com/doocs/advanced-java/blob/master/docs/distributed-system/distributed-transaction.md 78 | 79 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 80 | -------------------------------------------------------------------------------- /README.md: -------------------------------------------------------------------------------- 1 | 本项目是本人参加BAT等其他公司电话、现场面试之后总结出来的针对Java面试的知识点或真题,每个点或题目都是在面试中被问过的。 2 | 3 | 除开知识点,一定要准备好以下套路: 4 | 1. **个人介绍**,需要准备一个1分钟的介绍,包括学习经历、工作经历、项目经历、个人优势、一句话总结。一定要自己背得滚瓜烂熟,张口就来 5 | 2. **抽象概念**,当面试官问你是如何理解多线程的时候,你要知道从定义、来源、实现、问题、优化、应用方面系统性地回答 6 | 3. **项目强化**,至少与知识点的比例是五五开,所以必须针对简历中的两个以上的项目,形成包括【架构和实现细节】,【正常流程和异常流程的处理】,【难点+坑+复盘优化】三位一体的组合拳 7 | 4. **压力练习**,面试的时候难免紧张,可能会严重影响发挥,通过平时多找机会参与交流分享,或找人做压力面试来改善 8 | 5. **表达练习**,表达能力非常影响在面试中的表现,能否简练地将答案告诉面试官,可以通过给自己讲解的方式刻意练习 9 | 6. **重点针对**,面试官会针对简历提问,所以请针对简历上写的所有技术点进行重点准备 10 | 11 | ### Java基础 12 | * [JVM原理](MD/Java基础-JVM原理.md) 13 | * [集合](MD/Java基础-集合.md) 14 | * [多线程](MD/Java基础-多线程.md) 15 | * [IO](MD/Java基础-IO.md) 16 | * [问题排查](https://www.wangtianyi.top/article/2018-07-20-javasheng-chan-huan-jing-xia-wen-ti-pai-cha/?utm_source=github&utm_medium=github) 17 | ### Web框架、数据库 18 | * [Spring](MD/Web框架-Spring.md) 19 | * [MySQL](MD/数据库-MySQL.md) 20 | * [Redis](MD/数据库-Redis.md) 21 | ### 通用基础 22 | * [操作系统](MD/通用基础-操作系统.md) 23 | * [网络通信协议](MD/通用基础-网络通信协议.md) 24 | * [排序算法](MD/通用基础-排序算法.md) 25 | * [常用设计模式](MD/通用基础-设计模式.md) 26 | * [从URL到看到网页的过程](https://www.wangtianyi.top/article/2017-10-22-cong-urlkai-shi-,ding-wei-shi-jie/?utm_source=github&utm_medium=github) 27 | ### 分布式 28 | * [CAP理论](MD/分布式-CAP理论.md) 29 | * [锁](MD/分布式-锁.md) 30 | * [事务](MD/分布式-事务.md) 31 | * [消息队列](MD/分布式-消息队列.md) 32 | * [协调器](MD/分布式-协调器.md) 33 | * [ID生成方式](MD/分布式-ID生成方式.md) 34 | * [一致性hash](MD/分布式-一致性hash.md) 35 | * [限流](MD/分布式-限流.md) 36 | ### 微服务 37 | * [微服务介绍](https://www.wangtianyi.top/article/2017-04-16-microservies-1-introduction-to-microservies/?utm_source=github&utm_medium=github) 38 | * [服务发现](MD/微服务-服务注册与发现.md) 39 | * [API网关](MD/微服务-网关.md) 40 | * [服务容错保护](MD/微服务-服务容错保护.md) 41 | * [服务配置中心](MD/微服务-服务配置中心.md) 42 | ### 算法 43 | * [数组-快速排序-第k大个数](MD/算法-数组-快速排序-第k大个数.md) 44 | * [数组-对撞指针-最大蓄水](MD/算法-数组-对撞指针-最大蓄水.md) 45 | * [数组-滑动窗口-最小连续子数组](MD/算法-数组-滑动窗口-最小连续子数组.md) 46 | * [数组-归并排序-合并有序数组](MD/算法-数组-归并排序-合并有序数组.md) 47 | * [数组-顺时针打印矩形](https://www.nowcoder.com/practice/9b4c81a02cd34f76be2659fa0d54342a) 48 | * [数组-24点游戏](https://leetcode.cn/problems/24-game/description/) 49 | * [链表-链表反转-链表相加](MD/算法-链表-反转链表-链表相加.md) 50 | * [链表-双指针-删除倒数第n个](MD/算法-链表-双指针-删除倒数第n个.md) 51 | * [链表-双指针-重排链表](https://leetcode.cn/problems/reorder-list/description/) 52 | * [二叉树-递归-二叉树反转](MD/算法-二叉树-递归-二叉树反转.md) 53 | * [二叉树-递归-多叉树中最长的连续序列](MD/算法-二叉树-多叉树中最长的连续序列.md) 54 | * [二叉树-trie树](https://leetcode.cn/problems/implement-trie-prefix-tree/description/) 55 | * [动态规划-连续子数组最大和](MD/算法-动态规划-连续子数组最大和.md) 56 | * [数据结构-LRU淘汰算法](MD/算法-数据结构-LRU淘汰算法.md) 57 | * [其他-二十进制相加](MD/算法-其他-二十进制相加.md) 58 | * [有序数组中位数](https://leetcode-cn.com/problems/median-of-two-sorted-arrays/solution/xun-zhao-liang-ge-you-xu-shu-zu-de-zhong-wei-s-114/) 59 | * [数组中的k个最小值](https://leetcode-cn.com/problems/zui-xiao-de-kge-shu-lcof/solution/zui-xiao-de-kge-shu-by-leetcode-solution/) 60 | ### 项目举例 61 | * [秒杀架构](MD/秒杀架构.md) 62 | ### 系统设计 63 | * [系统设计-高并发抢红包](MD/系统设计-高并发抢红包.md) 64 | * [系统设计-在AWS上扩展到数百万用户的系统](https://www.wangtianyi.top/article/2019-03-06-zai-awsshang-kuo-zhan-dao-shu-bai-mo-yong-hu-de-xi-tong/?utm_source=github&utm_medium=github) 65 | * [系统设计-从面试者角度设计一个系统设计题](https://www.wangtianyi.top/article/2018-08-31-xi-tong-she-ji-mian-shi-ti-zong-he-kao-cha-mian-shi-zhe-de-da-zhao/?utm_source=github&utm_medium=github) 66 | ### 智力题 67 | * [概率p输出1,概率1-p输出0,等概率输出0和1](https://blog.csdn.net/qq_29108585/article/details/60765640) 68 | * [判断点是否在多边形内部](https://www.cnblogs.com/muyefeiwu/p/11260366.html) 69 | -------------------------------------------------------------------------------- /MD/通用基础-网络通信协议.md: -------------------------------------------------------------------------------- 1 | ## TCP/IP 2 | OSI是一个理论上的七层网络通信模型,而TCP/IP则是实际运行的四层网络协议。TCP/IP包含: 3 | 4 | 1. 网络接口层,主机必须使用某种协议与网络相连 5 | 2. 网络层,使主机可以把分组发往任何网络,并使分组独立地传向目标。IP协议 6 | 3. 传输层,使源端和目的端机器上的对等实体可以进行会话。TCP和UDP协议 7 | 4. 应用层,包含所有的高层协议,FTP/TELNET/SMTP/DNS/NNTP/HTTP 8 | 9 | ## HTTP 10 | HTTP是TCP/IP协议中的【应用层】协议。它不涉及数据包传输,主要规定了客户端和服务器之间的通信格式,是互联网信息交互中最常用的协议 11 | 12 | 特点: 13 | 14 | 1. 简单快速。只需要传【请求方法】与【资源路径】就能确定资源 15 | 2. 灵活,传输【任意类型】的数据 16 | 3. 无连接,一般一次连接只处理一个请求,结束后主动释放连接,但在HTTP1.1中可以使用keep-alive来复用相同的TCP连接发送多个请求 17 | 4. 无状态,客户端向服务器发送HTTP请求之后,服务器会给我们发送数据过来,但不会记录任何信息。所以Cookie、Session产生了。 18 | 19 | ## TCP 20 | TCP是一种面向连接的、可靠的、基于字节流的TCP/IP协议中的【传输层】协议 21 | 22 | ![](../images/tcp.png) 23 | 24 | ### 建立连接:三次握手 25 | 1. 建立连接时,客户端发送syn包(syn=j)到服务器,并进入SYN_SENT状态,等待服务器确认;SYN:同步序列编号(Synchronize Sequence Numbers)。 26 | 2. 服务器收到syn包,必须确认客户的SYN(ack=j+1),同时自己也发送一个SYN包(syn=k),即SYN+ACK包,此时服务器进入SYN_RECV状态; 27 | 3. 客户端收到服务器的SYN+ACK包,向服务器发送确认包ACK(ack=k+1),此包发送完毕,客户端和服务器进入ESTABLISHED(TCP连接成功)状态,完成三次握手。 28 | 29 | ### 为什么要采用三次握手,两次不行吗 30 | 避免由于网络延迟导致的创建无效连接的问题。比如客户端发出的一个连接请求没有丢失,而是长时间在某个网络节点滞留了,以至于到连接释放之后才到达服务端,如果不使用三次握手,一旦服务端发出请求连接就会建立连接,但是这个连接请求已经失效了,则会浪费服务端的资源。 31 | 32 | ### 关闭连接:四次挥手 33 | 1. 当主机A的应用程序通知TCP数据已经发送完毕时,TCP向主机B发送一个带有FIN附加标记的报文段(FIN表示英文finish)。 34 | 2. 主机B收到这个FIN报文段之后,并不立即用FIN报文段回复主机A,而是先向主机A发送一个确认序号ACK,同时通知自己相应的应用程序:对方要求关闭连接(先发送ACK的目的是为了防止在这段时间内,对方重传FIN报文段)。 35 | 3. 主机B的应用程序告诉TCP:我要彻底的关闭连接,TCP向主机A送一个FIN报文段。 36 | 4. 主机A收到这个FIN报文段后,向主机B发送一个ACK表示连接彻底释放。 37 | 38 | ### 为什么连接的时候是三次握手,关闭的时候却是四次握手 39 | 因为当Server端收到Client端的SYN连接请求报文后,可以直接发送SYN+ACK报文。其中ACK报文是用来应答的,SYN报文是用来同步的。但是关闭连接时,当Server端收到FIN报文时,很可能并不会立即关闭SOCKET,所以只能先回复一个ACK报文,告诉Client端,"你发的FIN报文我收到了"。只有等到我Server端所有的报文都发送完了,我才能发送FIN报文,因此不能一起发送。故需要四步握手。 40 | 41 | ### 滑动窗口协议 42 | 滑动窗口协议是传输层进行流控的一种措施,接收方通过通告发送方自己的窗口大小,从而控制发送方的发送速度,从而达到防止发送方发送速度过快而导致自己被淹没的目的。 43 | 44 | ACK包含两个非常重要的信息:一是期望接收到的下一字节的序号n,该n代表接收方已经接收到了前n-1字节数据。二是当前的窗口大小m,如此发送方在接收到ACK包含的这两个数据后就可以计算出还可以发送多少字节的数据给对方,这就是滑动窗口控制流量的基本原理 45 | 46 | TCP的滑动窗口是动态的,应用程序在需要(如内存不足)时,通过API通知TCP协议栈缩小TCP的接收窗口。然后TCP协议栈在下个段发送时包含新的窗口大小通知给对端,对端按通知的窗口来改变发送窗口,以此达到减缓发送速率的目的。 47 | 48 | ### 与UDP区别 49 | * TCP提供面向连接的、可靠的数据流传输,而UDP提供的是非面向连接的、不可靠的数据流传输,如QQ 50 | * TCP注重数据安全性,UDP数据传输快,因为不需要连接等待,少了许多操作,但是其安全性却一般 51 | * TCP对应的协议(FTP/SMTP/HTTP),UDP(DNS) 52 | 53 | ## HTTPS 54 | HTTPS协议是由SSL+HTTP协议构建的可进行加密传输、身份认证的网络协议,要比http协议安全,可防止数据在传输过程中被窃取、改变,确保数据的完整性,它大幅增加了中间人攻击的成本。 55 | 56 | 加密过程: 57 | 58 | 1. Hello - 握手开始于客户端发送Hello消息。包含服务端为了通过SSL连接到客户端的所有信息,包括客户端支持的各种密码套件和最大SSL版本。服务器也返回一个Hello消息,包含客户端需要的类似信息,包括到底使用哪一个加密算法和SSL版本。 59 | 2. 证书交换 - 现在连接建立起来了,服务器必须通过SSL证书证明他的身份。SSL证书包含各种数据,包含所有者名称,相关属性(域名),证书上的公钥,数字签名和关于证书有效期的信息。客户端检查它是不是被CA验证过的且根据数字签名验证内容是否被修改过。注意服务器被允许需求一个证书去证明客户端的身份,但是这个只发生在敏感应用。 60 | 3. 密钥交换 - 使用RSA非对称公钥加密算法(客户端生成一个对称密钥,然后用SSL证书里带的服务器公钥将该对称密钥加密。随后发送到服务端,服务端用服务器私钥解密,到此,握手阶段完成。)或者DH交换算法在客户端与服务端双方确定将要使用的密钥。这个密钥是双方都同意的一个简单,对称的密钥。这个过程是基于非对称加密方式和服务器的公钥/私钥的。 61 | 4. 加密通信 - 在服务器和客户端加密实际信息是用到对称加密算法,用哪个算法在Hello阶段已经确定。对称加密算法是对于加密和解密都很简单的密钥。这个密钥是基于第三步在客户端与服务端已经商议好的。与需要公钥/私钥的非对称加密算法相反。 62 | 63 | ## socket线程安全? 64 | 总结来说,虽然系统级别的socket操作本身具备一定程度的并发安全性,但在多线程程序中对socket进行读写时仍需要开发者采取适当的同步策略以保证线程安全。 65 | 66 | 1. 系统调用级别:在操作系统层面,对同一个socket文件描述符(fd)进行读写操作的系统调用如send、recv、write和read等,通常是线程安全的。这意味着多个线程可以同时调用这些函数而不会导致内核数据结构的混乱。 67 | 2. 应用程序级别:然而,在应用程序中直接对同一个socket进行并发读写时,并非完全线程安全。不同的线程如果不加控制地同时对同一socket进行读写,可能会遇到以下问题: 68 | - 数据包边界混淆:TCP是流式传输协议,没有消息边界的概念,两个线程如果并发发送或接收,可能导致接收到的数据边界与发送时不一致。 69 | - 竞争条件:当多个线程尝试修改socket的状态或缓冲区时,可能会产生未定义的行为,例如,一个线程正在发送数据时,另一个线程关闭了socket,这可能导致不可预测的结果。 70 | - 同步问题:如果没有适当的锁或其他同步机制来保护共享状态,那么不同线程之间对于何时开始和结束I/O操作的协调就可能出现问题。 71 | 3. 最佳实践:为了在多线程环境下正确且安全地使用socket,通常建议采取以下措施: 72 | - 互斥访问:使用线程同步机制,如互斥锁(mutex),确保任何时候只有一个线程在执行读写操作。 73 | - 生产者-消费者模型:设计成一个线程专门负责接收数据并放入队列,另一个线程从队列取出数据并发送,通过队列实现线程间的通信和同步。 74 | - 事件驱动编程:在某些场合下,如使用异步I/O(如epoll/kqueue等)、IOCP(Windows平台)或者事件循环机制,可以避免直接的并发访问,从而在单个线程内处理多个socket连接,减少线程间同步开销。 75 | 76 | ## java socket跟socket有什么区别 77 | 1. 抽象层次: 78 | - 一般意义上的Socket:通常指的是计算机网络编程中的一个抽象概念,是操作系统提供的一种用于进程间通信的机制,通过它可以在网络中不同主机上的进程之间进行双向的数据传输。它是TCP/IP协议栈的一部分,在TCP或UDP等传输层协议之上提供接口。 79 | - Java Socket:在Java编程语言中,java.net.Socket和java.net.ServerSocket类是对底层操作系统Socket接口的封装,提供了面向对象的方式来创建、管理和使用网络连接。程序员可以通过Java Socket API实现跨网络的客户端-服务器通信。 80 | 2. API形式: 81 | - 通用Socket:在不同的编程语言或环境中,对Socket的操作可能需要直接调用系统API函数(如C语言中的socket()、bind()、listen()、accept()、send()、recv()等)。 82 | - Java Socket:Java为开发者提供了一套高级且易于使用的API,如Socket socket = new Socket(host, port)来建立到指定主机和端口的连接,以及socket.getInputStream()和socket.getOutputStream()来获取输入输出流以读写数据。 83 | 3. 平台无关性: 84 | - 通用Socket:直接操作系统提供的Socket API时,代码往往具有一定的平台相关性,即在不同的操作系统上可能需要采用不同的API及调用方式。 85 | - Java Socket:由于Java语言的跨平台特性,其封装的Socket API能够在支持Java的所有平台上运行,使得基于Java Socket编写的网络程序具有良好的可移植性。 86 | 87 | 综上所述,Java Socket是在Java编程环境下对通用Socket概念的具体实现和抽象,为开发者提供了一个更加便捷、安全且平台无关的方式来处理网络通信问题。 88 | -------------------------------------------------------------------------------- /MD/数据库-Redis.md: -------------------------------------------------------------------------------- 1 | ## 数据类型 2 | 来源:https://redisbook.readthedocs.io/en/latest/internal/db.html#id4 3 | 4 | Redis是一个键值对数据库,数据库中的键值对由字典保存。每个数据库都有一个对应的字典,这个字典被称之为键空间。当用户添加一个键值对到数据库时(不论键值对是什么类型), 程序就将该键值对添加到键空间 5 | 6 | 字典的键是一个字符串对象。字典的值则可以是包括【字符串、列表、哈希表、集合或有序集】在内的任意一种 Redis 类型对象。 7 | 8 | ![](../images/redis键空间.png) 9 | 10 | 上图展示了一个包含 number 、 book 、 message 三个键的数据库 —— 其中 number 键是一个列表,列表中包含三个整数值; book 键是一个哈希表,表中包含三个键值对; 而 message 键则指向另一个字符串: 11 | 12 | ![](../images/redis数据类型.png) 13 | 14 | 不同的数据类型的具体实现(压缩列表、跳表必看)请看: https://redisbook.readthedocs.io/en/latest/index.html#id3 15 | 16 | 在线文档:http://118.25.23.115/ 17 | 18 | 压缩链表原理: 19 | 在内存中是连续存储的,但是不同于数组,为了节省内存,ziplist的每个元素所占的内存大小可以不同 20 | ziplist将一些必要的偏移量信息记录在了每一个节点里,使之能跳到上一个节点或下一个节点 21 | 22 | 与跳表应用场景: 23 | 当zset满足以下两个条件的时候,使用ziplist: 24 | 1. 保存的元素少于128个 25 | 2. 保存的所有元素大小都小于64字节 26 | 27 | redis数据过期策略: 28 | 定时过期:每个设置过期时间的key都需要创建一个定时器,到过期时间就会立即清除 29 | 惰性过期:只有当访问一个key时,才会判断该key是否已过期,过期则清除 30 | 定期过期:每隔一定的时间,会扫描一定数量的数据库的expires字典中一定数量的key,并清除其中已过期的key 31 | 32 | 内存淘汰策略: 33 | no-eviction:当内存不足以容纳新写入数据时,新写入操作会报错 34 | allkeys-lru:当内存不足以容纳新写入数据时,在键空间中,移除最近最少使用的key 35 | allkeys-random:当内存不足以容纳新写入数据时,在键空间中,随机移除某个key 36 | volatile-lru:当内存不足以容纳新写入数据时,在设置了过期时间的键空间中,移除最近最少使用的key 37 | volatile-random:当内存不足以容纳新写入数据时,在设置了过期时间的键空间中,随机移除某个key 38 | volatile-ttl:当内存不足以容纳新写入数据时,在设置了过期时间的键空间中,有更早过期时间的key优先移除 39 | 40 | Redis 是单线程吗? 41 | 1. Redis 单线程指的是「接收客户端请求->解析请求 ->进行数据读写等操作->发生数据给客户端」这个过程是由一个线程(主线程)来完成的但是,Redis 程序并不是单线程的,Redis 在启动的时候,是会启动后台线程(BIO)的: 42 | 2. Redis 在 2.6 版本,会启动 2 个后台线程,分别处理关闭文件、AOF 刷盘这两个任务; 43 | 3. Redis 在 4.0 版本之后,新增了一个新的后台线程,用来异步释放 Redis 内存,也就是 lazyfree 线程。例如执行 unlink key / flushdb async / flushall async 等命令,会把这些删除操作交给后台线程来执行,好处是不会导致 Redis 主线程卡顿。因此,当我们要删除一个大 key 的时候,不要使用 del 命令删除,因为 del 是在主线程处理的,这样会导致 Redis 主线程卡顿,因此我们应该使用 unlink 命令来异步删除大key。 44 | 45 | Redis 采用单线程为什么还这么快? 46 | 1. Redis 的大部分操作都在内存中完成,并且采用了高效的数据结构 47 | 2. Redis 采用单线程模型可以避免了多线程之间的竞争,省去了多线程切换带来的时间和性能上的开销,而且也不会导致死锁问题 48 | 3. Redis 采用了I/O 多路复用机制处理大量的客户端 Socket 请求,IO 多路复用机制是指一个线程处理多个 IO 流,就是我们经常听到的 select/epoll 机制。简单来说,在 Redis 只运行单线程的情况下,该机制允许内核中,同时存在多个监听 Socket 和已连接 Socket。内核会一直监听这些 Socket 上的连接请求或数据请求。一旦有请求到达,就会交给 Redis 线程处理,这就实现了一个 Redis 线程处理多个 IO 流的效果。 49 | 50 | Redis 6.0 之后为什么引入了多线程? 51 | 1. 随着网络硬件的性能提升,Redis 的性能瓶颈有时会出现在网络 I/O 的处理上。所以为了提高网络请求处理的并行度 52 | 2. 对于读写命令,Redis 仍然使用单线程来处理,Redis 官方表示,Redis 6.0 版本引入的多线程 I/O 特性对性能提升至少是一倍以上。 53 | 54 | ## 集群模式 55 | 来源: 56 | https://my.oschina.net/zhangxufeng/blog/905611 57 | https://www.cnblogs.com/leeSmall/p/8398401.html 58 | https://docs.aws.amazon.com/zh_cn/AmazonElastiCache/latest/red-ug/CacheNodes.NodeGroups.html 59 | 60 | ### 主从 61 | ![](../images/redis主从.png) 62 | 63 | 用一个redis实例作为主机,其余的实例作为从机。主机和从机的数据完全一致,主机支持数据的写入和读取等各项操作,而从机则只支持与主机数据的同步和读取。因而可以将写入数据的命令发送给主机执行,而读取数据的命令发送给不同的从机执行,从而达到读写分离的目的。 64 | 65 | 问题是主从模式如果所连接的redis实例因为故障下线了,没有提供一定的手段通知客户端另外可连接的客户端地址,因而需要手动更改客户端配置重新连接。如果主节点由于故障下线了,那么从节点因为没有主节点而同步中断,因而需要人工进行故障转移工作。为了解决这两个问题,在2.8版本之后redis正式提供了sentinel(哨兵)架构。 66 | ### 哨兵 67 | ![](../images/redis哨兵.png) 68 | 69 | 由Sentinel节点定期监控发现主节点是否出现了故障,当主节点出现故障时,由Redis Sentinel自动完成故障发现和转移,并通知应用方,实现高可用性。 70 | 71 | ### 集群 72 | ![](../images/redis集群.png) 73 | 74 | redis主从或哨兵模式的每个实例都是全量存储所有数据,浪费内存且有木桶效应。为了最大化利用内存,可以采用集群,就是分布式存储。集群将数据分片存储,每组节点存储一部分数据,从而达到分布式集群的目的。 75 | 76 | 上图是主从模式与集群模式的区别,redis集群中数据是和槽(slot)挂钩的,其总共定义了16384个槽,所有的数据根据一致哈希算法会被映射到这16384个槽中的某个槽中;另一方面,这16384个槽是按照设置被分配到不同的redis节点上。 77 | 78 | 但集群模式会直接导致访问数据方式的改变,比如客户端向A节点发送GET命令但该数据在B节点,redis会返回重定向错误给客户端让客户端再次发送请求,这也直接导致了必须在相同节点才能执行的一些高级功能(如Lua、事务、Pipeline)无法使用。另外还会引发数据分配的一致性hash问题可以参看[这里](https://github.com/crossoverJie/JCSprout/blob/master/MD/Consistent-Hash.md) 79 | 80 | ### 如何选择 81 | 82 | 1. 集群的优势在于高可用,将写操作分开到不同的节点,如果写的操作较多且数据量巨大,且不需要高级功能则可能考虑集群 83 | 2. 哨兵的优势在于高可用,支持高级功能,且能在读的操作较多的场景下工作,所以在绝大多数场景中是适合的 84 | 3. 主从的优势在于支持高级功能,且能在读的操作较多的场景下工作,但无法保证高可用,不建议在数据要求严格的场景下使用 85 | 86 | ## 使用策略 87 | ### 延迟加载 88 | 读:当读请求到来时,先从缓存读,如果读不到就从数据库读,读完之后同步到缓存且添加过期时间 89 | 写:当写请求到来时,只写数据库 90 | 91 | 优点:仅对请求的数据进行一段时间的缓存,没有请求过的数据就不会被缓存,节省缓存空间;节点出现故障并不是致命的,因为可以从数据库中得到 92 | 缺点:缓存数据不是最新的;【缓存击穿】;【缓存失效】 93 | 94 | ### 直写 95 | 读:当读请求到来时,先从缓存读,如果读不到就从数据库读,读完之后同步到缓存且设置为永不过期 96 | 写:当写请求到来时,先写数据库然后同步到缓存,设置为永不过期 97 | 98 | 优点:缓存数据是最新的,无需担心缓存击穿、失效问题,编码方便 99 | 缺点:大量数据可能没有被读取的资源浪费;节点故障或重启会导致缓存数据的丢失直到有写操作同步到缓存;每次写入都需要写缓存导致的性能损失 100 | 101 | 永不过期的缓存会大量占用空间,可以设置过期时间来改进,但是会引进【缓存失效】问题,需要注意解决 102 | 103 | ### 如何选择 104 | 如果需要缓存与数据库数据保持实时一致,则需要选择直写方式 105 | 如果缓存服务很稳定、缓存的可用空间大、写缓存的性能丢失能够接受,选择直写方式比较方便实现 106 | 否则选择延迟加载,同时注意解决引进的问题 107 | 108 | ## 缓存问题 109 | ### 缓存击穿 110 | 查询一个数据库中不存在的数据,比如商品详情,查询一个不存在的ID,每次都会访问DB,如果有人恶意破坏,很可能直接对DB造成过大地压力。 111 | 112 | 当通过某一个key去查询数据的时候,如果对应在数据库中的数据都不存在,我们将此key对应的value设置为一个默认的值。 113 | ### 缓存失效 114 | 在高并发的环境下,如果此时key对应的缓存失效,此时有多个进程就会去同时去查询DB,然后再去同时设置缓存。这个时候如果这个key是系统中的热点key或者同时失效的数量比较多时,DB访问量会瞬间增大,造成过大的压力。 115 | 116 | 将系统中key的缓存失效时间均匀地错开   117 | ### 热点key 118 | 缓存中的某些Key(可能对应用与某个促销商品)对应的value存储在集群中一台机器,使得所有流量涌向同一机器,成为系统的瓶颈,该问题的挑战在于它无法通过增加机器容量来解决。 119 | 120 | 1. 客户端热点key缓存:将热点key对应value并缓存在客户端本地,并且设置一个失效时间。 121 | 2. 将热点key分散为多个子key,然后存储到缓存集群的不同机器上,这些子key对应的value都和热点key是一样的。 122 | 123 | ## 持久化 124 | RDB 持久化可以在指定的时间间隔内生成数据集的时间点快照(point-in-time snapshot)。 125 | 1. save:save 是需要占用主线程资源的,会阻塞主线程。 126 | 2. bgsave:使用的是子进程写,不会占用主线程的资源(fork会阻塞主线程,但是copyonwrite过程是纳秒级别相对较快,aof是毫秒级别)。redis使用了操作系统的写时复制技术(COPY -ON-WRITE COW)bgsave子进程是由主进程fork生成的,可以共享主进程的内存,如果主进程有写入命令时候,主进程会把写入的那块内存页先复制一份给fork使用,这样就不影响主进程的写操作,可以继续修改原来的数据,避免了对正常业务的影响。 127 | 128 | 129 | AOF 持久化记录服务器执行的所有写操作命令,aof日志的重写是由后台程序bgrewriteaof子进程完成的,这也是为了避免阻塞主线程,导致数据性能下降。Redis 还可以在后台对 AOF 文件进行重写(rewrite重写机制就是把这条键值对的多次操作压缩成一次操作,这样就大大减少了aof日志文件的大小。),使得 AOF 文件的体积不会超出保存数据集状态所需的实际大小。 130 | 1. always 同步回写:每条命令执行完成后,回立即将日志写回磁盘。always回写回占用主线程资源,每次回写都是一个慢速的罗盘操作,基本上可以避免数据的丢失,会对主线程产生影响,如果你对redis数据的准确性要求非常高,而写入和读取占比不高的话,可以采用这种策略。 131 | 2. everysec 每秒回写:每个命令执行完后回先将日志写入aof文件的内存缓冲区,每隔一秒把缓冲区中的命令写入磁盘。每秒回写采用一秒回写一次的策略,避免了同步回写的性能开销,虽然减少了对系统性能的影响,但是如果1秒内产生了大量的写操作,在aof缓冲区积压了很多日志,这时候还没来得及写入aof日志文件就发生了宕机,就会造成数据的丢失。 132 | 3. no 操作系统控制的回写:每个写命令执行完后只是先把日志写入aof文件的内存缓冲区,何时回写磁盘由操作系统决定。采用操作系统控制的回写,在写完aof缓冲区后就可以继续执行命令,但是如果系统发生宕机了,也同样会造成数据的丢失。 133 | 134 | Redis 还可以同时使用 AOF 持久化和 RDB 持久化。 在这种情况下, 当 Redis 重启时, 它会优先使用 AOF 文件来还原数据集, 因为 AOF 文件保存的数据集通常比 RDB 文件所保存的数据集更完整。 135 | ## 渐进式rehash 136 | 以下是哈希表渐进式 rehash 的详细步骤: 137 | 1. 为 ht[1] 分配空间, 让字典同时持有 ht[0] 和 ht[1] 两个哈希表。 138 | 2. 在字典中维持一个索引计数器变量 rehashidx , 并将它的值设置为 0 , 表示 rehash 工作正式开始。 139 | 3. 在 rehash 进行期间, 每次对字典执行添加、删除、查找或者更新操作时, 程序除了执行指定的操作以外, 还会顺带将 ht[0] 哈希表在 rehashidx 索引上的所有键值对 rehash 到 ht[1] , 当 rehash 工作完成之后, 程序将 rehashidx 属性的值增一。 140 | 4. 随着字典操作的不断执行, 最终在某个时间点上, ht[0] 的所有键值对都会被 rehash 至 ht[1] , 这时程序将 rehashidx 属性的值设为 -1 , 表示 rehash 操作已完成。 141 | 渐进式 rehash 的好处在于它采取分而治之的方式, 将 rehash 键值对所需的计算工作均滩到对字典的每个添加、删除、查找和更新操作上, 从而避免了集中式 rehash 而带来的庞大计算量。 142 | 143 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 144 | -------------------------------------------------------------------------------- /MD/Java基础-JVM原理.md: -------------------------------------------------------------------------------- 1 | ## JVM原理 2 | ### Java内存区域的分配 3 | JVM虚拟机内存模型实现规范: 4 | 5 | ![](../images/JVM规范.png) 6 | 7 | 8 | 按线程是否共享分为以下区域: 9 | 10 | 所有线程共享的数据区: 11 | 12 | 1. 方法区(JVM规范中的一部分,不是实际的实现): 存储每一个类的结构信息(运行时常量池、静态变量、方法数据、构造函数和普通方法的字节码、JIT编译后的代码),没有要求使用垃圾回收因为回收效率太低。(运行时常量池:存放编译器生成的各种字面量和符号引用,在类加载后放到运行时常量池中) 13 | 2. 堆区: 最大的一块区域,是大部分类实例、对象、数组分配内存的区域,没有限制只能将对象分配在堆,所以出现逃逸分析的技术 14 | 15 | 每个线程都会有一块私有的数据区: 16 | 17 | 1. 虚拟机栈: 虚拟机栈与线程同时创建,每个方法在执行时在其中创建一个栈帧,用于存储局部变量、操作数栈、动态链接、方法返回地址。正常调用完成后恢复调用者的局部变量表、操作数栈、递增程序计数器来跳过刚才执行的指令,或抛出异常不将返回值返回给调用者 18 | 2. 本地方法栈: 功能与虚拟机栈相同,为native方法服务 19 | 3. pc寄存器: 任意时刻线程只会执行一个方法的代码,如果不是native的,就存放当前正在执行的字节码指令的地址,如果是native,则是undefined 20 | 21 | 以HotSpot虚拟机实现为例,Java8中内存区域如下: 22 | 23 | ![](../images/JVM1.8.png) 24 | 25 | 与规范中的区别: 26 | 27 | 1. 直接内存:非Java标准,是JVM以外的本地内存,在Java4出现的NIO中,为了防止Java堆和Native堆之间往复的数据复制带来的性能损耗,此后NIO可以使用Native的方式直接在Native堆分配内存。JDK中有一种基于通道(Channel)和缓冲区(Buffer)的内存分配方式,将由C语言实现的native函数库分配在直接内存中,用存储在JVM堆中的DirectByteBuffer来引用。 28 | 2. 元数据区(方法区的实现):Java7以及之前是使用的永久代来实现方法区,大小是在启动时固定的。Java8中用元空间替代了永久代,元空间并不在虚拟机中,而是使用本地内存,并且大小可以是自动增长的,这样减少了OOM的可能性。元空间存储JIT即时编译后的native代码,可能还存在短指针数据区CCS 29 | 3. 堆区: Java7之后运行时常量池从方法区移到这里,为Java8移除永久带的做好准备 30 | 31 | ### Java对象不都是分配在堆上 32 | #### 逃逸分析 33 | 通过逃逸分析,Java Hotspot编译器能够分析出一个新的对象的引用的使用范围从而决定是否要将这个对象分配到堆上。 34 | 35 | 逃逸分析的基本行为就是分析对象动态作用域:当一个对象在方法中被定义后,它可能被外部方法所引用,例如作为调用参数传递到其他地方中,称为方法逃逸。 36 | 37 | 使用逃逸分析,编译器可以对代码做如下优化: 38 | 39 | 1. 同步省略。如果一个对象被发现只能从一个线程被访问到,那么对于这个对象的操作可以不考虑同步。 40 | 2. 将堆分配转化为栈分配。如果一个对象在子程序中被分配,要使指向该对象的指针永远不会逃逸,对象可能是栈分配的候选,而不是堆分配。 41 | 3. 分离对象或标量替换。有的对象可能不需要作为一个连续的内存结构存在也可以被访问到,那么对象的部分(或全部)可以不存储在内存,而是存储在CPU寄存器中。 42 | 43 | ### 类加载机制 44 | #### 加载过程 45 | 46 | 1. 加载(获取来自任意来源的字节流并转换成运行时数据结构,生成Class对象) 47 | 2. 验证(验证字节流信息符合当前虚拟机的要求,防止被篡改过的字节码危害JVM安全) 48 | 3. 准备(为类变量分配内存并设置初始值) 49 | 4. 解析(将常量池的符号引用替换为直接引用,符号引用是用一组符号来描述所引用的目标,直接引用是指向目标的指针) 50 | 5. 初始化(执行类构造器、类变量赋值、静态语句块) 51 | 52 | #### 类加载器 53 | 启动类加载器:用C++语言实现,是虚拟机自身的一部分,它负责将 /lib路径下的核心类库,无法被Java程序直接引用 54 | 扩展类加载器:用Java语言实现,它负责加载/lib/ext目录下或者由系统变量-Djava.ext.dir指定位路径中的类库,开发者可以直接使用 55 | 系统类加载器:用Java语言实现,它负责加载系统类路径ClassPath指定路径下的类库,开发者可以直接使用 56 | 57 | #### 双亲委派 58 | 定义:如果父类加载器可以完成类加载任务,就成功返回,倘若父类加载器无法完成此加载任务,子加载器才会尝试自己去加载,这就是**双亲委派模式**。 59 | 60 | 优点:采用双亲委派模式的是好处是Java类随着它的类加载器一起具备了一种带有优先级的层次关系,通过这种层级关可以避免类的重复加载,当父亲已经加载了该类时,就没有必要子ClassLoader再加载一次。其次防止恶意覆盖Java核心API。 61 | 62 | 三次大型破坏双亲委派模式的事件: 63 | 64 | 1. 在双亲委派模式出来之前,用户继承ClassLoader就是为了重写loadClass方法,但双亲委派模式需要这个方法,所以1.2之后添加了findClass供以后的用户重写 65 | 2. 如果基础类要调回用户的代码,如JNDI/JDBC需要调用ClassPath下的自己的代码来进行资源管理,Java团队添加了一个线程上下文加载器,如果该加载器没有被设置过,那么就默认是应用程序类加载器 66 | 3. 为了实现代码热替换,OSGi是为了实现自己的类加载逻辑,用平级查找的逻辑替换掉了向下传递的逻辑。但其实可以不破坏双亲委派逻辑而是自定义类加载器来达到代码热替换。比如[这篇文章](https://www.cnblogs.com/pfxiong/p/4070462.html) 67 | 68 | ### 内存分配(堆上的内存分配) 69 | ![](../images/堆的内存分配.png) 70 | #### 新生代 71 | ##### 进入条件 72 | 优先选择在新生代的Eden区被分配。 73 | #### 老年代 74 | ##### 进入条件 75 | 1. 大对象,-XX:PretenureSizeThreshold 大于这个参数的对象直接在老年代分配,来避免新生代GC以及分配担保机制和Eden与Survivor之间的复制 76 | 2. 经过第一次Minor GC仍然存在,能被Survivor容纳,就会被移动到Survivor中,此时年龄为1,当年龄大于预设值就进入老年代 77 | 3. 如果Survivor中相同年龄所有对象大小的总和大于Survivor空间的一半,年龄大于等于该年龄的对象进入老年代 78 | 4. 如果Survivor空间无法容纳新生代中Minor GC之后还存活的对象 79 | 80 | ### GC回收机制 81 | #### 回收对象 82 | 不可达对象:通过一系列的GC Roots的对象作为起点,从这些节点开始向下搜索,搜索所走过的路径称为引用链,当一个对象到GC Roots没有任何引用链相连时则此对象是不可用的。 83 | GC Roots包括:虚拟机栈中引用的对象、方法区中类静态属性引用的对象、方法区中常量引用的对象、本地方法栈中JNI(Native方法)引用的对象。 84 | 85 | 彻底死亡条件: 86 | 条件1:通过GC Roots作为起点的向下搜索形成引用链,没有搜到该对象,这是第一次标记。 87 | 条件2:在finalize方法中没有逃脱回收(将自身被其他对象引用),这是第一次标记的清理。 88 | 89 | #### 如何回收 90 | 新生代因为每次GC都有大批对象死去,只需要付出少量存活对象的复制成本且无碎片所以使用“复制算法” 91 | 老年代因为存活率高、没有分配担保空间,所以使用“标记-清理”或者“标记-整理”算法 92 | 93 | 复制算法:将可用内存按容量划分为Eden、from survivor、to survivor,分配的时候使用Eden和一个survivor,Minor GC后将存活的对象复制到另一个survivor,然后将原来已使用的内存一次清理掉。这样没有内存碎片。 94 | 标记-清除:标记出存在引用链的对象,回收未被标记的对象。会产生大量碎片,导致无法分配大对象从而导致频繁GC。 95 | 标记-整理:标记出存在引用链的对象,让所有存活的对象向一端移动。 96 | 97 | #### Minor GC条件 98 | 当Eden区空间不足以继续分配对象,发起Minor GC。 99 | 100 | #### Full GC条件 101 | 1. 调用System.gc时,系统建议执行Full GC,但是不必然执行 102 | 2. 老年代空间不足(通过Minor GC后进入老年代的大小大于老年代的可用内存) 103 | 3. 方法区空间不足 104 | 105 | ## 垃圾收集器 106 | ### 串行收集器 107 | 串行收集器Serial是最古老的收集器,只使用一个线程去回收,可能会产生较长的停顿 108 | 109 | 新生代使用Serial收集器`复制`算法、老年代使用Serial Old`标记-整理`算法 110 | 111 | 参数:`-XX:+UseSerialGC`,默认开启`-XX:+UseSerialOldGC` 112 | 113 | ### 并行收集器 114 | 并行收集器Parallel关注**可控的吞吐量**,能精确地控制吞吐量与最大停顿时间是该收集器最大的特点,也是1.8的Server模式的默认收集器,使用多线程收集。ParNew垃圾收集器是Serial收集器的多线程版本。 115 | 116 | 新生代`复制`算法、老年代`标记-整理`算法 117 | 118 | 参数:`-XX:+UseParallelGC`,默认开启`-XX:+UseParallelOldGC` 119 | 120 | ### 并发收集器 121 | 并发收集器CMS是以**最短停顿时间**为目标的收集器。G1关注能在大内存的前提下精确控制**停顿时间**且垃圾回收效率高。 122 | 123 | CMS针对老年代,有初始标记、并发标记、重新标记、并发清除四个过程,标记阶段会Stop The World,使用`标记-清除`算法,所以会产生内存碎片。 124 | 125 | 参数:`-XX:+UseConcMarkSweepGC`,默认开启`-XX:+UseParNewGC` 126 | 127 | G1将堆划分为多个大小固定的独立区域,根据每次允许的收集时间优先回收垃圾最多的区域,使用`标记-整理`算法,是1.9的Server模式的默认收集器 128 | 129 | 参数:`-XX:+UseG1GC` 130 | 131 | ### G1的原理,相比CMS的优势 132 | G1的工作原理: 133 | 内存布局: 134 | G1将堆内存划分为多个大小相等的区域(Region),每个区域可以是Eden、Survivor、老年代的一部分或整个Humongous对象(大对象)。这样的划分使得收集可以更细粒度地进行。 135 | 并发标记-整理: 136 | G1使用多阶段的并发标记过程来识别存活对象。首先进行初步标记,然后进行根搜索标记,最后进行重新标记,这些步骤尽可能与应用程序线程并发执行。 137 | 基于目标的收集: 138 | G1根据用户设定的暂停时间目标来决定收集哪些区域。它优先回收垃圾最多(即回收效益最高)的区域,以尽快满足内存需求,这就是“Garbage-First”命名的由来。 139 | 混合收集周期: 140 | G1执行混合垃圾收集,不仅回收年轻代,也回收一部分老年代区域,这样可以更均匀地分散垃圾回收的压力,减少老年代增长导致的Full GC风险。 141 | 空间整合: 142 | G1在回收过程中会进行空间整理,减少内存碎片,这是与CMS的一个重要区别,后者使用标记-清除算法,容易产生碎片。 143 | 144 | 相比CMS的优势: 145 | 更好的内存碎片管理: 146 | G1通过复制和整理算法减少了内存碎片,提高了内存使用的效率,而CMS使用标记-清除算法后易造成碎片化。 147 | 可预测的暂停时间: 148 | G1允许用户设定暂停时间目标,通过动态调整收集策略来尽量满足这一目标,使得应用的响应时间更加可预测,适合对延迟敏感的服务。 149 | 自动内存管理: 150 | G1自动管理年轻代和老年代的大小,不需要手动配置比例,降低了调优难度。 151 | 更大的堆支持: 152 | G1设计之初就考虑了大容量堆的管理,能够有效管理数十GB甚至上百GB的堆内存,而CMS在大堆上的表现可能不佳。 153 | 整体性能和吞吐量: 154 | 在很多场景下,G1能够提供与CMS相当甚至更好的吞吐量,同时保持较低的暂停时间。 155 | 156 | 157 | ## Stop The World 158 | Java中Stop-The-World机制简称STW,是在执行垃圾收集算法时,Java应用程序的其他所有线程都被挂起。Java中一种全局暂停现象,全局停顿,所有Java代码停止,native代码可以执行,但不能与JVM交互 159 | 160 | STW总会发生,不管是新生代还是老年代,比如CMS在初始标记和重复标记阶段会停顿,G1在初始标记阶段也会停顿,所以并不是选择了一款停顿时间低的垃圾收集器就可以避免STW的,我们只能尽量去减少STW的时间。 161 | 162 | 那么为什么一定要STW?因为在定位堆中的对象时JVM会记录下对所有对象的引用,如果在定位对象过程中,有新的对象被分配或者刚记录下的对象突然变得无法访问,就会导致一些问题,比如部分对象无法被回收,更严重的是如果GC期间分配的一个GC Root对象引用了准备被回收的对象,那么该对象就会被错误地回收。 163 | 164 | ## [Java内存模型](https://mp.weixin.qq.com/s/ME_rVwhstQ7FGLPVcfpugQ) 165 | 定义:JMM是一种规范,目的是解决由于多线程通过共享内存进行通信时,存在的本地内存数据不一致、编译器会对代码指令重排序、处理器会对代码乱序执行等带来的问题。目的是保证并发编程场景中的原子性、可见性和有序性 166 | 167 | 实现:volatile、synchronized、final、concurrent包等。其实这些就是Java内存模型封装了底层的实现后提供给程序员使用的一些关键字 168 | 169 | ![](../images/j12.jpg) 170 | 171 | 主内存:所有变量都保存在主内存中 172 | 工作内存:每个线程的独立内存,保存了该线程使用到的变量的主内存副本拷贝,线程对变量的操作必须在工作内存中进行 173 | 174 | 每个线程都有自己的本地内存共享副本,如果A线程要更新主内存还要让B线程获取更新后的变量,那么需要: 175 | 176 | 1. 将本地内存A中更新共享变量 177 | 2. 将更新的共享变量刷新到主内存中 178 | 3. 线程B从主内存更新最新的共享变量 179 | 180 | ## [happens-before](https://www.cnblogs.com/chenssy/p/6393321.html) 181 | 我们无法就所有场景来规定某个线程修改的变量何时对其他线程可见,但是我们可以指定某些规则,这规则就是happens-before。特别关注在多线程之间的内存可见性。 182 | 183 | 它是判断数据是否存在竞争、线程是否安全的主要依据,依靠这个原则,我们解决在并发环境下两操作之间是否可能存在冲突的所有问题。 184 | 185 | 1. 程序次序规则:一个线程内,按照代码顺序,书写在前面的操作先行发生于书写在后面的操作; 186 | 2. 锁定规则:一个unLock操作先行发生于后面对同一个锁额lock操作; 187 | 3. volatile变量规则:对一个变量的写操作先行发生于后面对这个变量的读操作; 188 | 4. 传递规则:如果操作A先行发生于操作B,而操作B又先行发生于操作C,则可以得出操作A先行发生于操作C; 189 | 5. 线程启动规则:Thread对象的start()方法先行发生于此线程的每个一个动作; 190 | 6. 线程中断规则:对线程interrupt()方法的调用先行发生于被中断线程的代码检测到中断事件的发生; 191 | 7. 线程终结规则:线程中所有的操作都先行发生于线程的终止检测,我们可以通过Thread.join()方法结束、Thread.isAlive()的返回值手段检测到线程已经终止执行; 192 | 8. 对象终结规则:一个对象的初始化完成先行发生于他的finalize()方法的开始; 193 | 194 | ## JVM调优 195 | 前提:在进行GC优化之前,需要确认项目的架构和代码等已经没有优化空间 196 | 197 | 目的:优化JVM垃圾收集性能从而增大吞吐量或减少停顿时间,让应用在某个业务场景上发挥最大的价值。吞吐量是指应用程序线程用时占程序总用时的比例。暂停时间是应用程序线程让与GC线程执行而完全暂停的时间段 198 | 199 | 对于交互性web应用来说,一般都是减少停顿时间,所以有以下方法: 200 | 201 | 1. 如果应用存在大量的短期对象,应该选择较大的年轻代;如果存在相对较多的持久对象,老年代应该适当增大 202 | 2. 让大对象进入年老代。可以使用参数-XX:PetenureSizeThreshold 设置大对象直接进入年老代的阈值。当对象的大小超过这个值时,将直接在年老代分配 203 | 3. 设置对象进入年老代的年龄。如果对象每经过一次 GC 依然存活,则年龄再加 1。当对象年龄达到阈值时,就移入年老代,成为老年对象 204 | 4. 使用关注系统停顿的 CMS 回收器 205 | 206 | 基础:https://www.ibm.com/developerworks/cn/java/j-lo-jvm-optimize-experience/index.html 207 | 208 | 案例:https://www.wangtianyi.top/blog/2018/07/27/jvmdiao-you-ru-men-er-shi-zhan-diao-you-parallelshou-ji-qi/ 209 | 210 | 211 | ## java中的==和equals有什么区别 212 | ==: 213 | 214 | 1. ==操作符专门用来比较变量的值是否相同。如果比较的对象是基本数据类型,则比较数值是否相等;如果比较的是引用数据类型,则比较的是对象的内存地址是否相等。 215 | 2. 因为Java只有值传递,所以对于==来说,不管是比较基本数据类型,还是引用数据类型的变量,其本质比较的都是值,只是引用类型变量存的值是对象的地址。引用类型对象变量其实是一个引用,它们的值是指向对象所在的内存地址,而不是对象本身。 216 | 217 | equals: 218 | 219 | 1. equals方法常用来比较对象的内容是否相同。 220 | 2. equals()方法存在于Object类中,而Object类是所有类的直接或间接父类。 221 | 3. 未重写equals方法的类:Object中的equals方法实际使用的也是==操作符,比较的是他们的内存地址是否同一地址。 222 | 4. 重写了equals方法的类:实现该类自己的equals方法比较逻辑(一般是比较对象的内容是否相同)。比如: 223 | 5. String:比较字符串内容,内容相同这相同; 224 | 6. Integer:比较对应的基本数据类型int的值是否相同(==操作符)。 225 | -------------------------------------------------------------------------------- /MD/Java基础-多线程.md: -------------------------------------------------------------------------------- 1 | ## 多线程 2 | ### 线程的生命周期 3 | 新建 -- 就绪 -- 运行 -- 阻塞 -- 就绪 -- 运行 -- 死亡 4 | 5 | ![](../images/j13.png) 6 | 7 | ### 问:你怎么理解多线程的 8 | 9 | 1. 定义:多线程是指从软件或者硬件上实现多个线程并发执行的技术。具有多线程能力的计算机因有硬件支持而能够在同一时间执行多于一个线程,进而提升整体处理性能。 10 | 2. 存在的原因:因为单线程处理能力低。打个比方,一个人去搬砖与几个人去搬砖,一个人只能同时搬一车,但是几个人可以同时一起搬多个车。 11 | 3. 实现:在Java里如何实现线程,Thread、Runnable、Callable。 12 | 4. 问题:线程可以获得更大的吞吐量,但是开销很大,线程栈空间的大小、切换线程需要的时间,所以用到线程池进行重复利用,当线程使用完毕之后就放回线程池,避免创建与销毁的开销。 13 | 14 | ### 线程间通信的方式 15 | 1. 等待通知机制 wait()、notify()、join()、interrupted() 16 | 2. 并发工具synchronized、lock、CountDownLatch、CyclicBarrier、Semaphore 17 | 18 | ### 锁 19 | #### 锁是什么 20 | 锁是在不同线程竞争资源的情况下来分配不同线程执行方式的同步控制工具,只有线程获取到锁之后才能访问同步代码,否则等待其他线程使用结束后释放锁 21 | 22 | #### [synchronized](https://mp.weixin.qq.com/s/0qyNS6wQUShhJHoMuyziMg) 23 | 通常和wait,notify,notifyAll一块使用。 24 | wait:释放占有的对象锁,释放CPU,进入等待队列只能通过notify/all继续该线程。 25 | sleep:则是释放CPU,但是不释放占有的对象锁,可以在sleep结束后自动继续该线程。 26 | notify:唤醒等待队列中的一个线程,使其获得锁进行访问。 27 | notifyAll:唤醒等待队列中等待该对象锁的全部线程,让其竞争去获得锁。 28 | 29 | #### lock 30 | 拥有synchronize相同的语义,但是添加一些其他特性,如中断锁等候和定时锁等候,所以可以使用lock代替synchronize,但必须手动加锁释放锁 31 | 32 | #### 两者的区别 33 | * 性能:资源竞争激烈的情况下,lock性能会比synchronized好;如果竞争资源不激烈,两者的性能是差不多的 34 | * 用法:synchronized可以用在代码块上,方法上。lock通过代码实现,有更精确的线程语义,但需要手动释放,还提供了多样化的同步,比如公平锁、有时间限制的同步、可以被中断的同步 35 | * 原理:synchronized在JVM级别实现,会在生成的字节码中加上monitorenter和monitorexit,任何对象都有一个monitor与之相关联,当且一个monitor被持有之后,他将处于锁定状态。monitor是JVM的一个同步工具,synchronized还通过内存指令屏障来保证共享变量的可见性。lock使用AQS在代码级别实现,通过Unsafe.park调用操作系统内核进行阻塞 36 | * 功能:比如ReentrantLock功能更强大 37 | 1. ReentrantLock可以指定是公平锁还是非公平锁,而synchronized只能是非公平锁,所谓的公平锁就是先等待的线程先获得锁 38 | 2. ReentrantLock提供了一个Condition(条件)类,用来实现分组唤醒需要唤醒的线程们,而不是像synchronized要么随机唤醒一个线程要么唤醒全部线程 39 | 3. ReentrantLock提供了一种能够中断等待锁的线程的机制,通过lock.lockInterruptibly()来实现这个机制 40 | 41 | **我们写同步的时候,优先考虑synchronized,如果有特殊需要,再进一步优化。ReentrantLock和Atomic如果用的不好,不仅不能提高性能,还可能带来灾难。** 42 | 43 | #### 锁的种类 44 | * 公平锁/非公平锁 45 | 46 | 公平锁是指多个线程按照申请锁的顺序来获取锁 47 | ReentrantLock通过构造函数指定该锁是否是公平锁,默认是非公平锁。Synchronized是一种非公平锁 48 | 49 | * 可重入锁 50 | 51 | 指在同一个线程在外层方法获取锁的时候,在进入内层方法会自动获取锁 52 | ReentrantLock, 他的名字就可以看出是一个可重入锁,其名字是Re entrant Lock重新进入锁 53 | Synchronized,也是一个可重入锁。可重入锁的一个好处是可一定程度避免死锁 54 | 55 | * 独享锁/共享锁 56 | 57 | 独享锁是指该锁一次只能被一个线程所持有。共享锁是指该锁可被多个线程所持有 58 | ReentrantLock是独享锁。但是对于Lock的另一个实现类ReadWriteLock,其读锁是共享锁,其写锁是独享锁 59 | 读锁的共享锁可保证并发读是非常高效的,读写,写读 ,写写的过程是互斥的 60 | Synchronized是独享锁 61 | 62 | * 乐观锁/悲观锁 63 | 64 | 悲观锁在Java中的使用,就是各种锁 65 | 乐观锁在Java中的使用,是CAS算法,典型的例子就是原子类,通过CAS自旋实现原子操作的更新 66 | 67 | * 偏向锁/轻量级锁/重量级锁 68 | 69 | 针对Synchronized的锁状态: 70 | 偏向锁是为了减少无竞争且只有一个线程使用锁的情况下,使用轻量级锁产生的性能消耗。指一段同步代码一直被一个线程所访问,在无竞争情况下把整个同步都消除掉 71 | 轻量级锁是为了减少无实际竞争情况下,使用重量级锁产生的性能消耗。指当锁是偏向锁的时候,被另一个线程所访问,偏向锁就会升级为轻量级锁,其他线程会通过CAS自旋的形式尝试获取锁,不会阻塞 72 | 重量级锁是指当锁为轻量级锁的时候,另一个线程虽然是自旋,但自旋不会一直持续下去,当自旋一定次数的时候,还没有获取到锁,就会进入阻塞,该锁膨胀为重量级锁 73 | 74 | * 自旋锁/自适应自旋锁 75 | 76 | 指尝试获取锁的线程不会立即阻塞,而是采用循环的方式去尝试获取锁,这样的好处是减少线程上下文切换的消耗,缺点是循环会消耗CPU,默认自旋次数为10 77 | 自适应自旋锁的自旋次数不再固定,而是由前一次在同一个锁上的自旋时间及锁的拥有者的状态决定,是虚拟机对锁状况的一个预测 78 | 79 | ### volatile 80 | 功能: 81 | 82 | 1. 主内存和工作内存,直接与主内存产生交互,进行读写操作,保证可见性; 83 | 2. 禁止 JVM 进行的指令重排序。 84 | 85 | ### ThreadLocal 86 | 1. 定义:ThreadLocal变量每个线程都会有这个变量的一个本地拷贝,多个线程操作这个变量的时候,实际是在操作自己本地内存里面的变量,从而起到线程隔离的作用,避免了并发场景下的线程安全问题。 87 | 2. 原理:Thread线程类有一个类型为ThreadLocal.ThreadLocalMap的实例变量threadLocals,即每个线程都有一个属于自己的ThreadLocalMap。ThreadLocalMap内部维护着Entry数组,每个Entry代表一个完整的对象,key是ThreadLocal本身,value是ThreadLocal的泛型值。并发多线程场景下,每个线程Thread,在往ThreadLocal里设置值的时候,都是往自己的ThreadLocalMap里存,读也是以某个ThreadLocal作为引用,在自己的map里找对应的key,从而可以实现了线程隔离。 88 | 3. Entry的Key为什么要设计成弱引用:如果Key使用强引用:当ThreadLocal的对象被回收了,但是ThreadLocalMap还持有ThreadLocal的强引用的话,如果没有手动删除,ThreadLocal就不会被回收,会出现Entry的内存泄漏问题。如果Key使用弱引用:当ThreadLocal的对象被回收了,因为ThreadLocalMap持有ThreadLocal的弱引用,即使没有手动删除,ThreadLocal也会被回收。value则在下一次ThreadLocalMap调用set,get,remove的时候会被清除。 89 | 90 | 91 | 1. 强引用:我们平时new了一个对象就是强引用,例如 Object obj = new Object();即使在内存不足的情况下,JVM宁愿抛出OutOfMemory错误也不会回收这种对象。 92 | 2. 软引用:如果一个对象只具有软引用,则内存空间足够,垃圾回收器就不会回收它;如果内存空间不足了,就会回收这些对象的内存。 93 | 3. 弱引用:具有弱引用的对象拥有更短暂的生命周期。如果一个对象只有弱引用存在了,则下次GC将会回收掉该对象(不管当前内存空间足够与否)。 94 | 4. 虚引用:如果一个对象仅持有虚引用,那么它就和没有任何引用一样,在任何时候都可能被垃圾回收器回收。虚引用主要用来跟踪对象被垃圾回收器回收的活动。 95 | 96 | 97 | ### 线程池 98 | #### 起源 99 | new Thread弊端: 100 | 101 | * 每次启动线程都需要new Thread新建对象与线程,性能差。线程池能重用存在的线程,减少对象创建、回收的开销。 102 | * 线程缺乏统一管理,可以无限制的新建线程,导致OOM。线程池可以控制可以创建、执行的最大并发线程数。 103 | * 缺少工程实践的一些高级的功能如定期执行、线程中断。线程池提供定期执行、并发数控制功能 104 | 105 | #### 线程池时核心参数 106 | 107 | * corePoolSize:核心线程数量,线程池中应该常驻的线程数量 108 | * maximumPoolSize:线程池允许的最大线程数,非核心线程在超时之后会被清除 109 | * workQueue:阻塞队列,存储等待执行的任务 110 | * keepAliveTime:线程没有任务执行时可以保持的时间 111 | * unit:时间单位 112 | * threadFactory:线程工厂,来创建线程 113 | * rejectHandler:当拒绝任务提交时的策略(抛异常、用调用者所在的线程执行任务、丢弃队列中第一个任务执行当前任务、直接丢弃任务) 114 | 115 | #### 线程池几个核心参数在CPU密集型、IO密集型业务场景的配置 116 | 核心线程数(Core Pool Size) 117 | CPU 密集型:CPU 密集型任务主要依赖处理器资源,因此推荐将核心线程数设置为等于 CPU 核心数或稍高于 CPU 核心数(例如 CPU核数 + 1),以充分利用硬件资源,减少上下文切换的开销。 118 | IO 密集型:IO 密集型任务在等待 IO 操作完成时不会占用 CPU,这时可以设置更多的核心线程,通常可以是 2 * CPU核数 + 1 或者更高,以便在等待 IO 期间能有更多线程准备处理后续的计算任务。 119 | 120 | 线程保持存活时间(Keep-Alive Time) 121 | CPU 密集型:通常设置较短的保持存活时间,因为CPU密集型任务一旦完成,线程可能不需要再次激活,过多的空闲线程会浪费资源。 122 | IO 密集型:可以设置较长的保持存活时间,允许线程在等待下一次 IO 操作时保持一段时间的空闲状态,以备快速响应新的请求。 123 | 124 | 工作队列(Work Queue) 125 | CPU 密集型:可以选择较小的有界阻塞队列,比如 SynchronousQueue,这可以防止过多的线程创建,保持核心线程始终忙碌。 126 | IO 密集型:可以使用较大的有界队列,如 LinkedBlockingQueue,允许更多的任务在等待,减少线程的创建和销毁。 127 | 128 | #### 创建线程的逻辑 129 | 以下任务提交逻辑来自ThreadPoolExecutor.execute方法: 130 | 131 | 1. 如果运行的线程数 < corePoolSize,直接创建新线程,即使有其他线程是空闲的 132 | 2. 如果运行的线程数 >= corePoolSize 133 | 2.1 如果插入队列成功,则完成本次任务提交,但不创建新线程 134 | 2.2 如果插入队列失败,说明队列满了 135 | 2.2.1 如果当前线程数 < maximumPoolSize,创建新的线程放到线程池中 136 | 2.2.2 如果当前线程数 >= maximumPoolSize,会执行指定的拒绝策略 137 | 138 | #### [阻塞队列的策略](https://blog.csdn.net/hayre/article/details/53291712) 139 | * 直接提交。SynchronousQueue是一个没有数据缓冲的BlockingQueue,生产者线程对其的插入操作put必须等待消费者的移除操作take。将任务直接提交给线程而不保持它们。 140 | * 无界队列。当使用无限的 maximumPoolSizes 时,将导致在所有corePoolSize线程都忙时新任务在队列中等待。 141 | * 有界队列。当使用有限的 maximumPoolSizes 时,有界队列(如ArrayBlockingQueue)有助于防止资源耗尽,但是可能较难调整和控制。 142 | 143 | ### 并发包工具类 144 | #### CountDownLatch 145 | 计数器闭锁是一个能阻塞主线程,让其他线程满足特定条件下主线程再继续执行的线程同步工具。 146 | 147 | ![](../images/countdownlatch.png) 148 | 图中,A为主线程,A首先设置计数器的数到AQS的state中,当调用await方法之后,A线程阻塞,随后每次其他线程调用countDown的时候,将state减1,直到计数器为0的时候,A线程继续执行。 149 | 150 | 使用场景: 151 | 并行计算:把任务分配给不同线程之后需要等待所有线程计算完成之后主线程才能汇总得到最终结果 152 | 模拟并发:可以作为并发次数的统计变量,当任意多个线程执行完成并发任务之后统计一次即可 153 | 154 | #### Semaphore 155 | 信号量是一个能阻塞线程且能控制统一时间请求的并发量的工具。比如能保证同时执行的线程最多200个,模拟出稳定的并发量。 156 | 157 | ```java 158 | public class CountDownLatchTest { 159 | 160 | public static void main(String[] args) { 161 | ExecutorService executorService = Executors.newCachedThreadPool(); 162 | Semaphore semaphore = new Semaphore(3); //配置只能发布3个运行许可证 163 | for (int i = 0; i < 100; i++) { 164 | int finalI = i; 165 | executorService.execute(() -> { 166 | try { 167 | semaphore.acquire(3); //获取3个运行许可,如果获取不到会一直等待,使用tryAcquire则不会等待 168 | Thread.sleep(1000); 169 | System.out.println(finalI); 170 | semaphore.release(3); 171 | } catch (InterruptedException e) { 172 | e.printStackTrace(); 173 | } 174 | }); 175 | } 176 | executorService.shutdown(); 177 | } 178 | } 179 | ``` 180 | 181 | 由于同时获取3个许可,所以即使开启了100个线程,但是每秒只能执行一个任务 182 | 183 | 使用场景: 184 | 数据库连接并发数,如果超过并发数,等待(acqiure)或者抛出异常(tryAcquire) 185 | 186 | #### CyclicBarrier 187 | 可以让一组线程相互等待,当每个线程都准备好之后,所有线程才继续执行的工具类 188 | 189 | ![](../images/cyclicbarrier.png) 190 | 191 | 与CountDownLatch类似,都是通过计数器实现的,当某个线程调用await之后,计数器减1,当计数器大于0时将等待的线程包装成AQS的Node放入等待队列中,当计数器为0时将等待队列中的Node拿出来执行。 192 | 193 | 与CountDownLatch的区别: 194 | 1. CountDownLatch是一个线程等其他线程,CyclicBarrier是多个线程相互等待 195 | 2. CyclicBarrier的计数器能重复使用,调用多次 196 | 197 | 使用场景: 198 | 有四个游戏玩家玩游戏,游戏有三个关卡,每个关卡必须要所有玩家都到达后才能允许通过。其实这个场景里的玩家中如果有玩家A先到了关卡1,他必须等到其他所有玩家都到达关卡1时才能通过,也就是说线程之间需要相互等待。 199 | 200 | ### 编程题 201 | 交替打印奇偶数 202 | 203 | ```java 204 | public class PrintOddAndEvenShu { 205 | private int value = 0; 206 | 207 | private synchronized void printOdd() { 208 | while (value <= 100) { 209 | if (value % 2 == 1) { 210 | System.out.println(Thread.currentThread() + ": -" + value++); 211 | this.notify(); 212 | } else { 213 | try { 214 | this.wait(); 215 | } catch (InterruptedException e) { 216 | e.printStackTrace(); 217 | } 218 | } 219 | 220 | } 221 | 222 | } 223 | 224 | private synchronized void printEven() { 225 | while (value <= 100) { 226 | if (value % 2 == 0) { 227 | System.out.println(Thread.currentThread() + ": --" + value++); 228 | this.notify(); 229 | } else { 230 | try { 231 | this.wait(); 232 | } catch (InterruptedException e) { 233 | e.printStackTrace(); 234 | } 235 | } 236 | } 237 | } 238 | 239 | public static void main(String[] args) throws InterruptedException { 240 | PrintOddAndEvenShu print = new PrintOddAndEvenShu(); 241 | Thread t1 = new Thread(print::printOdd); 242 | Thread t2 = new Thread(print::printEven); 243 | t1.start(); 244 | t2.start(); 245 | t1.join(); 246 | t2.join(); 247 | } 248 | } 249 | ``` 250 | 251 | 252 | 多线程交替打印alibaba: https://blog.csdn.net/CX610602108/article/details/106427979 253 | 我自行实现的简单解法: 254 | ```java 255 | 256 | public class Test { 257 | private int currentI = 0; 258 | 259 | private synchronized void printSpace(int inputLength) { 260 | while (true) { 261 | if (currentI == inputLength) { 262 | currentI = 0; 263 | System.out.print(" "); 264 | this.notifyAll(); 265 | } else { 266 | try { 267 | this.wait(); 268 | } catch (InterruptedException e) { 269 | e.printStackTrace(); 270 | } 271 | } 272 | } 273 | } 274 | 275 | private synchronized void printLetter(int i, char c) { 276 | while (true) { 277 | if (i == currentI) { 278 | currentI++; 279 | System.out.print(c); 280 | this.notifyAll(); 281 | } else { 282 | try { 283 | this.wait(); 284 | } catch (InterruptedException e) { 285 | e.printStackTrace(); 286 | } 287 | } 288 | } 289 | } 290 | 291 | private synchronized void print(String input) throws Exception { 292 | Test test = new Test(); 293 | for (int i = 0; i < input.length(); i++) { 294 | char c = input.charAt(i); 295 | int finalI = i; 296 | Thread tt = new Thread(() -> test.printLetter(finalI, c)); 297 | tt.start(); 298 | } 299 | Thread space = new Thread(() -> test.printSpace(input.length())); 300 | space.start(); 301 | space.join(); 302 | } 303 | 304 | 305 | public static void main(String[] args) throws Exception { 306 | Test test = new Test(); 307 | test.print("alibaba"); 308 | } 309 | } 310 | 311 | ``` 312 | 313 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 314 | -------------------------------------------------------------------------------- /MD/数据库-MySQL.md: -------------------------------------------------------------------------------- 1 | 2 | ## MySQL 3 | ### 引擎对比 4 | 1. InnoDB支持事务 5 | 2. InnoDB支持外键 6 | 3. InnoDB有行级锁,MyISAM是表级锁 7 | 8 | MyISAM相对简单所以在效率上要优于InnoDB。如果系统插入和查询操作多,不需要事务外键。选择MyISAM 9 | 如果需要频繁的更新、删除操作,或者需要事务、外键、行级锁的时候。选择InnoDB。 10 | 11 | ### [数据库性能优化](https://www.zhihu.com/question/19719997) 12 | 1. 优化SQL语句和索引,在where/group by/order by中用到的字段建立索引,索引字段越小越好,复合索引建立的顺序 13 | 2. 加缓存,Memcached, Redis 14 | 3. 主从复制,读写分离 15 | 4. 垂直拆分,其实就是根据你模块的耦合度,将一个大的系统分为多个小的系统,也就是分布式系统 16 | 5. 水平切分,针对数据量大的表,这一步最麻烦,最能考验技术水平,要选择一个合理的sharding key,为了有好的查询效率,表结构也要改动,做一定的冗余,应用也要改,sql中尽量带sharding key,将数据定位到限定的表上去查,而不是扫描全部的表; 17 | 18 | ### [SQL优化](https://www.imooc.com/video/3711): 19 | 优化步骤: 20 | 21 | 1. 根据慢日志定位慢查询SQL 22 | 2. 用explain分析SQL(type和extra字段分析) 23 | 3. 修改SQL或加索引(如下) 24 | 25 | * 对经常查询的列建立索引,但索引建多了当数据改变时修改索引会增大开销 26 | * 使用精确列名查询而不是*,特别是当数据量大的时候 27 | * 减少[子查询](http://www.cnblogs.com/zhengyun_ustc/p/slowquery3.html),使用Join替代 28 | * 不用NOT IN,因为会使用全表扫描而不是索引;不用IS NULL,NOT IS NULL,因为会使索引、索引统计和值更加复杂,并且需要额外一个字节的存储空间。 29 | 30 | 问:max(xxx)如何用索引优化? 31 | 答:在xxx列上建立索引,因为索引是B+树顺序排列的,在下次查询的时候就会使用索引来查询到最大的值是哪个 32 | 33 | 问:有个表特别大,字段是姓名、年龄、班级,如果调用`select * from table where name = xxx and age = xxx`该如何通过建立索引的方式优化查询速度? 34 | 答:由于mysql查询每次只能使用一个索引,如果在name、age两列上创建联合索引的话将带来更高的效率。如果我们创建了(name, age)的联合索引,那么其实相当于创建了(name, age)、(name)2个索引。因此我们在创建复合索引时应该将最常用作限制条件的列放在最左边,依次递减。其次还要考虑该列的数据离散程度,如果有很多不同的值的话建议放在左边,name的离散程度也大于age。 35 | 36 | 问:优化大数据量的分页查询? 37 | 1. 索引优化:确保用于排序和筛选的字段已经建立了索引 38 | 2. 延迟关联:先获取主键,然后再根据主键获取完整的行数据。这样可以减少数据库在排序时需要处理的数据量。通过将 select * 转变为 select id,把符合条件的 id 筛选出来后,最后通过嵌套查询的方式按顺序取出 id 对应的行 39 | 3. 业务限制:查询页数上限 40 | 4. 使用其他数据结构如ES、分表 41 | 42 | ```sql 43 | -- 优化前 44 | select * 45 | from people 46 | order by create_time desc 47 | limit 5000000, 10; 48 | 49 | -- 优化后 50 | select a.* 51 | from people a 52 | inner join( 53 | select id 54 | from people 55 | order by create_time desc 56 | limit 5000000, 10 57 | ) b ON a.id = b.id; 58 | ``` 59 | 60 | #### 最左前缀匹配原则 61 | 定义:在检索数据时从联合索引的最左边开始匹配。一直向右匹配直到遇到范围查询(>/ 5 and d = 6,如果建立(a,b,c,d)索引,d是用不到索引的,如果建立(a,b,d,c)索引,则都可以用到,此外a,b,d的顺序可以任意调整 62 | 63 | 联合索引原理:联合索引是将第一个字段作为非叶子节点形成B+树结构的,在查询索引的时候先根据该字段一步步查询到具体的叶子节点,叶子节点上还会存在第二个字段甚至第三个字段的已排序结果。所以对于(a,b,c,d)这个联合索引会存在(a),(a,b),(a,b,c),(a,b,c,d)四个索引 64 | 65 | ## 事务隔离级别 66 | 1. 原子性(Atomicity):事务作为一个整体被执行 ,要么全部执行,要么全部不执行; 67 | 2. 一致性(Consistency):在事务开始之前和事务结束以后,数据库的完整性没有被破坏。这表示写入的资料必须完全符合所有的预设规则,这包含资料的精确度、串联性以及后续数据库可以自发性地完成预定的工作; 68 | 3. 隔离性(Isolation):多个事务并发执行时,一个事务的执行不应影响其他事务的执行,然后你可以扯到隔离级别; 69 | 4. 持久性(Durability):一个事务一旦提交,对数据库的修改应该永久保存。 70 | 71 | 不同事务隔离级别的问题: 72 | 1. 读未提交(Read Uncommitted):在这个级别下,一个事务可以读取到另一个事务尚未提交的数据变更,即脏读(Dirty Read)现象可能发生。这种隔离级别允许最大的并行处理能力,但并发事务间的数据一致性最弱。 73 | 2. 读已提交(Read Committed):在这种级别下,一个事务只能看到其他事务已经提交的数据,解决了脏读的问题。但是,在同一个事务内,前后两次相同的查询可能会返回不同的结果,这被称为不可重复读(Non-repeatable Read)。 74 | 3. 可重复读(Repeatable Read):这是MySQL InnoDB存储引擎默认的事务隔离级别。在这个级别下,事务在整个生命周期内可以看到第一次执行查询时的快照数据,即使其他事务在此期间提交了对这些数据的修改,也不会影响本事务内查询的结果,因此消除了不可重复读的问题。但是,它不能完全避免幻读(Phantom Read),即在同一事务内,前后两次相同的范围查询可能因为其他事务插入新的行而返回不同数量的结果。 75 | 76 | 为什么可重复读不能完全避免幻读: 77 | 1. 幻读的定义: 幻读是指在一个事务内,同一个查询语句多次执行时,由于其他事务提交了新的数据插入或删除操作,导致前后两次查询结果集不一致的情况。具体表现为:即使事务A在开始时已经获取了一个数据范围的快照,当它再次扫描这个范围时,发现出现了之前未读取到的新行,这些新行如同“幻影”一般突然出现。 78 | 2. 可重复读与幻读的关系: 在可重复读隔离级别下,对于已存在的记录,MVCC确保事务能够看到第一次查询时的数据状态,因此不会发生不可重复读。但是,当有新的行被插入到符合事务查询条件的范围内时,MVCC本身并不能阻止这种现象的发生,因为新插入的行对于当前事务是可见的(取决于插入事务的提交时间点和当前事务的Read View)。 79 | 3. 为了减轻幻读的影响,InnoDB在执行某些范围查询时会采用间隙锁(Gap Locks)或者Next-Key Locks来锁定索引区间,防止其他事务在这个范围内插入新的记录,但并非所有的范围查询都会自动加上这样的锁,而且这仅限于使用基于索引的操作,非索引字段的范围查询无法通过间隙锁完全避免幻读。 80 | 81 | ## 锁表、锁行 82 | 1. InnoDB 支持表锁和行锁,使用索引作为检索条件修改数据时采用行锁,否则采用表锁 83 | 2. InnoDB 自动给修改操作加锁,给查询操作不自动加锁 84 | 3. 行锁相对于表锁来说,优势在于高并发场景下表现更突出,毕竟锁的粒度小 85 | 4. 当表的大部分数据需要被修改,或者是多表复杂关联查询时,建议使用表锁优于行锁 86 | 87 | ### 悲观锁乐观锁、如何写对应的SQL 88 | 悲观锁:在悲观锁机制下,事务认为在它执行期间数据一定会被其他事务修改,因此在读取数据时就立即对其加锁,阻止其他事务对同一数据进行操作,直到当前事务结束并释放锁。SELECT ... FOR UPDATE或SELECT ... LOCK IN SHARE MODE 89 | 乐观锁:乐观锁并不在读取数据时立即加锁,而是在更新数据时检查自上次读取以来数据是否已被其他事务修改过。这通常通过在表中添加一个版本号字段或者时间戳字段来实现。 90 | 91 | ### 锁的种类 92 | 按功能分类: 93 | 1. 共享锁:Shared Locks,简称S锁。在事务要读取一条记录时,需要先获取该记录的S锁。 94 | 2. 独占锁:排他锁,英文名:Exclusive Locks,简称X锁。在事务要改动一条记录时,需要先获取该记录的X锁。 95 | 96 | 按粒度分类: 97 | 1. 表锁是对一整张表加锁,虽然可分为读锁和写锁,但毕竟是锁住整张表,会导致并发能力下降,一般是做ddl处理时使用。另外表级别还有AUTO-INC锁:在执行插入语句时就在表级别加一个AUTO-INC锁,然后为每条待插入记录的AUTO_INCREMENT修饰的列分配递增的值,在该语句执行结束后,再把AUTO-INC锁释放掉。这样一个事务在持有AUTO-INC锁的过程中,其他事务的插入语句都要被阻塞,可以保证一个语句中分配的递增值是连续的 98 | 2. 行锁,也称为记录锁,顾名思义就是在记录上加的锁。锁住数据行,这种加锁方法比较复杂,但是由于只锁住有限的数据,对于其它数据不加限制,所以并发能力强,MySQL一般都是用行锁来处理并发事务。下面是行锁的类型: 99 | - Record Locks:记录锁,当一个事务获取了一条记录的S型记录锁后,其他事务也可以继续获取该记录的S型记录锁,但不可以继续获取X型记录锁;当一个事务获取了一条记录的X型记录锁后,其他事务既不可以继续获取该记录的S型记录锁,也不可以继续获取X型记录锁; 100 | - Gap Locks:是为了防止插入幻影记录而提出的,不允许其他事务往这条记录前面的间隙插入新记录。在REPEATABLE READ隔离级别下是可以解决幻读问题的,解决方案有两种,可以使用MVCC方案解决,也可以采用加锁方案解决,但是在使用加锁方案解决时有个大问题,就是事务在第一次执行读取操作时,那些幻影记录尚不存在,我们无法给这些幻影记录加上记录锁 101 | - Next-Key Locks:记录锁和一个gap锁的合体。锁住某条记录,又想阻止其他事务在该记录前面的间隙插入新记录 102 | - Insert Intention Locks:插入意向锁。一个事务在插入一条记录时需要判断一下插入位置是不是被别的事务加了所谓的gap锁,如果有的话,插入操作需要等待,直到拥有gap锁的那个事务提交 103 | - 隐式锁:当事务需要加锁的时,如果这个锁不可能发生冲突,InnoDB会跳过加锁环节,这种机制称为隐式锁。隐式锁是InnoDB实现的一种延迟加锁机制,其特点是只有在可能发生冲突时才加锁,从而减少了锁的数量,提高了系统整体性能 104 | 105 | ### MVCC 106 | MVCC(Multi-Version Concurrency Control,多版本并发控制)是一种用于数据库管理系统中的事务处理机制,它在不使用加锁或者只对数据进行有限锁定的情况下,为并发事务提供了一种相对无冲突的访问方式。MVCC有效地避免了脏读、不可重复读等问题,并极大地提高了数据库系统的并发性能 107 | 108 | 原理: 109 | 1. 隐式字段:每行记录除了实际的数据列外,还包含额外的系统信息,例如DB_TRX_ID(最近修改该行事务ID)、DB_ROLL_PTR(回滚指针指向undo日志),以及DB_ROW_ID(行ID)等。这些隐藏字段用于跟踪数据的不同版本。 110 | 2. 事务版本号:每个事务都有一个唯一的事务ID,在事务开始时分配。这个ID用来区分不同事务的操作时间点。 111 | 3. Undo日志:当事务对某一行进行修改时,旧版本的数据会被存放在Undo日志中,形成历史版本链。这样当其他事务需要读取旧版本数据时,可以从Undo日志中获取。 112 | 4. Read View:MVCC通过Read View来决定事务可见的行版本。每个读操作都会创建或复用一个Read View,根据Read View的规则判断当前事务能否看到某个版本的数据:如果被读取行的事务ID小于Read View的最低事务ID,则可见;如果大于等于Read View的最高事务ID且未提交,则不可见;否则,检查该行是否在Read View创建之后被其他已提交事务修改过。 113 | 5. 非锁定读:在MVCC中,存在两种类型的读操作:快照读(Snapshot Read)和当前读(Current Read)。快照读就是基于MVCC实现的,它不会阻塞其他事务,并总是返回某一特定时间点的数据视图。而当前读则会获取最新的数据并加锁以确保一致性。 114 | 115 | 116 | ### 索引 117 | #### 原理 118 | 聚集索引:数据行的物理顺序与列值(一般是主键的那一列)的逻辑顺序相同,所以一个表中只能拥有一个聚集索引。叶子结点即存储了真实的数据行,不再有另外单独的数据页 119 | 非聚集索引:该索引中索引的逻辑顺序与磁盘上行的物理存储顺序不同,所以一个表中可以拥有多个非聚集索引。叶子结点包含索引字段值及指向数据页数据行的逻辑指针 120 | 121 | #### 索引原理 122 | 为什么使用B+树来构建索引? 123 | 1. b+树的中间节点不保存数据,所以磁盘页能容纳更多节点元素; 124 | 2. b+树查询必须查找到叶子节点,b树只要匹配到即可不用管元素位置,因此b+树查找更稳定 125 | 3. 对于范围查找来说,b+树只需遍历叶子节点链表即可,b树却需要重复地中序遍历 126 | 4. 红黑树最多只有两个子节点,所以高度会非常高,导致遍历查询的次数会多 127 | 5. 红黑树在数组中存储的方式,导致逻辑上很近的父节点与子节点可能在物理上很远,导致无法使用磁盘预读的局部性原理,需要很多次IO才能找到磁盘上的数据。B+树一个节点中可以存储很多个索引的key,且将大小设置为一个页,一次磁盘IO就能读取很多个key 128 | 6. 叶子节点之间还加上了下个叶子节点的指针,遍历索引也会很快。 129 | 130 | B+树的高度如何计算? 131 | 1. 假设B+树的高度为2的话,即有一个根结点和若干个叶子结点。这棵B+树的存放总记录数为=根结点指针数 * 单个叶子节点记录行数 132 | 2. 假设一行记录的数据大小为1k,那么单个叶子节点可以存的记录数 =16k/1k =16. 133 | 3. 非叶子节点内存放多少指针呢?我们假设主键ID为bigint类型,长度为8字节(int类型的话,一个int就是32位,4字节),而指针大小是固定的在InnoDB源码中设置为6字节,假设n指主键个数即key的个数,n*8 + (n + 1) * 6 = 16K=16*1024B , 算出n约为 1170,意味着根节点会有1170个key与1171个指针 134 | 4. 一棵高度为2的B+树,能存放1171* 16 = 18736条这样的数据记录。同理一棵高度为3的B+树,能存放1171 * 1171 * 16 = 21939856,也就是说,可以存放两千万左右的记录。B+树高度一般为1-3层,已经满足千万级别的数据存储。 135 | 136 | #### 优化 137 | 如何选择合适的列建立索引? 138 | 139 | 1. WHERE / GROUP BY / ORDER BY / ON 的列 140 | 2. 离散度大(不同的数据多)的列使用索引才有查询效率提升 141 | 3. 索引字段越小越好,因为数据库按页存储的,如果每次查询IO读取的页越少查询效率越高 142 | 143 | ### count1/count*/count字段 的区别 144 | 145 | 1. count(*)包括了所有的列,相当于行数,在统计结果的时候,不会忽略列值为NULL 146 | 2. count(1)包括了忽略所有列,用1代表代码行,在统计结果的时候,不会忽略列值为NULL 147 | 3. count(列名)只包括列名那一列,在统计结果的时候,会忽略列值为空(这里的空不是只空字符串或者0,而是表示null)的计数,即某个字段值为NULL时,不统计。 148 | 149 | count(\*),自动会优化指定到那一个字段。所以没必要去count(1),用count(\*),sql会帮你完成优化的 因此:count(1)和count(\*)基本没有差别! 150 | 151 | ### explain详解 152 | 1. id:select 查询序列号。id相同,执行顺序由上至下;id不同,id值越大优先级越高,越先被执行。 153 | 2. select_type:查询数据的操作类型,其值如下: 154 | - simple:简单查询,不包含子查询或 union 155 | - primary:包含复杂的子查询,最外层查询标记为该值 156 | - subquery:在 select 或 where 包含子查询,被标记为该值 157 | - derived:在 from 列表中包含的子查询被标记为该值,MySQL 会递归执行这些子查询,把结果放在临时表 158 | - union:若第二个 select 出现在 union 之后,则被标记为该值。若 union 包含在 from 的子查询中,外层 select 被标记为 derived 159 | - union result:从 union 表获取结果的 select 160 | 3. table:显示该行数据是关于哪张表 161 | 4. partitions:匹配的分区 162 | 5. type:表的连接类型,其值,性能由高到底排列如下: 163 | - system:表只有一行记录,相当于系统表 164 | - const:通过索引一次就找到,只匹配一行数据 165 | - eq_ref:唯一性索引扫描,对于每个索引键,表中只有一条记录与之匹配。常用于主键或唯一索引扫描 166 | - ref:非唯一性索引扫描,返回匹配某个单独值的所有行。用于=、< 或 > 操作符带索引的列 167 | - range:只检索给定范围的行,使用一个索引来选择行。一般使用between、>、<情况 168 | - index:只遍历索引树 169 | - ALL:全表扫描,性能最差 170 | 注:前5种情况都是理想情况的索引使用情况。通常优化至少到range级别,最好能优化到 ref 171 | 6. possible_keys:显示 MySQL 理论上使用的索引,查询涉及到的字段上若存在索引,则该索引将被列出,但不一定被查询实际使用。如果该值为 NULL,说明没有使用索引,可以建立索引提高性能 172 | 7. key:显示 MySQL 实际使用的索引。如果为 NULL,则没有使用索引查询 173 | 8. key_len:表示索引中使用的字节数,通过该列计算查询中使用的索引的长度。在不损失精确性的情况下,长度越短越好 显示的是索引字段的最大长度,并非实际使用长度 174 | 9. ref:显示该表的索引字段关联了哪张表的哪个字段 175 | 10. rows:根据表统计信息及选用情况,大致估算出找到所需的记录或所需读取的行数,数值越小越好 176 | 11. filtered:返回结果的行数占读取行数的百分比,值越大越好 177 | 12. extra:包含不合适在其他列中显示但十分重要的额外信息,常见的值如下: 178 | - using filesort:说明 MySQL 会对数据使用一个外部的索引排序,而不是按照表内的索引顺序进行读取。出现该值,应该优化 SQL 179 | - using temporary:使用了临时表保存中间结果,MySQL 在对查询结果排序时使用临时表。常见于排序 order by 和分组查询 group by。出现该值,应该优化 SQL 180 | - using index:表示相应的 select 操作使用了覆盖索引,避免了访问表的数据行,效率不错 181 | - using where:where 子句用于限制哪一行 182 | - using join buffer:使用连接缓存 183 | - distinct:发现第一个匹配后,停止为当前的行组合搜索更多的行 184 | 185 | ## 分区分库分表 186 | 分区:把一张表的数据分成N个区块,在逻辑上看最终只是一张表,但底层是由N个物理区块组成的,通过将不同数据按一定规则放到不同的区块中提升表的查询效率。 187 | 188 | 水平分表:为了解决单标数据量过大(数据量达到千万级别)问题。所以将固定的ID hash之后mod,取若0~N个值,然后将数据划分到不同表中,需要在写入与查询的时候进行ID的路由与统计 189 | 190 | 垂直分表:为了解决表的宽度问题,同时还能分别优化每张单表的处理能力。所以将表结构根据数据的活跃度拆分成多个表,把不常用的字段单独放到一个表、把大字段单独放到一个表、把经常使用的字段放到一个表 191 | 192 | 分库:面对高并发的读写访问,当数据库无法承载写操作压力时,不管如何扩展slave服务器,此时都没有意义了。因此数据库进行拆分,从而提高数据库写入能力,这就是分库。 193 | 194 | 问题: 195 | 196 | 1. 事务问题。在执行分库之后,由于数据存储到了不同的库上,数据库事务管理出现了困难。如果依赖数据库本身的分布式事务管理功能去执行事务,将付出高昂的性能代价;如果由应用程序去协助控制,形成程序逻辑上的事务,又会造成编程方面的负担。 197 | 2. 跨库跨表的join问题。在执行了分库分表之后,难以避免会将原本逻辑关联性很强的数据划分到不同的表、不同的库上,我们无法join位于不同分库的表,也无法join分表粒度不同的表,结果原本一次查询能够完成的业务,可能需要多次查询才能完成。 198 | 3. 额外的数据管理负担和数据运算压力。额外的数据管理负担,最显而易见的就是数据的定位问题和数据的增删改查的重复执行问题,这些都可以通过应用程序解决,但必然引起额外的逻辑运算。 199 | 200 | 201 | ## MySQL数据库主从延迟同步方案 202 | 什么事主从延迟:为了完成主从复制,从库需要通过 I/O 线程获取主库中 dump 线程读取的 binlog 内容并写入到自己的中继日志 relay log 中,从库的 SQL 线程再读取中继日志,重做中继日志中的日志,相当于再执行一遍 SQL,更新自己的数据库,以达到数据的一致性。主从延迟,就是同一个事务,从库执行完成的时间与主库执行完成的时间之差 203 | 204 | 1. 「异步复制」:MySQL 默认的复制即是异步的,主库在执行完客户端提交的事务后会立即将结果返给客户端,并不关心从库是否已经接收并处理。这样就会有一个问题,一旦主库宕机,此时主库上已经提交的事务可能因为网络原因并没有传到从库上,如果此时执行故障转移,强行将从提升为主,可能导致新主上的数据不完整。 205 | 2. 「全同步复制」:指当主库执行完一个事务,并且所有的从库都执行了该事务,主库才提交事务并返回结果给客户端。因为需要等待所有从库执行完该事务才能返回,所以全同步复制的性能必然会收到严重的影响。 206 | 3. 「半同步复制」:是介于全同步复制与全异步复制之间的一种,主库只需要等待至少一个从库接收到并写到 Relay Log 文件即可,主库不需要等待所有从库给主库返回 ACK。主库收到这个 ACK 以后,才能给客户端返回 “事务完成” 的确认。这样会出现一个问题,就是实际上主库已经将该事务 commit 到了存储引擎层,应用已经可以看到数据发生了变化,只是在等待返回而已。如果此时主库宕机,可能从库还没写入 Relay Log,就会发生主从库数据不一致。为了解决上述问题,MySQL 5.7 引入了增强半同步复制。针对上面这个图,“Waiting Slave dump” 被调整到了 “Storage Commit” 之前,即主库写数据到 binlog 后,就开始等待从库的应答 ACK,直到至少一个从库写入 Relay Log 后,并将数据落盘,然后返回给主库 ACK,通知主库可以执行 commit 操作,然后主库再将事务提交到事务引擎层,应用此时才可以看到数据发生了变化。 207 | 4. 一主多从:如果从库承担了大量查询请求,那么从库上的查询操作将耗费大量的 CPU 资源,从而影响了同步速度,造成主从延迟。那么我们可以多接几个从库,让这些从库来共同分担读的压力。 208 | 5. 强制走主库:如果某些操作对数据的实时性要求比较苛刻,需要反映实时最新的数据,比如说涉及金钱的金融类系统、在线实时系统、又或者是写入之后马上又读的业务,这时我们就得放弃读写分离,让此类的读请求也走主库,这就不存延迟问题了。 209 | 6. 并行复制:MySQL在5.6版本中使用并行复制来解决主从延迟问题。所谓并行复制,指的就是从库开启多个SQL线程,并行读取relay log中不同库的日志,然后并行重放不同库的日志,这是库级别的并行。MySQL 5.7对并行复制做了进一步改进,开始支持真正的并行复制功能。MySQL5.7的并行复制是基于组提交的并行复制,官方称为enhanced multi-threaded slave(简称MTS),延迟问题已经得到了极大的改善。其核心思想是:一个组提交的事务都是可以并行回放(配合binary log group commit);slave机器的relay log中 last_committed相同的事务(sequence_num不同)可以并发执行。 210 | 211 | 强制走主库之后,如何在处理大数据量的时候保证实时写查: 212 | 1. 表结构与索引优化:确保表结构设计合理,尽量避免数据冗余和更新异常。根据查询条件创建合适的索引,特别是对于高频查询字段,可以显著提高读取速度。 213 | 2. 分区表(Partitioning):对于非常大的表,可以考虑使用分区表功能,将大表物理分割成多个小表,根据时间、范围或其他业务逻辑进行划分,这样不仅能提高查询效率,还可以通过并行处理提高写入速度。 214 | 3. 分库分表:当单表数据量过大时,采用水平拆分或垂直拆分策略将数据分布到多个数据库或表中,进一步提升读写性能。 215 | 4. 查询优化:避免全表扫描,尽可能使用覆盖索引。编写高效的SQL语句,减少不必要的计算和排序操作。 216 | 5. 缓存机制:在数据库层面,可以考虑使用内存表或者缓存技术(如Redis)来临时存储最近写入的数据,以便快速响应实时查询请求。 217 | 6. 实时分析型数据库:对于大数据量且实时性要求极高的场景,可以考虑引入实时分析型数据库系统,例如ClickHouse、Druid等,它们设计之初就为实时写入和查询提供了高效的支持。 218 | 219 | 欢迎光临[我的博客](http://www.wangtianyi.top/?utm_source=github&utm_medium=github),发现更多技术资源~ 220 | --------------------------------------------------------------------------------