精华内容
下载资源
问答
  • java高并发解决方案
    千次阅读
    2021-09-01 16:04:29

    知识点
    线程安全,线程封闭,线程调度,同步容器,并发容器,AQS,J.U.C,等等

    高并发解决思路与手段
    扩容:水平扩容、垂直扩容

    缓存:Redis、Memcache、GuavaCache等

    队列:Kafka、RabitMQ、RocketMQ等

    应用拆分:服务化Dubbo与微服务Spring Cloud

    限流:Guava RateLimiter使用、常用限流算法、自己实现分布式限流等

    服务降级与服务熔断:服务降级的多重选择、Hystrix

    数据库切库,分库分表:切库、分表、多数据源

    高可用的一些手段:任务调度分布式elastic-job、主备curator的实现、监控报警机制

    基础知识与核心知识准备
    并发高并发相关概念

    cpu多级缓存:缓存一致,乱序执行优化

    java内存模型:JMM规定,抽象结构,同步操作与规则

    并发优势与风险

    并发模拟:Postman,Jmeter,Apache Bench,代码

    并发基本概念
    同时拥有两个或多个线程,如果程序在单核处理器上运行,多个线程将交替的换入或者换出内存,这些线程是同时“存在”的,每个线程都处于执行过程中的某个状态,如果运行在多核处理器上,此时,程序中的每个线程都将分配到一个处理器核上,因此可以同时运行。

    高并发基本概念
    高并发(High Concurrency)是互联网分布式系统架构设计中必须考虑的因素之一,它通常是指,通过设计保证系统能够同时并行处理很多请求。

    并发:多个线程操作相同的资源,保证线程安全,合理使用资源

    高并发:服务能同时处理很多请求,提高程序性能(更多的考虑技术手段)

    知识技能
    总体架构:Spring Boot、Maven、JDK8、MySQL

    基础组件:Mybatis、Guava、Lombok、Redis、Kafka

    高级组件:Joda-Time、Atomic包、J.U.C、AQS、ThreadLocal、RateLimiter、Hystrix、ThreadPool、Shardbatis、curator、elastic-job等

    基础知识
    cpu多级缓存
    主存和cpu通过主线连接,CPU缓存在主存和CPU之间,缓存的出现可以减少CPU读取共享主存的次数

    为什么需要CPU cache:CPU的频率太快了,快到主存跟不上,这样在处理器时钟周期内,CPU常常需要等待主存,浪费资源。所以cache的出现,是为了缓解CPU和内存之间速度不匹配问题(结构:cpu -> cache -> memery).

    CPU cache有什么意义:

    1)时间局部性:如果某个数据被访问,name在不久的将来它很可能被再次访问。

    2)空间局部性:如果某个数据被访问,那么与它相邻的数据很快也可能被访问

    CPU多级缓存-缓存一致性(MESI)
    MESI分别代表cache数据的四种状态,这四种状态可以相互转换

    缓存四种操作:local read、local write、remote read、remote write

    CPU多级缓存-乱序执行优化
    在多核处理器上回出现问题

    java内存模型(java memory model,JMM)
    java内存模型-同步八种操作
    lock(锁定):作用于主内存的变量,把一个变量标识为一条线程独占状态

    unlock(解锁):作用于主内存变脸个,把一个处于锁定状态的变量释放出来,释放后的变量才可以被其他线程锁定

    read(读取):作用于主内存变量,把一个变量值从主内存传输到线程的工作内存中,以便随后的load动作使用

    load(载入):作用于工作内存的变量,它把read操作从主内存中得到的变量值放入工作内存的变量副本中

    use(使用):作用于工作内存的变量,把工作内存中的一个变量值传递给执行引擎

    assign(赋值):作用于工作内存的变量,它把一个从执行引擎接收到的值赋值给工作内存的变量

    store(存储):作用于工作内存的变量,把工作内存中的一个变量的值传送到主内存中,以遍随后的write的操作

    write(写入):作用于主内存的变量,它把store操作从工作内存中的一个变量的值传送到主内存的变量中

    java内存模型-同步规则
    如果要把一个变量从主内存中复制到工作内存,就需要按顺序的执行read和load操作,如果把变量从工作内存中同步回主内存,就需要按顺序的执行store和write操作。但java内存模型只要求上述操作必须按顺序执行,而没有保证必须是连续执行
    不允许read和load、store和write操作之一单独出现
    不允许一个线程丢弃它的最近assign的操作,即变量在工作内存中改变了之后必须同步到主内存中
    不允许一个线程无原因的(没发生过任何assign操作)把数据从工作内存同步回主内存中
    一个新的变量只能在主内存中诞生,不允许在工作内存中直接使用一个未被初始化(load或assign)的变量。即就是对一个变量实施use和store操作之前,必须先执行过了assign和load操作
    一个变量在同一时刻只允许一条线程对其进行lock操作,但lock操作可以被同一条线程重复执行多次,多次执行lock后,只有执行相同次数的unlock操作,变量才会被解锁。lock和unlock必须成对出现
    如果对一个变量执行lock操作,将会清空工作内存中此变量的值,在执行引擎使用这个变量之前需要重新执行load或assign操作初始化变量的值
    如果一个变量实现没有被lock操作锁定,怎不允许对它执行unlock操作,也不允许去unlock一个被其他线程锁定的变量
    对一个变量执行unlock操作之前,必须先把此变量同步到主内存中(执行store和write操作)
    并发的优势与风险
    优势
    速度:同时处理多个请求,响应更快;复杂的操作可以分成多个进程同时进行

    设计:程序设计在某些情况下更简单,也可以更多的选择

    资源利用:CPU能够在等待IO的时候做一些其他的事情

    风险
    安全性:多个线程共享数据时可能会产生于期望不相符的结果

    活跃性:某个操作无法继续进行下去时,就会发生活跃性问题。比如死锁、饥饿等问题

    性能:线程过多时会使得CPU频繁切换,调度时间增多;同步机制;消耗过多内存

    线程安全性
    定义:当多个线程访问某个类时,不管运行时环境采用何种调度方式或者这些线程将如何交替执行,并且在主调代码中不需要任何额外的同步或协同,这个类都能表现出正确的行为,那么就称这个类时线程安全的。

    线程安全体现在以下三个方面

    原子性:提供了互斥访问,同一时刻只能有一个线程来对他进行操作

    可见性:一个线程对主内存的修改可以及时的被其他线程观察到

    有序性:一个线程观察其他线程中的指令执行顺序,由于指令重排序的存在,该观察结果一般杂乱无序

    原子性——Atomic包
    AtomicXxxx:CAS、Unsafe.compareAndSwapInt

    AtomicXxxx类中方法incrementAndGet(),incrementAndGet方法中调用unsafe.getAndAddInt(),getAndAddInt方法中主题是do-while语句,while语句中调用compareAndSwapInt(var1, var2, var5, var5 + var4)

    compareAndSwapInt方法就是CAS核心:

    在死循环内,不断尝试修改目标值,直到修改成功,如果竞争不激烈,修改成功率很高,否则失败概率很高,性能会受到影响

    jdk8中新增LongAdder,它和AtomicLong比较

    优点:性能好,在处理高并发情况下统计优先使用LongAdder

    AtomicReference、AtomicReferenceFieldUpdater原子性更新字段(字段要求volatile修饰,并且是非static)

    AtomicStampReference:CAS的ABA问题

    ABA问题:变量已经被修改了,但是最终的值和原来的一样,那么如何区分是否被修改过呢,用版本号解决

    AtomicBoolean可以让某些代码只执行一次

    原子性——锁
    synchronized:依赖jvm,作用对象的作用范围内

    修饰代码块:同步代码块,大括号括起来的代码,作用于调用的对象

    修饰方法:同步方法,整个方法,作用于调用的对象

    修饰静态方法:整个静态方法,作用于所有对象

    修饰类:括号括起来的部分,作用于所有对象

    Lock:依赖特殊CPU指令,代码实现,ReentrantLock

    原子性——对比
    synchronized:不可中断锁,适合竞争不激烈,可读性好

    Lock:可中断锁,多样化同步,竞争激烈时能维持常态

    Atomic:竞争激烈时能维持常态,比Lock性能好,只能同步一个值

    可见性
    导致共享变量在线程间不可见的原因:

    1 线程交叉执行

    2 重排序结合线程交叉执行

    3 共享变量更新后的值没有在工作内存与主内存间及时更新

    可见性——synchronized
    JMM关于synchronized的两条规定:

    线程解锁前,必须把共享变量的最新值刷新到主内存

    线程加锁时,将清空工作内存中共享变量的值,从而使用共享变量时需要从主内存中重新读取最新的值(注意,加锁和解锁是同一把锁)

    可见性——volatile
    通过加入内存屏障和禁止重排序优化来实现

    1 对volatile变量写操作时,会在写操作后加入一条store屏障指令,将本地内存中的共享变量值刷新到主内存

    2 随volatile变量度操作时,会在读操作前加入一条load屏障指令,从主内存中读取共享变量

    使用volatile修饰变量,无法保证线程安全

    volatile适合修饰状态标识量

    有序性
    java内存模型中,允许编译器和处理器对指令进行重排序,但是重排序过程不会影响到单线程程序的执行,却会影响到多线程并发执行的正确性

    有序性——happens-before原则
    1 程序次序规则:一个线程内,按照代码顺序,书写在前面的操作先行发生于书写在后面的操作

    注:在单线程中,看起来是这样的,虚拟机可能会对代码进行指令重排序,虽然重排序了,但是运行结果在单线程中和指令书写顺序是一致的,事实上,这条规则是用来保证程序单在单线程中执行结果的正确性,无法保证程序在多线程中的正确性

    2 锁定规则:一个unlock操作先行发生于后面对同一个锁的lock操作

    3 volatile变量规则:对一个变量的写操作先行发生于后面对这个变量的读操作

    4 传递规则:如果操作A先行发生于操作B,而操作B又先行发生于操作C,则可以得出操作A先行发生于操作C

    前四条规则比较重要

    5 线程启动规则:Thread对象的start()方法先行发生于次线程的每一个动作

    6 线程中断规则:对线程interrupt()方法的调用先行发生于被中断线程的代码监测到中断事件的发生

    7 线程终结规则:线程中所有的操作都先行发生于线程的终止检测,我们可以通过Thread.join()方法结束、Thread.isAlive()的返回值手段检测到线程已经终止执行

    8 对象终结规则:一个对象的初始化完成先行发生于他的finalize()方法的开始

    线程安全性——总结
    原子性:Atomic包、CAS算法、synchronized、Lock

    可见性:synchronized、volatile

    有序性:happens-before规则

    一个线程观察其他线程指令执行顺序,由于重排序的存在,观察结果一般是无序的,如果两个操作执行顺序无法从happens-before原则推导出来,name他们就不能保证有序性,虚拟机可以随意的对他们重排序

    发布对象
    发布对象:使一个对象能够被当前范围之外的代码所使用

    对象逸出:一种错误的发布。当一个对象还没有构造完成时,就使它被其他线程所见

    安全发布对象四种方法
    1 在静态初始化函数中初始化一个对象引用

    2 将对象的引用保存到volatile类型域或者AtomicReference对象中

    3 将对象的引用保存到某个正确构造对象的final类型域中

    4 将对象的引用保存到一个由锁保护的域中

    私有构造函数,单例对象,静态工厂方法获取对象

    以单例模式为例

    懒汉模式:单例实例在第一次使用时进行创建(线程不安全)

    懒汉模式也可以实现线程安全,给getInstance方法添加synchronized关键字(不推荐,因为性能不好)

    双重同步锁单例模式:双重监测机制,在方法内部加synchronized关键字(不是线程安全的)

    原因是,创建对象是,分为以下三个步骤:

    1) memory = allocate() 分配对象的内存空间

    2)ctorInstance() 初始化对象

    3)instance = memory() 设置instance指向刚分配的内存

    由于JVM和cpu优化,可能会发生指令重排:

    1) memory = allocate() 分配对象的内存空间

    3) instance = memory() 设置instance指向刚分配的内存

    2) ctorInstance() 初始化对象

    当以上面这种指令执行时,线程A执行到3 instance = memory() 设置instance指向刚分配的内存 这一步时,线程B执行if(instance == null)这段代码,此时instance != null,线程B直接return instance,导致对象没有初始化完毕就返回

    解决办法就是限制对象创建时进行指令重排,volatile+双重监测机制->禁止指令重排引起非线程安全

    饿汉模式:单例实例在类装载时进行创建(线程安全)

    枚举模式:线程安全

    不可变对象
    不可变对象需要满足的条件:

    对象创建以后其状态就不能修改

    对象所有域都是final类型

    对象是正确创建的(在对象创建期间,this引用没有逸出)

    参考String类型

    final关键字定义不可变对象
    修饰类、方法、变量

    修饰类:不能被继承

    修饰方法:1.锁定方法不被继承类修改 2.效率

    修饰变量:基本数据类型,数值不可变;引用类型变量,不能再指向另外一个对象,因此容易引起线程安全问题

    其他实现不可变对象

    Collections.unmodifiableXXX:Collection、List、Set、Map(线程安全)

    Guava:ImmutableXXX:Collection、List、Set、Map

    线程封闭性
    线程封闭概念:把对象封装到一个线程里,只有这个线程可以看到该对象,那么就算该对象不是线程安全的,也不会出现任何线程安全方面的问题。实现线程封闭的方法:

    1 Ad-hoc线程封闭:程序控制实现,最糟糕,忽略

    2 堆栈封闭:局部变量,无并发问题

    3 threadLocal是线程安全的,做到了线程封闭

    ThreadLocal内部维护了一个map,map的key是每个线程的名称,map的值是要封闭的对象,每一个线程中的对象都对应者一个map中的值

    线程封闭的应用场景:

    数据库连接jdbc的Connection对象

    线程不安全类与写法
    字符串

    StringBuilder:线程不安全

    StringBuffer:线程安全

    时间转换

    SimpleDateFormat:线程不安全

    JodaTime:线程安全

    集合

    ArrayList:线程不安全

    HashSet:线程不安全

    HashMap:线程不安全

    编程注意:

    if(condition(a)){handle(a)}; 不是线程安全的,因为这条判断语句不是原子性的,如果有线程共享这条代码,则会出现并发问题,解决方案是想办法这这段代码是原子性的(加锁)

    线程安全——同步容器(在多线程环境下不推荐使用)
    ArrayList -> Vector, Stack

    Vector中的方法使用synchronized修饰过

    Stack继承Vector

    HashMap -> HashTable(key、value不能为null)

    HashTable使用synchronized修饰方法

    Collections.synchronizedXXX(List、Set、Map)

    同步容器不完全是线程安全的

    编程注意:如果使用foreach或者iterator遍历集合时,尽量不要对集合进行修改操作

    线程安全——并发容器J.U.C(java.util.concurrent)(在多线程环境下推荐使用)
    ArrayList -> CopyOnWriteArrayList:相比ArrayList,CopyOnWriteArrayList是线程安全的,写操作时复制,即当有新元素添加到CopyOnWriteArrayList时,先从原有的数组里拷贝一份出来,然后在新的数组上写操作,写完之后再将原来的数组指向新的数组,CopyOnWriteArrayList整个操作都是在锁(ReentrantLock锁)的保护下进行的,这么做主要是避免在多线程并发做add操作时复制出多个副本出来,把数据搞乱了。第一个缺点是做写操作时,需要拷贝数组,就会消耗内存,如果元素内容比较多会导致youngGC或者是fullGc;第二个缺点是不能用于实时读的场景,比如拷贝数组、新增元素都需要时间,所以调用一个set操作后,读取到的数据可能还是旧的,虽然CopyOnWriteArrayList能够做到最终的一致性,但是没法满足实时性要求,因此CopyOnWriteArrayList更适合读多写少的场景

    CopyOnWriteArrayList设计思想:1读写分离 2最终一致性 3使用时另外开辟空间解决并发冲突

    HashSet -> CopyOnWriteArraySet

    TreeSet -> ConcurrentSkipListSet

    CopyOnWriteArraySet:底层实现是CopyOnWriteArrayList

    ConcurrentSkipListSet:和TreeSet 一样支持自然排序,基于map集合,但是批量操作不是线程安全的

    HashMap -> ConcurrentHashMap :不允许空值,针对读操作做了大量的优化,具有特别高的并发性

    TreeMap -> ConcurrentSkipListMap :内部使用SkipList跳表结构实现的,key是有序的,支持更高的并发

    安全共享对象策略——总结
    1 线程限制:一个呗线程限制的对象,由线程独占,并且只能被占有它的线程修改

    2 共享只读:一个共享只读的对象,在没有额外的同步情况下,可以被多个线程并发访问,但是任何线程都不能修改它

    3 线程安全对象:一个线程安全的对象或容器,在内部通过同步机制来保证线程安全,所以其他线程无序额外的同步就可以通过公共接口随意访问它

    4 被守护对象:被守护对象只能通过获取特定的锁来访问

    不可变对象、线程封闭、同步容器、并发容器

    J.U.C之AQS
    AQS:AbstractQueuedSynchronizer

    1 使用Node实现FIFO队列,可以用于构建锁或者其他同步装置的基础框架

    2 利用了int类型表示状态

    3 使用方法是继承

    4 子类通过继承并通过实现它的方法管理器状态{acquire和release}的方法操纵状态

    5 可以同时实现排它锁和共享锁模式(独占、共享)

    AQS同步组件
    1 CountDownLatch:闭锁,通过计数来保证线程是否需要一直阻塞

    2 Semaphore:控制同一时间并发线程的数目

    3 CyclicBarrier:和CountDownLatch相似,都能阻阻塞线程

    4 ReentrantLock

    5 Condition

    6 FutureTask

    CountDownLatch
    CountDownLatch是一个同步辅助类,应用场景:并行运算,所有线程执行完毕才可执行

    代码示例1:

    代码示例2:

    await方法可以设定指定等待时间,超过这个时间久不再等待

    Semaphore
    Semaphore可以很容易控制某个资源可悲同时访问的线程个数,和CountDownLatch使用有些类似,提供acquire和release两个方法,acquire是获取一个许可,如果没有就等待,release是在操作完成后释放许可出来。Semaphore维护了当前访问的线程的个数,提供同步机制来控制同时访问的个数,Semaphore可以实现有限大小的链表,重入锁(如ReentrantLock)也可以实现这个功能,但是实现上比较复杂。

    Semaphore使用场景:适用于仅能提供有限资源,如数据库连接数

    代码示例1:

    代码示例2:

    CyclicBarrier

    与CountDownLatch相似,都是通过计数器实现,当某个线程调用await方法,该线程就进入等待状态,且计数器进行加1操作,当计数器的值达到设置的初始值,进入await等待的线程会被唤醒,继续执行他们后续的操作。由于CyclicBarrier在释放等待线程后可以重用,所以又称循环屏障。使用场景和CountDownLatch相似,可用于并发运算。

    CyclicBarrier和CountDownLatch区别:

    1 CountDownLatch计数器只能使用一次,CyclicBarrier的计数器可以使用reset方法重置循环使用

    2 CountDownLatch主要是视线1个或n个线程需要等待其他线程完成某项操作才能继续往下执行,CyclicBarrier主要是实现多个线程之间相互等待知道所有线程都满足了条件之后才能继续执行后续的操作,CyclicBarrier能处理更复杂的场景

    代码示例:

    ReentrantLock
    reentrantLock(可重入锁)和synchronized区别

    1 可重入性:同一线程可以重入获得相同的锁,计数器加1,释放锁计数器减1

    synchronized也是可重入锁

    2 锁的实现:synchronized依赖jvm实现(操作系统级别的实现),reentrantLock是jdk实现的(用户自己编程实现)

    3 性能区别:synchronized在优化前性能比reentrantLock差,优化后性能有了恨到提升,相同条件下优先使用synchronized

    4 功能区别:1)便利性方面,synchronized使用简单,reentrantLock需要手工加锁和释放锁2)锁的细粒度和灵活度方面,reentrantLock优于synchronized

    5 reentrantlock独有的功能:1)可指定是公平锁还是非公平锁,synchronized只能是非公平锁 2)提供了一个Condition类,可以分组唤醒需要唤醒的线程 3)能够提供中断等待锁的线程机制,lock.lockInterruptibly()

    代码示例:

    ReentrantReadWriteLock
    悲观写锁,即当所有读锁释放之后,才能加写锁,对于读多写少的程序,会引起堵塞或者死锁

    代码示例:

    Condition
    多线程建协调通信的工具类

    代码示例:

    FutureTask
    Callable与Runnable接口对比

    Feature接口,可以得到任务的返回值

    FeatureTask父类是RunnableFeature,RunnableFeature继承了Runnable和Feature两个接口

    代码示例1:

    示例代码2:

    Fork/Join框架
    将大人物切分成多个小任务并行执行,最后将结果汇总,思想和mapreduce类似。采用工作窃取算法,充分利用线程并行计算

    BlockingQueue——阻塞队列
    当队列满进行入队操作,线程阻塞,当队列空时进行出队操作,将会阻塞

    线程安全,应用场景:生产者、消费者

    线程池
    new Thread弊端:

    1 每次new Thread新建对象,性能差

    2 线程缺乏统一的管理,肯无限制的新建线程,相互竞争,有可能占用过多系统资源导致死机或者OOM

    3 缺少更多功能,如更多执行、定期执行、线程中断

    线程池的好处:

    1 重用存在的线程,减少对象创建、消亡的开销,性能佳

    2 可有效控制最大并发的线程数,提高系统资源利用率,同时可以避免过多资源竞争,避免阻塞

    3 提供定时执行、定期执行、单线程、并发数控制等功能

    线程池——ThreadPoolExecutor
    ThreadPoolExecutor参数:

    1 corePoolSize:核心线程数

    2 maximumPoolSize:最大线程数

    3 workQueue:阻塞队列,存储等待执行的任务,很重要,会对线程池运行过程产生重大影响

    如果当前系统运行的线程数量小于corePoolSize,直接新建线程执行处理任务,即使线程池中的其他线程是空闲的。如果当前系统运行的线程数量大于或等于corePoolSize,且小于maximumPoolSize,只有当workQueue满的时候才创建新的线程去处理任务,如果设置corePoolSize和maximumPoolSize相同的话,那么创建的线程池大小是固定的,这时如果有新任务提交,当workQueue没满时,把请求放进workQueue中,等待有空闲的线程从workQueue中取出任务去处理。如果运行的线程数量大于maximumPoolSize,这时如果workQueue满,根据拒绝策略去处理。

    4 keepAliveTime:线程没有任务执行时最多保持多久的时间终止

    5 unit:keepAliveTime的时间单位

    6 threadFactory:线程工厂,用来创建线程

    7 rejectHandler:当拒绝处理任务时的策略

    线程池状态:

    线程池方法:

    死锁
    线程(进程)互相等待对方释放资源产生死锁

    HashMap与ConcurrentHashMap
    HashMap在多线程环境中做rehash时容易产生死循环

    Guava Cache是谷歌开源的java工具库,借鉴ConcurrentHashMap的设计思想

    消息队列
    异步解耦

    Kafka:持久化、高吞吐、分布式

    应用拆分
    拆分原则:

    服务降级和熔断

    另外安利一个学习教程:(完整)Java并发编程与高并发解决方案

    更多相关内容
  • java高并发解决方案(图解).xmind,仅用学习使用,不可用于商业用途,如有版权问题,请联系删除!
  • Java高并发解决方案

    万次阅读 多人点赞 2019-03-03 22:23:50
    电商的秒杀和抢购,对我们来说,都不是一个陌生的东西。然而,从技术的角度来说,这对于Web系统是一个巨大的考验。...在过去的工作中,我曾经面对过5w每秒的高并发秒杀功能,在这个过程中,整个W...

    电商的秒杀和抢购,对我们来说,都不是一个陌生的东西。然而,从技术的角度来说,这对于Web系统是一个巨大的考验。当一个Web系统,在一秒钟内收到数以万计甚至更多请求时,系统的优化和稳定至关重要。这次我们会关注秒杀和抢购的技术实现和优化,同时,从技术层面揭开,为什么我们总是不容易抢到火车票的原因?

    一、大规模并发带来的挑战

    在过去的工作中,我曾经面对过5w每秒的高并发秒杀功能,在这个过程中,整个Web系统遇到了很多的问题和挑战。如果Web系统不做针对性的优化,会轻而易举地陷入到异常状态。我们现在一起来讨论下,优化的思路和方法哈。

    1.请求接口的合理设计

    一个秒杀或者抢购页面,通常分为2个部分,一个是静态的HTML等内容,另一个就是参与秒杀的Web后台请求接口。

    通常静态HTML等内容,是通过CDN的部署,一般压力不大,核心瓶颈实际上在后台请求接口上。这个后端接口,必须能够支持高并发请求,同时,非常重要的一点,必须尽可能“快”,在最短的时间里返回用户的请求结果。为了实现尽可能快这一点,接口的后端存储使用内存级别的操作会更好一点。仍然直接面向MySQL之类的存储是不合适的,如果有这种复杂业务的需求,都建议采用异步写入。

    当然,也有一些秒杀和抢购采用“滞后反馈”,就是说秒杀当下不知道结果,一段时间后才可以从页面中看到用户是否秒杀成功。但是,这种属于“偷懒”行为,同时给用户的体验也不好,容易被用户认为是“暗箱操作”。

    2.高并发的挑战:一定要“快”

    我们通常衡量一个Web系统的吞吐率的指标是QPS(Query Per Second,每秒处理请求数),解决每秒数万次的高并发场景,这个指标非常关键。举个例子,我们假设处理一个业务请求平均响应时间为100ms,同时,系统内有20台Apache的Web服务器,配置MaxClients为500个(表示Apache的最大连接数目)。

    那么,我们的Web系统的理论峰值QPS为(理想化的计算方式):

    20*500/0.1 = 100000 (10万QPS)

    咦?我们的系统似乎很强大,1秒钟可以处理完10万的请求,5w/s的秒杀似乎是“纸老虎”哈。实际情况,当然没有这么理想。在高并发的实际场景下,机器都处于高负载的状态,在这个时候平均响应时间会被大大增加。

    就Web服务器而言,Apache打开了越多的连接进程,CPU需要处理的上下文切换也越多,额外增加了CPU的消耗,然后就直接导致平均响应时间增加。因此上述的MaxClient数目,要根据CPU、内存等硬件因素综合考虑,绝对不是越多越好。可以通过Apache自带的abench来测试一下,取一个合适的值。然后,我们选择内存操作级别的存储的Redis,在高并发的状态下,存储的响应时间至关重要。网络带宽虽然也是一个因素,不过,这种请求数据包一般比较小,一般很少成为请求的瓶颈。负载均衡成为系统瓶颈的情况比较少,在这里不做讨论哈。

    那么问题来了,假设我们的系统,在5w/s的高并发状态下,平均响应时间从100ms变为250ms(实际情况,甚至更多):

    20*500/0.25 = 40000 (4万QPS)

    于是,我们的系统剩下了4w的QPS,面对5w每秒的请求,中间相差了1w。

    然后,这才是真正的恶梦开始。举个例子,高速路口,1秒钟来5部车,每秒通过5部车,高速路口运作正常。突然,这个路口1秒钟只能通过4部车,车流量仍然依旧,结果必定出现大塞车。(5条车道忽然变成4条车道的感觉)

    同理,某一个秒内,20*500个可用连接进程都在满负荷工作中,却仍然有1万个新来请求,没有连接进程可用,系统陷入到异常状态也是预期之内。

    其实在正常的非高并发的业务场景中,也有类似的情况出现,某个业务请求接口出现问题,响应时间极慢,将整个Web请求响应时间拉得很长,逐渐将Web服务器的可用连接数占满,其他正常的业务请求,无连接进程可用。

    更可怕的问题是,是用户的行为特点,系统越是不可用,用户的点击越频繁,恶性循环最终导致“雪崩”(其中一台Web机器挂了,导致流量分散到其他正常工作的机器上,再导致正常的机器也挂,然后恶性循环),将整个Web系统拖垮。

    3.重启与过载保护

    如果系统发生“雪崩”,贸然重启服务,是无法解决问题的。最常见的现象是,启动起来后,立刻挂掉。这个时候,最好在入口层将流量拒绝,然后再将重启。如果是redis/memcache这种服务也挂了,重启的时候需要注意“预热”,并且很可能需要比较长的时间。

    秒杀和抢购的场景,流量往往是超乎我们系统的准备和想象的。这个时候,过载保护是必要的。如果检测到系统满负载状态,拒绝请求也是一种保护措施。在前端设置过滤是最简单的方式,但是,这种做法是被用户“千夫所指”的行为。更合适一点的是,将过载保护设置在CGI入口层,快速将客户的直接请求返回。

    二、作弊的手段:进攻与防守

    秒杀和抢购收到了“海量”的请求,实际上里面的水分是很大的。不少用户,为了“抢“到商品,会使用“刷票工具”等类型的辅助工具,帮助他们发送尽可能多的请求到服务器。还有一部分高级用户,制作强大的自动请求脚本。这种做法的理由也很简单,就是在参与秒杀和抢购的请求中,自己的请求数目占比越多,成功的概率越高。

    这些都是属于“作弊的手段”,不过,有“进攻”就有“防守”,这是一场没有硝烟的战斗哈。

    1.同一个账号,一次性发出多个请求

    部分用户通过浏览器的插件或者其他工具,在秒杀开始的时间里,以自己的账号,一次发送上百甚至更多的请求。实际上,这样的用户破坏了秒杀和抢购的公平性。

    这种请求在某些没有做数据安全处理的系统里,也可能造成另外一种破坏,导致某些判断条件被绕过。例如一个简单的领取逻辑,先判断用户是否有参与记录,如果没有则领取成功,最后写入到参与记录中。这是个非常简单的逻辑,但是,在高并发的场景下,存在深深的漏洞。多个并发请求通过负载均衡服务器,分配到内网的多台Web服务器,它们首先向存储发送查询请求,然后,在某个请求成功写入参与记录的时间差内,其他的请求获查询到的结果都是“没有参与记录”。这里,就存在逻辑判断被绕过的风险。

    应对方案:

    在程序入口处,一个账号只允许接受1个请求,其他请求过滤。不仅解决了同一个账号,发送N个请求的问题,还保证了后续的逻辑流程的安全。实现方案,可以通过Redis这种内存缓存服务,写入一个标志位(只允许1个请求写成功,结合watch的乐观锁的特性),成功写入的则可以继续参加。

    或者,自己实现一个服务,将同一个账号的请求放入一个队列中,处理完一个,再处理下一个。

    2.多个账号,一次性发送多个请求

    很多公司的账号注册功能,在发展早期几乎是没有限制的,很容易就可以注册很多个账号。因此,也导致了出现了一些特殊的工作室,通过编写自动注册脚本,积累了一大批“僵尸账号”,数量庞大,几万甚至几十万的账号不等,专门做各种刷的行为(这就是微博中的“僵尸粉“的来源)。举个例子,例如微博中有转发抽奖的活动,如果我们使用几万个“僵尸号”去混进去转发,这样就可以大大提升我们中奖的概率。

    这种账号,使用在秒杀和抢购里,也是同一个道理。例如,iPhone官网的抢购,火车票黄牛党。

    应对方案:

    这种场景,可以通过检测指定机器IP请求频率就可以解决,如果发现某个IP请求频率很高,可以给它弹出一个验证码或者直接禁止它的请求:

    弹出验证码,最核心的追求,就是分辨出真实用户。因此,大家可能经常发现,网站弹出的验证码,有些是“鬼神乱舞”的样子,有时让我们根本无法看清。他们这样做的原因,其实也是为了让验证码的图片不被轻易识别,因为强大的“自动脚本”可以通过图片识别里面的字符,然后让脚本自动填写验证码。实际上,有一些非常创新的验证码,效果会比较好,例如给你一个简单问题让你回答,或者让你完成某些简单操作(例如百度贴吧的验证码)。
    直接禁止IP,实际上是有些粗暴的,因为有些真实用户的网络场景恰好是同一出口IP的,可能会有“误伤“。但是这一个做法简单高效,根据实际场景使用可以获得很好的效果。

    3.多个账号,不同IP发送不同请求

    所谓道高一尺,魔高一丈。有进攻,就会有防守,永不休止。这些“工作室”,发现你对单机IP请求频率有控制之后,他们也针对这种场景,想出了他们的“新进攻方案”,就是不断改变IP。

    有同学会好奇,这些随机IP服务怎么来的。有一些是某些机构自己占据一批独立IP,然后做成一个随机代理IP的服务,有偿提供给这些“工作室”使用。还有一些更为黑暗一点的,就是通过木马黑掉普通用户的电脑,这个木马也不破坏用户电脑的正常运作,只做一件事情,就是转发IP包,普通用户的电脑被变成了IP代理出口。通过这种做法,黑客就拿到了大量的独立IP,然后搭建为随机IP服务,就是为了挣钱。

    应对方案:

    说实话,这种场景下的请求,和真实用户的行为,已经基本相同了,想做分辨很困难。再做进一步的限制很容易“误伤“真实用户,这个时候,通常只能通过设置业务门槛高来限制这种请求了,或者通过账号行为的”数据挖掘“来提前清理掉它们。

    僵尸账号也还是有一些共同特征的,例如账号很可能属于同一个号码段甚至是连号的,活跃度不高,等级低,资料不全等等。根据这些特点,适当设置参与门槛,例如限制参与秒杀的账号等级。通过这些业务手段,也是可以过滤掉一些僵尸号。

    4.火车票的抢购

    看到这里,同学们是否明白你为什么抢不到火车票?如果你只是老老实实地去抢票,真的很难。通过多账号的方式,火车票的黄牛将很多车票的名额占据,部分强大的黄牛,在处理验证码方面,更是“技高一筹“。

    高级的黄牛刷票时,在识别验证码的时候使用真实的人,中间搭建一个展示验证码图片的中转软件服务,真人浏览图片并填写下真实验证码,返回给中转软件。对于这种方式,验证码的保护限制作用被废除了,目前也没有很好的解决方案。

    因为火车票是根据身份证实名制的,这里还有一个火车票的转让操作方式。大致的操作方式,是先用买家的身份证开启一个抢票工具,持续发送请求,黄牛账号选择退票,然后黄牛买家成功通过自己的身份证购票成功。当一列车厢没有票了的时候,是没有很多人盯着看的,况且黄牛们的抢票工具也很强大,即使让我们看见有退票,我们也不一定能抢得过他们哈。

    最终,黄牛顺利将火车票转移到买家的身份证下。

    解决方案:

    并没有很好的解决方案,唯一可以动心思的也许是对账号数据进行“数据挖掘”,这些黄牛账号也是有一些共同特征的,例如经常抢票和退票,节假日异常活跃等等。将它们分析出来,再做进一步处理和甄别。

    三、高并发下的数据安全

    我们知道在多线程写入同一个文件的时候,会存现“线程安全”的问题(多个线程同时运行同一段代码,如果每次运行结果和单线程运行的结果是一样的,结果和预期相同,就是线程安全的)。如果是MySQL数据库,可以使用它自带的锁机制很好的解决问题,但是,在大规模并发的场景中,是不推荐使用MySQL的。秒杀和抢购的场景中,还有另外一个问题,就是“超发”,如果在这方面控制不慎,会产生发送过多的情况。我们也曾经听说过,某些电商搞抢购活动,买家成功拍下后,商家却不承认订单有效,拒绝发货。这里的问题,也许并不一定是商家奸诈,而是系统技术层面存在超发风险导致的。

    1.超发的原因

    假设某个抢购场景中,我们一共只有100个商品,在最后一刻,我们已经消耗了99个商品,仅剩最后一个。这个时候,系统发来多个并发请求,这批请求读取到的商品余量都是99个,然后都通过了这一个余量判断,最终导致超发。(同文章前面说的场景)

    在上面的这个图中,就导致了并发用户B也“抢购成功”,多让一个人获得了商品。这种场景,在高并发的情况下非常容易出现。

    2.悲观锁思路

    解决线程安全的思路很多,可以从“悲观锁”的方向开始讨论。

    悲观锁,也就是在修改数据的时候,采用锁定状态,排斥外部请求的修改。遇到加锁的状态,就必须等待。

    虽然上述的方案的确解决了线程安全的问题,但是,别忘记,我们的场景是“高并发”。也就是说,会很多这样的修改请求,每个请求都需要等待“锁”,某些线程可能永远都没有机会抢到这个“锁”,这种请求就会死在那里。同时,这种请求会很多,瞬间增大系统的平均响应时间,结果是可用连接数被耗尽,系统陷入异常。

    3.FIFO队列思路

    那好,那么我们稍微修改一下上面的场景,我们直接将请求放入队列中的,采用FIFO(First Input First Output,先进先出),这样的话,我们就不会导致某些请求永远获取不到锁。看到这里,是不是有点强行将多线程变成单线程的感觉哈。

    然后,我们现在解决了锁的问题,全部请求采用“先进先出”的队列方式来处理。那么新的问题来了,高并发的场景下,因为请求很多,很可能一瞬间将队列内存“撑爆”,然后系统又陷入到了异常状态。或者设计一个极大的内存队列,也是一种方案,但是,系统处理完一个队列内请求的速度根本无法和疯狂涌入队列中的数目相比。也就是说,队列内的请求会越积累越多,最终Web系统平均响应时候还是会大幅下降,系统还是陷入异常。

    4.乐观锁思路

    这个时候,我们就可以讨论一下“乐观锁”的思路了。乐观锁,是相对于“悲观锁”采用更为宽松的加锁机制,大都是采用带版本号(Version)更新。实现就是,这个数据所有请求都有资格去修改,但会获得一个该数据的版本号,只有版本号符合的才能更新成功,其他的返回抢购失败。这样的话,我们就不需要考虑队列的问题,不过,它会增大CPU的计算开销。但是,综合来说,这是一个比较好的解决方案。

    5.缓存服务器

    Redis分布式要保证数据都能能够平均的缓存到每一台机器,首先想到的做法是对数据进行分片,因为Redis是key-value存储的,首先想到的是Hash分片,可能的做法是对key进行哈希运算,得到一个long值对分布式的数量取模会得到一个一个对应数据库的一个映射,没有读取就可以定位到这台数据库

    有很多软件和服务都“乐观锁”功能的支持,例如Redis中的watch就是其中之一。通过这个实现,我们保证了数据的安全。

    四、小结

    互联网正在高速发展,使用互联网服务的用户越多,高并发的场景也变得越来越多。电商秒杀和抢购,是两个比较典型的互联网高并发场景。虽然我们解决问题的具体技术方案可能千差万别,但是遇到的挑战却是相似的,因此解决问题的思路也异曲同工。

    个人整理并发解决方案。

    a.应用层面:读写分离、缓存、队列、集群、令牌、系统拆分、隔离、系统升级(可水平扩容方向)。
    b.时间换空间:降低单次请求时间,这样在单位时间内系统并发就会提升。
    c.空间换时间:拉长整体处理业务时间,换取后台系统容量空间。

     

    喜欢本文的朋友们,欢迎关注微信公众号“Java面试达人”,收看更多精彩内容

    也可关注微博 “程序员阿九”,收看更多精彩内容

     

    展开全文
  • java 高并发解决方案总结

    千次阅读 2020-07-27 23:01:40
    如果网站的访问量非常大的话,那么我们就需要考虑相关的并发访问问题了。而并发问题是绝大部分的程序员头疼的问题, 但话又说回来了,既然逃避不掉,那我们就坦然面对吧~今天就让我们一起来研究一下常见的并发和...

    如果网站的访问量非常大的话,那么我们就需要考虑相关的并发访问问题了。而并发问题是绝大部分的程序员头疼的问题,

    但话又说回来了,既然逃避不掉,那我们就坦然面对吧~今天就让我们一起来研究一下常见的并发和同步吧。

       为了更好的理解并发和同步,我们需要先明白两个重要的概念:同步和异步

       1、同步和异步的区别和联系

             所谓同步,可以理解为在执行完一个函数或方法之后,一直等待系统返回值或消息,这时程序是出于阻塞的,只有接收到

            返回的值或消息后才往下执行其它的命令。

            异步,执行完函数或方法后,不必阻塞性地等待返回值或消息,只需要向系统委托一个异步过程,那么当系统接收到返回

            值或消息时,系统会自动触发委托的异步过程,从而完成一个完整的流程。

             同步在一定程度上可以看做是单线程,这个线程请求一个方法后就待这个方法给他回复,否则他不往下执行(死心眼)。

            异步在一定程度上可以看做是多线程的(废话,一个线程怎么叫异步),请求一个方法后,就不管了,继续执行其他的方法。

            

            同步就是一件事,一件事情一件事的做。
            异步就是,做一件事情,不引响做其他事情。

            例如:吃饭和说话,只能一件事一件事的来,因为只有一张嘴。
                    但吃饭和听音乐是异步的,因为,听音乐并不引响我们吃饭。

     

            对于Java程序员而言,我们会经常听到同步关键字synchronized,假如这个同步的监视对象是类的话,那么如果当一个对象

            访问类里面的同步方法的话,那么其它的对象如果想要继续访问类里面的这个同步方法的话,就会进入阻塞,只有等前一个对象

            执行完该同步方法后当前对象才能够继续执行该方法。这就是同步。相反,如果方法前没有同步关键字修饰的话,那么不同的对象

            可以在同一时间访问同一个方法,这就是异步。

          

            在补充一下(脏数据和不可重复读的相关概念):

           脏数据

      脏读就是指当一个事务正在访问数据,并且对数据进行了修改,而这种修改还没有提交到数据库中,这时,另外一个事务也访问这个数据,然后使用了这

    个数据。因为这个数据是还没有提交的数据,那么另外一个事务读到的这个数据是脏数据(Dirty Data),依据脏数据所做的操作可能是不正确的。

         不可重复读

      不可重复读是指在一个事务内,多次读同一数据。在这个事务还没有结束时,另外一个事务也访问该同一数据。那么,在第一个事务中的两次读数据之间,由于第二个事务的修改,那么第一个事务两次读到的数据可能是不一样的。这样就发生了在一个事务内两次读到的数据是不一样的,因此称为是不可重复读

     

             

     

       2、如何处理并发和同步

            今天讲的如何处理并发和同同步问题主要是通过锁机制。

           我们需要明白,锁机制有两个层面。

           一种是代码层次上的,如java中的同步锁,典型的就是同步关键字synchronized,这里我不在做过多的讲解,

           感兴趣的可以参考:http://www.cnblogs.com/xiohao/p/4151408.html

           另外一种是数据库层次上的,比较典型的就是悲观锁和乐观锁。这里我们重点讲解的就是悲观锁(传统的物理锁)和乐观锁。

           悲观锁(Pessimistic Locking):       

           悲观锁,正如其名,它指的是对数据被外界(包括本系统当前的其他事务,以及来自 外部系统的事务处理)修改持保守态度,因此,

           在整个数据处理过程中,将数据处于锁定状态。

           悲观锁的实现,往往依靠数据库提供的锁机制(也只有数据库层提供的锁机制才能 真正保证数据访问的排他性,否则,即使在本系统

           中实现了加锁机制,也无法保证外部系 统不会修改数据)。 

           一个典型的倚赖数据库的悲观锁调用: 

           select * from account where name=”Erica” for update

           这条 sql 语句锁定了 account 表中所有符合检索条件( name=”Erica” )的记录。

           本次事务提交之前(事务提交时会释放事务过程中的锁),外界无法修改这些记录。 
           Hibernate 的悲观锁,也是基于数据库的锁机制实现。 
           下面的代码实现了对查询记录的加锁:

           String hqlStr ="from TUser as user where user.name='Erica'";

            Query query = session.createQuery(hqlStr);

            query.setLockMode("user",LockMode.UPGRADE); // 加锁

           List userList = query.list();// 执行查询,获取数据

           query.setLockMode 对查询语句中,特定别名所对应的记录进行加锁(我们为 TUser 类指定了一个别名 “user” ),这里也就是对

          返回的所有 user 记录进行加锁。 

          观察运行期 Hibernate 生成的 SQL 语句: 
          select tuser0_.id as id, tuser0_.name as name, tuser0_.group_id
          as group_id, tuser0_.user_type as user_type, tuser0_.sex as sex
          from t_user tuser0_ where (tuser0_.name='Erica' ) for update
         这里 Hibernate 通过使用数据库的 for update 子句实现了悲观锁机制。 
          Hibernate 的加锁模式有: 
          Ø LockMode.NONE : 无锁机制。 
          Ø LockMode.WRITE : Hibernate 在 Insert 和 Update 记录的时候会自动获取
          Ø LockMode.READ : Hibernate 在读取记录的时候会自动获取。 
          以上这三种锁机制一般由 Hibernate 内部使用,如 Hibernate 为了保证 Update
          过程中对象不会被外界修改,会在 save 方法实现中自动为目标对象加上 WRITE 锁。 
          Ø LockMode.UPGRADE :利用数据库的 for update 子句加锁。 
          Ø LockMode. UPGRADE_NOWAIT : Oracle 的特定实现,利用 Oracle 的 for
          update nowait 子句实现加锁。 
          上面这两种锁机制是我们在应用层较为常用的,加锁一般通过以下方法实现: 
          Criteria.setLockMode
          Query.setLockMode
          Session.lock
          注意,只有在查询开始之前(也就是 Hiberate 生成 SQL 之前)设定加锁,才会 
          真正通过数据库的锁机制进行加锁处理,否则,数据已经通过不包含 for update
          子句的 Select SQL 加载进来,所谓数据库加锁也就无从谈起。

          为了更好的理解select... for update的锁表的过程,本人将要以mysql为例,进行相应的讲解

          1、要测试锁定的状况,可以利用MySQL的Command Mode ,开二个视窗来做测试。

              表的基本结构如下:

              

     

               表中内容如下:

               

     

              开启两个测试窗口,在其中一个窗口执行select * from ta for update0

              然后在另外一个窗口执行update操作如下图:

              

              等到一个窗口commit后的图片如下:

              

               到这里,悲观锁机制你应该了解一些了吧~

           

               需要注意的是for update要放到mysql的事务中,即begin和commit中,否者不起作用。

               至于是锁住整个表还是锁住选中的行,请参考:

               http://www.cnblogs.com/xiohao/p/4385768.html

                至于hibernate中的悲观锁使用起来比较简单,这里就不写demo了~感兴趣的自己查一下就ok了~

               

              乐观锁(Optimistic Locking):        
             相对悲观锁而言,乐观锁机制采取了更加宽松的加锁机制。悲观锁大多数情况下依 靠数据库的锁机制实现,以保证操作最大程度的独占性。但随之

    而来的就是数据库 性能的大量开销,特别是对长事务而言,这样的开销往往无法承受。 如一个金融系统,当某个操作员读取用户的数据,并在读出的用户数

    据的基础上进 行修改时(如更改用户帐户余额),如果采用悲观锁机制,也就意味着整个操作过 程中(从操作员读出数据、开始修改直至提交修改结果的全

    过程,甚至还包括操作 员中途去煮咖啡的时间),数据库记录始终处于加锁状态,可以想见,如果面对几 百上千个并发,这样的情况将导致怎样的后果。 乐

    观锁机制在一定程度上解决了这个问题。

             乐观锁,大多是基于数据版本   Version )记录机制实现。何谓数据版本?即为数据增加一个版本标识,在基于数据库表的版本解决方案中,一般是通

    过为数据库表增加一个 “version” 字段来 实现。 读取出数据时,将此版本号一同读出,之后更新时,对此版本号加一。此时,将提 交数据的版本数据与数据

    库表对应记录的当前版本信息进行比对,如果提交的数据 版本号大于数据库表当前版本号,则予以更新,否则认为是过期数据。 对于上面修改用户帐户信息

    的例子而言,假设数据库中帐户信息表中有一个 version 字段,当前值为 1 ;而当前帐户余额字段( balance )为 $100 。 操作员 A 此时将其读出

    ( version=1 ),并从其帐户余额中扣除 $50( $100-$50 )。 2 在操作员 A 操作的过程中,操作员 B 也读入此用户信息( version=1 ),并 从其帐

    户余额中扣除 $20 ( $100-$20 )。 3 操作员 A 完成了修改工作,将数据版本号加一( version=2 ),连同帐户扣 除后余额( balance=$50 ),提交

    至数据库更新,此时由于提交数据版本大 于数据库记录当前版本,数据被更新,数据库记录 version 更新为 2 。 4 操作员 B 完成了操作,也将版本号加一

    ( version=2 )试图向数据库提交数 据( balance=$80 ),但此时比对数据库记录版本时发现,操作员 B 提交的 数据版本号为 2 ,数据库记录当前版

    本也为 2 ,不满足 “ 提交版本必须大于记 录当前版本才能执行更新 “ 的乐观锁策略,因此,操作员 B 的提交被驳回。 这样,就避免了操作员 B 用基于

    version=1 的旧数据修改的结果覆盖操作 员 A 的操作结果的可能。 从上面的例子可以看出,乐观锁机制避免了长事务中的数据库加锁开销(操作员 A


    和操作员 B 操作过程中,都没有对数据库数据加锁),大大提升了大并发量下的系 统整体性能表现。 需要注意的是,乐观锁机制往往基于系统中的数据存储

    逻辑,因此也具备一定的局 限性,如在上例中,由于乐观锁机制是在我们的系统中实现,来自外部系统的用户 余额更新操作不受我们系统的控制,因此可能

    会造成脏数据被更新到数据库中。在 系统设计阶段,我们应该充分考虑到这些情况出现的可能性,并进行相应调整(如 将乐观锁策略在数据库存储过程中实

    现,对外只开放基于此存储过程的数据更新途 径,而不是将数据库表直接对外公开)。 Hibernate 在其数据访问引擎中内置了乐观锁实现。如果不用考虑外

    部系统对数 据库的更新操作,利用 Hibernate 提供的透明化乐观锁实现,将大大提升我们的 生产力。


    Hibernate 中可以通过 class 描述符的 optimistic-lock 属性结合 version描述符指定。

    现在,我们为之前示例中的 User 加上乐观锁机制。

     

    1 . 首先为 User 的POJO class

           

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    12

    13

    14

    15

    16

    17

    18

    19

    20

    21

    22

    23

    24

    25

    26

    27

    28

    29

    30

    31

    32

    33

    34

    35

    36

    37

    38

    39

    40

    41

    42

    43

    44

    45

    46

    47

    48

    49

    50

    51

    52

    53

    54

    package com.xiaohao.test;

     

    public class User {

       private Integer id;

       private String userName;

       private String password;

       private int version;

        

    public int getVersion() {

        return version;

    }

     

    public void setVersion(int version) {

        this.version = version;

    }

     

    public Integer getId() {

        return id;

    }

     

    public void setId(Integer id) {

        this.id = id;

    }

     

    public String getUserName() {

        return userName;

    }

     

    public void setUserName(String userName) {

        this.userName = userName;

    }

     

    public String getPassword() {

        return password;

    }

     

    public void setPassword(String password) {

        this.password = password;

    }

     

     

     

    public User() {}

     

    public User(String userName, String password) {

        super();

        this.userName = userName;

        this.password = password;

    }

     

     

        

        

    }

      


            然后是User.hbm.xml

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    12

    13

    14

    15

    16

    17

    18

    19

    20

    <?xml version="1.0"?>

    <!DOCTYPE hibernate-mapping PUBLIC

            "-//Hibernate/Hibernate Mapping DTD 3.0//EN"

            "http://hibernate.sourceforge.net/hibernate-mapping-3.0.dtd">

     

    <hibernate-mapping package="com.xiaohao.test">

     

        <class name="User"  table="user" optimistic-lock="version" >

                  <id name="id">

                <generator class="native" />

            </id>

            <!--version标签必须跟在id标签后面-->

            <version column="version" name="version"  />

            <property name="userName"/>

            <property name="password"/>

                     

        </class>

         

     

    </hibernate-mapping>

    注意 version 节点必须出现在 ID 节点之后。 
    这里我们声明了一个 version 属性,用于存放用户的版本信息,保存在 User 表的version中 
    optimistic-lock 属性有如下可选取值: 
    Ø none
    无乐观锁 
    Ø version
    通过版本机制实现乐观锁 
    Ø dirty
    通过检查发生变动过的属性实现乐观锁 
    Ø all
    通过检查所有属性实现乐观锁 
    其中通过 version 实现的乐观锁机制是 Hibernate 官方推荐的乐观锁实现,同时也 
    是 Hibernate 中,目前唯一在数据对象脱离 Session 发生修改的情况下依然有效的锁机 
    制。因此,一般情况下,我们都选择 version 方式作为 Hibernate 乐观锁实现机制。


    2 . 配置文件hibernate.cfg.xml和UserTest测试类

       hibernate.cfg.xml

      

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    12

    13

    14

    15

    16

    17

    18

    19

    20

    21

    22

    23

    24

    25

    26

    27

    28

    29

    <!DOCTYPE hibernate-configuration PUBLIC

            "-//Hibernate/Hibernate Configuration DTD 3.0//EN"

            "http://hibernate.sourceforge.net/hibernate-configuration-3.0.dtd">

     

    <hibernate-configuration>

    <session-factory>

     

        <!-- 指定数据库方言 如果使用jbpm的话,数据库方言只能是InnoDB-->

        <property name="dialect">org.hibernate.dialect.MySQL5InnoDBDialect</property>

        <!-- 根据需要自动创建数据表 -->

        <property name="hbm2ddl.auto">update</property>

        <!-- 显示Hibernate持久化操作所生成的SQL -->

        <property name="show_sql">true</property>

        <!-- 将SQL脚本进行格式化后再输出 -->

        <property name="format_sql">false</property>

        <property name="current_session_context_class">thread</property>

     

     

        <!-- 导入映射配置 -->

        <property name="connection.url">jdbc:mysql:///user</property>

        <property name="connection.username">root</property>

        <property name="connection.password">123456</property>

        <property name="connection.driver_class">com.mysql.jdbc.Driver</property>

        <mapping resource="com/xiaohao/test/User.hbm.xml" />

     

     

     

    </session-factory>

    </hibernate-configuration>

      UserTest.java

        

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    12

    13

    14

    15

    16

    17

    18

    19

    20

    21

    22

    23

    24

    25

    26

    package com.xiaohao.test;

     

    import org.hibernate.Session;

    import org.hibernate.SessionFactory;

    import org.hibernate.Transaction;

    import org.hibernate.cfg.Configuration;

     

    public class UserTest {

        public static void main(String[] args) {

            Configuration conf=new Configuration().configure();

            SessionFactory sf=conf.buildSessionFactory();

            Session session=sf.getCurrentSession();

            Transaction tx=session.beginTransaction();

    //      User user=new User("小浩","英雄");

    //      session.save(user);

    //       session.createSQLQuery("insert into user(userName,password) value('张英雄16','123')")

    //                  .executeUpdate();

            User user=(User) session.get(User.class1);

            user.setUserName("221");

    //      session.save(user);

         

            System.out.println("恭喜您,用户的数据插入成功了哦~~");

            tx.commit();

        }

     

    }

      每次对 TUser 进行更新的时候,我们可以发现,数据库中的 version 都在递增。



    下面我们将要通过乐观锁来实现一下并发和同步的测试用例:

    这里需要使用两个测试类,分别运行在不同的虚拟机上面,以此来模拟多个用户同时操作一张表,同时其中一个测试类需要模拟长事务

    UserTest.java

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    12

    13

    14

    15

    16

    17

    18

    19

    20

    21

    22

    23

    24

    25

    26

    27

    28

    29

    30

    31

    package com.xiaohao.test;

     

    import org.hibernate.Session;

    import org.hibernate.SessionFactory;

    import org.hibernate.Transaction;

    import org.hibernate.cfg.Configuration;

     

    public class UserTest {

        public static void main(String[] args) {

            Configuration conf=new Configuration().configure();

            SessionFactory sf=conf.buildSessionFactory();

            Session session=sf.openSession();

    //      Session session2=sf.openSession();

            User user=(User) session.createQuery(" from User user where user=5").uniqueResult();

    //      User user2=(User) session.createQuery(" from User user where user=5").uniqueResult();

            System.out.println(user.getVersion());

    //      System.out.println(user2.getVersion());

            Transaction tx=session.beginTransaction();

            user.setUserName("101");

            tx.commit();

             

            System.out.println(user.getVersion());

    //      System.out.println(user2.getVersion());

    //      System.out.println(user.getVersion()==user2.getVersion());

    //      Transaction tx2=session2.beginTransaction();

    //      user2.setUserName("4468");

    //      tx2.commit();

         

        }

     

    }

      UserTest2.java

     

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    12

    13

    14

    15

    16

    17

    18

    19

    20

    21

    22

    23

    24

    25

    26

    27

    28

    29

    30

    31

    32

    package com.xiaohao.test;

     

    import org.hibernate.Session;

    import org.hibernate.SessionFactory;

    import org.hibernate.Transaction;

    import org.hibernate.cfg.Configuration;

     

    public class UserTest2 {

        public static void main(String[] args) throws InterruptedException {

            Configuration conf=new Configuration().configure();

            SessionFactory sf=conf.buildSessionFactory();

            Session session=sf.openSession();

    //      Session session2=sf.openSession();

            User user=(User) session.createQuery(" from User user where user=5").uniqueResult();

            Thread.sleep(10000);

    //      User user2=(User) session.createQuery(" from User user where user=5").uniqueResult();

            System.out.println(user.getVersion());

    //      System.out.println(user2.getVersion());

            Transaction tx=session.beginTransaction();

            user.setUserName("100");

            tx.commit();

             

            System.out.println(user.getVersion());

    //      System.out.println(user2.getVersion());

    //      System.out.println(user.getVersion()==user2.getVersion());

    //      Transaction tx2=session2.beginTransaction();

    //      user2.setUserName("4468");

    //      tx2.commit();

         

        }

     

    }

     

    操作流程及简单讲解: 首先启动UserTest2.java测试类,在执行到Thread.sleep(10000);这条语句的时候,当前线程会进入睡眠状态。在10秒钟之内

                                启动UserTest这个类,在到达10秒的时候,我们将会在UserTest.java中抛出下面的异常:

     

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    12

    13

    14

    15

    Exception in thread "main" org.hibernate.StaleObjectStateException: Row was updated or deleted by another transaction (or unsaved-value mapping was incorrect): [com.xiaohao.test.User#5]

        at org.hibernate.persister.entity.AbstractEntityPersister.check(AbstractEntityPersister.java:1932)

        at org.hibernate.persister.entity.AbstractEntityPersister.update(AbstractEntityPersister.java:2576)

        at org.hibernate.persister.entity.AbstractEntityPersister.updateOrInsert(AbstractEntityPersister.java:2476)

        at org.hibernate.persister.entity.AbstractEntityPersister.update(AbstractEntityPersister.java:2803)

        at org.hibernate.action.EntityUpdateAction.execute(EntityUpdateAction.java:113)

        at org.hibernate.engine.ActionQueue.execute(ActionQueue.java:273)

        at org.hibernate.engine.ActionQueue.executeActions(ActionQueue.java:265)

        at org.hibernate.engine.ActionQueue.executeActions(ActionQueue.java:185)

        at org.hibernate.event.def.AbstractFlushingEventListener.performExecutions(AbstractFlushingEventListener.java:321)

        at org.hibernate.event.def.DefaultFlushEventListener.onFlush(DefaultFlushEventListener.java:51)

        at org.hibernate.impl.SessionImpl.flush(SessionImpl.java:1216)

        at org.hibernate.impl.SessionImpl.managedFlush(SessionImpl.java:383)

        at org.hibernate.transaction.JDBCTransaction.commit(JDBCTransaction.java:133)

        at com.xiaohao.test.UserTest2.main(UserTest2.java:21)

     

     UserTest2代码将在 tx.commit() 处抛出 StaleObjectStateException 异 常,并指出版本检查失败,当前事务正在试图提交一个过期数据。通过捕捉这个异常,我 们就可以在乐观锁校验失败时进行相应处理

     

     

     

       3、常见并发同步案例分析

        案例一:订票系统案例,某航班只有一张机票,假定有1w个人打开你的网站来订票,问你如何解决并发问题(可扩展到任何高并发网站要考虑

                   的并发读写问题)

        问题,1w个人来访问,票没出去前要保证大家都能看到有票,不可能一个人在看到票的时候别人就不能看了。到底谁能抢到,那得看这个人的“运气”(网

                 络快慢等)

    其次考虑的问题,并发,1w个人同时点击购买,到底谁能成交?总共只有一张票。

    首先我们容易想到和并发相关的几个方案 :

    锁同步同步更多指的是应用程序的层面,多个线程进来,只能一个一个的访问,java中指的是syncrinized关键字。锁也有2个层面,一个是java中谈到的对

    象锁,用于线程同步;另外一个层面是数据库的锁;如果是分布式的系统,显然只能利用数据库端的锁来实现。

    假定我们采用了同步机制或者数据库物理锁机制,如何保证1w个人还能同时看到有票,显然会牺牲性能,在高并发网站中是不可取的。使用hibernate后我们

    提出了另外一个概念:乐观锁悲观锁(即传统的物理锁);

    采用乐观锁即可解决此问题。乐观锁意思是不锁定表的情况下,利用业务的控制来解决并发问题,这样即保证数据的并发可读性又保证保存数据的排他性,保

    证性能的同时解决了并发带来的脏数据问题。

    hibernate中如何实现乐观锁:

    前提:在现有表当中增加一个冗余字段,version版本号, long类型

    原理:

    1)只有当前版本号》=数据库表版本号,才能提交

    2)提交成功后,版本号version ++

    实现很简单:在ormapping增加一属性optimistic-lock="version"即可,以下是样例片段

    <hibernate-mapping>

    <class name="com.insigma.stock.ABC" optimistic-lock="version" table="T_Stock" schema="STOCK">

    案例二、股票交易系统、银行系统,大数据量你是如何考虑的

    首先,股票交易系统的行情表,每几秒钟就有一个行情记录产生,一天下来就有(假定行情3秒一个) 股票数量×20×60*6 条记录,一月下来这个表记录数

    量多大? oracle中一张表的记录数超过100w后 查询性能就很差了,如何保证系统性能?

    再比如,中国移动有上亿的用户量,表如何设计?把所有用于存在于一个表么?

    所以,大数量的系统,必须考虑表拆分-(表名字不一样,但是结构完全一样),通用的几种方式:(视情况而定)

    1)按业务分,比如 手机号的表,我们可以考虑 130开头的作为一个表,131开头的另外一张表 以此类推

    2)利用oracle的表拆分机制做分表

    3)如果是交易系统,我们可以考虑按时间轴拆分,当日数据一个表,历史数据弄到其它表。这里历史数据的报表和查询不会影响当日交易。

    当然,表拆分后我们的应用得做相应的适配。单纯的or-mapping也许就得改动了。比如部分业务得通过存储过程等

    此外,我们还得考虑缓存

    这里的缓存,指的不仅仅是hibernate,hibernate本身提供了一级二级缓存。这里的缓存独立于应用,依然是内存的读取,假如我们能减少数据库频繁的访

    问,那对系统肯定大大有利的。比如一个电子商务系统的商品搜索,如果某个关键字的商品经常被搜,那就可以考虑这部分商品列表存放到缓存(内存中

    去),这样不用每次访问数据库,性能大大增加。

    简单的缓存大家可以理解为自己做一个hashmap,把常访问的数据做一个key,value是第一次从数据库搜索出来的值,下次访问就可以从map里读取,而不

    读数据库;专业些的目前有独立的缓存框架比如memcached 等,可独立部署成一个缓存服务器。

     

    4、常见的提高高并发下访问的效率的手段

          首先要了解高并发的的瓶颈在哪里?

         1、可能是服务器网络带宽不够

         2.可能web线程连接数不够

         3.可能数据库连接查询上不去。

         根据不同的情况,解决思路也不同。

    1. 像第一种情况可以增加网络带宽,DNS域名解析分发多台服务器。

    2. 负载均衡,前置代理服务器nginx、apache等等

    3. 数据库查询优化,读写分离,分表等等

       最后复制一些在高并发下面需要常常需要处理的内容:

    • 尽量使用缓存,包括用户缓存,信息缓存等,多花点内存来做缓存,可以大量减少与数据库的交互,提高性能。

    • 用jprofiler等工具找出性能瓶颈,减少额外的开销。

    • 优化数据库查询语句,减少直接使用hibernate等工具的直接生成语句(仅耗时较长的查询做优化)。

    • 优化数据库结构,多做索引,提高查询效率。

    • 统计的功能尽量做缓存,或按每天一统计或定时统计相关报表,避免需要时进行统计的功能。

    • 能使用静态页面的地方尽量使用,减少容器的解析(尽量将动态内容生成静态html来显示)。

    • 解决以上问题后,使用服务器集群来解决单台的瓶颈问题。

    展开全文
  • 大型网站,比如门户网站,在面对大量用户访问、高并发请求方面,基本的解决方案集中在这样几个环节:使用高 性能的服务器、高性能的数据库、高效率的编程语言、还有高性能的Web容器。这几个解决思路在一定程度上意味...
  • JAVA并发编程与高并发解决方案 JAVA高并发项目实战课程
  • Java并发编程与高并发解决方案:线程池,消息队列,服务拆分,限流,降级,熔断思路,数据库分表
  • java 如何处理高并发编程的解决方案 视频资料齐全
  • 并发编程学习笔记,来源于 itmuch整理,是学习并发的不错的学习资料,有大神的个人感悟。介绍了一些概念,比如并发,高并发,并行,锁。
  • Java 高并发解决方案(电商的秒杀和抢购)

    万次阅读 多人点赞 2018-07-25 14:08:08
    电商的秒杀和抢购,对我们来说,都不是一个陌生的东西。然而,从技术的角度来说,这对于Web系统是一个巨大的考验。当一个Web系统,在...在过去的工作中,我曾经面对过5w每秒的高并发秒杀功能,在这个过程中,整...

    电商的秒杀和抢购,对我们来说,都不是一个陌生的东西。然而,从技术的角度来说,这对于Web系统是一个巨大的考验。当一个Web系统,在一秒钟内收到数以万计甚至更多请求时,系统的优化和稳定至关重要。这次我们会关注秒杀和抢购的技术实现和优化,同时,从技术层面揭开,为什么我们总是不容易抢到火车票的原因? 

    一、大规模并发带来的挑战 

    在过去的工作中,我曾经面对过5w每秒的高并发秒杀功能,在这个过程中,整个Web系统遇到了很多的问题和挑战。如果Web系统不做针对性的优化,会轻而易举地陷入到异常状态。我们现在一起来讨论下,优化的思路和方法哈。 

    1. 请求接口的合理设计

    一个秒杀或者抢购页面,通常分为2个部分,一个是静态的HTML等内容,另一个就是参与秒杀的Web后台请求接口。

    通常静态HTML等内容,是通过CDN的部署,一般压力不大,核心瓶颈实际上在后台请求接口上。这个后端接口,必须能够支持高并发请求,同时,非常重要的一点,必须尽可能“快”,在最短的时间里返回用户的请求结果。为了实现尽可能快这一点,接口的后端存储使用内存级别的操作会更好一点。仍然直接面向MySQL之类的存储是不合适的,如果有这种复杂业务的需求,都建议采用异步写入。

    当然,也有一些秒杀和抢购采用“滞后反馈”,就是说秒杀当下不知道结果,一段时间后才可以从页面中看到用户是否秒杀成功。但是,这种属于“偷懒”行为,同时给用户的体验也不好,容易被用户认为是“暗箱操作”。

    2. 高并发的挑战:一定要“快”

    我们通常衡量一个Web系统的吞吐率的指标是QPS(Query Per Second,每秒处理请求数),解决每秒数万次的高并发场景,这个指标非常关键。举个例子,我们假设处理一个业务请求平均响应时间为100ms,同时,系统内有20台Apache的Web服务器,配置MaxClients为500个(表示Apache的最大连接数目)。

    那么,我们的Web系统的理论峰值QPS为(理想化的计算方式):

    20*500/0.1 = 100000 (10万QPS)

    咦?我们的系统似乎很强大,1秒钟可以处理完10万的请求,5w/s的秒杀似乎是“纸老虎”哈。实际情况,当然没有这么理想。在高并发的实际场景下,机器都处于高负载的状态,在这个时候平均响应时间会被大大增加。

    就Web服务器而言,Apache打开了越多的连接进程,CPU需要处理的上下文切换也越多,额外增加了CPU的消耗,然后就直接导致平均响应时间增加。因此上述的MaxClient数目,要根据CPU、内存等硬件因素综合考虑,绝对不是越多越好。可以通过Apache自带的abench来测试一下,取一个合适的值。然后,我们选择内存操作级别的存储的Redis,在高并发的状态下,存储的响应时间至关重要。网络带宽虽然也是一个因素,不过,这种请求数据包一般比较小,一般很少成为请求的瓶颈。负载均衡成为系统瓶颈的情况比较少,在这里不做讨论哈。

    那么问题来了,假设我们的系统,在5w/s的高并发状态下,平均响应时间从100ms变为250ms(实际情况,甚至更多):

    20*500/0.25 = 40000 (4万QPS)

    于是,我们的系统剩下了4w的QPS,面对5w每秒的请求,中间相差了1w。

    然后,这才是真正的恶梦开始。举个例子,高速路口,1秒钟来5部车,每秒通过5部车,高速路口运作正常。突然,这个路口1秒钟只能通过4部车,车流量仍然依旧,结果必定出现大塞车。(5条车道忽然变成4条车道的感觉)

    同理,某一个秒内,20*500个可用连接进程都在满负荷工作中,却仍然有1万个新来请求,没有连接进程可用,系统陷入到异常状态也是预期之内。

    其实在正常的非高并发的业务场景中,也有类似的情况出现,某个业务请求接口出现问题,响应时间极慢,将整个Web请求响应时间拉得很长,逐渐将Web服务器的可用连接数占满,其他正常的业务请求,无连接进程可用。

    更可怕的问题是,是用户的行为特点,系统越是不可用,用户的点击越频繁,恶性循环最终导致“雪崩”(其中一台Web机器挂了,导致流量分散到其他正常工作的机器上,再导致正常的机器也挂,然后恶性循环),将整个Web系统拖垮。

    3. 重启与过载保护

    如果系统发生“雪崩”,贸然重启服务,是无法解决问题的。最常见的现象是,启动起来后,立刻挂掉。这个时候,最好在入口层将流量拒绝,然后再将重启。如果是redis/memcache这种服务也挂了,重启的时候需要注意“预热”,并且很可能需要比较长的时间。

    秒杀和抢购的场景,流量往往是超乎我们系统的准备和想象的。这个时候,过载保护是必要的。如果检测到系统满负载状态,拒绝请求也是一种保护措施。在前端设置过滤是最简单的方式,但是,这种做法是被用户“千夫所指”的行为。更合适一点的是,将过载保护设置在CGI入口层,快速将客户的直接请求返回。

    二、作弊的手段:进攻与防守

    秒杀和抢购收到了“海量”的请求,实际上里面的水分是很大的。不少用户,为了“抢“到商品,会使用“刷票工具”等类型的辅助工具,帮助他们发送尽可能多的请求到服务器。还有一部分高级用户,制作强大的自动请求脚本。这种做法的理由也很简单,就是在参与秒杀和抢购的请求中,自己的请求数目占比越多,成功的概率越高。

    这些都是属于“作弊的手段”,不过,有“进攻”就有“防守”,这是一场没有硝烟的战斗哈。

    1. 同一个账号,一次性发出多个请求

    部分用户通过浏览器的插件或者其他工具,在秒杀开始的时间里,以自己的账号,一次发送上百甚至更多的请求。实际上,这样的用户破坏了秒杀和抢购的公平性。

    这种请求在某些没有做数据安全处理的系统里,也可能造成另外一种破坏,导致某些判断条件被绕过。例如一个简单的领取逻辑,先判断用户是否有参与记录,如果没有则领取成功,最后写入到参与记录中。这是个非常简单的逻辑,但是,在高并发的场景下,存在深深的漏洞。多个并发请求通过负载均衡服务器,分配到内网的多台Web服务器,它们首先向存储发送查询请求,然后,在某个请求成功写入参与记录的时间差内,其他的请求获查询到的结果都是“没有参与记录”。这里,就存在逻辑判断被绕过的风险。

     

    应对方案:

    在程序入口处,一个账号只允许接受1个请求,其他请求过滤。不仅解决了同一个账号,发送N个请求的问题,还保证了后续的逻辑流程的安全。实现方案,可以通过Redis这种内存缓存服务,写入一个标志位(只允许1个请求写成功,结合watch的乐观锁的特性),成功写入的则可以继续参加。

    或者,自己实现一个服务,将同一个账号的请求放入一个队列中,处理完一个,再处理下一个。

    2. 多个账号,一次性发送多个请求

    很多公司的账号注册功能,在发展早期几乎是没有限制的,很容易就可以注册很多个账号。因此,也导致了出现了一些特殊的工作室,通过编写自动注册脚本,积累了一大批“僵尸账号”,数量庞大,几万甚至几十万的账号不等,专门做各种刷的行为(这就是微博中的“僵尸粉“的来源)。举个例子,例如微博中有转发抽奖的活动,如果我们使用几万个“僵尸号”去混进去转发,这样就可以大大提升我们中奖的概率。

    这种账号,使用在秒杀和抢购里,也是同一个道理。例如,iPhone官网的抢购,火车票黄牛党。

    应对方案:

    这种场景,可以通过检测指定机器IP请求频率就可以解决,如果发现某个IP请求频率很高,可以给它弹出一个验证码或者直接禁止它的请求:

     

    1. 弹出验证码,最核心的追求,就是分辨出真实用户。因此,大家可能经常发现,网站弹出的验证码,有些是“鬼神乱舞”的样子,有时让我们根本无法看清。他们这样做的原因,其实也是为了让验证码的图片不被轻易识别,因为强大的“自动脚本”可以通过图片识别里面的字符,然后让脚本自动填写验证码。实际上,有一些非常创新的验证码,效果会比较好,例如给你一个简单问题让你回答,或者让你完成某些简单操作(例如百度贴吧的验证码)。
    2. 直接禁止IP,实际上是有些粗暴的,因为有些真实用户的网络场景恰好是同一出口IP的,可能会有“误伤“。但是这一个做法简单高效,根据实际场景使用可以获得很好的效果。

     

    3. 多个账号,不同IP发送不同请求

    所谓道高一尺,魔高一丈。有进攻,就会有防守,永不休止。这些“工作室”,发现你对单机IP请求频率有控制之后,他们也针对这种场景,想出了他们的“新进攻方案”,就是不断改变IP。

    有同学会好奇,这些随机IP服务怎么来的。有一些是某些机构自己占据一批独立IP,然后做成一个随机代理IP的服务,有偿提供给这些“工作室”使用。还有一些更为黑暗一点的,就是通过木马黑掉普通用户的电脑,这个木马也不破坏用户电脑的正常运作,只做一件事情,就是转发IP包,普通用户的电脑被变成了IP代理出口。通过这种做法,黑客就拿到了大量的独立IP,然后搭建为随机IP服务,就是为了挣钱。

    应对方案:

    说实话,这种场景下的请求,和真实用户的行为,已经基本相同了,想做分辨很困难。再做进一步的限制很容易“误伤“真实用户,这个时候,通常只能通过设置业务门槛高来限制这种请求了,或者通过账号行为的”数据挖掘“来提前清理掉它们。

    僵尸账号也还是有一些共同特征的,例如账号很可能属于同一个号码段甚至是连号的,活跃度不高,等级低,资料不全等等。根据这些特点,适当设置参与门槛,例如限制参与秒杀的账号等级。通过这些业务手段,也是可以过滤掉一些僵尸号。

    4. 火车票的抢购

    看到这里,同学们是否明白你为什么抢不到火车票?如果你只是老老实实地去抢票,真的很难。通过多账号的方式,火车票的黄牛将很多车票的名额占据,部分强大的黄牛,在处理验证码方面,更是“技高一筹“。

    高级的黄牛刷票时,在识别验证码的时候使用真实的人,中间搭建一个展示验证码图片的中转软件服务,真人浏览图片并填写下真实验证码,返回给中转软件。对于这种方式,验证码的保护限制作用被废除了,目前也没有很好的解决方案。

    因为火车票是根据身份证实名制的,这里还有一个火车票的转让操作方式。大致的操作方式,是先用买家的身份证开启一个抢票工具,持续发送请求,黄牛账号选择退票,然后黄牛买家成功通过自己的身份证购票成功。当一列车厢没有票了的时候,是没有很多人盯着看的,况且黄牛们的抢票工具也很强大,即使让我们看见有退票,我们也不一定能抢得过他们哈。 

    最终,黄牛顺利将火车票转移到买家的身份证下。

    解决方案:

    并没有很好的解决方案,唯一可以动心思的也许是对账号数据进行“数据挖掘”,这些黄牛账号也是有一些共同特征的,例如经常抢票和退票,节假日异常活跃等等。将它们分析出来,再做进一步处理和甄别。

    三、高并发下的数据安全

    我们知道在多线程写入同一个文件的时候,会存现“线程安全”的问题(多个线程同时运行同一段代码,如果每次运行结果和单线程运行的结果是一样的,结果和预期相同,就是线程安全的)。如果是MySQL数据库,可以使用它自带的锁机制很好的解决问题,但是,在大规模并发的场景中,是不推荐使用MySQL的。秒杀和抢购的场景中,还有另外一个问题,就是“超发”,如果在这方面控制不慎,会产生发送过多的情况。我们也曾经听说过,某些电商搞抢购活动,买家成功拍下后,商家却不承认订单有效,拒绝发货。这里的问题,也许并不一定是商家奸诈,而是系统技术层面存在超发风险导致的。

    1. 超发的原因

    假设某个抢购场景中,我们一共只有100个商品,在最后一刻,我们已经消耗了99个商品,仅剩最后一个。这个时候,系统发来多个并发请求,这批请求读取到的商品余量都是99个,然后都通过了这一个余量判断,最终导致超发。(同文章前面说的场景)

    在上面的这个图中,就导致了并发用户B也“抢购成功”,多让一个人获得了商品。这种场景,在高并发的情况下非常容易出现。

    2. 悲观锁思路

    解决线程安全的思路很多,可以从“悲观锁”的方向开始讨论。

    悲观锁,也就是在修改数据的时候,采用锁定状态,排斥外部请求的修改。遇到加锁的状态,就必须等待。

    虽然上述的方案的确解决了线程安全的问题,但是,别忘记,我们的场景是“高并发”。也就是说,会很多这样的修改请求,每个请求都需要等待“锁”,某些线程可能永远都没有机会抢到这个“锁”,这种请求就会死在那里。同时,这种请求会很多,瞬间增大系统的平均响应时间,结果是可用连接数被耗尽,系统陷入异常。

    3. FIFO队列思路

    那好,那么我们稍微修改一下上面的场景,我们直接将请求放入队列中的,采用FIFO(First Input First Output,先进先出),这样的话,我们就不会导致某些请求永远获取不到锁。看到这里,是不是有点强行将多线程变成单线程的感觉哈。

    然后,我们现在解决了锁的问题,全部请求采用“先进先出”的队列方式来处理。那么新的问题来了,高并发的场景下,因为请求很多,很可能一瞬间将队列内存“撑爆”,然后系统又陷入到了异常状态。或者设计一个极大的内存队列,也是一种方案,但是,系统处理完一个队列内请求的速度根本无法和疯狂涌入队列中的数目相比。也就是说,队列内的请求会越积累越多,最终Web系统平均响应时候还是会大幅下降,系统还是陷入异常。

    4. 乐观锁思路

    这个时候,我们就可以讨论一下“乐观锁”的思路了。乐观锁,是相对于“悲观锁”采用更为宽松的加锁机制,大都是采用带版本号(Version)更新。实现就是,这个数据所有请求都有资格去修改,但会获得一个该数据的版本号,只有版本号符合的才能更新成功,其他的返回抢购失败。这样的话,我们就不需要考虑队列的问题,不过,它会增大CPU的计算开销。但是,综合来说,这是一个比较好的解决方案。

    5. 缓存服务器 

    Redis分布式要保证数据都能能够平均的缓存到每一台机器,首先想到的做法是对数据进行分片,因为Redis是key-value存储的,首先想到的是Hash分片,可能的做法是对key进行哈希运算,得到一个long值对分布式的数量取模会得到一个一个对应数据库的一个映射,没有读取就可以定位到这台数据库

    有很多软件和服务都“乐观锁”功能的支持,例如Redis中的watch就是其中之一。通过这个实现,我们保证了数据的安全。

    四、小结

    互联网正在高速发展,使用互联网服务的用户越多,高并发的场景也变得越来越多。电商秒杀和抢购,是两个比较典型的互联网高并发场景。虽然我们解决问题的具体技术方案可能千差万别,但是遇到的挑战却是相似的,因此解决问题的思路也异曲同工。

    个人整理并发解决方案。

         a.应用层面:读写分离、缓存、队列、集群、令牌、系统拆分、隔离、系统升级(可水平扩容方向)。

         b.时间换空间:降低单次请求时间,这样在单位时间内系统并发就会提升。

         c.空间换时间:拉长整体处理业务时间,换取后台系统容量空间。

     

    展开全文
  • Java并发编程与高并发解决方案-学习笔记
  • Java项目中高并发问题的简单解决方案 1、尽量使用缓存技术来做。用户缓存,页面缓存等一切缓存,使用特定的机制进行刷新。利用消耗内存空间来换取用户的效率,同时减少数据库的访问次数。 2、把数据库的查询语句进行...
  • Java高并发并发导图 首先介绍连接池 1:ExecutorService是Executor直接的扩展接口,也是最常用的线程池接口,我们通常见到的线程池定时任务线程池都是它的实现类。 2:Executor的实现提供的一些方法可以返回一...
  • java并发编程与并发解决方案是自己多年开发和学习的笔记,有助于(ˇˍˇ) 想~进一步提高的java开发工程师或架构师深入的学习java架构并发处理。同时,它也是 在实际工作中多年高并发解决方案和经验的总结
  • JAVA中的高并发解决高并发方案

    千次阅读 2020-05-20 21:09:04
    java高并发,多线程
  • 为了解决高并发请求下,点赞功能同步处理所带来的服务器压力(Redis缓存的压力或数据库压力等),我们发布MQ消息中间件进行异步处理,用户每次点赞都会推动消息到MQ服务器并同时返回,这样用户的点赞请求就及时结束...
  • 第11章高并发之扩容思路 第12章高并发之缓存思路 第13章高并发之消息队列思路 第14章高并发之应用拆分思路 第15章高并发之应用限流思路 第16章高并发之服务降级与服务熔断思路8 第17章高并发之数据库切库分库分表...
  • 详细的讲述了并发、高并发、CPU Cache、CPU多级缓存、CPU多级缓存 - 缓存一致性(MESI)、CPU多级缓存-乱序执行优化、Java内存模型(Java Memory Model,JMM)、并发的优势和风险...等等图文并茂详解
  • Java并发编程与高并发解决方案-学习笔记-www.itmuch.com
  • 主要介绍了java web在高并发和分布式下实现订单号生成唯一的解决方案,需要的朋友可以参考下
  • Java秒杀系统方案优化-高性能高并发实战 Java秒杀系统方案优化-高性能高并发实战
  • 互联网高并发必会技能,不会高并发java开发不是合格的程序员!!!
  • Java高并发解决方案(参考文)

    千次阅读 2018-01-10 09:27:19
    Java高并发解决方案(参考文) 对于我们开发的网站,如果网站的访问量非常大的话,那么我们就需要考虑相关的并发访问问题了。而并发问题是绝大部分的程序员头疼的问题,但话又说回来了,既然逃避不掉,那我们就...
  • java并发编程与高并发解决方案.docx

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 182,170
精华内容 72,868
关键字:

java高并发解决方案