皮皮网
皮皮网

【源码表】【fastjson源码解读】【任务源码模板】多线程微服务源码_微服务多线程使用

来源:集客ap源码 发表时间:2024-11-30 00:55:04

1.Reactive Spring实战 -- 理解Reactor的多线设计与实现
2.《github精选系列》——多线程编程一站式解决方案(asyncTool)
3.微服务网关对比和选型:Zuul、Spring Cloud GetWay、程微Kong和Traefik
4.一文搞懂大数据批量处理框架Spring Batch的服务完美解析方案是什么。
5.微服务架构的源码分布式事务问题如何处理?
6.从单机到分布式微服务,大文件校验上传的微服务多通用解决方案

多线程微服务源码_微服务多线程使用

Reactive Spring实战 -- 理解Reactor的设计与实现

       Reactor是Spring提供的非阻塞式响应式编程框架,实现了Reactive Streams规范。线程源码表它提供了可组合的使用异步序列API,包括用于多个元素的多线Flux和用于零到一个元素的Mono。

       Reactor Netty项目还支持非阻塞式网络通信,程微非常适合微服务架构,服务为HTTP(包括Websockets),源码TCP和UDP提供了响应式编程基础。微服务多本文将通过实例展示和源码阅读,线程深入分析Reactor的使用核心设计与实现机制。

       Reactor源码基于版本3.3。多线

       响应式编程是一个专注于数据流和变化传递的异步编程范式,允许使用编程语言表示静态或动态数据流。

       Reactor中,发布者(Publisher)负责生产数据,订阅者(Subscriber)负责处理和消费数据。创建发布者和订阅者后,通过建立订阅关系,发布者开始生产数据并传递给订阅者。

       Flux和Mono是两种发布者类型,分别用于生产多个数据元素和单个数据元素。例如,Flux.range和fromArray等静态方法会返回Flux子类。

       Reactor中关键方法包括Publisher#subscribe和Flux#subscribe。订阅者在onSubscribe方法中接收订阅关系,然后通过Subscription#request方法向发布者请求数据。

       RangeSubscription#request、Subscriber#onNext和CoreSubscriber的内部逻辑展示了数据流转的过程。Flux子类的subscribe方法创建Subscription,将操作符逻辑转移到Subscriber端。

       操作符方法,如skip、distinct、sort和filter,是Reactor的核心,用于处理和组合数据流。例如,myHandler作为订阅者,可以处理生成的Flux子类序列。

       Reactor支持push和pull模式。pull模式通过Flux#generate和Sink缓存数据,而push模式则通过Flux#create,允许多线程同时推送数据。

       Reactor提供线程与调度器支持,例如parallel、single、boundedElastic和parallel。这些调度器允许在不同线程环境下执行操作。

       Reactor中的publishOn和subscribeOn操作符方法用于切换操作上下文,分别影响后续操作和整个链路的线程执行环境。

       流量控制是响应式编程中的重要概念,FluxSink.OverflowStrategy定义了在数据生产速度超过消费速度时的策略,如忽略、错误或缓存数据。

       Reactor通过实例和源码展示了响应式编程的概念和实现机制,以及如何在实际应用中使用。通过WebFlux和AsyncRestTemplate的比较,将揭示响应式编程带来的优势。

《github精选系列》——多线程编程一站式解决方案(asyncTool)

       简单总结

       并行常见的场景包括客户端请求服务端接口时调用其他微服务接口,以及同时执行多个任务并根据结果决定后续操作。并行执行N个任务时,可以并行查询数据库,或分批次查询多个数据。fastjson源码解读存在多批次任务时,每组任务需独立执行。单机工作流任务编排以及存在顺序依赖的任务也常见于并行场景。

       核心——任意编排

       多执行单元的串行或并行请求、阻塞等待以及串并行相互依赖是并行场景的核心。通过回调功能,可以监控并行任务的执行情况。

       需求之——每个执行结果的回调

       传统Future和CompleteableFuture支持任务编排,但无法对每个执行单元进行回调。引入框架可提供回调功能,并允许设置执行异常或超时时的默认值。

       需求之——执行顺序的强依赖和弱依赖

       框架提供allOf和anyOf方法,用于处理强依赖和弱依赖任务的执行顺序。

       需求之——依赖上游执行结果作为入参

       框架支持根据上游任务结果设定下游任务的入参,确保任务间依赖关系的正确处理。

       需求之——全组任务的超时

       通过设置时间阈值,可控制一组任务的总执行时间。

       需求之——高性能、低线程数

       全程无锁,减少线程创建,优化性能。

       asyncTool特点

       提供灵活的多线程并发解决方案,允许任意组合执行顺序,支持全链路回调和超时控制。每个最小执行单元(worker)支持结果回调和异常处理。支持后续任务基于前序任务结果的依赖。

       《github精选系列》将持续更新,关注获取更多内容。文章有帮助可点赞支持,收藏、转发后阅读。欢迎评论补充,感谢大家的支持!

微服务网关对比和选型:Zuul、Spring Cloud GetWay、Kong和Traefik

       微服务网关的选型与对比分析

       在微服务架构中,API网关扮演着至关重要的角色。本文将比较和探讨四个常见的微服务网关:Zuul、Spring Cloud Gateway、Kong以及Traefik。首先,让我们了解一下它们各自的特性:

Nginx:一个高效且多功能的HTTP代理服务器,可以做反向代理和静态资源服务器,支持Lua定制功能。

Zuul:Netflix开源,与Spring Cloud生态紧密集成,提供过滤器机制和两种版本(Zuul1基于Servlet,阻塞多线程,Zuul2异步无阻塞)。

Spring Cloud Gateway:Spring Cloud的最新API网关,基于高性能的WebFlux,性能优于Zuul,支持路由、负载均衡等功能。

Kong:Mashape开源,基于OpenResty,支持插件机制,适用于高并发和水平扩展。

Traefik:现代反向代理和负载均衡工具,支持多种后台配置,易于自动化部署。

       其中,我们的自研微服务网关基于Traefik,技术选型、框架设计以及后台处理都有独特之处。它由网关框架、任务源码模板后台模块和协议转换模块组成,其中协议转换模块是核心,通过Resolver模块获取服务主机信息,协议模块负责数据转换,连接池则采用高效无锁操作实现并发性能提升。

       选择API网关时,应考虑实际需求,如性能、扩展性、与现有技术栈的兼容性以及社区支持。每个网关都有其优点和适用场景,务必结合团队的技术背景和项目特点进行综合评估。

一文搞懂大数据批量处理框架Spring Batch的完美解析方案是什么。

       如今微服务架构讨论的如火如荼。但在企业架构里除了大量的OLTP交易外,还存在海量的批处理交易。在诸如银行的金融机构中,每天有3-4万笔的批处理作业需要处理。针对OLTP,业界有大量的开源框架、优秀的架构设计给予支撑;但批处理领域的框架确凤毛麟角。是时候和我们一起来了解下批处理的世界哪些优秀的框架和设计了,今天我将以SpringBatch为例,和大家一起探秘批处理的世界。

       初识批处理典型场景探秘领域模型及关键架构实现作业健壮性与扩展性批处理框架的不足与增强批处理典型业务场景

       对账是典型的批处理业务处理场景,各个金融机构的往来业务和跨主机系统的业务都会涉及到对账的过程,如大小额支付、银联交易、人行往来、现金管理、POS业务、ATM业务、证券公司资金账户、证券公司与证券结算公司。

       下面是某行网银的部分日终跑批实例场景需求。

       涉及到的需求点包括:

       批量的每个单元都需要错误处理和回退;每个单元在不同平台中运行;需要有分支选择;每个单元需要监控和获取单元处理日志;提供多种触发规则,按日期,日历,周期触发;

       除此之外典型的批处理适用于如下的业务场景:

       定期提交批处理任务(日终处理)并行批处理:并行处理任务企业消息驱动处理大规模的并行处理手动或定时重启按顺序处理依赖的任务(可扩展为工作流驱动的批处理)部分处理:忽略记录(例如在回滚时)完整的批处理事务

       与OLTP类型交易不同,批处理作业两个典型特征是批量执行与自动执行(需要无人值守):前者能够处理大批量数据的导入、导出和业务逻辑计算;后者无需人工干预,能够自动化执行批量任务。

       在关注其基本功能之外,还需要关注如下的几点:

       健壮性:不会因为无效数据或错误数据导致程序崩溃;可靠性:通过跟踪、监控、日志及相关的处理策略(重试、跳过、重启)实现批作业的可靠执行;扩展性:通过并发或者并行技术实现应用的纵向和横向扩展,满足海量数据处理的性能需求;

       苦于业界真的缺少比较好的批处理框架,SpringBatch是业界目前为数不多的优秀批处理框架(Java语言开发),SpringSource和Accenture(埃森哲)共同贡献了智慧。

       Accenture在批处理架构上有着丰富的工业级别的经验,贡献了之前专用的批处理体系框架(这些框架历经数十年研发和使用,为SpringBatch提供了大量的参考经验)。

       SpringSource则有着深刻的技术认知和Spring框架编程模型,同时借鉴了JCL(JobControlLanguage)和COBOL的语言特性。年JSR-将批处理纳入规范体系,并被包含在了JEE7之中。这意味着,所有的JEE7应用服务器都会有批处理的能力,目前第一个实现此规范的应用服务器是Glassfish4。当然也可以在JavaSE中使用。

       但最为关键的一点是:JSR-规范大量借鉴了SpringBatch框架的设计思路,从上图中的核心模型和概念中可以看出究竟,核心的概念模型完全一致。

       通过SpringBatch框架可以构建出轻量级的健壮的并行处理应用,支持事务、并发、asp源码编码流程、监控、纵向和横向扩展,提供统一的接口管理和任务管理。

       框架提供了诸如以下的核心能力,让大家更关注在业务处理上。更是提供了如下的丰富能力:

       明确分离批处理的执行环境和应用将通用核心的服务以接口形式提供提供“开箱即用”的简单的默认的核心执行接口提供Spring框架中配置、自定义、和扩展服务所有默认实现的核心服务能够容易的被扩展与替换,不会影响基础层提供一个简单的部署模式,使用Maven进行编译批处理关键领域模型及关键架构

       先来个HelloWorld示例,一个典型的批处理作业。

       典型的一个作业分为3部分:作业读、作业处理、作业写,也是典型的三步式架构。整个批处理框架基本上围绕Read、Process、Writer来处理。除此之外,框架提供了作业调度器、作业仓库(用以存放Job的元数据信息,支持内存、DB两种模式)。

       完整的领域概念模型参加下图:

       JobLauncher(作业调度器)是SpringBatch框架基础设施层提供的运行Job的能力。通过给定的Job名称和作JobParameters,可以通过JobLauncher执行Job。

       通过JobLauncher可以在Java程序中调用批处理任务,也可以在通过命令行或者其它框架(如定时调度框架Quartz)中调用批处理任务。

       JobRepository来存储Job执行期的元数据(这里的元数据是指JobInstance、JobExecution、JobParameters、StepExecution、ExecutionContext等数据),并提供两种默认实现。

       一种是存放在内存中;另一种将元数据存放在数据库中。通过将元数据存放在数据库中,可以随时监控批处理Job的执行状态。Job执行结果是成功还是失败,并且使得在Job失败的情况下重新启动Job成为可能。Step表示作业中的一个完整步骤,一个Job可以有一个或者多个Step组成。

       批处理框架运行期的模型也非常简单:

       JobInstance(作业实例)是一个运行期的概念,Job每执行一次都会涉及到一个JobInstance。

       JobInstance来源可能有两种:一种是根据设置的JobParameters从JobRepository(作业仓库)中获取一个;如果根据JobParameters从JobRepository没有获取JobInstance,则新创建一个新的JobInstance。

       JobExecution表示Job执行的句柄,一次Job的执行可能成功也可能失败。只有Job执行成功后,对应的JobInstance才会被完成。因此在Job执行失败的情况下,会有一个JobInstance对应多个JobExecution的场景发生。

       总结下批处理的典型概念模型,其设计非常精简的十个概念,完整支撑了整个框架。

       Job提供的核心能力包括作业的抽象与继承,类似面向对象中的概念。对于执行异常的作业,提供重启的能力。

       框架在Job层面,同样提供了作业编排的概念,包括顺序、条件、并行作业编排。

       在一个Job中配置多个Step。不同的Step间可以顺序执行,也可以按照不同的口子网源码条件有选择的执行(条件通常使用Step的退出状态决定),通过next元素或者decision元素来定义跳转规则;

       为了提高多个Step的执行效率,框架提供了Step并行执行的能力(使用split进行声明,通常该情况下需要Step之间没有任何的依赖关系,否则容易引起业务上的错误)。Step包含了一个实际运行的批处理任务中的所有必需的信息,其实现可以是非常简单的业务实现,也可以是非常复杂的业务处理,Step的复杂程度通常是业务决定的。

       每个Step由ItemReader、ItemProcessor、ItemWriter组成,当然根据不同的业务需求,ItemProcessor可以做适当的精简。同时框架提供了大量的ItemReader、ItemWriter的实现,提供了对FlatFile、XML、Json、DataBase、Message等多种数据类型的支持。

       框架还为Step提供了重启、事务、重启次数、并发数;以及提交间隔、异常跳过、重试、完成策略等能力。基于Step的灵活配置,可以完成常见的业务功能需求。其中三步走(Read、Processor、Writer)是批处理中的经典抽象。

       作为面向批的处理,在Step层提供了多次读、处理,一次提交的能力。

       在Chunk的操作中,可以通过属性commit-interval设置read多少条记录后进行一次提交。通过设置commit-interval的间隔值,减少提交频次,降低资源使用率。Step的每一次提交作为一个完整的事务存在。默认采用Spring提供的声明式事务管理模式,事务编排非常方便。如下是一个声明事务的示例:

       框架对于事务的支持能力包括:

       Chunk支持事务管理,通过commit-interval设置每次提交的记录数;支持对每个Tasklet设置细粒度的事务配置:隔离界别、传播行为、超时;支持rollback和norollback,通过skippable-exception-classes和no-rollback-exception-classes进行支撑;支持JMSQueue的事务级别配置;

       另外,在框架资深的模型抽象方面,SpringBatch也做了极为精简的抽象。

       仅仅使用六张业务表存储了所有的元数据信息(包括Job、Step的实例,上下文,执行器信息,为后续的监控、重启、重试、状态恢复等提供了可能)。

       BATCH_JOB_INSTANCE:作业实例表,用于存放Job的实例信息BATCH_JOB_EXECUTION_PARAMS:作业参数表,用于存放每个Job执行时候的参数信息,该参数实际对应Job实例的。BATCH_JOB_EXECUTION:作业执行器表,用于存放当前作业的执行信息,比如创建时间,执行开始时间,执行结束时间,执行的那个Job实例,执行状态等。BATCH_JOB_EXECUTION_CONTEXT:作业执行上下文表,用于存放作业执行器上下文的信息。BATCH_STEP_EXECUTION:作业步执行器表,用于存放每个Step执行器的信息,比如作业步开始执行时间,执行完成时间,执行状态,读写次数,跳过次数等信息。BATCH_STEP_EXECUTION_CONTEXT:作业步执行上下文表,用于存放每个作业步上下文的信息。实现作业的健壮性与扩展性

       批处理要求Job必须有较强的健壮性,通常Job是批量处理数据、无人值守的,这要求在Job执行期间能够应对各种发生的异常、错误,并对Job执行进行有效的跟踪。

       一个健壮的Job通常需要具备如下的几个特性:

       1.容错性

       在Job执行期间非致命的异常,Job执行框架应能够进行有效的容错处理,而不是让整个Job执行失败;通常只有致命的、导致业务不正确的异常才可以终止Job的执行。

       2.可追踪性

       Job执行期间任何发生错误的地方都需要进行有效的记录,方便后期对错误点进行有效的处理。例如在Job执行期间任何被忽略处理的记录行需要被有效的记录下来,应用程序维护人员可以针对被忽略的记录后续做有效的处理。

       3.可重启性

       Job执行期间如果因为异常导致失败,应该能够在失败的点重新启动Job;而不是从头开始重新执行Job。

       框架提供了支持上面所有能力的特性,包括Skip(跳过记录处理)、Retry(重试给定的操作)、Restart(从错误点开始重新启动失败的Job):

       Skip,在对数据处理期间,如果数据的某几条的格式不能满足要求,可以通过Skip跳过该行记录的处理,让Processor能够顺利的处理其余的记录行。Retry,将给定的操作进行多次重试,在某些情况下操作因为短暂的异常导致执行失败,如网络连接异常、并发处理异常等,可以通过重试的方式避免单次的失败,下次执行操作时候网络恢复正常,不再有并发的异常,这样通过重试的能力可以有效的避免这类短暂的异常。Restart,在Job执行失败后,可以通过重启功能来继续完成Job的执行。在重启时候,批处理框架允许在上次执行失败的点重新启动Job,而不是从头开始执行,这样可以大幅提高Job执行的效率。

       对于扩展性,框架提供的扩展能力包括如下的四种模式:

       MultithreadedStep多线程执行一个Step;ParallelStep通过多线程并行执行多个Step;RemoteChunking在远端节点上执行分布式Chunk操作;PartitioningStep对数据进行分区,并分开执行;

       我们先来看第一种的实现MultithreadedStep:

       批处理框架在Job执行时默认使用单个线程完成任务的执行,同时框架提供了线程池的支持(MultithreadedStep模式),可以在Step执行时候进行并行处理,这里的并行是指同一个Step使用线程池进行执行,同一个Step被并行的执行。使用tasklet的属性task-executor可以非常容易的将普通的Step变成多线程Step。

       MultithreadedStep的实现示例:

       需要注意的是SpringBatch框架提供的大部分的ItemReader、ItemWriter等操作都是线程不安全的。

       可以通过扩展的方式显现线程安全的Step。

       下面为大家展示一个扩展的实现:

       需求:针对数据表的批量处理,实现线程安全的Step,并且支持重启能力,即在执行失败点可以记录批处理的状态。

       对于示例中的数据库读取组件JdbcCursorItemReader,在设计数据库表时,在表中增加一个字段Flag,用于标识当前的记录是否已经读取并处理成功,如果处理成功则标识Flag=true,等下次重新读取的时候,对于已经成功读取且处理成功的记录直接跳过处理。

       MultithreadedStep(多线程步)提供了多个线程执行一个Step的能力,但这种场景在实际的业务中使用的并不是非常多。

       更多的业务场景是Job中不同的Step没有明确的先后顺序,可以在执行期并行的执行。

       ParallelStep:提供单个节点横向扩展的能力

       使用场景:StepA、StepB两个作业步由不同的线程执行,两者均执行完毕后,StepC才会被执行。

       框架提供了并行Step的能力。可以通过Split元素来定义并行的作业流,并制定使用的线程池。

       ParallelStep模式的执行效果如下:

       每个作业步并行处理不同的记录,示例中三个作业步,处理同一张表中的不同数据。

       并行Step提供了在一个节点上横向处理,但随着作业处理量的增加,有可能一台节点无法满足Job的处理,此时我们可以采用远程Step的方式将多个机器节点组合起来完成一个Job的处理。

       RemoteChunking:远程Step技术本质上是将对Item读、写的处理逻辑进行分离;通常情况下读的逻辑放在一个节点进行操作,将写操作分发到另外的节点执行。

       远程分块是一个把step进行技术分割的工作,不需要对处理数据的结构有明确了解。

       任何输入源能够使用单进程读取并在动态分割后作为块发送给远程的工作进程。

       远程进程实现了监听者模式,反馈请求、处理数据最终将处理结果异步返回。请求和返回之间的传输会被确保在发送者和单个消费者之间。

       在Master节点,作业步负责读取数据,并将读取的数据通过远程技术发送到指定的远端节点上,进行处理,处理完毕后Master负责回收Remote端执行的情况。

       在SpringBatch框架中通过两个核心的接口来完成远程Step的任务,分别是ChunkProvider与ChunkProcessor。

       ChunkProvider:根据给定的ItemReader操作产生批量的Chunk操作;

       ChunkProcessor:负责获取ChunkProvider产生的Chunk操作,执行具体的写逻辑;

       SpringBatch中对远程Step没有默认的实现,但我们可以借助SI或者AMQP实现来实现远程通讯能力。

       Step本地节点负责读取数据,并通过MessagingGateway将请求发送到远程Step上;远程Step提供了队列的监听器,当请求队列中有消息时候获取请求信息并交给ChunkHander负责处理。

       接下来我们看下最后一种分区模式;PartitioningStep:分区模式需要对数据的结构有一定的了解,如主键的范围、待处理的文件的名字等。

       这种模式的优点在于分区中每一个元素的处理器都能够像一个普通SpringBatch任务的单步一样运行,也不必去实现任何特殊的或是新的模式,来让他们能够更容易配置与测试。

       通过分区可以实现以下的优点:

       分区实现了更细粒度的扩展;基于分区可以实现高性能的数据切分;分区比远程通常具有更高的扩展性;分区后的处理逻辑,支持本地与远程两种模式;分区作业典型的可以分成两个处理阶段,数据分区、分区处理;

       数据分区:根据特殊的规则(例如:根据文件名称,数据的唯一性标识,或者哈希算法)将数据进行合理的数据切片,为不同的切片生成数据执行上下文ExecutionContext、作业步执行器StepExecution。可以通过接口Partitioner生成自定义的分区逻辑,SpringBatch批处理框架默认实现了对多文件的实现org.springframework.batch.core.partition.support.MultiResourcePartitioner;也可以自行扩展接口Partitioner来实现自定义的分区逻辑。

       分区处理:通过数据分区后,不同的数据已经被分配到不同的作业步执行器中,接下来需要交给分区处理器进行作业,分区处理器可以本地执行也可以远程执行被划分的作业。接口PartitionHandler定义了分区处理的逻辑,SpringBatch批处理框架默认实现了本地多线程的分区处理org.springframework.batch.core.partition.support.TaskExecutorPartitionHandler;也可以自行扩展接口PartitionHandler来实现自定义的分区处理逻辑。

       SpringBatch框架提供了对文件分区的支持,实现类org.springframework.batch.core.partition.support.MultiResourcePartitioner提供了对文件分区的默认支持,根据文件名将不同的文件处理进行分区,提升处理的速度和效率,适合有大量小文件需要处理的场景。

       示例展示了将不同文件分配到不同的作业步中,使用MultiResourcePartitioner进行分区,意味着每个文件会被分配到一个不同的分区中。如果有其它的分区规则,可以通过实现接口Partitioner来进行自定义的扩展。有兴趣的TX,可以自己实现基于数据库的分区能力哦。

       总结一下,批处理框架在扩展性上提供了4中不同能力,每种都是各自的使用场景,我们可以根据实际的业务需要进行选择。

       批处理框架的不足与增强

       SpringBatch批处理框架虽然提供了4种不同的监控方式,但从目前的使用情况来看,都不是非常的友好。

       通过DB直接查看,对于管理人员来讲,真的不忍直视;通过API实现自定义的查询,这是程序员的天堂,确实运维人员的地狱;提供了Web控制台,进行Job的监控和操作,目前提供的功能太,无法直接用于生产;提供JMX查询方式,对于非开发人员太不友好;

       但在企业级应用中面对批量数据处理,仅仅提供批处理框架仅能满足批处理作业的快速开发、执行能力。

       企业需要统一的批处理平台来处理复杂的企业批处理应用,批处理平台需要解决作业的统一调度、批处理作业的集中管理和管控、批处理作业的统一监控等能力。

       那完美的解决方案是什么呢?

       关注我:转发私信回复“架构资料”获取Java高级架构资料、源码、笔记、视频

       Dubbo、Redis、设计模式、Netty、zookeeper、Springcloud、分布式、微服务

       高并发等架构技术

       企业级批处理平台需要在SpringBatch批处理框架的基础上,集成调度框架,通过调度框架可以将任务按照企业的需求进行任务的定期执行;

       丰富目前SpringBatchAdmin(SpringBatch的管理监控平台,目前能力比较薄弱)框架,提供对Job的统一管理功能,增强Job作业的监控、预警等能力;

       通过与企业的组织机构、权限管理、认证系统进行合理的集成,增强平台对Job作业的权限控制、安全管理能力。

       由于时间关系,今天的分享就到这里,很多内容未能展开讨论。欢迎大家在实际业务中使用SpringBatch框架。

       最后的话

       觉得还不错可以转发关注支持一波~私信架构资料获取一些我私人整理的Java进阶资料!

       为什么某些人会一直比你优秀,是因为他本身就很优秀还一直在持续努力变得更优秀。而你是不是还在满足于现状且内心在窃喜?“对于程序员来说,如果哪一天开始他停止了学习,那么他的职业生涯便开始宣告消亡。”所以行动起来,学习起来!

微服务架构的分布式事务问题如何处理?

       分布式系统架构中,分布式事务问题是一个绕不过去的挑战。而微服务架构的流行,让分布式事问题日益突出!

       下面我们以电商购物支付流程中,在各大参与者系统中可能会遇到分布式事务问题的场景进行详细的分析!

       如上图所示,假设三大参与平台(电商平台、支付平台、银行)的系统都做了分布式系统架构拆分,按上数中的流程步骤进行分析:

       1、电商平台中创建订单:预留库存、预扣减积分、锁定优惠券,此时电商平台内各服务间会有分布式事务问题,因为此时已经要跨多个内部服务修改数据;

       2、支付平台中创建支付订单(选银行卡支付):查询账户、查询限制规则,符合条件的就创建支付订单并跳转银行,此时不会有分布式事务问题,因为还不会跨服务改数据;

       3、银行平台中创建交易订单:查找账户、创建交易记录、判断账户余额并扣款、增加积分、通知支付平台,此时也会有分布式事务问题(如果是服务化架构的话);

       4、支付平台收到银行扣款结果:更改订单状态、给账户加款、给积分帐户增加积分、生成会计分录、通知电商平台等,此时也会有分布式事务问题;

       5、电商平台收到支付平台的支付结果:更改订单状态、扣减库存、扣减积分、使用优惠券、增加消费积分等,系统内部各服务间调用也会遇到分布式事问题;

       如上图,支付平台收到银行扣款结果后的内部处理流程:

       1、支付平台的支付网关对银行通知结果进行校验,然后调用支付订单服务执行支付订单处理;

       2、支付订单服务根据银行扣款结果更改支付订单状态;

       3、调用资金账户服务给电商平台的商户账户加款(实际过程中可能还会有各种的成本计费;如果是余额支付,还可能是同时从用户账户扣款,给商户账户加款);

       4、调用积分服务给用户积分账户增加积分;

       5、调用会计服务向会计(财务)系统写进交易原始凭证生成会计分录;

       6、调用通知服务将支付处理结果通知电商平台;

       如上图,把支付系统中的银行扣款成功回调处理流程提取出来,对应的分布式事务问题的代码场景:

       /** 支付订单处理 **/

       @Transactional(rollbackFor = Exception.class)

       public void completeOrder() {

         orderDao.update();  // 订单服务本地更新订单状态

         accountService.update();  // 调用资金账户服务给资金帐户加款

         pointService.update();  // 调用积分服务给积分帐户增加积分

         accountingService.insert();  // 调用会计服务向会计系统写入会计原始凭证

         merchantNotifyService.notify();  // 调用商户通知服务向商户发送支付结果通知

       }

       本地事务控制还可行吗?

       以上分布式事务问题,需要多种分布式事务解决方案来进行处理。

       订单处理:本地事务

       资金账户加款、积分账户增加积分:TCC型事务(或两阶段提交型事务),实时性要求比较高,数据必须可靠。

       会计记账:异步确保型事务(基于可靠消息的最终一致性,可以异步,但数据绝对不能丢,而且一定要记账成功)

       商户通知:最大努力通知型事务(按规律进行通知,不保证数据一定能通知成功,但会提供可查询操作接口进行核对)

从单机到分布式微服务,大文件校验上传的通用解决方案

       本文总结了一种从单体架构到分布式微服务都适用的文件上传和校验的通用解决方案,旨在形成完整的方法论。该方案运用多线程、设计模式、分而治之、MapReduce等手段,适用于有一定开发经验的开发者。下面详细阐述关键步骤。

       文件上传场景常见于C端或B端应用中,后端服务器需进行校验,如文件名称、大小、内容等。文件内容校验尤其复杂,因涉及业务逻辑和技术挑战。

       针对电商后台系统上传csv格式sku信息文档的挑战,分析为IO密集型场景,需要提升网络IO性能。Java多线程可优化单机性能,调整线程池数量以合理利用CPU和内存资源。对于CPU密集型任务,线程数为CPU核心数的1~2倍;对于IO密集型任务,线程数计算基于公式。使用了固定线程池,并设置为个线程,以平衡上传任务与其他服务。

       责任链模式简化了校验逻辑,将条件判断部分放入处理类中,提高代码可读性和维护性。遍历处理类进行校验,校验不通过则返回结果,通过则继续进入下一个处理类。

       在面临单机性能瓶颈时,可采用分布式文件上传最佳实践,借鉴MapReduce技术。MapReduce通过分而治之思想,将大任务分解为小任务,分配至服务器求解,再汇总结果,适用于海量数据场景。

       解决MQ消费中获取用户信息异常问题,避免空指针异常,需在MQ应用中调整逻辑获取用户信息。Idea远程Debug工具提升代码调试效率,配置远程Tomcat添加启动参数,确保本地与远程代码一致,避免无法进入断点的情况。

       总结通用解决方案,包括多线程优化单机性能、责任链模式简化校验逻辑、分而治之实现分布式任务协作,以及MapReduce技术应对大数据场景。最终目标是形成一套适用于不同架构阶段的高效文件上传和校验方法。

相关栏目:娱乐

.重点关注