基于SPringBatch数据迁移处理系统的设计与实现_第1页
基于SPringBatch数据迁移处理系统的设计与实现_第2页
基于SPringBatch数据迁移处理系统的设计与实现_第3页
基于SPringBatch数据迁移处理系统的设计与实现_第4页
基于SPringBatch数据迁移处理系统的设计与实现_第5页
已阅读5页,还剩2页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、    基于springbatch数据迁移处理系统的设计与实现    金石声李珏摘要本省自动气象观测系统根据观测要素的不同分为单雨量系统、两要素系统和六要素系统。三类观测系统分别接收各自站点采集的报文进行解码入库,同时通过ftp将数据报文发送到综合处理系统再次进行解码入库。这样的处理流程不仅增加网络负担,还进行了重复的解码工作,资源利用率低。为此本文采用基于spring batch的框架,定时对三个不同观测系统的后台数据库的实时数据向综合处理系统的数据库进行迁移。该流程采用数据分区技术,多线程并行处理,在减少了对网络带宽的占用量的同时,降低了各个系统cp

2、u使用量,提高了工作效率。关键词spring batch 数据迁移 数据分区 多线程引言本省的气象自动站综合系统需要对已经进行过解码入库的单雨量、两要素和六要素观测报文进行集中,再次进行解码后插入综合数据库,并以此对外提供服务。这样的处理流程不仅在资源利用、网络带宽的占用都产生了很大的浪费。通过分别读取单雨量、两要素和六要素的数据库,对已经入库的数据进行准实时的迁移,在降低网络带宽占用的同时,也能降低综合处理系统的资源占用。但是基于大量的数据读写,且重复性高工作,传统的编程方式处理不仅繁琐,且维护性低。已经spring batch的出现无疑是解决这种问题的一种有效工具。由于目前已经有比较成熟的

3、开源框架支持批处理的需求,所以本方案拟选用开源框架spring batch。这样可以借助开源框架比较成熟的代码,减少研究的难度,加强框架扩展性,减少研发周期,加快实际应用进度,并且保证程序的稳定性。一、spring batch简介spring batch是spring的一个子项目,由spring source与accenture(埃森哲)合作开发的批处理框架。springhatch对编写批处理程序本身的特性进行了抽象。将批处理程序分为job和job step两个部分,将处理环节定义为数据读、数据处理和数据写三个步骤。提供job repository来存储job执行期间的元数据,可以在处理大量的

4、数据时,提供日志记录/跟踪,事务管理,处理统计,资源管理等特性。此外,还提供了分区技术采用多线程方式并行处理作业。二、系统总体架构设计考虑到系统可能出现的单店故障,为减少处理这类故障的开发难度。开发三个独立的程序分别对单雨量、两要素和六要素三个数据库中的数据进行迁移。本文以迁移两要素数据为例进行介绍。spring bath的核心思想是将读取到的数据转化为java对象,然后对对象进行操作。首先需要根据表中的字段建立相应的实体类,然后spring batch把从源数据库中读取的每条数据映射为对应的java对象,由于本文只是对数据进行迁移,不需要对对象进行处理,所以将java对象的值通过写步骤写入目

5、标数据库。实际应用中只关注两张表中存储的数据:小时数据表(tabhourdata)和分钟数据表(tabminutedata),由于迁移这两张表没有具体的先后顺序,将这两部分工作并行处理。spring batch提供了xml方式进行业务流程配置,通过spht元素来提供并行作业流的定义,通过task-execution属性来定义执行的线程池,从而提高job的执行效率。其中要定义两个不同的作业步(transferhottrtab_step和transferminutetab_step),每个作业步下定义了两个具体的子job分别来完成对两张数据表的数据迁移。子job中又分别定义了读、写两个过程来完成数

6、据的迁移。其中为了保证执行效率定义了commit-interval,指定了从数据库读入1000条数据后进行一次写操作,这样既减少了10的访问,也提高了写入效率。关键配置如下(以transferhottrtab_job为例):数据迁移中读取的数据量较大,为了高时效的完成读取作业,读取数据的任务进行分区,每个分区交给不同的线程处理。该模式的优点在于分区中每一个元素的处理都能像一个普通spring batch任务的单步一样运行。具体关系图如3-1,将需要读取的目标数据分为了3个分区,每一个分区都有一个执行上下文execution context,stepexecutionsplitter根据不同的上

7、下文生成作业步执行器,然后交给partitionhandler来处理。应为spring batch默认实现了stepexecutionsplitter以及partitionhandler。开发过程中原则上只需要实现自己分区逻辑partitioner即可。小时表和分钟表都含有对数据观测时间的字段,因此对该字段进行分区,可以实现分区策略的共享。具体配置如下:< p>class=”com.xxzx.partition.dbpartition”>作业中用于对数据库进行分区的dbpartition了实现了spring btach的partitioner接口,定义具体的分区策略,将数据查

8、询的时间进行切片,然后写入step的执行上下文,关键代码如下:while(start<=max)executioncontext context=new executioncontext();if(end>=max)end=max;context.putint(_starttime,start);context.putint(_endtime,end);start+=targetsize;end+=targetsize;resultmap.put(“partition”+(number+),context);通过把每次任务中需要查询的时间段根据targetsize的值进行切片,意味

9、着数据片段分配到不同的作业步中。并将_endtime和_startyime写入step的执行上下文(executioncontext)。然后在读取数据的阶段通过读取step执行上下文获取每个片段的统计时段。3.2定时调度由于spring batch本身并不是一个定时的调度框架。本文采用spring本身提供的一个轻量级的调度框架springscheduler来实现定时调度任务。关键配置如下:其中采用cron表达式实现每5分钟调度一次作业,并且在schedulerlauncher中完成对启动具体作业的配置。这样便将spring scheduler和spring batch结合起来完成数据迁移任务。四、结论本文基于spring batch框架采用数据分区技术、多线程并行处理的方法开发了一个数据库迁移系统完成批量数据的迁移工作,并结合spring scheduler实现了批处理任务的定时调度。在实际工作中优化了本省自动站数据处理系统中带宽占用率高、系统资源浪费的现状。实际工作中对本省自动站数量两要素自动站进行了测试,完成3260条数据的迁移的时间不超过

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论