生猪大数据项目解决方案说明书.docx

上传人:夺命阿水 文档编号:1785192 上传时间:2024-12-27 格式:DOCX 页数:12 大小:62.52KB
返回 下载 相关 举报
生猪大数据项目解决方案说明书.docx_第1页
第1页 / 共12页
生猪大数据项目解决方案说明书.docx_第2页
第2页 / 共12页
生猪大数据项目解决方案说明书.docx_第3页
第3页 / 共12页
生猪大数据项目解决方案说明书.docx_第4页
第4页 / 共12页
生猪大数据项目解决方案说明书.docx_第5页
第5页 / 共12页
点击查看更多>>
资源描述

《生猪大数据项目解决方案说明书.docx》由会员分享,可在线阅读,更多相关《生猪大数据项目解决方案说明书.docx(12页珍藏版)》请在课桌文档上搜索。

1、生猪大数据项目解决方案说明书XX科技股份有限公司编制目录一、项目存在问题及需解决问题41. 存在问题41.1. 1.生猪养殖数据缺乏41.2. 数据采集困难、成本高41.3. 数据碎片化严重42. 需解决问题5二、解决方案51 .解决方案架构62 .关键技术7(1) )Hadoop7(2) SpringMVC7(3) MyBatis7(4) Echarts8(5) MySQ1.8(6) Hive8(7) HBASE9(8) Zookeeper9(9) F1.ume9三、开发范围91. 数据生产92. 数据采集/消费103. 数据分析114. 数据展示12一、项目存在问题及需解决问题1 .存在问

2、题1.1. 生猪养殖数据缺乏散户和中小规模的养殖场作为我国生猪生产主体,养殖水平落后,管理水平较低;加之猪场环境差,猪场工作人员年龄结构偏大(至少90%以上的养殖人员年龄在50岁左右),文化水平相对较低,没有记录生产数据的意识和习惯;有些猪场甚至不清楚自己猪场的存栏量,更别提正规的生产和财务报表。大型和一体化的养殖场管理相对比较规范,有相对完整的数据记录,它们在我国的占比较小,而且其生猪数据主要用于内部生产,数据和信息的公开度和透明度有限,因此对整个生猪养殖行业的数据化构建作用有限。1.2. 数据采集困难、成本高猪场的自动化、智能设备在中国的使用才刚刚起步,又因其价格高昂,使用专业性要求高,只

3、在部分大型养殖场中得以使用,因此猪场数据的自动采集目前也处于起步阶段。相当一部分猪场需要采用人力来录入数据,对从业人口素质要求较高,从而导致猪场成本较高。1.3.数据碎片化严重生猪养殖环节包含生产费料生产环节(饲料企业、兽药企业、疫苗企业、猪场设备企业)、育种环节、养殖环节、加工流通环节、消费环节。当前生猪养殖各个环节之间只存在产品的向下传递和资金流的向上传递,各环节信息互动很少,导致生产对需求信息掌握不足,无法合理安排生产和配置资源,导致生产和需求之间存在严重的不平衡。同时,各个环节没有统一的数据采集和分析机制,上游企业无法了解产品的使用信息,无法为客户提供个性化的需求,因此阻碍了生产率的提

4、高。生猪养殖产业链从生产资料的生产到餐桌消费跨越多个环节,且每个环节的集中度都很低,生产水平差异很大,并且受不同的部门监管,造成我国食品溯源困难,无法从根源保证食品安全,因此也给不法分子提供了可乘之机,造成我国食品安全问题频繁发生,严重损伤了消费者对猪肉的消费信心。2 .需解决问题生猪养殖数据缺乏数据采集困难、成本高数据碎片化严重二、解决方案为了解决我国养猪户管理水平落后、交易效率低且不易追溯、贷款难等一系列问题,农信互联创建了生猪产业链大数据平台一一生猪大数据,形成“管理数字化、业务电商化、发展金融化、产业生态化”的商业模式,为猪场提供猪管理等服务,以期促进我国生猪产业转型升级,实现生猪产业

5、供给侧的改革与创新,使“互联网+生猪产业”成为我国农业经济创新驱动的重要领域。1 .解决方案架构实时数撤处元Kafka依靠存M出%rBtxmairT41WASE分布式文件不8HWS图I解决方案能拘图系统开发平台使用Hadoop大数据开发平台。Hadoop是一个高度可扩展的存储平台,可以存储和分发横跨数百个并行操作的廉价的服务器数据集群。能扩展到父理大量的数据,能提供成百上千TB的数据节点上运行的应用程序。HadooP能够有效的在几分钟内处理TB级的数据。相比关系型数据库管理系统更具有优势。它适用于任何规模的非结构化数据持续增长的企业,将帮助用户持续提高用户体险。系统采用面向对象的软件设计方法,

6、把整个系统看作是多个离散对象的组合。系统设计时,首先把业务流程分解成功能模块及其业务实体对象,然后根据业务流程分析对于这些业务实体对象的操作方法,形成业务处理对象,最后把各个功能模块关联起来,形成系统。软件设计是一个将需求转变为软件的过程,系统通过逐步求精使得设计陈述逐渐接近于源代码。系统程序采用MVc的设计思想,将展现逻辑、控制逻辑、业务处理逻辑分离。系统采用参数化的设计思想,定义和管理系统的实体及配置,调整实体以适应外部变化。系统采用J2EE技术保证程序逻辑实现的平台无关性,并便于安装部署。系统采用AJAX技术,提高客户操作的交互性,保证实际使用的易用性。系统采用echarts可视化框架实

7、现数据展示。2 .关键技术(1) HadoopHadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。(2) SpringMVCSPringMVC:属于SPringFrameWork的后续产品,已经融合在SpringWebFIoW里面。SPring框架提供了构建Web应用程序的全功能MVC模块。(3) MyBatisMYBatis:是支持普通SQ1.查询,存储过程和高级映射的优秀持久层框架。MyBatiS消除了几乎所有的JDBC代码和参数的手工设置以及结果集的检索。MyBatis使用简单的X

8、M1.或注解用于配置和原始映射,将接口和Java的POjOS(P1.ainO1.dJavaObjects,普通的JaVa对象)映射成数据库中的记录。(4) EchartsECharts是一款基于Javascript的数据可视化图表库,提供直观,生动,可交互,可个性化定制的数据可视化图表。(5) MySQ1.MySQ1.是一个关系型数据库管理系统,由瑞典MySQ1.AB公司开发,属于OraCIe旗下产品。MySQ1.是最流行的关系型数据库管理系统之一,在WEB应用方面,MySQ1.是最好的KDBMS(Re1.ationa1.DatabaseManagementSystem,关系数据库管理系统)应

9、用软件之一。MySQ1.是一种关系型数据库管理系统,关系数据库将数据保存在不同的表中,而不是将所有数据放在一个大仓库内,这样就增加了速度并提高了灵活性。MySQ1.所使用的SQ1.语言是用于访问数据库的最常用标准化语言。MySQ1.软件采用了双授权政策,分为社区版和商业版,由于其体积小、速度快、总体拥有成本低,尤其是开放源码这一特点,一般中小型网站的开发都选择MySQ1.作为网站数据库。(6) Hivehive是基于Hadoop构建的一套数据仓库分析系统,它提供了丰富的SQ1.查询方式来分析存储在Hadoop分布式文件系统中的数据:可以将结构化的数据文件映射为一张数据库表,并提供完整的SQ1.

10、查询功能;可以将SQ1.语句转换为MaPRedUCe任务运行,通过自己的SQ1.查询分析需要的内容,这奏SQ1.简称HiveSQ1.,使不熟悉niapreduce的用户可以很方便地利用SQ1.语言查询、汇总和分析数据。而Inapreduce开发人员可以把自己写的mapper和reducer作为插件来支持hive做更复杂的数据分析。它与关系型数据库的SQ1.略有不同,但支持了绝大多数的语句如DD1.、DM1.以及常见的聚合函数、连接查询、条件查询。它还提供了一系列的:具进行数据提取转化加载,用来存储、查询和分析存储在HadoOP中的大规模数据集,并支持UDF(User-DefinedFuncti

11、on),UDF(User-DefnesAggregateFunction)和UDTF(User-DefinedTab1.e-GeneratingFunction),也可以实现对map和reduce函数的定制,为数据操作提供了良好的伸缩性和可扩展性。(7) HBASEHBase-HadoopDatabase,是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBaSe技术可在廉价PCSerVer上搭建起大规模结构化存储集群。(8) ZookeeperZooKeepcr是一个分布式的,开放源码的分布式应用程序协调服务,是GoOgIe的ChUbby一个开源的实现,是HadOOP和HbaSe

12、的重要组件。它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护、域名服务、分布式同步、组服务等。(9) F1.umeF1.Ume是C1.oUdera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,F1.umc支持在日志系统中定制各类数据发送方,用于收集数据:同时,F1.ume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。三、开发范围1 .数据生产对于该模块的业务,即数据生产过程,一般并不会让你来进行操作,数据生产是一套完整且严密的体系,这样可以保证数据的安全性。但是如果涉及到项目的一体化方案的设计(数据的产生、存储、分析、展示),则必须清楚

13、每一个环节是如何处理的,包括其中每个环境可能隐藏的问题;数据结构,数据内容可能出现的问题。2 .数据采集/消费数据采集模块(消费),在企业中你要清楚流式数据采集框架f1.ume和kafka的定位是什么。我们在此需要将实时数据通过f1.ume采集到kafka然后供给给hbase消费。f1.ume:CIOUdera公司研发适合下游数据消费者不多的情况:适合数据安全性要求不高的操作;适合与Hadoop生态圈对接的操作。kafka:Iinkedin公司研发适合数据下游消费众多的情况;适合数据安全性要求较高的操作(支持rep1.ication);因此我们常用的一种模型是:线上数据一f1.umekafkaf1.ume(根据情景增删该流程)HDFS线上数据一f1.umekafkaSparkstreaming实时流式处理消费存储模块流程图:图2消费存储模块流程图3 .数据分析我们的数据已经完整的采集到了HBaSe集群中,这次我们需要对采集到的数据进行分析,统计出我们想要的结果。注意,在分析的过程中,我们不一定会采取一个业务指标对应一个mapreduce-job的方式,如果情景允许,我们会采取一个maprcduce分析多个业务指标的方式来进行任务。分析模块流程图:Zookcepvr图3分析模块流程图4 .数据展示数据展示模块流程图:图4数禺展示模块流程图

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 在线阅读 > 生活休闲


备案号:宁ICP备20000045号-1

经营许可证:宁B2-20210002

宁公网安备 64010402000986号