《NAS数据存储在医院PACS场景的应用与探索.docx》由会员分享,可在线阅读,更多相关《NAS数据存储在医院PACS场景的应用与探索.docx(14页珍藏版)》请在课桌文档上搜索。
1、需求分析篇1 .项目背景在“健康中国203(国家战略的指导下,某大型三甲医院不断加快智基医院的建设进程,旨在建立医疗、服务、管理三位一体”的智感医院系统,以“智瑟服务、“智超医疗,智慧管理”、互联网+健康”为重点大力发挥信息技术在现代医院建设管理中的垂要作用.不断提高医院治理现代化水平.形成线上线卜一体化的现代医院服务与管理模式,为患者提供更高质量、更高效率、更加安全、更加体贴的医疗服务.数字化医院是现代医疗发展的新趋措,数字化医院系统是医院业务软件、数字化医疔设备、IT基础平行所组成的综合信息系统数字化医院工程有助于医院实现资源性合、流程优化,降低运行成本,提高服务质量、工作效率和管理水平、
2、数字化医院是医院现代化的必由之路,医院只有充分利用数字信息技术,才能解放劳动力,使其在激双的市场竞争中取得成功。数字化底座是数字化医院建设的基石,我院IT基础设施建设多年,随着医院业务系统的逐渐增多,业务fit逐年递增,原有的传统IT基咄设施和架构已经艇以支撑核心业务系统的业务需求,NAS应用在医院的发展越来越迅速,以PACS业务为主的应用每年产生100TB左右的数据朵,作为医院数据增长最快的应用系统,而且数据制要长时间保存,同时涉及多个系统之间的数据联动,我院作为校早枇建设PACS系统的三甲医院,从2014年上现至今己拥有数十亿张影像文件,数据他高达数百TB,业务规模逐渐递增,笈杂性口益提高
3、。2 .建设目标PACS影像系统是院内核心业务系统,不但承接整个长院的影像数据,而且更承我若医院面向未来发展的暴础,因此对PACS影像的稔定性、安全性和运行性能要求较高,按照“继承性与扩充性、先进性和成熟性、而可用性、可靠性”的设计原则,完成基JailT设备的改造.本次建设的主要目标是:- 核心业务连绘性本次建设主要覆i医院PACS影像系统,包括PACS数据库、PACS影像文件.随著医院信息化建设的发展,医疗应用的重要程度越来越高,一旦业务系统出现问时,将会对医疗业务产生重大影响,因此,必须设计规划可靠的解决方案,保证在软件、硬件出现同部问题和数据中心出现区域故障的情况下核心业务系统连续运行,
4、医院医疗业务不能中断.- 核心业务高效性PACS影像系统承载在医院影像数据,涉及医护人员快速阅片,患者高效就医等关摄流程.旦影像系统访问缓慢,将会时整个就医流程产生极大的影响。因此,必须设计规划高效的影像解决方案,保障院内影像系统高效访问,提升患者就医体验的同时,提升医护人员的工作效率。- 合规数掘长期留存按照国家卫健委对影像数据存储要求,PACS影像门诊数据需要保存不得少于15年,住院数据需要保存不得少于30年.因此,需要建设数十年影像数据保存的建设方案,保证福要的时候能快速进行影像的获取,- 提高基础资海利用率针对支持医院临床业务批消耗硬件资源的PACS系统,必须诳行科学的分析,合理设计规
5、划基础资源建设,提高基础资源的利用率。通过存储虚拟化技术将原来存储设的整合到新的基础架构中,既满足了业务需求,琳约了投资,乂很好的提高了存储资源的利用率,并简化基础架构管理复杂度.3.需求分析与挑战PACS(PictureArchivingandCommunicationsSystem)系统指的是影像归档和通信系统,它主要应用在医院影像科室,其主要任务是将日常产生的医学影像数据通过相应的接口数字化保存起来,医生可以使用PACS系统Rfi时调阅图像”其中医学影像主要包括核磁、CT、超声、X光机、红外仪、显微仪等设釜产生的图像,D性能,业务压力大,小文件性能要求高PACS影像以单序列单线程读取,年
6、序列2-1000张影像,要求单影像序列首幅影像加我时间V3s单.线程每杪50幅影像,海盘小文件的保存,对存储设符性能带来了极大挑战.2)成本,数据增长迅速,性能和成本不能兼JRFI门诊破IW左右,PACS系统每天产生40万张影像,每年1-1.5亿影像数据,影像大小100500KB左右,年增长100TB左右;快速增长的影像数据长期保存,急需低成本的存储成本。3)运僮I结构化和非结构化数据共存,数据管理复杂院内PACS系统结构化数据和非结构化数据共存,区域PACS系统麴平台数据整合困难,整体数据结构繁多、数据管理红杂:PACS系统数据特点,在线和离战数据并存,法规遵从PACS数据至少保存15年,多
7、食存:储设备共存,数据生命周期管理困难,4)可用:容灾机制不全PACS系统容灾机制不完善当病揖或误操作等单点故障风险时,无法保障关键影像数据不丢失.4.需求总结综上所述PACS系统是支持医院医疗业务流程和服务患者的院内重要核心系统PACS系统的运行质量直接影响医生正常阅片和患者查询各项报告,又由于PACS影像系统的业务专业性质决定了影像数据量巨大,需要保存时间长,调取影像数据快等要求,对于PACS系统的硬件存储提出了很高要求,有定的难度和技术挑战.所以,我们需要根据国家的具体规定,进行科学的研究分析,采用先进的计算机技术,规划和设计好PACS系统的存储方案,保证从安全性、管理性、易用性、高效性
8、多方面使能PACS系统,满足临床医生和患者的要求。思路与方案设计篇1,前期背景以PACS业务为主的应用每年产生100TB左右的数据公,作为医院数据增长最快的应用系统,而H.数据需要长时间保存,同时涉及多个系统之间的数据联动。我院作为较早一批建设PACS系统的三甲医院,从2014年上线至今已拥有数上亿张影像文件,数据量高达数门TB.业务规模逐渐递增,受杂性日益提高.2 .设计思路从业界来看,数字化医院系统IT基批平台需要具备足泌的灵活性、扩展性、兼容性,以满足数字化医院的这种发展形式。存储设需作为IT基础平台的关键、作为信息化系统最底层的硬件产品,顶层设计和技术规划尤为重要.应该遵循“行业主流、
9、安全稳定”的原则,同时,兼顾性建(主要包含IOPS、MBPS及延时等指标)与成本,并充分考虑国家信息技术应用创新战略,医疗存储设备选型的关键点需关注以下四个方面:(一)存储设备在行业的影响力所选挣的存储设备品牌及型号福要在业界(尤其是同行业)有广泛的成功应用案例,经斛起同行业的考验。需要有稳定的服务团队,产岛和方案落地靠的是人,医院的数据中心存储方案落地,需要有资深的行业架构师和服务人员,才能确保该硬件产品得到强大的后台技术团队支持.参考2020年Gartner企业主存储品牌魔力象限排名,行业领先的象限中不仅有国际存禽大/HDSInfinidat,而且也有例如华为这样与国际水平相比亳不逊色的国
10、内存储厂商:近年来.某些国外传统存砧大厂进行了战略大调整,在国内的存储技术服务力砧明显削刈,相对其它厂商而言,华为存储i殳备的技术支持服务能力较强,能在第一时间响应客户需求,同时核心存储也需要考虑到存储的性能,需要能弊应对业务未来不可预测的性能满求,如使用更新的存储怖议和存储介质、对于多云平台的支持.如Openstack.VMware.容器等.(二)存借设各具备安全和定性存储设备重点需要考虑稳定性和数据服务能力,对医院数据中心而皆,存储设备牵一发而动全身,存储架构的稳定性及可我性是数据中心存储选型班基本也是最理要的需求,包含存储架构冗余度较高,各个部件ll:控制潜、磁盘、前端接口卡、后端接口卡
11、、网卡及电源等均为冗余设计、支持在线热插拔,任意部件损坏均不影响主机上业务运行.首先,整个存储系统要具有全冗余与安全性设计,不存在“电点故障。包括控制器、缓存、硬盘、前端口、后端口、电源、风扇、电池等部件均具有冗余,硬件维护对上层主机访问无感知。作为存储系统中最重要的两个部件“控制器和硬盘1.有的存储产品已经可以做到支持控制器四环三,硬盘可容忍两块甚至三块同时损坏,如:华为最新高端存储甚至可以支持控制器八坏七.其次.各部件可以进行微码在线升级,对主机访问无影响。特别是关健部位控制器,已有及新存储产品可以支持控制湍升级微码不盛店.(三)存储设备具备可嬉护性存储设备需具备校高的可维护性,各个部件的
12、预防性维护和更换均为在线搽作,控制器、硬盘及接口卡等部件都必须支持在线做码升级,交替垂启部件或更换部件时不可以影响到上层业务;可以通过机器学习等先进的存储算法,实现存谛服务的白我优化,并且可以智能的监控存储设翁的运行状态,预测未来的存储服务需求,(四)存储设备的硬件架构先进性当前存储设备产品根据架构分为“集中式架构存皓及分布式架构存Wr两大阵营.集中式架构存储采用的是块机制,以块为单位实现数据的更新和锁机制,其机制跟数据库管理数据文件的方式类似,性能及安全性可得到有效保朦,集中式存储奴大的优协在架构商单、维护相对容易已有的运维经验能够延续,同时传统存储厂商支持能力相对较强.对于医院信息系统中大
13、多数关键NAS应用,具有岛桧定性、岛吞吐量和低时延等特性的.集中式架构存储是更好的选择,存储设备的各个捽制器工作在对称ACtiVe/Active模式,各控制器性能负载枪定均衡,3 .规划和设计方案3.1 建设内容概述本次建设充分利用本院双数掳中心优势,通过将医院楼宇间两个数掳中心建成双活中心,既可以为每个信息中心内部的应用提供冗余保护,实现站点内部的无缝漂称:又可以实现,当某个信息中心出现故障时,将该站点所有的应用系统,切换到另一个站点中,保证了两个站点之间的应用故障无缝连续运行,最终,满足在不同场景卜.时业务连续性的要求.基F我院己经建设的双活存储架构,充分利用现网资源。介于目前医院PACS
14、的规模和所面临的挑战,采用现有华为高端双活全闪存储作为PACS应用的在线存储设备,利用存储的SN+NAS-体化能力实现我院HlS和PACS在线的集中式部署.一套设备部若SAN和NAS两种类型的业务.对于访问频度较低的近线数据果用低转速的大容量硬盘进行存储,降低成本的同时不影响业芬访问,通过存储和PACS软件的数据分级实现在税和近线数据,热点和冷数据的自动分级,批后规划通过祎光光盘阵对离俄归档数据进行长久保存,符合国家影像数据至少保存15年的要求。针对在规数据(16个月内数据),读取频率高,在医院楼宇间两个数据中心建成全闪双活中心,在线数据通过全闪加速,能满足在线数据能够快速读取的核心诉求,奴终
15、,满足在不同场景下对在线数据业务连续性和性能的要求针对近畿数据(6个月3年内数据),超过6个月的数据,读取频率相对较低,因此采用低成本的HDD盘进行保存。不但可以满足需要读取的时候能相对快速的数据读取,而旦保存成本相比全闪存,极大的降低。针对离现数施(3430年数据),超过3年的数据,范本不会读取,按照国家法规要求,同样需要进行保存.可通过蚯光归档库进行长时间的保存,并且随时可调阅。通过针对互联网阅片,通过胞独建设互联网影像区域,以满足海量互联网用户的阅片诉求。整体PACS应用建设经历了两个r:要阶段,整体架构发展示意图:WMtNfHI(MS)RAA-I3.2 PACS存储技术要求3.2.1
16、PACS应用快速阅片3.2.1.1 高性能NAS文件系统在传统NAS文件系统架构中,业界一般采用Active-Passive架构.文件系统归属某1个控制洪,在创建文件系统的时候,需要对文件系统的门展进行规划.果用多个文件系统运行在不同的控制器上,实现系统中每个控制器的负载均衡.这样的NAS架构.如果只有1个文件系统那么只能发挥1个控制器的硬件性能,无法把多控制器的硬件费源都利用起来获得更高的性能,因此无法支持单一命名空间。如果采用创建多个文件系统,由于不同文件系统的业务压力各不相同,也很难以实现系统的负载均衡。华为OceanStorDorado18000系列企业的NAS存谛采用分布式文件系统架
17、构,文件系统没有归属控制器,通过均衡算法将文件系统的目录和文件均衡”入每个控制器,实现每个控制器接收到的主机读写请求是均衡的,即使只有1个文件系统也能将整个存储集群的资源充分利用我院可以根据自己的业务规划灵活的使用单一命名空间的文件系统或者多个文件系统.华为的NAS分布式文件系统架构兼具海量小文件和大文件并存的文件共享场景,采用基于目录的分布式打政策略,以目录为粒度将数据均衡打敢写入到各个捽制器达到负载均衡的目的.H录与目录下的子文件归他相同的控制器进行I/O处理,避免跨控制搭转发,以提升目录遍历查询、属性遍历查询、批盘M性设置等场景的性能.3.2.1.2 内存加速技术FlaShlink技术的
18、核心是通过一系列针对闪存介质的优化技术,实现了存储控制器和SSD之间的协同和联动,在保证可独性的同时,最大限度的发挥闪存的性能“FIaSh1.ink&针对闪存介顺特点设计的关键技术主要有:智能众核技术、低时延保证技术、智能盘框卸我、高效RAQ技术、冷热数据分流,保障了全闪存储的稳定低时延和高IOPS.华为OceanStorDorado18000系列高端全闪存储采用维鹏920处理戏,在同个控制内实现业界最妥的CPU数和CPU核数,控制器最多容纳(4颗配胭CPU,每版CPU48核,总计192核。通过智能众核技术,实现性能随着CPU数鼠然性增加:当前绝大部分系统如果直接部詈在多CPU系统下,总的系统
19、性能还低于1-2颗CPU的性能,因为在多核系统下有2个关键问题点:1)CPU越名,CPU间通信的开销雄大,跨CPU访问内存也越多;2)核数越多,程序互斥产生的冲突越大。通过智能众核技术,实现了性能随着CPU数量纹性增加,针对几个何曲的关键优化技术点包括:D多CPU间通过CPU分组分发技术、I/O从多路径入口到后端盘框始终在1个CPU内调度,同时内存分配也保持在当前内存通道上进行,最大程度减少了CPU间通信的开销:21CPU分组内按业务届性进行分组,前端、后端和网络分别在一个CPU分区内相同的业务只在CPU分区内产生冲突,大大战小了多核间的冲突,OceanStor的智能硬盘框,硬盘框内有CPU和
20、内存资源,能够对盘故障重构等任务进行卸载减轻控制器的负载。实现在盘故障场景卜,,重构对业务性能无影响.3.2.2 PACS应用高可靠知坎在线3.2.2.1 双活敷据保护PACS影像系统需进行双活保护配合交换机冗余和数据库自身的集群,当单套存储发生物理损坏、单台交换机故障、单台主机发生物理故诲、单个中心发生灾难时,核心数据库均能保杼业务零中断,保护医院业务正常开展,极大提升核心业务的可靠性.华为HyPerMetr。特性又称双活特性(以卜统称双活特性,双活特性中的两个数据中心互为备份,且都处于运行状态.存储层的双活特性为业务双活提供了一个双活平台,酣合应用集群实现应用层双活。当一个数据中心发生设备
21、故障,甚至数据中心整体故障时,业务自动切换到另一个数据中心,解决了传统灾备中心不俄承载业务和业务无法自动切秧的问题。提供给用户高级别的数据可匏性以及业务连续性的同时.提裔存储系统的资源利用率.图2-2双活数据中心部署简图,存储双活基于这样的一个基本摩则,任意一套存储上具有对业务主机而言相同的数据.业务主机在单份数据不可用时,只会当成部分路径故障进行处理,存储层在该转换过程中姓挂自身I/O.并不响应主机,待处理完成后再响应主机,该过程对主机应用而言是透明的,3.2.2.2 高效RAID技术华为OceanStorDorado18000系列两端全闪存采用ROW湎分条写入的设ihROW满分条写对所有数
22、据都采用新写模式。这样不需要因为传统RAID写流程所需的数据试和校验修改写而产生RAID写惩罚,有效降低/写入过程阵列控制器的CPU开第与对SSD盘的读写压力.相比传统的RAlD检施n(WritelnPIace)的方式,RoW满分条与方式使得各种RAID级别都能实现高性能。_修改钝数据块指向口口下回CKG3修改后数据块指向ROW新写后产生的垃圾块上图以RAlD6(4+2)为例.对已有数据进行改写,改写写入的数据为1、2、3、4.采用传统的覆盍写方式,对每个数据所在的CKG均需要进行修改”。以CKG2为例,笃入新数据3时,需要读取校验列P、Q和原始数据d.通过冗余算法计算出新的校验位产、Q,再把
23、P、Q和数据3写入CKG2中.而采用ROW满分条写设计,写入数据1、2、3、4时,直接使用数据1、2、3、4计算出P、Q作为一个新的RAlD分条写入硬盘.再修改1.BA的指针指向新的CKG,赛个过程无需额外的预读。对应传统RAID.以RIAD6为例.DO数据发生变化,需要先读DO、P和Q:再写新的20、nP和nQ,因此其读放大是3.写放大也是3.通常对于传统RAiD(xD*yP)的随机小IO写其读写放大为y+l传统RAlD类型“随机小IO写产生的写放大,顺序IO写放大,RAIDl-2-2-RA1D5(8+1)-2-1.125“RAlD6(16+2)3“1.125-各种传统RAID级别的写放大数
24、据华为OCeanStorDorado18000系列高端全闪存在典型场景下RAID5采用23D+1P(。为数据列,P为校验列),RAID6采用22D+2P1.09(24/22)1.09-RAID-TP(21D+3P)1.14(24/21)1.14“RoW满分条写放大率华为OceanStorDorado18000系列高端全闪实现的RAID6与RAID5性能相冷5%左右,RAID-TP与RAlD6性能相差5%左右,基本做到了性能无损。方案与实现效果篇1 .PACS应用数据融合管理1.1 SAN和NASIl合部署PACS膨像系统涉及PACS数据库和PACS影像文件两类系统架构,对应的存储服务需要同时提
25、供SAN和NAS服务。通过采用SAN/NAS体化设计,不再需要NAS网关设备,我软硬件同时支持SAN和NA$,支持NFS、CIFS.FTP、H11P等文件访问怖议,以及NDMP文件缶份协议。通过采用一体化方案设计,优势如下:极简架构:会设备即可支持SAN和NAS业分,简化IT系统4件架构,组网简单清晰,降低了口常众多设备运维管理的难度。高性能:新一代SAN和NAS一体化中的NAS采用分布式文件系统架构,文件系统没有控制涔归制约束,将文件系统均分到每个控制戏,实现每个控制洪性能和容砧的负载均缸低成本:相较于传统的SAN存储加NAS存储的方式,一体化解决方案省去了购买多余存储所需要的颔外费用,降低
26、了用户的投资成本,高可靠:在采用体化解决方案的同时,提供SAN和NAS的数据保护能力,例如快照、双活等,保证架构简单统一的同时保证了系统的可莫性,使两种场景均不受硬故障、软故障的影响.保证业务持续在线.文件系统和1.UN是平行的部署在Space了系统之上,下面是加于RAlD2.0+的块虚拟化存谛池子系统。在这个架构中,文件系统和IUN部江接与底层的SPaCe子系统交耳文件系统架构是基于对象的,每个文件或文件夹是一个对象,每个文件系统是由对象组成的对象集.对于1.UN来说,1.UN分Thin1.UN和传统的Thick1.UN.两种1.UN也都来自于Pool和SPaCe系统,并没有建立在文件系统之
27、上.这样简化的软件栈带来的存储效率比传统的统”存储架构效率要高,同时IUN和文件系统各自保持独立,互不影响。存储的文件系统是基于EXtent的ROW型(RedlreCtOnWrite.写时里定向)文件系统。所谓ROW型文件系统,足指向文件系统新写入或者修改写入数据时,新数据不会覆蔽抻原来的旧数据,而是在存佬介质上新分配空间来写入数据,此种方式保证了数据的高可靠性和文件系统的高扩展性。整个文件系统布局呈树里结构,数据写入不会覆Ife原有数据,而是分赳新磁盘空间写入,写入完成后,直接删除(或延迟删除)原有数据。数据每次写入都会记录一个时间点信息,表明写入的时序。时间点实际是一个依次通增的序列号。1
28、.2 NAS自动分IR与安全归档(1) NAS自动分级文件系统SmartTier是为J简化数据生命周期管理,提升介质利用效率,降低客户成本而推出的面向文件系统的分级特性.文件系统SmartTier的功能是以文件为粒度在不同的介质中进行迁移的技术.介质层分为SSD和HDD(包含SAS或N1.SAS)两层。SmartTier支持两种迁移模式:智俄迁移模式和自定义迁移模式(自定义迁移包括周期/每周/立即迁移).智旎迁移模式,是指文件优先写入SSD,然后根据SSD的使用率、文件的访问时间等条件自动进行文件迁移,保证SSD使用率始终保持在一个合理的水平。自定义迁移模式,是指根据用户指定的文件策略(例如:
29、文件名、文件大小、文件类型、文件创建时间、SSD使用率等)和迁移周期,使文件在S3D和HDD之间进行迂移。文AjMk分锻J*文件日号/、件口播(2)安全归档针对PACS应用的离线数据按照国家规定进行15年以上的离线归档保存此类数据不要求实时查看时性能没有较高要求,要求实现低成本、低功耗、易管理的长时间留存。针对PACS的数据特点和法规要求,提出的安全归档留存解决方案由归档平台(归档软件)+归档介质存储等核心组件组成,通过多个核心组件的配合,实现医疗数据的安全长期留存,其实现原理分别如卜丁管理服务器-服务器主要由归档数据库和Web眼务器构成,它负责归档系统的管理,如用户、组、归档项目、归档数据的
30、保存周期等,同时负贵归档作业的调度,将数据移动的作业分发给负贡作业执行的ADA代理。一个或多个A。A代理(数据移动引擎)-代理实际负费数据的移动,它从主存储(生产系统)搜集需要归档的数据并写到二级存储,以及来柒文件的属性以及定义的元数.介质管理服务MM(SONY把盘底管理组件)该组件(包括服务器端和客户端)通常安装在ADA服务器平f负责管理归档系统的光盘库以及驳动器和介质的分配。ODA光盘库-核心归档介质,提供了高安全、高可靠.低功耗的设备,直接被ADA调用进行读写访问,中间无痛机头服务戏等额外网关组件.统一管理员控制台-该控制行可以安装在Windows或MaCOS工作站,通过IP连接ADA服
31、务器.通过控制台,用户能够配置和管理归档系统,监控白档作业,搜集归档日志等.利用该控制台,授权用户也可以手工归档、检索和IRlal归档的文件.利用该控制台,管理员可以:组织管理归档项目及其内容管理元数据管理用户和组的权限配置ADA环境的基础架构(平台定义、数据周期、任务调度等)监控作业和数据归档性能调度自动归档任务(定义任分自动触发的条件等,如文件创建H期、最后访问日期、最后修改日期、文件大小等)管理ODA光盘库介质2 .建设效果与总结基T华为企业级NAS存储在医院PACS类场景的建设和应用,从可靠性、性能、可用性、运维管理性等多个方面带来诸多优势:业务融合缩减开支:PACSSM象系统涉及PA
32、CS数据库和PACS影像文件两类数据,对应的存储服务需要同时提供SAN和NAS服务,通过采用SAN/NAS一体化设计不再需要NAS网关设备,一套软硬件同时支持SAN和NAS,支持NFS、CIFS,FTP.HTTP等文件访问协议,以及NDMP文件备份协议.业务快速响应:基于高性能全闪存存偌和免网关容灾、免网关数据保护技术,避免门关设备成为性能Si颈并增加I/O时延,为数据库提供Ims的平稔时延,保障PACS系统快速响应。业务连续性:基于免网关存储双活技术,在设备故障、数据中心故Wi时保障数据不丢失、业务不中断RPO=0,RTO0):基于免网关存储主益容灾技术,在双活数据中心完全故障的情况下,业务仍然可以快速恢更(RPOSIo分钟、RToSI5分钟,与容灾策略配置相关)。安全归档留存:通过蓝光不可改写确保归档数据的安全性,超过50把的超长保存时间,不但可以满足电子就历、影像数据等合规数据的长期安全留存,并R可降低归档的TCO成本。可视化管理:支持“祝化展示容灾拓扑和业务逻辑拓扑,并且支持灵活的数据副本管理、容灾演练和切换.简化灾备系统的管理和维护.智能运维:全套影像系统涉及数据库存储、文件存储,同时涉及在莲、近战、离线等不同的存储介质,噩运维工具进行简单、必效的管理.,降低院内运维难度。