一、高可用证券实时监管中间件平台(论文文献综述)
刘奕[1](2020)在《5G网络技术对提升4G网络性能的研究》文中认为随着互联网的快速发展,越来越多的设备接入到移动网络,新的服务与应用层出不穷,对移动网络的容量、传输速率、延时等提出了更高的要求。5G技术的出现,使得满足这些要求成为了可能。而在5G全面实施之前,提高现有网络的性能及用户感知成为亟需解决的问题。本文从5G应用场景及目标入手,介绍了现网改善网络性能的处理办法,并针对当前5G关键技术 Massive MIMO 技术、MEC 技术、超密集组网、极简载波技术等作用开展探讨,为5G技术对4G 网络质量提升给以了有效参考。
张一鸣[2](2020)在《车联网安全事件检测分析和主动赋能系统的研究与实现》文中研究说明车联网是目前最具潜力的产业之一,随着大数据计算的日益成熟,5G网络的开放普及,车联网会越来越展现出可靠和创新的一面。在车联网领域的探索,无论是从技术层面的提升还是车联网平台服务的新思路,都是具有价值的。车联网安全是车联网发展中的一个重要课题,它涵盖了车联网的网络信息安全和车辆安全两方面。通过对国内外各种车联网体系的研究发现,车联网运行过程中常常伴随着各类安全事件,从网络信息安全事件到用户行为所引发的安全事件。本文正是研究如何应对车联网环境中的各种事件,借助大数据计算优势实现对安全事件实时检测分析,并辅以预案处理,希望能从另一个层面提升车联网生态的整体安全性。车联网安全事件检测分析和主动赋能系统是针对车联网中出现的安全事件所提出的解决方案,其包括以下几个方面:1、安全事件分级算法。通过对现有与车辆安全相关的国际标准研究以及对各类车联网安全事件统计与分析,结合模糊数学的相关知识,提出对所有类型的安全事件的统一等级划分算法,并使结果符合ISO-26262的安全评级标准。安全事件的分级是系统后续各项功能运作的基础。2、安全事件的生命周期管理。采用Flink流式计算框架和Kafka消息中间件对车联网平台的安全事件进行检测与分析。系统会实时监控车联网中是否有安全事件产生,对于已经产生的事件调用分级算法做初步分级,并持续追踪事件的发展,视情况在一定时间后升高或降低安全等级,同时记录事件持续时间内的状态信息。当事件在结束后,所有数据将被持久化保存,为后续大数据分析做准备。3、基于预案的主动赋能。系统将检测到的安全事件分级后传达到主动赋能模块。该模块会启动预置方案以应对安全事件。系统在保持车联网平台各模块独立运作的前提下通过预案主动赋予相关单位解决安全事件的能力。4、大数据统计与分析。在安全事件的处理过程中产生的大量数据,可以当做大数据分析的数据集。对这些数据进行离线计算分析,如频发事件统计,用户大数据画像等,以获得更多有利于服务车联网的信息,进一步优化车联网的平台架构。
叶辰[3](2020)在《基于等保测评的信息安全风险管理研究 ——以PFL保险公司为例》文中指出信息安全贯穿在保险公司业务、治理和信息管理流程中,对公司的稳健经营、提升业务、公司治理等意义重大。由于保险业的自身特点,信息安全风险管理与其它行业的方法会有差异,公司管理层应结合保险公司实际情况,制定相应的信息安全风险管理制度。虽然目前已有ISO27001等优秀的信息安全标准,但脱离保险公司实际的信息安全建设及管理方法难免会遭遇水土不服,即使是金融业的银行、证券等企业的信息安全建设及管理经验也未必完全适用。所以,按照保险公司信息安全的特点,完善相关信息系统,制定措施对抗潜在信息安全隐患,是当前保险公司信息安全工作的当务之急。保险公司在信息安全制度体系的建设和管理流程中存在诸多风险,包括但不限于和第三方中介公司的系统对接、应用系统的自身缺陷、软硬件适配的失灵、以及被黑客利用安全漏洞发起的攻击等。保险公司的信息安全既要把握整体结构,又要分辨轻重缓急,内容庞大而繁杂。信息安全的提升是一个持续迭代的过程,内容多,周期长,投入多,效果不明显。如何找到一个合适恰当的方法,既能在有限的范围内确保信息安全的有效性,又能使保险公司管理层充分理解信息安全的重要性和必要性,同时还能找到信息安全的漏洞并按照漏洞的优先级安排优化改进。本文选择国内一家中美合资人寿保险公司(简称PFL保险公司)作为案例,对该公司当前信息系统建设成果的等级保护测试及评估(简称等保测评)的过程及结果展开分析研究,基于等保测评项目对其信息安全体系进行评估,诸如主机系统、网络、应用、数据、物理、制度、机构、人员、系统建设和系统运维等几个方面,并以团险核心业务系统的评估结果为例,进行研究并发现问题,结合公司实际给出改进建议。针对PFL保险公司现有信息安全体系,结合公司业务发展实际,对其等保测评项目进行分析,识别出问题并对问题进行优先级划分,然后对所识别出的问题逐一进行分析,探寻优化点,给出改进建议,不仅最终帮助PFL公司达成其经营战略,也能为业内中小型保险公司基于等保测评的信息安全体系建设提供参考。本研究以案例分析为主,结合文献研究与数据分析。其中,文献研究的目的在于梳理保险行业相关的信息安全建设进展及整体问题,是本研究的起点和基础部分;数据分析包括对公司等保测评发现问题的分析,原因调查记录、归类和总结等。本研究的主要结论和研究建议汇总如下:1)等保测评作为国家强制标准,对于改善保险公司信息安全风险管理体系架构,通过加强应用系统安全来提升保险公司抵御信息安全漏洞具有重要意义。2)等保测评从主机系统、网络、应用、数据、物理、制度、机构、人员、系统建设和系统运维等几个方面对保险公司的信息系统及配套服务器、网络设备、安全设备、数据库、机房、重要终端、安全相关人员和管理文档等各个方面进行评估,其中信息安全风险评估的要点与国际上ISO27001等保持基本的一致。3)随着公司的业务迅速发展,保费收入的快速增加,信息安全风险管理的投入也需要逐渐增加,用来提高公司的信息安全保障能力。作为国家标准之一,等级保护测评的必要性和重要性能让公司管理层更加容易理解和接受,进而能较容易地获得预算的支持。
饶伊文[4](2019)在《基于流计算的证券数据流异常检测系统的设计与实现》文中指出我国的证券市场不断的在发展繁荣,不断的有新的企业在国内上市,交易量也不断增长,其规模的扩大也推动着我国实体经济向前发展。然而由于政治、行业、舆情等大幅变化会对造成证券市场的波动,而证券市场具有联动、易发等特点会反作用于实体经济,阻碍着经济的发展。因此,有必要对当前我国证券市场风险的进行评估,实时对证券市场的异常行为进行监管,越早的发现证券市场的异常情况就可以越快的进行应对。而当今证券监管部门所面临的业务痛点:1)数据量大造成高时延,不能满足高速变化的丰富市场需求;2)异常检测规则的阈值依赖业务领域专家长期积累的业务经验,不能随着市场的变化及时修正。而随着分布式系统的成熟稳定,流计算技术的产生和近年来的不断发展,以及各种机器学习相等算法涌现,考虑构建基于流计算的证券数据流异常检测系统,设计了实时数据源接入、实时数据预处理、实时异常检测和实时异常推出四大模块,对证券数据流进行异常检测并达到实时的秒级告警,从而提高监管效率,确保异常发现的实时性。具体地,本文做了以下工作:首先,本文对交易系统产生的实时增长的证券数据进行分析,尝试了使用实时流计算框架对数据进行接入,设计了使用Kafka作为数据总线、流计算作为实现方法的整个系统构架。其次,基于Flink框架进行了实时数据源的接入和对数据进行实时的预处理设计和开发。接着,使用流计算支持依据专家的异常规则进行实时检测,尝试使用自回归移动平均模型和层级实时记忆脑皮质学习算法(HTM)针对证券数据流进行异常检测。最后,将输入源和异常结果实时持久化落地,将产生的异常结果通过订阅的方式进行推送。在测试方面,从功能性和非功能性两方面进行,给出测试用例并分阶段完成,除了对需求中功能上的保证外,还检测了系统的时延和可靠性。本系统实现了对实时证券数据流的实时异常检测,为市场监察部门提供了更快速的监管信息,并可为投资人进行预警。
李政[5](2019)在《商业银行数据中心风险管理研究》文中指出在全球经济化日益明显的今天,信息科技已成为商业银行生存和发展的必要条件。商业银行数据中心的信息系统生产运维风险也成为唯一能使银行业务在瞬间全部瘫痪的重大风险,关系到金融稳定,社会稳定甚至国家安全。同时,随着银行业务的全球化拓展,数据中心生产运维工作将面临来自不同国家和地区的差异性监管要求,对数据中心合规风险管控提出更高挑战。面对上述两类风险,如何进一步推动数据中心风险管理体系的转型变革,如何有效控制全球集中后信息系统的运维风险,确保运维工作全面遵从国内外监管要求,实现优质服务和合规运营的新突破,有力支持全球一体化战略实施,已成为商业银行信息科技工作者亟待解决的问题。本文研究了商业银行信息系统全球一体化运维背景下的数据中心风险管理问题,在分析国内外相关风险管理理论和当前商业银行数据中心风险管理实践的基础上,针对商业银行数据中心面临的两大类风险——运维风险和合规风险,建立了符合商业银行数据中心运维特点的风险管理模型,以此为基础提出了一套适用于数据中心全球一体化运维的风险管理体系实现方法,包括一个管理架构、一套风险基线、三种管控措施、三类改进机制,解决了当前在风险识别完整性和风险控制精细化上存在的问题,并选取已经实现信息系统全球一体化集中运维的A银行(以下简称“A行”)开展了案例研究。本文的具体研究内容和创新点如下:(1)基于传统信息科技风险管理理论和最佳实践,围绕商业银行数据中心面临的运维及合规两类不同特点的风险,提出了以风险基线为核心、以全面风险控制机制和风险管理持续改进机制为支撑的数据中心风险管理模型及具体的风险管理体系实现方法。在该模型的指导下,建立了覆盖领域层、目标层、控制层三级架构的数据中心风险管理架构,实现合规风险及运维风险两类不同风险在同一管理体系下的统一管控。(2)研究了数据中心风险基线模型,提出了合规风险基线、运维风险基线、安全技术标准基线三类基线,建立了相应的风险基线模型和风险评估模型。通过风险基线,固化风险评估经验,使风险评估工作标准化,减少对人员经验和技能的依赖,提高风险评估效率。结合A行案例,探讨了符合海内外35个国家和地区的78个监管机构的数据中心合规风险基线的应用方法,分析了海内外在信息科技监管方面的差异,同时,针对大规模数据中心海量信息资产场景下的运维风险基线,提出了一种基于半量化运维风险评估模型。(3)研究了数据中心全面风险控制机制,涵盖制度规范、技术工具、风险接受三种方式。制度规范方面,提出了包含7个领域的数据中心制度体系模型,覆盖运维流程管理要求和资产安全保护要求。技术工具方面,全面分析数据中心面临的安全威胁,结合业界安全模型最新研究成果,提出了一种商业银行数据中心安全技术体系,从数据、终端、应用、系统、网络、物理六个领域实现数据中心风险的纵深防御。(4)研究了可持续改进的风险管理长效机制。基于PDCA的质量管理原则和思路,提出了涵盖定期完善机制和安全审计机制的持续优化机制,设计了数据中心安全审计体系框架,并提出了安全审计自动化管理平台的建设方法。为评估数据中心风险管理体系的可持续性,提出了一种可持续评估模型,涵盖PDCA执行、全员安全意识教育、风险管控有效性以及安全审计等指标,以及评估矩阵和合成算法,实现风险管理效果的量化评估。通过实例计算,验证了本文设计的商业银行数据中心风险管理体系的高可持续性。
孙朋[6](2019)在《基于SaaS模式的医药采购云平台设计与实现》文中研究说明目前我国基层医疗机构,许多配套法律、法规不健全,药品价格虚高,药品购销过程中存在不正之风等问题。老百姓普遍反映“看病贵”的矛盾日益突出,致使国家针对基层医疗机构进行医药改革。本文以某省下的县级市医药改革为背景,设计并实现基于SaaS模式的医药采购私有云平台。论文的主要工作包括:以基层医药采购改革为背景,结合SaaS成熟度模型,选择对SaaS第三级成熟度模型云端多租户进行探索。云端多租户的难点是创建系统和多租户数据隔离。通过给租户提供选择模块和自定义模板两种方式来解决创建系统问题,满足了多租户根据业务创建个性化系统的需求。本文提出URL重写机制算法实现了共享数据库实例、独享数据表这种多租户数据隔离方案,保证了SaaS多租户资源利用率很高,数据隔离性较高,满足了业务需要。根据云端多租户的特点,提出了在云端建立PaaS工作流方案,解决云端多租户工作流统一管理的问题。基于MyFlow开源组建基础上二次开发,解决了工作流web建模问题。对工作流核心活动算法的编写解决了工作流流程运转问题,也是区别其他工作流的核心关键。本文提出了工作流中间件从平台拉取数据的方案来同步数据,解决了平台和工作流中间件数据同步丢失问题,确保平台和工作流数据一致性。基于DUBBO解决了工作流微服务云端发布问题。基于HESSION框架解决了省医药采购系统到市医药采购平台药品目录同步问题。设计整个医药采购流程,使药品信息在卫生室、卫生院、供货商和市级监督单位及时地传递药品信息,保证医院药品的及时供应,提高药品供货效率,减少流通成本。医院采购药品详情页缓存设计,本文提出异步串行化解决方案,解决在高并发场景下药品详情页实时性高的数据缓存与数据库双写一致性设计问题。本文提出异步更新多级缓存策略,解决药品详情页时效性不高的数据一致性问题。本文提出基于zookeeper分布式锁的解决方案,解决缓存重建的并发冲突问题。本文提出双重zookeeper分布式锁的解决方案,解决分布式并行缓存预热问题。医药采购数据流量服务,数据埋点跟踪医药采购云平台的使用情况,把收集数据发送到日志服务器,为后续提供运营的数据支撑。日志滚动设计解决Nginx生成日志文件过大问题。针对Flume日志采集本文提出了IntegratedChannel解决方案,有效的兼容MemoryChannel和FileChannel两者的优点,保证了数据处理速度快,也可以持久化,让数据传输更稳定性和高效。解决了Flmue使用过程中数据重复收集和数据丢失问题,来提高Flume数据采集服务器的容错性。本文提出了Redis去重和增加容灾拦截器解决了日志滚动据重复搜集问题。本文提出了Redis去重和守护线程解决了Flume数据丢失问题。本文提出通过Rowkey随机散列和预分区结合的设计方法解决HBase存储热点问题并解决了在HBase使用的过程中JVM的Full GC问题。市级监督单位人员通过分析实时和离线指标,来完成对医药采购数据流量监管,完成科学决策,更好的提高医药采购服务。在本文的最后,对基于SaaS模式的医药采购云平台进行了功能测试和性能测试。测试结果表明,该平台提高了医药采购服务水平,到达了预期的效果。
王强[7](2019)在《证券交易系统日志采集分析平台的设计与实现》文中提出随着信息技术和互联网技术在证券金融行业的广泛应用,越来越多的证券业务通过互联网来完成。伴随证券行业信息化程度的不断深入,证券交易系统中的日志数据呈现爆炸式增长趋势。这些日志中不仅包含系统的运行状态信息,并且包含海量的客户行为信息。在传统的方式中,日志的处理是基于单点服务器,效率低、扩展性和存储都受到很大的限制,更难以支持基于日志的分析处理。同时,证券监管机构对证券公司开展网上证券交易业务的相关要求,证券交易系统的日志必须长期保存,用于配合监管机构查阅客户相关的交易行为和系统故障的事后排查。在此背景下,开发日志采集分析平台,实现对证券交易系统日志数据进行统一实时收集、集中存储以及查询分析,对提升监管质量和提高业务分析能力都有重要意义。主要工作如下:(1)分析证券交易系统日志采集分析平台功能需求。设计了证券交易系统日志采集分析平台的总体架构。主要包含五个模块:日志采集模块、数据缓存模块、数据处理模块、数据存储索引模块和结构可视化模块。(2)针对总体架构中各模块的功能,结合实际的日志结构设计了各个模块的基础架构及业务流程,基于ELK Stack和Kafka消息队列实现证券交易系统日志采集分析平台。支持日志统一采集、数据缓存、数据处理、数据存储与索引、数据分析及结果的可视化。(3)搭建并部署了日志分析平台的测试环境,对系统各模块进行功能与性能测试。实际运用结果表明,该平台运行性能稳定,能有效而快速的完成证券交易系统日志的采集、可靠的数据传输以及大量证券交易日志的集中统一存储,并且实现日志检索告警和分析等功能,满足了实际的功能需求。
刘茂礼[8](2019)在《基于大数据技术的银行信用卡精准获客的研究》文中进行了进一步梳理当前,科技发展已经达到了前所未有的新高度,移动互联网在向各个行业领域不断渗透,信用卡账户和介质将迎来新的挑战,支付手段面临着无限可能,信用卡产业在开创新时代。十八届五中全会、十三五规划都对拉动内需寄予厚望,政策导向都在鼓励消费,而刺激消费正是信用卡产品的优势所在。随着互联网和移动互联网的发展,银行也开始利用互联网和移动互联网获取信用卡新客户。G公司目前两大主营业务分别是帮助银行信用卡获取新客户和与银行合作发行联名信用卡。随着越来越多的客户拥有了信用卡,帮助银行信用卡获取新客户成本升高;同时,与银行合作发行联名信用卡业务面临坏账率偏高,导致盈利困难。G公司现有的数据分析系统分析数据结果滞后、不及时导致G公司在精准推荐办理银行信用卡成本越来越高,并且联名信用卡业务的坏账也无法得到有效的改善。而大数据技术的大量、高速、多样等特点可以帮助改造目前数据分析的流程和结构,解决公司目前遇到的困难。本文首先介绍了大数据技术的特点和优势,以及目前全球范围内各个领域对大数据技术应用的研究和部分成果。介绍了我国银行信用卡市场的现状,分析了当前互联网和移动互联网端推荐办理银行信用卡面临的诸多困难。基于大数据技术的原理和特点,并从业务特点和应用场景的角度进行了思考,和当前的数据分析方式进行了对比。同时,针对G公司推荐办理银行信用卡和联名信用卡业务现状、数据分析系统和业务流程,进行了详细的介绍和分析,指出了其中的不足,并在此基础上进行了大数据分析的试验,将大数据分析的结果用于帮助G公司精准获取到新客户,同时,利用大数据分析结果降低G公司银行联名信用卡业务的坏账率,验证了大数据技术在银行信用卡领域精准获客的可行性。
丁心[9](2018)在《基于SOA架构的券商线上业务受理系统的设计与实现》文中进行了进一步梳理本文以建设整套券商业务系统为出发点,按照软件工程的流程进行构建。利用Web端技术进行前台的开发、利用Thinkbus企业ESB总线架构技术进行业务管理平台的开发。同时利用Web技术应用开发实现券商业务系统的模块搭建,基于SOA架构开发线上业务受理系统。该系统不仅填补了证券线上业务办理的渠道空白,更是搭建起了券商前端业务统一处理的“中台”。为全面实现业务线上化,处理高并发性瓶颈,复杂的二次业务办理,该平台可以为各种业务前端业务进行统一处理。该系统具备高性能、高并发、高响应、高可用、高安全等特点,同时具有敏捷开发、快速部署、灵活配置的能力。本文主要完成以下模块的设计与实现:1.综合业务受理系统。该系统可以接收客户业务的办理请求,从而实现7*24业务受理功能,将业务分为实时办理和后台审核等业务处理;针对没有时间限制和后台审核步骤的业务,业务受理系统实时调用第三方接口进行办理;针对需要后台审核的业务,平台将数据收集和业务处理分开,通过系统完成数据的提交,针对有时间限制的业务,系统将用户的业务办理请求加入待办队列,并在规定时间内依次处理。2.综合业务管理平台。系统管理员对前台业务获得的数据进行相应的业务办理审核和业务数据查询。3.ThinkBus平台。本系统通过ThinkBus技术实现连接到各种业务系统模块,从而实现提供业务受理中的功能。目前,系统已经投入生产运行使用,为该券商实际开户上万名,日均受理业务超过2000笔,总体运行情况良好,性能满足预期设计目标。
申冬东[10](2018)在《面向极速交易的证券订单处理系统的设计与实现》文中研究表明随着我国证券市场的快速发展,金融创新的不断深化,机构投资者面临激烈的市场竞争与盈利压力,同时随着资金规模扩大、市场风险加剧、行情频繁波动,完全凭借手工操作的资产管理模式迎来了严峻的挑战,越来越多的机构投资者选择使用高频交易、算法交易等程序化交易方式来解决操作效率、风险管理等难题。在程序化交易应用越来越广泛同时交易策略趋同的现状下,能够最先判断时机并下单到交易所的机构会获取更高收益,因而交易用户对于交易通道的性能提出了越来越高的要求,传统基于数据库的证券集中交易系统已无法满足程序化交易对低延迟交易通道的需求。本文对低延迟交易通道进行研究,旨在设计一个具有低于毫秒级延迟、高可用的极速证券订单处理系统。在功能方面,极速证券订单处理系统为交易客户提供用户接入、委托、撤单、基础数据与交易数据查询的功能,并在交易所反馈委托、撤单、成交处理结果时通知交易客户端,同时为证券公司业务管理人员提供基础数据维护与交易数据查询功能。在性能方面,极速证券订单处理系统需要实现单笔委托时间在0.5毫秒以内、单笔成交响应时间在1毫秒以内的性能指标,满足程序化交易系统对极低交易延迟的需求。在可用性方面,极速证券订单处理系统各模块需支持无单点故障。本文对极速证券订单处理系统使用的消息中间件、分布式协调系统、命令职责分离机制等技术进行介绍,对系统进行需求分析与架构设计,介绍了核心功能与关键技术的设计与实现,并从功能、性能与可用性方面进行了验证,验证结果表明系统实现满足需求预期。与同类证券订单处理系统相比,本文工作具有以下特点:1.系统基于命令职责分离机制实现订单处理与查询功能分离,系统总体划分为交易子系统、交易接口动态库、管理子系统三大部分,交易子系统负责订单处理功能,订单处理完成后将订单与成交信息推送到交易接口动态库与管理子系统,查询功能分别在交易接口动态库与管理子系统实现,从而实现查询功能不影响订单处理性能。2.交易服务采用全内存处理机制,订单处理用到的基础数据与交易数据均保存到内存中,使用多种索引机制实现高性能订单处理,并保证订单处理的事务性。3.采用主动复制技术实现交易服务的高可用性,基于Apache Active MQ的全排序机制保证多个交易服务进程实例接收到相同顺序的消息,多个交易服务进程同时处理消息以保持相同的内存状态,基于Apache Zoo Keeper实现主备选举,仅由主进程对外发送处理结果消息,支持交易服务自动故障切换。
二、高可用证券实时监管中间件平台(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、高可用证券实时监管中间件平台(论文提纲范文)
(1)5G网络技术对提升4G网络性能的研究(论文提纲范文)
引言 |
1 4G网络现处理办法 |
2 4G网络可应用的5G关键技术 |
2.1 Msssive MIMO技术 |
2.2 极简载波技术 |
2.3 超密集组网 |
2.4 MEC技术 |
3 总结 |
(2)车联网安全事件检测分析和主动赋能系统的研究与实现(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 课题研究的背景与意义 |
1.2 国内外研究现状 |
1.2.1 车联网整体发展调查 |
1.2.2 车联网系统组成 |
1.2.3 车联网中的大数据 |
1.2.4 大数据框架介绍 |
1.2.5 车联网与大数据技术结合案例分析 |
1.3 本文的主要工作 |
1.4 论文结构安排 |
第二章 相关技术及理论 |
2.1 车联网安全事件 |
2.1.1 安全事件的定义 |
2.1.2 安全事件的分类 |
2.2 相关国际标准的研究 |
2.2.1 ISO-26262 |
2.2.2 ASIL安全等级 |
2.2.3 实例说明 |
2.3 行为类安全事件分级算法 |
2.3.1 模糊集合和隶属度 |
2.3.2 严重度分析 |
2.3.3 暴露率分析 |
2.3.4 可控性分析 |
2.3.5 实例说明 |
2.4 信息类安全事件分级算法 |
2.4.1 模糊综合评估法 |
2.4.2 严重度分析 |
2.4.3 可控性分析 |
2.4.4 暴露率分析 |
2.4.5 分级实例-虚假信息攻击事件分级 |
2.5 本章小结 |
第三章 系统需求分析 |
3.1 系统需求概述 |
3.2 可行性分析 |
3.2.1 市场可行性分析 |
3.2.2 车联网5G背景分析 |
3.2.3 技术可行性分析 |
3.3 系统业务需求分析 |
3.3.1 安全事件相关业务分析 |
3.3.2 大数据业务分析 |
3.4 系统功能需求分析 |
3.4.1 安全事件模块 |
3.4.2 主动赋能功能需求分析 |
3.4.3 大数据统计分析 |
3.5 系统非功能需求分析 |
3.6 本章小结 |
第四章 系统设计 |
4.1 系统架构 |
4.2 安全事件检测分析模块设计 |
4.2.1 安全事件数据设计 |
4.2.2 事件分级的设计 |
4.2.3 事件检测分析过程设计 |
4.2.4 事件检测分析的容错设计 |
4.3 主动赋能模块设计 |
4.3.1 预案管理模块 |
4.3.2 预案策略设计 |
4.3.3 主动赋能过程设计 |
4.4 大数据模块设计 |
4.4.1 技术选型 |
4.4.2 频发事件统计 |
4.4.3 用户画像-用户行为偏好分析 |
4.4.4 用户画像-用户车联网依赖度分析 |
4.5 本章小结 |
第五章 系统实现及测试 |
5.1 实现与测试环境 |
5.1.1 硬件环境 |
5.1.2 软件环境 |
5.2 系统功能实现 |
5.2.1 安全事件分级 |
5.2.2 安全事件监听 |
5.2.3 安全事件追踪 |
5.2.4 安全事件保存 |
5.2.5 主动赋能模块 |
5.2.6 频发事件统计 |
5.2.7 用户画像-用户行为偏好分析 |
5.2.8 用户画像-用户车联网依赖度分析 |
5.3 前端界面的实现与展示 |
5.4 系统功能测试 |
5.4.1 安全事件监听 |
5.4.2 安全事件持续追踪 |
5.4.3 安全事件保存 |
5.4.4 安全事件容错能力测试 |
5.4.5 安全事件联合测试 |
5.4.6 主动赋能模块 |
5.4.7 大数据分析模块 |
5.4.8 其它功能测试 |
5.5 系统性能测试 |
5.5.1 事件监听性能测试 |
5.5.2 事件追踪压力测试 |
5.6 本章小结 |
第六章 全文总结与展望 |
6.1 全文总结 |
6.2 后续工作展望 |
致谢 |
参考文献 |
攻读硕士学位期间取得的成果 |
(3)基于等保测评的信息安全风险管理研究 ——以PFL保险公司为例(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
第一节 研究背景和内容 |
一、研究背景 |
二、研究内容 |
第二节 文献综述 |
第三节 研究方法 |
一、文献研究方法 |
二、实证分析 |
三、逻辑归纳方法 |
第二章 信息安全风险管理现状及等保测评简介 |
第一节 信息安全风险 |
一、什么是信息安全风险 |
二、信息安全风险管理 |
第二节 信息安全风险管理的现状 |
一、国外现状 |
二、国内现状 |
三、国内保险业信息安全风险管理的现状 |
第三节 等保测评简介 |
一、什么是等级保护 |
二、什么是等保测评 |
三、等级保护的发展 |
第三章 PFL保险公司信息安全风险管理的现状 |
第一节 案例公司---PFL保险公司简介 |
第二节 公司信息安全风险管理现状 |
一、信息化工作规章制度 |
二、基础硬件、网络结构和安全配置情况 |
三、业务系统情况介绍 |
四、数据存储、备份与灾备计划 |
五、信息系统重大突发性事件应急预案 |
六、机房建设情况 |
第四章 PFL保险公司的等保测评项目 |
第一节 PFL保险公司等保测评项目概述 |
一、项目目标 |
二、测评范围 |
三、测评方法 |
四、单元评估 |
五、整体评估 |
第二节 PFL保险公司等保测评项目详细分析研究 |
一、总体评价 |
二、测评对象选择 |
三、单元评估详述 |
四、整体评估 |
五、总体分析 |
六、非符合项的优化建议 |
第五章 结论 |
第一节 主要研究结论 |
第二节 研究不足与展望 |
参考文献 |
附录 |
致谢 |
个人简历及在学期间发表的研究成果 |
(4)基于流计算的证券数据流异常检测系统的设计与实现(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 课题背景及研究的目的和意义 |
1.2 国内外研究现状 |
1.2.1 流计算技术发展现状 |
1.2.2 异常检测技术发展现状 |
1.3 研究内容与目标 |
1.4 论文结构 |
第2章 证券数据流异常检测系统的关键技术 |
2.1 Flink流计算框架 |
2.1.1 流架构 |
2.1.2 Flink简介 |
2.1.3 Flink进程管理 |
2.1.4 Flink时间和窗口 |
2.1.5 Flink容错机制 |
2.2 Kafka消息中间件 |
2.3 MyCat分库分表中间件 |
2.4 异常检测算法简述 |
2.4.1 基于规则的异常检测 |
2.4.2 ARIMA异常检测模型 |
2.4.3 HTM异常检测算法 |
2.5 本章小结 |
第3章 证券数据流异常检测系统的需求分析与整体设计 |
3.1 系统总体需求 |
3.1.1 系统功能性需求 |
3.1.2 系统非功能性需求 |
3.2 系统整体架构设计 |
3.3 系统功能模块设计 |
3.4 数据库总体设计 |
3.5 本章小结 |
第4章 证券数据流异常检测系统的详细设计与实现 |
4.1 实时数据源接入模块的设计与实现 |
4.1.1 接入文件源分析 |
4.1.2 实时文件源接入Kafka |
4.1.3 高可用方案的设计与实现 |
4.2 实时数据预处理模块的设计与实现 |
4.2.1 数据预处理采样子模块的设计与实现 |
4.2.2 数据集成规约子模块的设计与实现 |
4.2.3 实时数据集划分子模块的设计与实现 |
4.3 实时异常检测模块的设计与实现 |
4.3.1 基于规则的异常检测的设计与分析 |
4.3.2 ARIMA异常检测模型的设计与分析 |
4.3.3 HTM异常检测算法的设计与分析 |
4.4 实时数据推出模块的设计与实现 |
4.4.1 实时数据入库子模块的设计与实现 |
4.4.2 异常结果订阅子模块的设计与实现 |
4.5 本章小结 |
第5章 证券数据流异常检测系统的部署与测试 |
5.1 环境的配置与部署 |
5.1.1 硬件部署 |
5.1.2 软件部署 |
5.2 系统功能性测试 |
5.2.1 单元测试 |
5.2.2 集成测试 |
5.2.3 系统测试 |
5.3 系统非功能性测试 |
5.3.1 压力测试 |
5.3.2 时延测试 |
5.3.3 可靠性测试 |
5.4 本章小结 |
结论 |
参考文献 |
致谢 |
个人简历 |
(5)商业银行数据中心风险管理研究(论文提纲范文)
致谢 |
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景及意义 |
1.1.1 研究背景 |
1.1.2 研究意义 |
1.2 国内外研究现状 |
1.3 研究内容及结构安排 |
1.3.1 研究内容 |
1.3.2 结构安排 |
第二章 风险管理基础理论及商业银行风险管理模型研究 |
2.1 风险管理基本模型 |
2.2 信息科技风险管理模型 |
2.2.1 ISACA COBIT |
2.2.2 ISO 27000 |
2.2.3 COSO ERM |
2.2.4 SP800 |
2.2.5 ISACA RISK IT |
2.3 风险识别和评估理论 |
2.3.1 信息科技风险识别和评估 |
2.3.2 数据中心风险识别和评估 |
2.4 商业银行数据中心风险管理模型研究 |
2.4.1 数据中心风险管理模型 |
2.4.2 数据中心风险管理体系设计 |
2.4.3 数据中心风险管理架构研究 |
2.5 本章小结 |
第三章 商业银行数据中心风险基线研究 |
3.1 数据中心风险基线模型 |
3.2 合规风险基线研究 |
3.2.1 合规风险基线设计 |
3.2.2 监管政策研究 |
3.2.3 合规风险评估模型 |
3.3 运维风险基线研究 |
3.3.1 基于信息资产的量化运维风险评估 |
3.3.2 半定量化运维风险评估 |
3.4 安全技术标准基线研究 |
3.5 本章小结 |
第四章 商业银行数据中心全面风险控制机制研究 |
4.1 制度规范 |
4.1.1 制度体系设计 |
4.1.2 精细化管理 |
4.2 技术工具 |
4.2.1 数据中心面临的安全威胁分析 |
4.2.2 数据中心安全技术体系模型 |
4.2.3 重点安全威胁的技术防控 |
4.3 风险接受 |
4.4 本章小结 |
第五章 商业银行数据中心风险管理持续改进机制研究 |
5.1 风险管理体系的持续改进机制 |
5.2 持续的定期完善机制 |
5.3 安全审计机制 |
5.3.1 安全审计体系框架 |
5.3.2 执行团队自我检查 |
5.3.3 审计团队专职审计 |
5.3.4 安全审计管理平台 |
5.4 风险管理体系的可持续性评估 |
5.4.1 证据推理方法 |
5.4.2 可持续性评估 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
附录1:海外监管制度清单 |
攻读博士学位期间的学术活动及成果情况 |
(6)基于SaaS模式的医药采购云平台设计与实现(论文提纲范文)
摘要 |
Abstract |
本论文专用术语注释表 |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 国内外相关研究现状 |
1.2.1 SaaS软件的国内外研究现状 |
1.2.2 工作流国内外研究现状 |
1.2.3 医药集中采购国内外研究现状 |
1.2.4 大数据流量服务国内外研究现状 |
1.3 论文研究内容 |
1.4 论文组织结构 |
第二章 相关技术分析 |
2.1 协调组件Zookeeper |
2.1.1 Zookeeper数据结构 |
2.1.2 Zookeeper选举机制 |
2.1.3 Zookeeper写数据 |
2.2 数据采集Flume |
2.2.1 Flume架构中的组件 |
2.2.2 Flume内部原理 |
2.3 消息服务Kafka |
2.3.1 Kafka框架结构 |
2.3.2 Kafka生产过程分析 |
2.3.3 Kafka消费过程分析 |
2.4 流式计算Storm |
2.4.1 Storm核心组件 |
2.4.2 Storm编程模型 |
2.5 本章小结 |
第三章 系统需求分析和总体设计 |
3.1 系统需求分析 |
3.1.1 功能需求 |
3.1.1.1 多租户创建系统模块需求 |
3.1.1.2 多租户工作流统一管理模块需求 |
3.1.1.3 医药采购流程服务模块需求 |
3.1.1.4 医药采购数据流量服务模块需求 |
3.1.2 非功能需求 |
3.2 系统总体设计 |
3.2.1 架构设计 |
3.2.2 模块设计 |
3.2.2.1 多租户创建系统概要设计 |
3.2.2.2 多租户工作流统一管理概要设计 |
3.2.2.3 医药采购流程服务概要设计 |
3.2.2.4 医药采购数据流量服务概要设计 |
3.3 本章小结 |
第四章 系统详细设计与实现 |
4.1 多租户创建系统设计 |
4.1.1 SaaS成熟度模型和选型分析 |
4.1.2 多租户系统创建设计 |
4.1.3 多租户数据隔离设计 |
4.2 多租户工作流统一管理 |
4.2.1 云端多租户工作流选型分析 |
4.2.2 工作流统一管理的web模型设计器 |
4.2.3 工作流核心活动算法的设计 |
4.2.4 工作流统一管理的数据同步 |
4.2.5 工作流统一管理的微服务发布 |
4.3 医药采购流程服务设计 |
4.3.1 医药采购类图模型设计 |
4.3.2 医药采购药品目录同步设计 |
4.3.3 医药采购流程服务设计 |
4.3.4 医药采购药品详情页缓存设计 |
4.4 医药采购数据流量服务 |
4.4.1 数据埋点服务设计 |
4.4.2 日志服务器设计 |
4.4.3 日志数据采集服务设计 |
4.4.4 日志数据存储服务设计 |
4.4.5 实时数据指标分析 |
4.4.6 离线数据指标分析 |
4.5 本章小结 |
第五章 系统测试与分析 |
5.1 测试环境 |
5.2 测试方案 |
5.3 测试结果及分析 |
5.3.1 功能测试及分析 |
5.3.1.1 多租户创建系统测试 |
5.3.1.2 多租户工作流在医药采购流程服务中的应用测试 |
5.3.1.3 医药采购数据流量服务测试 |
5.3.2 性能测试及分析 |
5.3.2.1 云端多租户性能测试 |
5.3.2.2 医药采购云平台模块性能测试 |
5.4 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 展望 |
致谢 |
参考文献 |
(7)证券交易系统日志采集分析平台的设计与实现(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 国内研究现状 |
1.2.2 国外研究现状 |
1.3 研究内容 |
1.4 论文组织结构 |
第二章 相关技术 |
2.1 消息队列技术 |
2.1.1 消息队列概述 |
2.1.2 消息队列的传输模型 |
2.2 正则表达式技术 |
2.3 Lucene简介 |
2.4 Elasticsearch |
2.5 本章小结 |
第三章 需求分析与总体架构设计 |
3.1 系统需求分析 |
3.1.1 证券交易系统概述 |
3.1.2 证券交易系统日志统计分析 |
3.1.3 需求概述 |
3.1.4 功能性需求分析 |
3.1.5 非功能性需求分析 |
3.2 系统架构设计 |
3.3 系统模块设计 |
3.3.1 日志采集模块设计 |
3.3.2 数据缓存模块设计 |
3.3.3 数据处理模块设计 |
3.3.4 数据存储索引模块设计 |
3.3.5 数据可视化模块设计 |
3.4 系统数据流设计 |
3.5 本章小结 |
第四章 系统详细设计与实现 |
4.1 日志结构分析 |
4.1.1 TDX网上交易系统日志格式分析 |
4.1.2 防火墙日志格式解析 |
4.2 采集模块详细设计与实现 |
4.2.1 TDX网上交易系统日志采集设计与实现 |
4.2.2 防火墙日志采集设计与实现 |
4.3 数据缓存模块的详细设计与实现 |
4.3.1 数据缓存模块的数据写入 |
4.3.2 数据缓存模块的数据存储 |
4.3.3 数据缓存模块的数据读取 |
4.3.4 数据缓存模块的实现 |
4.4 数据处理模块详细设计与实现 |
4.4.1 TDX网上交易系统数据处理与实现 |
4.4.2 防火墙日志处理与实现 |
4.5 数据存储索引模块的详细设计与实现 |
4.5.1 Elasticsearch集群设计 |
4.5.2 Elasticsearch索引设计 |
4.5.3 Elasticsearch数据聚合分析的实现 |
4.6 数据可视化模块详细设计与实现 |
4.6.1 交易日志查询分析 |
4.6.2 日志检测告警 |
4.7 本章小结 |
第五章 平台部署与测试 |
5.1 平台部署 |
5.1.1 硬件环境部署 |
5.1.2 软件环境部署 |
5.1.3 平台整体集群部署 |
5.2 平台功能测试 |
5.2.1 日志检索功能测试 |
5.2.2 日志分析功能测试 |
5.2.3 日志检测告警功能测试 |
5.3 系统性能及监控测试 |
5.3.1 数据缓存模块监控测试 |
5.3.2 Elasticsearch监控测试 |
5.3.3 Logstash监控测试 |
5.3.4 系统测试结果 |
5.4 本章小结 |
第六章 总结与展望 |
6.1 论文工作总结 |
6.2 未来展望 |
致谢 |
参考文献 |
附录 |
(8)基于大数据技术的银行信用卡精准获客的研究(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 背景介绍 |
1.2 本文的主要工作 |
1.3 本文的组织结构 |
第2章 大数据技术的概念特点及应用综述 |
2.1 大数据技术介绍 |
2.1.1 大数据技术的原理 |
2.1.2 大数据技术的特点 |
2.1.3 大数据技术分类 |
2.2 国内外对大数据应用的研究状况 |
2.2.1 应用大数据技术的业务的特点 |
2.2.2 大数据技术应用的分类 |
2.2.3 当前大数据技术应用的研究案例 |
2.2.4 当前大数据技术在银行卡精准获客应用的研究状况 |
第3章 G公司业务的分析 |
3.1 我国互联网金融近年发展介绍 |
3.1.1 我国互联网金融发展概况 |
3.1.2 我国互联网金融现状分析 |
3.2 我国银行信用卡近期发展介绍 |
3.2.1 我国银行信用卡业务发展概况 |
3.2.2 我国银行信用卡业务现状分析 |
3.3 G公司业务发展介绍 |
3.3.1 G公司经营业务范围介绍 |
3.3.2 G公司近期发展遇到的挑战 |
3.4 G公司现有数据分析技术介绍 |
3.4.1 G公司现有数据分析技术介绍 |
3.4.2 G公司现有数据分析技术不能解决的问题 |
第4章 基于大数据技术精准营销信用卡申请业务 |
4.1 G公司大数据技术架构 |
4.1.1 数据同步模块 |
4.1.2 消息中间件模块 |
4.1.3 数据计算模块 |
4.1.4 数据存储模块 |
4.1.5 数据建模模块 |
4.1.6 综合考虑 |
4.2 G公司基于大数据技术架构实现精准营销 |
4.2.1 G公司营销现状 |
4.2.2 G公司基于自有大数据技术构建用户画像 |
4.2.3 G公司基于自有大数据技术实现精准营销 |
4.3 G公司精准营销调优结果 |
4.3.1 G公司调优前转换结果 |
4.3.2 G公司调优后转换结果 |
第5章 基于大数据技术优化信用卡精准营销的风控审核 |
5.1 信用卡业务风控审核简介 |
5.1.1 基本名词概念 |
5.1.2 重要的风险指标 |
5.1.3 信用卡业务的风控审核简介 |
5.2 G公司联名信用卡坏账分析 |
5.3 G公司利用大数据技术降低信用卡发卡风险 |
5.3.1 G公司大数据数据来源 |
5.3.2 G公司大数据架构设计 |
5.3.3 G公司大数据风控审核模型 |
5.4 G公司风险降低的结果展示 |
5.4.1 G公司利用大数据技术之前坏账结果展示 |
5.4.2 G公司利用大数据技术之后结果展示 |
第6章 G公司对大数据技术助力精准获客的展望与挑战 |
6.1 G公司对大数据技术帮助其信用卡业务精准获客的展望 |
6.1.1 G公司对大数据技术帮助其精准营销银行信用卡的展望 |
6.1.2 G公司对大数据技术帮助其完善联名信用卡风控审核的展望 |
6.2 G公司在应用大数据技术帮助其信用卡业务精准获客遇到的挑战 |
6.2.1 内部制约分析 |
6.2.2 外部制约分析 |
第7章 结论与展望 |
参考文献 |
致谢 |
攻读学位期间发表的学术论文目录 |
(9)基于SOA架构的券商线上业务受理系统的设计与实现(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景 |
1.2 研究意义 |
1.3 研究现状 |
1.3.1 券商业务管理现状和趋势 |
1.3.2 SOA架构研究现状 |
1.4 组织结构 |
第二章 相关理论与技术 |
2.1 SOA架构 |
2.2 ESB总线 |
2.3 Web前端技术 |
2.3.1 Sea.JS模块化编程 |
2.3.2 Node.js技术 |
2.4 高可用架构技术 |
2.5 本章小结 |
第三章 系统需求分析 |
3.1 券商业务系统业务流程 |
3.2 功能需求分析 |
3.2.1 面向客户前端功能需求 |
3.2.2 面向受理人员的业务受理需求 |
3.2.3 系统管理需求 |
3.3 系统性能需求分析 |
3.3.1 平台易用性 |
3.3.2 安全保密性 |
3.3.3 可扩展能力高 |
3.3.4 响应速度快 |
3.4 本章小结 |
第四章 基于SOA架构的系统总体设计 |
4.1 基于SOA的ESB总线设计 |
4.1.1 ESB设计原则 |
4.1.2 设计过程 |
4.2 逻辑分层设计 |
4.2.1 面向客户前端功能逻辑分层 |
4.2.2 面向受理人员的业务受理逻辑分层 |
4.2.3 系统管理逻辑分层 |
4.3 本章小结 |
第五章 系统模块详细设计 |
5.1 模块设计 |
5.1.1 前端接入平台模块优化设计 |
5.1.2 业务受理模块设计 |
5.1.3 后端管理模块设计 |
5.1.4 统计分析模块设计 |
5.1.5 高性能安全性调优设计 |
5.1.5.1 系统高扩展性设计 |
5.1.5.2 系统高性能设计 |
5.1.5.3 安全性设计 |
5.2 数据库设计 |
5.2.1 表设计 |
5.2.2 数据结构设计 |
5.3 本章小结 |
第六章 系统实现与测试 |
6.1 系统实现 |
6.1.1 用户登录 |
6.1.2 业务中心 |
6.1.3 业务受理 |
6.1.4 受理发布 |
6.1.5 管理平台 |
6.2 系统测试 |
6.2.1 测试环境 |
6.2.2 测试内容 |
6.2.3 测试结果 |
6.2.3.1 功能测试结果 |
6.2.3.2 性能测试结果 |
6.3 本章小结 |
第七章 总结与展望 |
7.1 总结 |
7.2 下一步工作 |
致谢 |
参考文献 |
(10)面向极速交易的证券订单处理系统的设计与实现(论文提纲范文)
摘要 |
abstract |
符号说明 |
1 绪论 |
1.1 研究背景和意义 |
1.2 极速证券订单处理系统研究现状 |
1.2.1 极速证券订单处理系统整体架构研究 |
1.2.2 极速证券订单处理系统性能优化 |
1.2.3 极速证券订单处理系统的应用 |
1.2.4 极速证券订单处理系统中的风险控制 |
1.3 论文研究的目标及主要内容 |
1.4 论文的组织结构及其章节编排 |
2 极速证券订单处理系统的相关技术 |
2.1 消息中间件 |
2.1.1 Apache ActiveMQ |
2.1.2 Apache Kafka |
2.1.3 消息中间件对比分析 |
2.2 分布式协调系统 |
2.2.1 Google Chubby |
2.2.2 Apache ZooKeeper |
2.2.3 分布式协调系统对比分析 |
2.3 命令查询职责分离机制 |
2.4 本章小结 |
3 极速证券订单处理系统的需求分析与架构设计 |
3.1 系统需求分析 |
3.1.1 功能性需求 |
3.1.2 非功能性需求 |
3.2 系统架构设计 |
3.2.1 逻辑架构 |
3.2.2 技术架构 |
3.2.3 部署架构 |
3.3 本章小结 |
4 核心功能及关键技术的设计与实现 |
4.1 基于CQRS的订单处理机制 |
4.1.1 难点分析 |
4.1.2 基于CQRS的证券订单及基础数据处理机制 |
4.1.3 基于CQRS的证券订单及基础数据处理实现 |
4.2 基于内存的证券订单处理 |
4.2.1 难点分析 |
4.2.2 基于内存的证券订单处理机制 |
4.2.3 基于内存的证券订单处理实现 |
4.3 基于主动复制的高可用机制 |
4.3.1 难点分析 |
4.3.2 基于主动复制的高可用机制 |
4.3.3 基于主动复制的高可用机制实现 |
4.4 本章小结 |
5 极速证券订单处理系统的测试 |
5.1 测试环境 |
5.2 功能测试 |
5.2.1 功能测试方案 |
5.2.2 功能测试结果与分析 |
5.3 性能测试 |
5.3.1 性能测试方案 |
5.3.2 性能测试结果与分析 |
5.4 可用性测试 |
5.5 本章小结 |
6 总结与展望 |
6.1 本文工作的总结 |
6.2 下一步的工作 |
参考文献 |
附录 |
致谢 |
作者攻读学位期间发表的论文 |
四、高可用证券实时监管中间件平台(论文参考文献)
- [1]5G网络技术对提升4G网络性能的研究[J]. 刘奕. 数码世界, 2020(04)
- [2]车联网安全事件检测分析和主动赋能系统的研究与实现[D]. 张一鸣. 电子科技大学, 2020(07)
- [3]基于等保测评的信息安全风险管理研究 ——以PFL保险公司为例[D]. 叶辰. 上海财经大学, 2020(07)
- [4]基于流计算的证券数据流异常检测系统的设计与实现[D]. 饶伊文. 哈尔滨工业大学, 2019(02)
- [5]商业银行数据中心风险管理研究[D]. 李政. 合肥工业大学, 2019(03)
- [6]基于SaaS模式的医药采购云平台设计与实现[D]. 孙朋. 东南大学, 2019(03)
- [7]证券交易系统日志采集分析平台的设计与实现[D]. 王强. 东南大学, 2019(01)
- [8]基于大数据技术的银行信用卡精准获客的研究[D]. 刘茂礼. 上海交通大学, 2019(06)
- [9]基于SOA架构的券商线上业务受理系统的设计与实现[D]. 丁心. 东南大学, 2018(03)
- [10]面向极速交易的证券订单处理系统的设计与实现[D]. 申冬东. 上海交通大学, 2018(01)