CN105339911A - 恢复滞留数据 - Google Patents
恢复滞留数据 Download PDFInfo
- Publication number
- CN105339911A CN105339911A CN201380076234.8A CN201380076234A CN105339911A CN 105339911 A CN105339911 A CN 105339911A CN 201380076234 A CN201380076234 A CN 201380076234A CN 105339911 A CN105339911 A CN 105339911A
- Authority
- CN
- China
- Prior art keywords
- node
- data
- processor
- nvm
- home node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/2097—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements maintaining the standby controller/processing unit updated
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/202—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
- G06F11/2023—Failover techniques
- G06F11/2025—Failover techniques using centralised failover control functionality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/202—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
- G06F11/2023—Failover techniques
- G06F11/203—Failover techniques using migration
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/202—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
- G06F11/2035—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant without idle spare hardware
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/0223—User address space allocation, e.g. contiguous or non contiguous base addressing
- G06F12/023—Free address space management
- G06F12/0238—Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory
- G06F12/0246—Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory in block erasable memory, e.g. flash memory
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/72—Details relating to flash memory management
- G06F2212/7208—Multiple device management, e.g. distributing data over multiple flash devices
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Hardware Redundancy (AREA)
- Human Computer Interaction (AREA)
- Computer Security & Cryptography (AREA)
Abstract
提供了一种用于从非易失性存储器恢复滞留数据的系统和方法。方法的实例包括通过边带接口从归属节点中的非易失性存储器(NVM)拷贝数据,以及将数据写到目标存储器区域,其中该目标存储器区域是在故障转移节点中。
Description
背景技术
在当前计算系统中,用于计算机系统的大部分主存储器由基于动态随机存取存储器(DRAM)的双列直插式存储器模块(DIMM)组成。DRAM提供了非常快的存取时间,是字节可寻址的,以及与其它存储器技术相比具有吸引人的每比特价格的量度。然而,DRAM是易失性的,从而一旦从设备移除电力,就会损失数据。因而,用于计算机系统的大容量储存装置经常包括硬盘驱动器、固态闪存存储驱动器或混合组合,以永久地存储数据。即使在移除电力之后也能够在DIMM中实现数据的长期储存的新一代存储器模块在计算机工业内正开始变得可用。
附图说明
在接下来的详细描述中并且参考附图描述了某些实例,其中:
图1是允许对故障节点的非易失性存储器(NVM)中的滞留数据(strandeddata)的存取的计算系统100的实例的框图;
图2是可被用在图1的计算系统中的单个节点的实例的框图;
图3是示出归属节点(homenode)和故障转移节点的计算系统的示意图;
图4是可被用在节点中以通过管理或边带总线存取NVM中的数据的管理设备的框图;以及
图5是图解说明用于存取计算系统的NVM中的滞留数据的方法的过程流程图。
具体实施方式
网络化计算系统一般包括被配置成提供诸如储存、应用、数据库等等的资源的主机计算设备(或节点)。主机计算设备可以是被配置成在网络内给客户端设备提供服务的服务器、诸如数据库服务器、文件服务器、邮件服务器、打印服务器、web服务器或某个其它类型的服务器。
虽然新类型的存储器模块在从节点移除电力之后允许持久的数据储存,但是给定的服务器或节点(“归属”节点)的故障可导致持久的数据不再可由该数据的其它用户存取。如本文中所使用的那样,这个数据在存储器模块中已经变成“滞留的”并保持“被俘的(captive)”。本文中描述的技术一般涉及对滞留在计算系统(诸如故障节点)的非易失性存储器(NVM)中的数据进行存取。在一个实例中,连接到存储器模块上的DIMM控制器的边带接口允许通过管理子系统读(提取)和写(载入)数据。例如,可使用在工业标准DIMM模块上的标准串行存在检测(SPD)接口。在操作这个技术期间,管理子系统和部分存储模块以备用电力为动力来运转。这个方式,当故障节点的主电力例如由于节点故障而断开时,数据可被提取。
任何数目的计算设备都可以是系统中的节点、诸如工作站、服务器、网络附加储存装置等等。可用在计算系统中的节点的一个实例是刀片式服务器,该刀片式服务器是具有被优化以最小化物理空间的使用的模块化设计的服务器计算机。尽管标准机架安装式服务器可利用电源线和网络电缆起作用,但是刀片式服务器出于节约空间的目的却移除了许多组件,从而最小化电力消耗以及其他考虑,同时仍然具有被认为是计算机的所有功能性组件。多插槽机壳可容纳多个刀片式服务器盒以及提供共享的资源、诸如电力、冷却、联网、各种互联以及管理。
每个节点通常都包括存储器、诸如双列直插式存储器模块(DIMM)、单列直插式存储器模块(SIMM)等等。如本文中所使用的那样,对DIMM的任何提及都包括具有任意封装类型的存储器模块。可被用在节点中的DIMM中的新兴存储器模块可包括DRAM、NVM或这二者的组合。NVM可包括任何数目的存储器技术,诸如闪速存储器、相变存储器、自旋转移矩随机存取存储器(spintransfertorqueram)以及电阻式随机存取存储器。NVM存储器模块也可以采取具有电池备用设备的DRAM模块的形式。
在CPU的直接可寻址的主存储器地址空间中直接使用持久储存允许使能很多新型的系统架构和编程模型,诸如快速电源切断和重启模式或更多的本地储存数据。进一步地,利用NVM的共享储存系统可在组件故障的情况下使能数据的高可用性,例如通过存储多个数据副本、或通过利用诸如RAID的技术来使能,所述RAID可在组件故障(诸如处理器)的情况下重构数据。
对由于节点故障(诸如CPU或电力损失)导致滞留的数据进行存取的能力防止节点故障,而不是DIMM故障。然而本文中所讨论的技术可与如下系统兼容:RAID数据跨越服务器上的多个DIMM。这个解决方案然后可单独地迁移每个RAID条,以允许连续操作。如果只有DIMM故障,则服务器可重建。如果服务器和DIMM都故障,则故障转移服务器可在迁移之后重建。
图1是允许对故障节点的非易失性存储器(NVM)中的滞留数据进行存取的计算系统100的实例的框图。计算系统100可具有基于任意数目的技术的主总线102,所述技术诸如PCI、无限带宽技术(Infiniband)、PCI-Express、超传输技术NuBus等、以太网等等。在一些例子中,主总线102也可采取交换结构的形式。主总线102可连接任何数目的单元,其包括一个或更多可具有包括NVM106的DIMM(或其它结构)的服务器节点104。长期储存可由也可包括NVM106的一个或更多固态磁盘驱动器(SSDD)储存节点108来提供。长期储存也可由一个或更多磁盘节点110提供,所述磁盘节点110可包括硬盘驱动器、NVM106或其组合。
计算系统100可具有路由器112,以提供对一个或更多客户端设备114的访问。客户端设备可包括网络(诸如LAN、WAN或因特网)或可访问计算系统100的用户设备。
管理系统116可通过管理(或边带)总线118被耦合到计算系统100中的其它单元、诸如服务器节点104、SSDD储存节点108以及磁盘节点110。管理系统116(或在各个单独的单元104、108和110中的设备)可检测可在归属节点中滞留数据的单元的故障。管理系统116然后可从归属节点中的NVM106读出滞留的数据,例如通过管理总线118读出,以及将数据写到目标节点。数据可被写到目标节点中的NVM106,其中故障节点中的DIMM被直接拷贝到目标节点中的DIMM。在其它实例中,数据可被写到虚拟存储器。在数据传输期间,可实现任何数据的重建,例如根据RAID条带化的存储器还原数据。一旦数据在目标节点中,在归属节点中在故障之前是可操作的过程就可被重启。
图1的框图并不意图指示计算系统100将要包括图1中示出的所有组件。进一步地,根据特定实施方案的细节,计算系统100可包括未在图1中示出的任意数目的附加组件。
图2是可被用在图1的计算系统100中的单个节点200的实例的框图。相同编号的项如参考图1所描述的那样。节点200包括处理器202,以控制操作和执行任务、诸如用于客户端的计算和数据存取。处理器202可以是单核处理器、多核处理器、计算集群或任意数目的其它配置。处理器202可被实施为复杂指令集计算机(CISC)或精简指令集计算机(RISC)处理器、x86指令集兼容处理器、多核或任意其它微处理器或中央处理单元(CPU)。
处理器202可被耦合到在节点200内的内部总线204,用于与其它单元通信。内部总线204可包括任意数目的不同类型,诸如PCI、ISA、PCI-Express、超传输技术NuBus等等。进一步地,内部总线204可以是与系统总线102相同的类型,或者可以是不同的类型。网络接口设备206可被用于将内部总线204耦合到系统总线206。网络接口设备206可包括被配置成把内部总线204与系统总线102隔离同时允许通信的以太网接口或任意数目的其它类型的其它接口或交换机。
在节点200中可包括多个不同的单元,以为数据或程序提供储存。储存单元可包括磁盘子系统208、存储器子系统210等等。磁盘子系统208可包括磁盘控制器212,该磁盘控制器212控制数据到磁盘驱动装置214和存储器(诸如NVMDIMM216)的任何组合的读和写。
存储器子系统210可包括非易失性和易失性随机存取存储器这两者,诸如SRAM、DRAM、零电容器RAM、SONOS、eDRAM、EDORAM、DDRRAM、RRAM、PRAM等。进一步地,存储器子系统210可包括只读存储器、诸如掩膜型ROM、PROM、EPROM、EEPROM等等。存储器子系统210可包括控制对诸如DRAMDIMM220和NVMDIMM222之类的存储器的存取的存储器控制器218。
如上面所描述的那样,节点200的故障可使数据陷入存储器子系统210中的NVMDIMM222中或磁盘子系统208中的NVMDIMM216中。在本文中描述的实例中,通过边带总线118可对数据进行存取并将数据传输到不同节点。为了便利于这种传输,存储器控制器218可具有能够对NVMDIMM222进行存取的管理设备224。在节点200的整个电力故障的情况下,管理设备224可将足够的电力提供给存储器控制器218和NVMDIMM222,以对数据进行存取。类似地,磁盘控制器212可具有能够提供类似功能的管理设备226,从而允许对磁盘子系统208中的NVMDIMM216中的数据进行存取。
图2的框图并不意图指示节点200将要包括在图1中示出的所有组件。例如,服务器节点可不具有磁盘子系统208。进一步地,根据特定实施方案的细节,节点200可包括未在图1中示出的任意数目的附加组件。例如,节点200可包括人机接口、诸如显示器接口、键盘接口、指向设备接口等等。
图3是示出归属节点302和故障转移节点304的计算系统300的示意图。相同编号的项如参考图1所描述的那样。在这个实例中,节点302和304中的每个都具有处理器306,该处理器306可以是任意数目的类型,如参考图2中的处理器202所描述的那样。每个处理器306都被耦合到I/O设备308,例如被耦合到内部总线。I/O设备308提供在每个节点302和304与系统总线102之间的接口,这可以是本地或数据中心网络。每个处理器306也都被耦合到存储器控制器310,该存储器控制器310在这个实例中被用于控制一个或更多混合型DIMM312。每个混合型DIMM312都可包括混合型DIMM控制器314,该混合型DIMM控制器314可被用于将数据读和写到DRAM316。每个混合型DIMM312也可包括被用于控制在混合型DIMM312上的NVM320的NVM控制器318。节点302和304中的每个也都包括系统管理设备322,所述系统管理设备322可被用于与管理网络118接口连接。进一步地,混合型DIMM312中的每个都包括与系统管理设备322接口连接的管理设备324,从而允许通过管理网络118存取持久的数据。
在正常操作期间,对持久存储器(诸如NVM320)的载入和存储经由附着于处理器306的存储器控制器310而来。其它节点可经由系统总线(数据中心网络)102对这个数据进行存取。如果归属节点302以任何方式故障,则直接附着的混合型DIMM312会不再经由数据中心网络102而是可用的。除非这个数据设法以另一方式被复制,否则在没有物理移除该混合型DIMM312的情况下,该数据被滞留以及重要信息可能损失。
如在本文中的实例中所描述的那样,如果归属节点302故障,则例如位于系统管理设备322中的、位于管理系统116中的或位于其它系统设备中的管理处理器注意到这个故障并且开始“重新整合”的过程。通过使用管理网络118,系统管理处理器从归属节点302读内容并且将这些内容写到故障转移节点304。一旦数据已被成功复制,就可使用现有的方法来重启从故障点运行的过程和应用。这些方法除了别的以外可包括参考工作负载迁移、主动/被动高可用性或检查点方案。能够注意的是,故障转移节点304在故障事件之前并不需要被指定。在仅仅在唆使数据复制操作之前的在归属节点302上的故障之后,管理系统116可将合适的目标分派为故障转移节点304。
图3的示意图并不意图指示所有的组件必须存在或其它组件可不存在。例如,在混合型DIMM312中的管理设备324可与管理网络118直接接口连接,从而从节点302和304消除了系统管理设备322。进一步地,根据特定实施方案的细节,节点200可包括磁盘驱动器、SSD或任意数目的附加组件。
图4是可被用在节点中以通过管理或边带总线118对NVM320中的数据进行存取的管理设备400的框图。相同编号的项如参考图1和图3所讨论的那样。管理设备400可以是安装在混合型DIMM上的专用集成电路(ASIC)、安装在系统主板上的一组组件、节点内的分开的模块或任何数目的其它配置。
如本文中所描述的那样,除了可存在的其它功能以外,管理设备400还被适配于提供对故障节点中的NVM中的滞留数据的存取。管理设备400包括电力驱动器402,所述电力驱动器402被耦合到系统电源404并且被适配于例如通过系统电力线406给其它功能块提供电力。管理设备400可被适配于从节点的主电力、从应急或备用电源或从用于网络的系统电力接收电力。
管理设备400包括处理器408,所述处理器408被适配于控制管理设备400的总体操作。处理器408被适配于通过管理网络118与其它节点和管理系统进行通信。处理器408经由内部总线410被连接到管理设备400的各种其它功能块。由内部总线410采用的协议可根据系统设计考虑而变化。处理器408可提供全传输控制协议/因特网协议(TCP/IP)栈,以及提供对动态主机配置协议(DHCP)、安全套接字层(SSL)、传输层安全(TLS)和/或专有管理设备协议的支持。
系统管理集线器420可被连接到管理网络118,以允许管理设备400从管理系统或其它管理设备接收通信。系统管理集线器420可被配置以允许穿过管理网络118到其它设备。这些通信可包括由管理设备400从NVM读取的以及通过通信网络118发送到故障转移节点中的管理设备或者用于重定向到故障转移节点的管理系统的滞留数据。系统管理集线器412被连接到通过内部总线410耦合到处理器408的网络接口(NIC)414。存储器管理接口416通过内部总线410被耦合到处理器408。存储器管理接口416可耦合到驱动器418,该驱动器418可被用于与NVM存储器控制器314接口连接,以从NVM320读或向NVM320写数据。
管理设备400可包括存储器控制器420,该存储器控制器420经由内部总线410被连接到其它系统组件。存储器控制器420被适配于管理在管理设备400的处理器408和存储器资源之间的数据流。在图4中示出的实例中,存储器控制器420管理随机存取存储器(RAM)422和非易失性存储器424。非易失性存储器424可被用于存储用于管理设备400的操作的机器可读指令。这些指令可包括检测模块426,所述检测模块426被用来例如通过利用耦合到电力驱动器402的电力检测接口428检测主系统电力的损失而指引处理器408检测节点的故障。非易失性存储器424也可包括数据存取模块430,所述数据存取模块430被用于指引处理器408从NVM320读取滞留数据并且通过管理网络118将所述滞留数据传输给另一单元。数据存取模块430也可包括如下指令:例如如果管理设备400位于故障转移节点中,则所述指令指引处理器408接受通过管理网络118发送来的数据并且将所述数据写到NVM320。在(包括备用电力的)节点电力全部损失的情况下,在一个实例中,管理设备可被配置成从电力驱动器402将电力馈送到NVM存储器控制器314以及NVM320,以允许从NVM320中读取数据。
图4的框图并不意图指示管理设备400包括在图4中示出的所有组件。例如,管理设备可不包括驱动器418,而是可被直接耦合到NVM存储器控制器314。进一步地,根据特定实施方案的细节,管理设备400可包括未在图4中示出的任意数目的附加组件。例如,管理设备400可包括设备级应急电力系统,所述设备级应急电力系统被配置为为了传输滞留数据而提供足够的电力。这些系统除了别的内容以外可包括电池或电容器等。
图5是图解说明用于对计算系统的NVM中的滞留数据进行存取的方法500的过程流程图。方法500在块502开始检测节点中的故障。在其它技术中,在各种实例中,这可由注意节点中的主系统电力损失的电力检测系统或由注意来自节点的通信(诸如心跳信号)的损失的管理系统执行。在块504,管理总线(或边带通道)被用于对滞留在故障节点中的NVM中的数据进行存取。在块506,数据被复制到故障转移节点,例如被复制到NVM或虚拟存储空间中。在块508,利用本文中描述的技术重新激活节点过程。
应该理解的是,图5的过程流程图,根据特定实施方案的细节,未在图5中示出的任意数目的附加步骤可被包括在方法500之内。例如,由于节点中的故障的DIMM,从RAID条带损失的数据可根据存储在其它DIMM中的条带中的数据被还原。
目前描述的技术实例可能易受各种修改和替换形式影响,并且已仅仅出于说明性目的而被示出。例如,本技术支持到节点中的NVM的读和写操作这两者。此外,应该理解的是,本技术并不意图被限制于本文中公开的特定技术实例。实际上,所附的权利要求的范围被认为是包括所有的替换方案、修改方案以及对于本领域技术人员而言明显的所公开的主题与其相关的等同方案。
Claims (15)
1.一种用于恢复滞留数据的方法,其包括:
通过边带接口从归属节点中的非易失性存储器(NVM)拷贝数据;以及
将所述数据写到目标存储器区域,其中该目标存储器区域在故障转移节点中。
2.根据权利要求1所述的方法,进一步包括将数据写到所述故障转移节点中的第二NVM。
3.根据权利要求1所述的方法,进一步包括将数据写到所述故障转移节点中的虚拟存储器区。
4.根据权利要求1所述的方法,进一步包括从管理子系统对归属节点中的NVM进行存取。
5.根据权利要求1所述的方法,进一步包括当主系统电力对所述归属节点断开时对第一NVM进行存取。
6.根据权利要求1所述的方法,进一步包括在归属节点中的所有电力都已经故障的情况下提供备用电力。
7.根据权利要求1所述的方法,进一步包括重新激活目标存储器区域中的过程。
8.根据权利要求1所述的方法,进一步包括:
从归属节点中的相对应的多个NVM将多个存储器条带迁移到该故障转移节点;
检测所述多个存储器条带中的任何存储器条带是否包括丢失的或有缺陷的数据;以及
重建丢失的或有缺陷的数据。
9.一种计算系统,其包括:
归属节点,所述归属节点包括:
处理器;
耦合到该处理器的存储器控制器;
耦合到该处理器以及网络的主网络接口;
耦合到该存储器控制器的非易失性存储器(NVM);以及
系统管理设备,所述系统管理设备被耦合到该存储器控制器、该处理器以及系统管理网络;以及
故障转移节点,所述故障转移节点包括:
处理器;
耦合到该处理器的存储器控制器;
耦合到该处理器以及该网络的主网络接口;
耦合到该存储器控制器的目标存储器区域;以及
系统管理设备,所述系统管理设备被耦合到该存储器控制器、该处理器以及该系统管理网络;
其中该系统管理网络可通过归属节点中的该系统管理设备对存储在该归属节点的NVM中的数据进行存取,并且通过该故障转移节点的该系统管理设备将该数据传输到该故障转移节点的目标存储器区域。
10.根据权利要求9所述的计算系统,其中,归属节点中的系统管理设备在将数据从归属节点的NVM传输到该目标存储器区域之前检测归属节点中的故障。
11.根据权利要求9所述的计算系统,其中,所述归属节点中的系统管理设备包括备份电力驱动器,以在该归属节点中的系统电力完全故障的情况下给存储器控制器供电。
12.根据权利要求9所述的计算系统,其中,归属节点中的系统管理设备包括:
处理器;
包括指令的存储器,其中这些指令:
指引该处理器检测归属节点的故障;
对NVM中的数据进行存取;以及
将数据传输至故障转移节点中的目标存储器区域。
13.根据权利要求9所述的计算系统,其中,该系统管理网络包括管理服务器,该管理服务器监控多个节点的操作并且为故障的多个节点中的任意节点标识故障转移节点。
14.一种有形的、非暂时性的机器可读介质,其包括指令以指引处理器来:
检测归属节点的故障;
对NVM中的数据进行存取;以及
将该数据传输到故障转移节点中的目标存储器区域。
15.根据权利要求14所述的有形的、非暂时性的机器可读介质,其包括指令,以重新激活所述故障转移节点中的过程。
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/US2013/052671 WO2015016832A1 (en) | 2013-07-30 | 2013-07-30 | Recovering stranded data |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN105339911A true CN105339911A (zh) | 2016-02-17 |
Family
ID=52432206
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201380076234.8A Pending CN105339911A (zh) | 2013-07-30 | 2013-07-30 | 恢复滞留数据 |
Country Status (5)
| Country | Link |
|---|---|
| US (2) | US10152399B2 (zh) |
| EP (1) | EP2979190A1 (zh) |
| CN (1) | CN105339911A (zh) |
| TW (1) | TW201513125A (zh) |
| WO (1) | WO2015016832A1 (zh) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10002044B2 (en) * | 2014-08-19 | 2018-06-19 | Samsung Electronics Co., Ltd. | Memory devices and modules |
| TWI636366B (zh) | 2017-11-22 | 2018-09-21 | 緯穎科技服務股份有限公司 | 資料冗餘的處理方法及其相關電腦系統 |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20040059870A1 (en) * | 2002-09-24 | 2004-03-25 | International Business Machines Corporation | Method, system, and program for restoring data in cache |
| US20050039090A1 (en) * | 2003-08-13 | 2005-02-17 | Mike Jadon | Non-volatile memory with network fail-over |
| US20050108593A1 (en) * | 2003-11-14 | 2005-05-19 | Dell Products L.P. | Cluster failover from physical node to virtual node |
| US20050240809A1 (en) * | 2004-03-31 | 2005-10-27 | International Business Machines Corporation | Configuring cache memory from a storage controller |
| US20070180314A1 (en) * | 2006-01-06 | 2007-08-02 | Toru Kawashima | Computer system management method, management server, computer system, and program |
| US20080010435A1 (en) * | 2005-06-24 | 2008-01-10 | Michael John Sebastian Smith | Memory systems and memory modules |
| CN101578586A (zh) * | 2007-01-12 | 2009-11-11 | 国际商业机器公司 | 在故障转移和故障回复环境中使用虚拟拷贝 |
| US8185776B1 (en) * | 2004-09-30 | 2012-05-22 | Symantec Operating Corporation | System and method for monitoring an application or service group within a cluster as a resource of another cluster |
| US8255739B1 (en) * | 2008-06-30 | 2012-08-28 | American Megatrends, Inc. | Achieving data consistency in a node failover with a degraded RAID array |
Family Cites Families (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6505305B1 (en) * | 1998-07-16 | 2003-01-07 | Compaq Information Technologies Group, L.P. | Fail-over of multiple memory blocks in multiple memory modules in computer system |
| US20010045779A1 (en) * | 2000-05-26 | 2001-11-29 | Huey Lee | Intelligent power system |
| US6658478B1 (en) | 2000-08-04 | 2003-12-02 | 3Pardata, Inc. | Data storage system |
| US20020069317A1 (en) * | 2000-12-01 | 2002-06-06 | Chow Yan Chiew | E-RAID system and method of operating the same |
| US20030065861A1 (en) * | 2001-09-28 | 2003-04-03 | Clark Clyde S. | Dual system masters |
| US6941396B1 (en) * | 2003-02-19 | 2005-09-06 | Istor Networks, Inc. | Storage controller redundancy using bi-directional reflective memory channel |
| JP4090388B2 (ja) | 2003-05-27 | 2008-05-28 | 三洋電機株式会社 | 電波受信装置 |
| US7334062B1 (en) | 2003-07-22 | 2008-02-19 | Symantec Operating Corporation | Technique to monitor application behavior and tune replication performance |
| US20050097208A1 (en) | 2003-10-31 | 2005-05-05 | International Business Machines Corporation | Node removal using remote back-up system memory |
| US20060015773A1 (en) | 2004-07-16 | 2006-01-19 | Dell Products L.P. | System and method for failure recovery and load balancing in a cluster network |
| US7694312B2 (en) * | 2004-09-10 | 2010-04-06 | Pleora Technologies Inc. | Methods and apparatus for enabling bus connectivity over a data network |
| US7958432B2 (en) * | 2007-04-11 | 2011-06-07 | International Business Machines Corporation | Verification of non volatile storage storing preserved unneeded data |
| US20100106904A1 (en) * | 2008-10-23 | 2010-04-29 | Dell Products L.P. | Shadow raid cache memory |
| US8688642B2 (en) | 2010-02-26 | 2014-04-01 | Symantec Corporation | Systems and methods for managing application availability |
| US8380954B1 (en) | 2010-12-23 | 2013-02-19 | Netapp, Inc. | Failover method and system |
| US9396145B1 (en) * | 2012-07-25 | 2016-07-19 | Marvell International Ltd. | In-chip bus tracer |
| US10002059B2 (en) * | 2013-06-13 | 2018-06-19 | Vmware, Inc. | System and method for assigning memory available for high availability failover to virtual machines |
| EP2937785B1 (en) * | 2014-04-25 | 2016-08-24 | Fujitsu Limited | A method of recovering application data |
-
2013
- 2013-07-30 CN CN201380076234.8A patent/CN105339911A/zh active Pending
- 2013-07-30 US US14/888,338 patent/US10152399B2/en active Active
- 2013-07-30 WO PCT/US2013/052671 patent/WO2015016832A1/en not_active Ceased
- 2013-07-30 EP EP13890608.6A patent/EP2979190A1/en not_active Withdrawn
-
2014
- 2014-06-25 TW TW103121923A patent/TW201513125A/zh unknown
-
2018
- 2018-12-10 US US16/215,252 patent/US10657016B2/en active Active
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20040059870A1 (en) * | 2002-09-24 | 2004-03-25 | International Business Machines Corporation | Method, system, and program for restoring data in cache |
| US20050039090A1 (en) * | 2003-08-13 | 2005-02-17 | Mike Jadon | Non-volatile memory with network fail-over |
| US20050108593A1 (en) * | 2003-11-14 | 2005-05-19 | Dell Products L.P. | Cluster failover from physical node to virtual node |
| US20050240809A1 (en) * | 2004-03-31 | 2005-10-27 | International Business Machines Corporation | Configuring cache memory from a storage controller |
| US8185776B1 (en) * | 2004-09-30 | 2012-05-22 | Symantec Operating Corporation | System and method for monitoring an application or service group within a cluster as a resource of another cluster |
| US20080010435A1 (en) * | 2005-06-24 | 2008-01-10 | Michael John Sebastian Smith | Memory systems and memory modules |
| US20070180314A1 (en) * | 2006-01-06 | 2007-08-02 | Toru Kawashima | Computer system management method, management server, computer system, and program |
| CN101578586A (zh) * | 2007-01-12 | 2009-11-11 | 国际商业机器公司 | 在故障转移和故障回复环境中使用虚拟拷贝 |
| US8255739B1 (en) * | 2008-06-30 | 2012-08-28 | American Megatrends, Inc. | Achieving data consistency in a node failover with a degraded RAID array |
Also Published As
| Publication number | Publication date |
|---|---|
| EP2979190A1 (en) | 2016-02-03 |
| WO2015016832A1 (en) | 2015-02-05 |
| TW201513125A (zh) | 2015-04-01 |
| US10657016B2 (en) | 2020-05-19 |
| US10152399B2 (en) | 2018-12-11 |
| US20160132413A1 (en) | 2016-05-12 |
| US20190114241A1 (en) | 2019-04-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12181986B2 (en) | Continuing to service a dataset after prevailing in mediation | |
| US20250147918A1 (en) | Network connected storage system | |
| US12086473B2 (en) | Copying data using references to the data | |
| US12105620B2 (en) | Storage system buffering | |
| US20220350701A1 (en) | Performing Partial Redundant Array Of Independent Disks (Raid) Stripe Parity Calculations | |
| US10740294B2 (en) | Garbage collection of data blocks in a storage system with direct-mapped storage devices | |
| US10552090B2 (en) | Solid state drives with multiple types of addressable memory | |
| CN107408074B (zh) | 存储系统架构 | |
| WO2014118776A9 (en) | Management and recovery of distributed storage of replicas | |
| CN106663054A (zh) | 在非易失性固态储存器中的非易失性ram存储器和闪存存储器 | |
| US20190340089A1 (en) | Method and apparatus to provide uninterrupted operation of mission critical distributed in-memory applications | |
| US10657016B2 (en) | Recovering stranded data | |
| US20140325261A1 (en) | Method and system of using a partition to offload pin cache from a raid controller dram | |
| US10776202B1 (en) | Drive, blade, or data shard decommission via RAID geometry shrinkage |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| C06 | Publication | ||
| PB01 | Publication | ||
| C10 | Entry into substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| C41 | Transfer of patent application or patent right or utility model | ||
| TA01 | Transfer of patent application right |
Effective date of registration: 20170122 Address after: American Texas Applicant after: HEWLETT PACKARD ENTERPRISE DEVELOPMENT LP Address before: American Texas Applicant before: Hewlett-Packard Development Company, L.P. |
|
| WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160217 |
|
| WD01 | Invention patent application deemed withdrawn after publication |