[go: up one dir, main page]

CN112000846B - 基于gpu分组lsm树索引的方法 - Google Patents

基于gpu分组lsm树索引的方法 Download PDF

Info

Publication number
CN112000846B
CN112000846B CN202010836000.0A CN202010836000A CN112000846B CN 112000846 B CN112000846 B CN 112000846B CN 202010836000 A CN202010836000 A CN 202010836000A CN 112000846 B CN112000846 B CN 112000846B
Authority
CN
China
Prior art keywords
gpu
data
query
memory
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010836000.0A
Other languages
English (en)
Other versions
CN112000846A (zh
Inventor
谷峪
李万
李传文
李芳芳
于戈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeastern University China
Original Assignee
Northeastern University China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeastern University China filed Critical Northeastern University China
Priority to CN202010836000.0A priority Critical patent/CN112000846B/zh
Publication of CN112000846A publication Critical patent/CN112000846A/zh
Application granted granted Critical
Publication of CN112000846B publication Critical patent/CN112000846B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9027Trees
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/24569Query processing with adaptation to specific hardware, e.g. adapted for using GPUs or SSDs
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/90335Query processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供一种基于GPU分组LSM树索引的方法,涉及GPU数据库技术领域。本发明首先将数据进行预处理,当value为变长时,在GPU上进行查询时不能很好的利用缓存而且数据传输代价也会增大。本发明针对以上情况,将数据中的Key和Value进行分离,GPU中仅仅存放Value的地址,真正的Value存放在内存中。针对LSM插入速度慢的问题,本发明将原来的LSM树每一层分为多个组,每个组都是一个有序数组,合并到下一层的时候通过GPU上大量的线程并行的归并。由于将LSM树进行分组,意味着查询需要花费更高的代价。为了提高查询速度,本发明在GPU上设计了一种适应于GPU结构的布隆过滤器,通过布隆过滤器减少了大量不必要的查询开销。

Description

基于GPU分组LSM树索引的方法
技术领域
本发明涉及GPU数据库技术领域,尤其涉及一种基于GPU分组LSM树索引的方法。
背景技术
随着大数据时代的到来,数据总量和数据访问量都在爆炸式的增长。传统的关系型数据库已经不能够满足这种高并发的访问场景。而Nosql数据库不依赖于关系数据库的传统结构且更加灵活和方便,因此非常适用于云存储,电子商务和web访问等。键值(Key-Value,KV)是Nosql数据库的基本类型,通过GET,PUT,DELETE等简单的接口就能对大量非结构化的数据进行读写。
目前主流的Nosql数据库的索引结构都是日志结构合并树(log-sturctre mergetree,LSM Tree)。LSM树是重要的数据结构之一。它被广泛用于levelDB,rocksDB,Cassandra等NoSql数据库中。LSM树是一种多层的结构,它的基本思想是先将数据的修改或者插入保存在内存中,当内存达到容量限制再将这些操作顺序写入磁盘,磁盘中的树在后台会进行定期的合并操作,最后以归并的方式合并成一棵大树。相比于其它索引结构例如B树,它在数据的插入,删除修改方面有极高的速度。由于LSM树的这种分层结构,查询也会在内存和磁盘上进行多次二分查找,这样就明显的降低了它的查询速度。因此LSM树适用于写入远大于读取的场景。相比于内存上的数据结构,LSM树这种磁盘上的数据结构性能的瓶颈在于磁盘IO上。
先前的工作都是针对磁盘IO问题也就是LSM树的读写放大问题进行优化的,例如WiscKey进行KV分离,降低写Value的代价。PebblesDB通过弱化全局有序来降低写放大。
相比于磁盘上的数据结构,内存中的数据结构性能在于算法的时间复杂度和并发线程的数量。而GPU的大量线程和高速的带宽就非常适合于处理LSM这种数据结构。由于GPU的多核处理器使用SIMD执行方法大大提高了数据处理速度并减少数据响应时间,许多索引结构已经在GPU上实现了高性能,例如Harmonia,SlabHash等。目前在GPU上实现的索引结构主要分为两大类,基于hash的索引和基于树的索引。基于hash索引的结构能够进行快速的插入删除更新和点查找,但不能像基于树的索引结构支持范围查找。而且对于更新操作许多GPU索引结构不是动态的更新,而是在GPU上重新构建索引结构。GPULSM树是首个在GPU上实现的LSM树索引结构但是它的插入查询等操作也没有很好的和GPU硬件结构匹配。
发明内容
针对现有技术的不足,本发明提供一种基于GPU分组LSM树索引的方法,将LSM树每一层分为多个组,数据在组内有序,在组间无序。当某一层数据满了的时候通过GPU上的大量线程并行的归并到下一层中。而针对LSM树查询速度慢的问题,本发明通过布隆过滤器排除掉了大量不必要的查询,提高了查询效率。
为解决上述技术问题,本发明所采取的技术方案是:
一种基于GPU分组LSM树索引的方法,包括以下步骤:
步骤1:对Key-Value数据进行预处理,将数据在内存中进行键值Key和数据Value的分离;
将Value存放在内存中,同时在内存中用哈希表存储Value和对应的地址,查询时以O(1)的时间复杂度定位Value;分离之后将Key和Value的地址拷贝到GPU的全局内存中;
步骤2:将数据插入到GPU分组LSM树中;在GPU分组LSM树中,所有数据均是按批进行插入,假设每一批数据大小为b,数据组group的数量为g,因此GPUGLSM中每一层都会有g个group且第i层有b*g(i+1)个组,整个GPU分组LSM包含的数据都是b的整数倍;使用GPU的基数排序对数据进行排序,并查看GPU分组LSM树中第一层是否有空的组,有则将数据拷贝到该组中,没有则触发合并操作,使第一层为空然后将数据拷贝到第一层;
步骤3:进行数据查询时,进行部分排序提高合并内存访问效率,确定需要排序比特位数量;
假设Key的长度位为B个比特,GPU分组LSM树的大小为T,GPU缓存存放的Key的长度为K,Key的范围长度为2B,LSM树中的每一个Key覆盖的范围是2B/T*K,则该范围的平均比特位个数为log2(2B/T*K);若查询中的内存请求属于高速缓存行的覆盖范围,则无论请求的Key是否排序,都是合并的内存访问;因此,当查询的Key位于同一高速缓存行中时,不对查询进行排序,使用以下公式计算排序的比特位数量N:
N=B-log2(2B/T*K)
步骤4:对查询的数据使用布隆过滤器筛选掉无关的查询;
所述布隆过滤器SBF由M个哈希函数组成,M为正整数,每个哈希函数是独立不相关的;
步骤5:将访问的数据加载到共享内存中;查询会访问每一个group中的固定位置的数据,这些查询数据会全部访问这棵树的根节点,数据访问这棵树的前L层数据,其中L为正整数;
步骤6:在GPU上对共享内存中的数据进行查询,得到对应的全局内存中的位置,然后再到全局内存中进行查询;由于GPU上存放的是Value的地址,因此查询完成后会将查询结果拷贝到内存中去,再由CPU端进行处理,通过查找Hash表取出对应Value的值,这样就完成了在GPU分组LSM树上的查询过程。
采用上述技术方案所产生的有益效果在于:
本发明提出了一种基于GPU分组LSM树索引的方法,本发明适用于写多读少的场景例,如图处理和web应用等,在GPULSM树的基础上设计了一种新的GPU数据结构,GPU分组LSM树,该结构能够通过并行的合并策略提高了插入的速度,同时通过布隆过滤器,部分排序等策略提高了查询速度。
附图说明
图1为本发明实施例GPU分组LSM树整体流程图;
图2为本发明实施例将key与value进行分离示意图;
图3为本发明实施例对value的地址进行hash映射示意图;
图4为本发明实施例GPU分组LSM树的插入过程示意图;
图5为本发明实施例插入数据流程图;
图6为本发明实施例并行合并示意图;
图7为本发明实施例随机内存访问示意图;
图8为本发明实施例合并内存访问示意图;
图9为本发明实施例warp内随机访问示意图;
图10为本发明实施例warp内部分排序示意图;
图11为本发明实施例GPUOne-hash布隆过滤器示意图;
图12为本发明实施例使用共享内存加速查询示意图。
具体实施方式
下面结合附图对本发明具体实施方式加以详细的说明。
本发明分为两大部分:GPU分组LSM树的插入更新和删除,以及GPU分组LSM树上的查询,
对于插入更新或者删除操作来说,首先需要将数据在内存中进行Key和Value的分离,将Value存放到内存中,同时将Value的地址记录到内存中的Hash表中;然后将数据从内存拷贝到GPU全局内存的缓冲区中,这里会拷贝Key和对应的Value地址。接着GPU会对缓冲区中的数据进行一次排序,排完序之后会拷贝到GPU分组LSM树的第一层中,如果第一层放不下则会触发合并操作,将数据刷到下面的层中。
对于查询操作来说,为了减少GPU的warp分散提高合并内存访问效率,首先会对数据进行部分排序,然后通过布隆过滤器过滤掉大量的无效查询,最后真正需要查询的数据已经比原来少了许多。在GPU分组LSM树上首先对在每一层上进行查询,每一层上会对每一个组进行查询,由于查询使用的是二分查找算法,因此大量的查询请求会频繁访问同一个组中某些数据,因此在真正在查询的时候会将这些数据加载到GPU共享内存中。
本发明采用的技术方案是:
一种基于GPU分组LSM树索引的方法,如图1所示,包括以下步骤:
步骤1:对Key-Value数据进行预处理,将数据在内存中进行键值Key和数据Value的分离;如图2所示,插入的数据Value长短不一样,有些Value的长度可能特别长都超过了GPU缓存的大小,会造成GPU访问该Value时进行过次加载,降低访存效率。本发明因此将Value的地址和Key一同放入GPU全局内存中提高合并内存访问效率。查询的时候通过图2中的addr也就是地址,去内存中寻找真正的Value值。为了能够再内存中迅速定位到Value的位置,如图3所示,本发明在内存中使用哈希表存储Value和对应的地址,查询时只需O(1)的时间复杂度就能够迅速得等到对应的Value。
步骤2:将数据插入到GPU分组LSM树中;在GPU分组LSM树中,所有数据均是按批进行插入,假设每一批数据大小为b,数据组group的数量为g,因此GPUGLSM中每一层都会有g个group且第i层有b*g(i+1)个组,整个GPU分组LSM包含的数据都是b的整数倍;使用GPU的基数排序对数据进行排序,并查看GPU分组LSM树中第一层是否有空的组,有则将数据拷贝到该组中,没有则触发合并操作,使第一层为空然后将数据拷贝到第一层;
本实施例中如图4所示,图中GPU分组LSM树的每层分为两个group。第0层的group大小等于一批数据的大小,当新的一批数据插入时先将第0层的数据合并到第一层中,然后将buffer中排序后的数据复制到第0层中。详细的插入过程见图5,与GPULSM的缓冲区结构设计不同,GPU分组LSM先找到需要合并的最大层数,然后以自底向上的方式执行合并,这大大减少了缓冲区对GPU全局内存的占用。合并的过程不需要额外的缓冲区。与GPULSM的合并方式不同的是本发明采用的是并行规约的合并方式,类似于合并排序的最后一步过程,将几个有序的数组合并为一个新的有序数组从而减少了插入的时间。合并过程如图6所示,当每一层的group数量为4时,在GPU上只需要两次并行合并,而在CPU上需要3次,如果group的数量越多那么在GPU上合并的时间将会越少,从而提高查询速度。
步骤3:进行数据查询时,进行部分排序提高合并内存访问效率,确定需要排序比特位数量;
假设Key的长度位为B个比特,GPU分组LSM树的大小为T,GPU缓存存放的Key的长度为K,Key的范围长度为2B,LSM树中的每一个Key覆盖的范围是2B/T*K,则该范围的平均比特位个数为log2(2B/T*K);若查询中的内存请求属于高速缓存行的覆盖范围,则无论请求的Key是否排序,都是合并的内存访问;因此,当查询的Key位于同一高速缓存行中时,不对查询进行排序,使用以下公式计算排序的比特位数量N:
N=B-log2(2B/T*K)
在GPU上进行查询也就是访问GPU的全局内存,而GPU上合并内存的访问效率直接影响到了查询的速度。如图7所示,在排序前每个warp中的线程需要查询两个key,每一个线程都需要访问图中的三个节点。第一个warp中的查询只有在访问二分搜索树的根节点会合并内存访问,而访问其余节点则出现了warp分散和内存分散,所以整个访问需要5次全局内存访问。同样的第二个warp中的查询也需要5次全局内存访问。当对到来的查询排序后,如图8所示,看到第一个warp中的查询会共同访问二分搜索树的根节点和下一层节点,同样的第二个warp中的查询也会访问二分搜索树的根节点和下一层节点。对应于GPU GLSM来说就是warp中的线程会在前两次查询group的时候会共同访问同一个位置的数据。相比于没有排序的查询,排序完成后每一个warp需要4次全局内存访问,这样就减少了全局内存访问次数。而且在访问二分搜索树的前两层时执行的是相同的指令,这样就减少了warp分散。
尽管排序能够提高GPU GLSM的查询性能,但是我们没有必要使这些到来的查询保证严格有序。如图9所示,warp 1中的查询1和10分别需要进行两次全局内存访问,warp2中的查询2,32需要同样需要进行两次全局内存访问。这些warp中的线程每次访问全局内存都会将L1 cache line大小的数据从全局内存加载到L1 cache line,如果这些查询能够访问的位置在全局内存中的位置比较靠近那么就可以减少对于全局内存的访问。虽然我们对这些数据进行排序之后,warp1中的查询1,2就能访问同一个GPU高缓行。而且对同一个group进行查找时warp中的线程会尽可能的走同一条路径,这样就能够极大的减少warp分歧。但是对这些数据进行一次排序的代价也比较高,而且没有必要要求查询的数据完全有序。同一个warp中的数据能够尽可能的访问同一个高缓行的数据就能够实现很好的效果。如图10所示,对查询的数据进行部分排序,只需要排序前K比特的数据使warp间有序,而warp内部可以无序,同样能够实现合并内存访问。
步骤4:对查询的数据使用布隆过滤器筛选掉无关的查询,如图11所示;
所述布隆过滤器(SBF)由M个哈希函数组成,每个哈希函数是独立不相关的;
本实施例中本发明将每个分区划分为多个block,每一个block的长度为GPU高缓行的长度也就是1024。为了保证互质的条件每一个block的模运算的值为小于1024的质数,例如1021,1019,1013,1009,等,因此每一个block都会浪费掉一小部分空间。由于插入的数据每一批都需要排序,而我们的数据都是32位的,排序完成后每一批数据的前几比特都是有序的。对于GPU上的线程来说如果每一个warp都访问相同位置的数据,那么只需要一次GPU高缓行的加载就能够完成。因此我们将数据的前几比特用于定位到具体的分区和block,再通过模运算来定位到block中的位置。
假设集合中有n个元素,共进行k次模运算,第i个模运算的值为mi,则可以通过以下公式估算出One-hash布隆过滤器的误报率:
Figure BDA0002639723540000061
改变模运算的次数就能够调整GPUone-hash布隆过滤器的误报率,排除掉大量无效的查询;
步骤5:将访问的数据加载到共享内存中;由于查询会访问每一个group中的固定位置的数据,这些查询数据会全部访问这棵树的根节点,数据访问这棵树的前L层数据,其中L为正整数;在GPU中共享内存是片上缓存,它的延迟比全局内存低许多,在进行计算时需要将全局内存中的数据拷贝到共享内存中,而拷贝也会消耗一些时间。如果共享内存中存放的是warp中不经常访问的数据那么拷贝就会影响它的计算性能,因此共享内存适合存放一些需要重复利用的或者经常访问的数据。图12显示了warp中的线程查询过程。当warp中的两个key:1和2发起查询时,首先访问整个组中间的元素第一层元素,然后访问第二层和第三层的元素。图中要查询的小方块位于不同全局内存中。假设当前组的大小为Q,则整个查询所需的数据负载为logQ倍。为了减少GPU对全局内存的加载次数,本发明将整个group中经常访问的数据加载到共享内存中。
步骤6:在GPU上对共享内存中的数据进行查询,得到对应的全局内存中的位置,然后再到全局内存中进行查询;由于GPU上存放的是Value的地址,因此查询完成后会将查询结果拷贝到内存中去,再由CPU端进行处理,通过查找Hash表取出对应Value的值,这样就完成了在GPU分组LSM树上的查询过程。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (2)

1.一种基于GPU分组LSM树索引的方法,其特征在于:包括以下步骤:
步骤1:对Key-Value数据进行预处理,将数据在内存中进行键值Key和数据Value的分离;将Value存放在内存中,同时在内存中用哈希表存储Value和对应的地址,查询时以O(1)的时间复杂度定位Value;分离之后将Key和Value的地址拷贝到GPU的全局内存中;
步骤2:将数据插入到GPU分组LSM树中;
所述GPU分组LSM树中,所有数据均是按批进行插入,假设每一批数据大小为b,数据组group的数量为g,因此GPU分组LSM中每一层都会有g个group且第i层有b*g(i+1)个组,整个GPU分组LSM包含的数据都是b的整数倍;使用GPU的基数排序对数据进行排序,并查看GPU分组LSM树中第一层是否有空的组,有则将数据拷贝到该组中,没有则触发合并操作,使第一层为空然后将数据拷贝到第一层;
步骤3:进行数据查询时,进行部分排序提高合并内存访问效率,确定需要排序比特位数量;
假设Key的长度位为B个比特,GPU分组LSM树的大小为T,GPU缓存存放的Key的长度为K,Key的范围长度为2B,LSM树中的每一个Key覆盖的范围是2B/T*K,则该范围的平均比特位个数为log2(2B/T*K);若查询中的内存请求属于高速缓存行的覆盖范围,则无论请求的Key是否排序,都是合并的内存访问;因此,当查询的Key位于同一高速缓存行中时,不对查询进行排序,使用以下公式计算排序的比特位数量N:
N=B-log2(2B/T*K)
步骤4:对查询的数据使用布隆过滤器筛选掉无关查询;
步骤5:将访问的数据加载到共享内存中;查询会访问每一个group中的固定位置的数据,这些查询数据会全部访问这棵树的根节点,数据访问这棵树的前L层数据,其中L为正整数;
步骤6:在GPU上对共享内存中的数据进行查询,得到对应的全局内存中的位置,然后再到全局内存中进行查询;由于GPU上存放的是Value的地址,因此查询完成后会将查询结果拷贝到内存中去,再由CPU端进行处理,通过查找Hash表取出对应Value的值,这样就完成了在GPU分组LSM树上的查询过程。
2.根据权利要求1所述的一种基于GPU分组LSM树索引的方法,其特征在于,步骤4所述布隆过滤器SBF由M个哈希函数组成,M为正整数,每个哈希函数是独立不相关的。
CN202010836000.0A 2020-08-19 2020-08-19 基于gpu分组lsm树索引的方法 Active CN112000846B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010836000.0A CN112000846B (zh) 2020-08-19 2020-08-19 基于gpu分组lsm树索引的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010836000.0A CN112000846B (zh) 2020-08-19 2020-08-19 基于gpu分组lsm树索引的方法

Publications (2)

Publication Number Publication Date
CN112000846A CN112000846A (zh) 2020-11-27
CN112000846B true CN112000846B (zh) 2021-07-20

Family

ID=73472698

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010836000.0A Active CN112000846B (zh) 2020-08-19 2020-08-19 基于gpu分组lsm树索引的方法

Country Status (1)

Country Link
CN (1) CN112000846B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112631631B (zh) * 2020-12-29 2021-11-16 中国科学院计算机网络信息中心 一种针对gpu加速多步长前缀树的更新序列维护方法
CN112699092B (zh) * 2021-01-13 2023-02-03 浪潮云信息技术股份公司 一种RocksDB存储大值数据的方法
CN112817982B (zh) * 2021-02-08 2022-09-30 南京邮电大学 一种基于lsm树的动态幂律图存储方法
CN113312312B (zh) * 2021-06-08 2022-08-05 武汉理工大学 一种基于lsm高效查询流数据的分布式索引方法及系统
CN114138792B (zh) * 2021-12-02 2025-10-31 上海沄熹科技有限公司 一种Key-value分离存储方法及系统
CN114880082B (zh) * 2022-03-21 2024-06-04 西安电子科技大学 基于采样状态的多线程束warp动态调度系统及方法
CN114398378B (zh) * 2022-03-25 2022-11-01 北京奥星贝斯科技有限公司 确定索引代价的方法和装置
CN115292308B (zh) * 2022-07-05 2025-07-22 南京大学 一种用于加速云平台数据库lsm树查询的高效过滤方法
CN117008826A (zh) 2023-05-26 2023-11-07 三星(中国)半导体有限公司 数据压缩方法和装置
CN117271523A (zh) * 2023-10-18 2023-12-22 达梦数据技术(江苏)有限公司 一种基于值日志实现哈希索引持久化的方法和系统
CN117785890B (zh) * 2024-02-27 2024-06-28 支付宝(杭州)信息技术有限公司 一种基于lsm树的数据遍历查询方法及相关设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020068855A1 (en) * 2018-09-24 2020-04-02 Salesforce.Com, Inc. System and method for early removal of tombstone records in database
CN111352908A (zh) * 2020-02-28 2020-06-30 北京奇艺世纪科技有限公司 基于lsm的数据存储方法、装置、存储介质及计算机设备
CN111400312A (zh) * 2020-02-25 2020-07-10 华南理工大学 一种基于改进lsm树的边缘存储数据库

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020068855A1 (en) * 2018-09-24 2020-04-02 Salesforce.Com, Inc. System and method for early removal of tombstone records in database
CN111400312A (zh) * 2020-02-25 2020-07-10 华南理工大学 一种基于改进lsm树的边缘存储数据库
CN111352908A (zh) * 2020-02-28 2020-06-30 北京奇艺世纪科技有限公司 基于lsm的数据存储方法、装置、存储介质及计算机设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于中间层的可扩展学习索引技术;高远宁等;《软件学报》;20200110;全文 *

Also Published As

Publication number Publication date
CN112000846A (zh) 2020-11-27

Similar Documents

Publication Publication Date Title
CN112000846B (zh) 基于gpu分组lsm树索引的方法
CN110083601B (zh) 面向键值存储系统的索引树构建方法及系统
Zuo et al. {Write-Optimized} and {High-Performance} hashing index scheme for persistent memory
US7734714B2 (en) Spatial Sieve Tree
US9672235B2 (en) Method and system for dynamically partitioning very large database indices on write-once tables
US8868926B2 (en) Cryptographic hash database
US7805427B1 (en) Integrated search engine devices that support multi-way search trees having multi-column nodes
US20220027349A1 (en) Efficient indexed data structures for persistent memory
Boehm et al. Efficient in-memory indexing with generalized prefix trees
US8086641B1 (en) Integrated search engine devices that utilize SPM-linked bit maps to reduce handle memory duplication and methods of operating same
CN108287840A (zh) 一种基于矩阵哈希的数据存储和查询方法
Jaiyeoba et al. Graphtinker: A high performance data structure for dynamic graph processing
CN111400306B (zh) 基于rdma与非易失性内存的基数树访问系统
Helman et al. Designing practical efficient algorithms for symmetric multiprocessors
US7987205B1 (en) Integrated search engine devices having pipelined node maintenance sub-engines therein that support database flush operations
Zuo et al. Level hashing: A high-performance and flexible-resizing persistent hashing index structure
CN111177090A (zh) 一种基于子模优化算法的客户端缓存方法及系统
Li et al. Phast: Hierarchical concurrent log-free skip list for persistent memory
Liu et al. Pea hash: A performant extendible adaptive hashing index
McCoy et al. High-performance filters for gpus
US7953721B1 (en) Integrated search engine devices that support database key dumping and methods of operating same
Hu et al. RWORT: A read and write optimized radix tree for persistent memory
CN119620939A (zh) 区块链数据的处理方法、装置及计算机设备
CN119248667A (zh) 基于分离式内存的写优化哈希索引构建方法及系统
CN118466842A (zh) 基于多层布隆过滤器的存储系统及存储方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant