CN115408137B - 一种译码资源分配方法及装置、系统 - Google Patents
一种译码资源分配方法及装置、系统Info
- Publication number
- CN115408137B CN115408137B CN202110575349.8A CN202110575349A CN115408137B CN 115408137 B CN115408137 B CN 115408137B CN 202110575349 A CN202110575349 A CN 202110575349A CN 115408137 B CN115408137 B CN 115408137B
- Authority
- CN
- China
- Prior art keywords
- harq
- slice
- decoding resource
- decoding
- resource pool
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0806—Multiuser, multiprocessor or multiprocessing cache systems
- G06F12/0842—Multiuser, multiprocessor or multiprocessing cache systems for multiprocessing or multitasking
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0844—Multiple simultaneous or quasi-simultaneous cache accessing
- G06F12/0846—Cache with multiple tag or data arrays being simultaneously accessible
- G06F12/0851—Cache with interleaved addressing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
- G06F13/14—Handling requests for interconnection or transfer
- G06F13/20—Handling requests for interconnection or transfer for access to input/output bus
- G06F13/28—Handling requests for interconnection or transfer for access to input/output bus using burst mode transfer, e.g. direct memory access DMA, cycle steal
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5083—Techniques for rebalancing the load in a distributed system
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L1/00—Arrangements for detecting or preventing errors in the information received
- H04L1/12—Arrangements for detecting or preventing errors in the information received by using return channel
- H04L1/16—Arrangements for detecting or preventing errors in the information received by using return channel in which the return channel carries supervisory signals, e.g. repetition request signals
- H04L1/18—Automatic repetition systems, e.g. Van Duuren systems
- H04L1/1812—Hybrid protocols; Hybrid automatic repeat request [HARQ]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/5011—Pool
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Mobile Radio Communication Systems (AREA)
- Memory System Of A Hierarchy Structure (AREA)
Abstract
本申请公开了一种译码资源分配方法及装置、系统,用以使得各种业务场景下多个分布式译码器的负载均衡处理更加便利,有利于译码器的资源共享和基站的节能减排。本申请提供的一种译码资源分配方法,包括:通过直接存储器访问DMA控制器,从处理器获取至少一个小区的待译码用户数据,并传输给现场可编程门阵列FPGA内的调度器;通过所述调度器为所述至少一个小区的待译码用户数据分配译码资源池。
Description
技术领域
本申请涉及通信技术领域,尤其涉及一种译码资源分配方法及装置、系统。
背景技术
目前NR(New Radio,新空口)系统中,上行低密度奇偶校验码(Low DensityParity Check Code,LDPC)译码分为X个组,每组包含Y个LDPC译码器。每组译码器共享同一组用于混合自动重传请求(Hybrid Automatic Repeat reQuest,HARQ),数据缓存的双倍速率同步动态随机(DDR)存储器。不同译码器组的资源调度只有由处理器完成,受限于HARQ重传用户的分组策略以及处理器分配机制开销限制,大部分场景下的译码器负载分配不均衡。
但是,当前方案存在以下问题:
峰速业务场景下,每个小区译码周期内独占全部译码器资源,部分时间片所有译码器不能充分利用,造成部分译码器空载负载不均衡,译码器利用率低,处理周期长影响调度性能。
低速业务场景下,每个小区译码周期内同样使用全部译码器资源,造成译码器资源大部分时间片空载,能耗高,不能动态降功耗处理。
综上所述,现有技术中HARQ分布在不同DDR内存分开处理,不利于译码器的资源共享和基站的节能减排。
发明内容
本申请实施例提供了一种译码资源分配方法及装置、系统,用以使得各种业务场景下多个分布式译码器的负载均衡处理更加便利,有利于译码器的资源共享和基站的节能减排。
本申请实施例提供的一种译码资源分配方法,包括:
通过DMA控制器,从处理器获取至少一个小区的待译码用户数据,并传输给现场可编程门阵列FPGA内的调度器;
通过所述调度器为所述至少一个小区的待译码用户数据分配译码资源池。
该方法通过直接存储器访问DMA控制器,从处理器获取至少一个小区的待译码用户数据,并传输给现场可编程门阵列FPGA内的调度器;通过所述调度器为所述至少一个小区的待译码用户数据分配译码资源池,从而使得各种业务场景下多个分布式译码器的负载均衡处理更加便利,有利于译码器的资源共享和基站的节能减排,并且通过FPGA可以进一步加速译码资源池的调度处理。
可选地,通过所述调度器为所述至少一个小区的待译码用户数据分配译码资源池,具体包括:
通过所述调度器,根据至少一个译码资源池的空闲状态,为所述至少一个小区的待译码用户数据分配译码资源池。
可选地,所述至少一个译码资源池,包括译码资源池0~j;所述调度器包括调度队列、第一多路复用器、乒乓缓存0~j,其中j为自然数;
通过所述调度队列,将DMA控制器传输来的小区的待译码用户数据,按照用户级颗粒度,将被调度用户的待译码数据发送给所述第一多路复用器;
通过所述第一多路复用器,根据乒乓缓存0~j的空满状态,将被调度用户的待译码数据发送到乒乓缓存;
其中,乒乓缓存0~j与所述译码资源池0~j一一对应,乒乓缓存i与译码资源池i对应,0≤i≤j。译码资源池i对乒乓缓存i中的数据进行译码。译码资源池0用于对乒乓缓存0中的数据进行译码,译码资源池1用于对乒乓缓存1中的数据进行译码,以此类推,译码资源池j用于对乒乓缓存j中的数据进行译码。
可选地,所述至少一个译码资源池,包括译码资源池0~j;
该方法还包括:
通过共享缓存控制器,将译码资源池0~j的混合自动重传请求HARQ数据,同时写入双倍速率同步动态随机DDR内存0~j中。
本申请实施例中,全部译码资源池共享DDR内存0~j,HARQ内存容量需求可减少为现有方案DDR内存容量的1/j。
可选地,所述共享缓存控制器包含:切片控制器0~j、第二多路复用器,以及与每一切片控制器对应设置的HARQ切片缓存0~j;
对于每一所述切片控制器:通过该切片控制器,对每个译码资源池的HARQ数据块,以64Byte为单位进行切片处理,得到HARQ数据块切片0~N,将每个HARQ数据块切片编号0~N对j+1求模后,得到HARQ数据块切片0~j,将求模得到的HARQ数据块切片0~j分别存储到该切片控制器对应的HARQ切片缓存0~j中;
通过所述第二多路复用器将每一HARQ切片缓存i中的数据存储到DDR内存i中,其中,i属于(0,j),即0≤i≤j,即通过所述多路复用器将每一HARQ切片缓存0中的数据存储到DDR内存0中,将每一HARQ切片缓存1中的数据存储到DDR内存1中,以此类推,将每一HARQ切片缓存j中的数据存储到DDR内存j中。
本申请实施例提供的一种译码资源分配装置,包括DMA控制器、调度器和至少一个译码资源池;其中,
所述DMA控制器,用于从处理器获取至少一个小区的待译码用户数据,并传输给所述调度器;
所述调度器,用于为所述至少一个小区的待译码用户数据分配译码资源池。
可选地,所述调度器,根据至少一个译码资源池的空闲状态,为所述至少一个小区的待译码用户数据分配译码资源池。
可选地,所述至少一个译码资源池,包括译码资源池0~j;所述调度器包括调度队列、第一多路复用器、乒乓缓存0~j;
所述调度队列,用于将DMA控制器传输来的小区的待译码用户数据,按照用户级颗粒度,将被调度用户的待译码数据发送给所述第一多路复用器;
所述第一多路复用器,用于根据乒乓缓存0~j的空满状态,将被调度用户的待译码数据发送到乒乓缓存;
其中,乒乓缓存0~j与所述译码资源池0~j一一对应,乒乓缓存i与译码资源池i对应,0≤i≤j。即资源池i对乒乓缓存i中的数据进行译码。比如,译码资源池0用于对乒乓缓存0中的数据进行译码,译码资源池1用于对乒乓缓存1中的数据进行译码,以此类推,译码资源池j用于对乒乓缓存j中的数据进行译码。
可选地,所述至少一个译码资源池,包括译码资源池0~j;
所述装置还包括:
共享缓存控制器,用于将译码资源池0~j的混合自动重传请求HARQ数据,同时写入双倍速率同步动态随机DDR内存0~j中。
可选地,所述共享缓存控制器包含:切片控制器0~j、第二多路复用器,以及与每一切片控制器对应设置的HARQ切片缓存0~j;
每一所述切片控制器用于:对每个译码资源池的HARQ数据块,以64Byte为单位进行切片处理,得到HARQ数据块切片0~N,将每个HARQ数据块切片编号0~N对j+1求模后,得到HARQ数据块切片0~j,将求模得到的HARQ数据块切片0~j分别存储到该切片控制器对应的HARQ切片缓存0~j中;
通过所述第二多路复用器将每一HARQ切片缓存i中的数据存储到DDR内存i中,其中,i属于(0,j),即0≤i≤j,即所述多路复用器,用于将每一HARQ切片缓存0中的数据存储到DDR内存0中,将每一HARQ切片缓存1中的数据存储到DDR内存1中,以此类推,将每一HARQ切片缓存j中的数据存储到DDR内存j中。
可选地,所述装置为现场可编程门阵列FPGA。
本申请实施例提供的一种译码处理系统,包括处理器以及任一所述的译码资源分配装置,所述处理器将至少一个小区的待译码用户数据通过直接存储器访问DMA传输给所述译码资源分配装置,由所述译码资源分配装置为所述至少一个小区的待译码用户数据分配译码资源。
本申请实施例提供的一种计算设备,包括:
存储器,用于存储程序指令;
处理器,用于调用所述存储器中存储的程序指令,按照获得的程序执行任一所述的方法。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅是本申请的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的上行HARQ内存分配示意图;
图2为本申请实施例提供的小区内用户权重分组方案(每小区4个用户)示意图;
图3为本申请实施例提供的基于HARQ共享缓存的池化实现框架(即本申请实施例提供的系统结构)示意图;
图4为本申请实施例提供的FPGA中的调度器的实现方式示意图;
图5为本申请实施例提供的调度器的处理流程示意图;
图6为本申请实施例提供的共享缓存控制器的框图;
图7为本申请实施例提供的本方案和现有方案译码资源池性能使用率对比示意图;
图8为本申请实施例提供的一种译码资源分配方法的流程示意图;
图9为本申请实施例提供的一种计算设备结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,并不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
NR上行HARQ缓存和译码器组绑定,分开缓存在不同DDR内存中,基于上述HARQ分组独立缓存限制,小区用户的译码资源分组受限于重传HARQ需要固定分组限制,处理器需要增加很多开销,去维护所有用户HARQ分组,并且为X组译码器独立维护X套HARQ缓存地址列表。
另一方面,由于多组译码器的HARQ内存管理在处理器实现,需要把所有小区所有用户在处理器预先分好HARQ内存对应的译码器组。如图1所示,多个小区进程在不同处理器核上并行处理,总共有j+1组译码器对应j+1组HARQ内存管理表。
如果增加复杂权重调度管理,保证多个译码器组负载均衡,最大占用处理器一个核用于统一维护全部小区用户的译码器和HARQ资源分配,这样开销过大。
为了减少进程冲突,目前按照每个进程下小区独立管理,对不同用户进行译码组号分配。该方案的缺点会导致不同小区间,在译码组的负载不均衡。
以LDPC译码器为例,每个译码器0.815码率下吞吐量为1.7Gbps,X组译码器的处理能力为X*Y*1.7Gbps,上行单流的译码性能(以100MHz带宽和256QAM(正交幅度调制)调制方式为例,不考虑重传)需求为100(Mbps)*8(256QAM)=0.8Gbps;即每个译码器处理2流,使用效率需要达到94%以上。
小区内按照用户权重分配到X组译码器上,在小区的用户数不被X整除的场景下,参见图2,以三组译码器总共i个小区为例,每个小区分别有4用户和1用户为例,分别有1/3和2/3的译码性能损失。
表1小区内用户权重分组方案使用效率
| 译码资源 | 使用效率(4用户/小区) | 使用效率(1用户/小区) |
| 译码器组0 | 100% | 100% |
| 译码器组1 | 50% | 0% |
| 译码器组2 | 50% | 0% |
综上所述,上行译码采用按照小区内用户权重分配译码器的方案,译码器工作会有很多空闲时间片,利用率有很大浪费。如果采用处理器复杂的调度机制,又会增加处理器占用率,影响整体处理性能。因此,需要考虑新的上行译码处理方案,以便于在各种业务场景下多个分布式译码器的负载均衡处理。
因此,本申请实施例提供了一种译码资源分配方法及装置、系统,用以使得各种业务场景下多个分布式译码器的负载均衡处理更加便利,有利于译码器的资源共享和基站的节能减排。
其中,方法和装置是基于同一申请构思的,由于方法和装置解决问题的原理相似,因此装置和方法的实施可以相互参见,重复之处不再赘述。
本申请实施例提供的技术方案可以适用于多种系统,尤其是5G系统。例如适用的系统可以是全球移动通讯(global system of mobile communication,GSM)系统、码分多址(code division multiple access,CDMA)系统、宽带码分多址(Wideband CodeDivision Multiple Access,WCDMA)通用分组无线业务(general packet radio service,GPRS)系统、长期演进(long term evolution,LTE)系统、LTE频分双工(frequencydivision duplex,FDD)系统、LTE时分双工(time division duplex,TDD)、通用移动系统(universal mobile telecommunication system,UMTS)、全球互联微波接入(worldwideinteroperability for microwave access,WiMAX)系统、5G系统以及5G NR系统等。这多种系统中均包括终端设备和网络设备。
下面结合说明书附图对本申请各个实施例进行详细描述。需要说明的是,本申请实施例的展示顺序仅代表实施例的先后顺序,并不代表实施例所提供的技术方案的优劣。
本申请实施例提供的技术方案给出一种共享HARQ资源池的解决方案,满足译码器最大利用率需求。
根据前面分析,多核处理器并行处理多个小区进程,对译码资源池分配只能顺序执行,影响多核处理器并行计算性能;另一方面,由于多个译码器组独立缓存处理,资源分配受到重传用户限制,由于每个资源池的HARQ独立缓存,只能分配到特定资源池上,也会造成多个资源池之间负载不均衡。
其中,本申请实施例中所述的译码资源池,包括至少一个低密度校验码LDPC译码器。
本申请实施例提供的技术方案,将释放处理器的资源分配过程,一方面解决排序进程冲突造成性能损失,另一方面将各个译码资源池的HARQ缓存,优化为共享缓存,不受重传用户限制,用户可以任意分配到所有资源池中,利用FPGA的直接存储器访问(DirectMemory Access,DMA)传输和主动用户调度,释放处理器占用,提升译码器的负载均衡调度。其中,所述DMA传输,具体流程是中央处理单元CPU给FPGA配置DMA描述符,FPGA主动读取CPU内存,完成数据传输。所述主动用户调度,是指分配资源池处理,从CPU主动分配改为CPU不做分配处理,由FPGA分配资源池。
基于HARQ共享缓存的池化方案框图如图3所示,多个小区的处理在多核处理器上实现,本申请实施例提供的技术方案中处理器对每一小区处理完成后,即准备好待发送给FPGA译码处理的数据,只需传输给DMA控制器后就可以立即释放CPU资源,去掉了用户权重计算处理和其他小区统筹译码资源调度过程,避免多核冲突造成进程阻塞等待时间。
多个译码资源池之间调度,下移到现场可编程门阵列(Field-Programmable GateArray,FPGA)加速处理,FPGA主要包含DMA控制器、调度器、译码资源池0~j、共享缓存控制器、DDR内存0~j模块。
DMA控制器的功能是,实现小区0~N数据的DMA传输,即传输过程由FPGA主动控制,可减小x86多核处理器负荷。
调度器的功能是,根据译码资源池0~j的空闲状态,调度各个用户进入译码资源池0~j进行LDPC译码处理。
译码资源池0~j的功能是,共包含j+1组独立LDPC译码器资源,用于不同用户的LDPC译码处理。
共享缓存控制器的功能是,将译码资源池0~j的HARQ数据,以j+1个通道DDR内存交织方式,同时写入DDR内存0~j。
DDR内存0~j的功能是,总共j+1组DDR内存,满足j+1个译码资源池HARQ数据的存储需求。
下面从两个方面分别对上述本申请实施例提供的技术方案分别给出详细的举例说明。
一、本申请实施例提供的技术方案,将多核处理器对译码器的调度工作,下移到资源池处理,通过FPGA加速资源池调度处理,调度器设计如图4所示。
所述调度器主要包含调度队列、第一多路复用器、乒乓缓存0~j。
调度队列的功能是,将DMA传输的小区数据,按照用户级颗粒度进行后面的调度处理。例如,用户0、用户1、……,用户X依次分别被后面的多路复用器进行调度处理。
第一多路复用器的功能是,根据乒乓缓存0~j的空满状态,将被调度用户发送到乒乓缓存。
乒乓缓存0~j的功能是,每个译码资源池对应一个乒乓缓存,可存储两个待译码的用户数据。例如,译码资源池0对应乒乓缓存0,译码资源池1对应乒乓缓存1,……,译码资源池j对应乒乓缓存j。
例如,调度队列先将用户0的待译码数据发给第一多路复用器,对于用户0的待译码数据,第一多路复用器根据各乒乓缓存0~j的空满状态,发现乒乓缓存0空闲,则可以将用户0的待译码数据存入乒乓缓存0中一个缓存中,那么相应地,译码资源池0读取乒乓缓存0中的用户0的待译码数据,并进行译码处理。
调度器的具体处理流程,例如,如图5所示,包括:
DMA传输完成,小区内的各个用户的待译码数据按顺序进入调度队列;
调度队列里有待调度用户的待译码数据,经第一多路复用器判断后级乒乓缓存0~j是否被占用,每个乒乓缓存可存储两个用户,如果乒乓缓存0的两个用户的存储单元均被占用,继续轮询下一个乒乓缓存1的两个存储单元,直到找到未被占用的乒乓缓存,并将待调度用户的待译码数据存到该空闲的乒乓缓存,则待调度用户调度完成;如果遍历全部乒乓缓存0~j,没有找到未被占用的乒乓缓存,则继续从乒乓缓存0开始依次轮询;
其中,若当前调度用户进入未被占用的乒乓缓存,则当前用户调度完成。每一个乒乓缓存存满两个用户,则无法调度进入新的用户。
顺序分配调度队列里所有用户的待译码数据,全部用户处理完成,则调度处理完成。
二、多个资源池译码器的HARQ缓存,通常在不同的资源池中独立缓存,弊端是重传用户调度会限制到初传处理资源池上,需要考虑用户优先级后进行负载计算,负载分配算法难度大,只能在处理器上管理,需要额外处理器资源影响处理器性能,本申请实施例中,通过将不同译码资源池的HARQ缓存集中处理方案如下:
j+1个译码资源池的HARQ缓存,采用j+1组DDR控制器并行扩展机制,不但消除了资源池的调度限制,而且处理器侧维护的用户HARQ地址表个数由每个资源池各一套改为全部资源池共享一套HARQ地址表,从而不需要区分上一次调度缓存位置,可简化为所有用户采用相同策略公平调度,便于调度由硬件实现。
其中,所述用户HARQ地址表形式如下,所述统一缓存就是,将j+1个资源池对应j+1个HARQ地址表,改为j+1个资源池只有一个HARQ地址表。
表2:HARQ地址表
| 用户索引0HARQ0 | 对应存储在DDR的地址 |
| 用户索引0HARQ1 | 对应存储在DDR的地址 |
| …… | …… |
| 用户索引0HARQN | 对应存储在DDR的地址 |
| 用户索引1HARQ0 | 对应存储在DDR的地址 |
| …… | …… |
| …… | …… |
表3:本方案和现有方案HARQ缓存的内存使用对比
本申请实施例中,全部资源池共享内存,则HARQ内存容量需求可减少为现有方案DDR内存容量的1/(j+1)。译码资源池0~j的HARQ读写请求,同时访问DDR内存0~j,如图3所示,需要增加共享缓存控制器,用于DDR内存0~j的访问管理。
如图6所示,所述共享缓存控制器包含:切片控制器0~j、第二多路复用器,以及与每一切片控制器对应设置的HARQ切片缓存0~j,即切片控制器0对应设置有HARQ切片缓存0~j,切片控制器1对应设置有HARQ切片缓存0~j,以此类推,切片控制器j对应设置有HARQ切片缓存0~j。
对于每一所述切片控制器:通过该切片控制器,对每个译码资源池的HARQ数据块,以64Byte为单位进行切片处理,得到HARQ数据块切片0~N,将每个HARQ数据块切片编号0~N对j+1求模后,得到HARQ数据块切片0~j,将求模得到的HARQ数据块切片0~j分别存储到该切片控制器对应设置的HARQ切片缓存0~j中;例如:切片控制器0,对译码资源池0~j的HARQ数据块,以64Byte为单位进行切片处理,得到HARQ数据块切片0~N,将每个HARQ数据块切片编号0~N对j+1求模后,则得到HARQ数据块切片0~j,将求模得到的HARQ数据块切片0~j分别存储到该切片控制器0对应设置的HARQ切片缓存0~j中,即将HARQ数据块切片0存储到该切片控制器0对应设置的HARQ切片缓存0中,将HARQ数据块切片1存储到该切片控制器0对应设置的HARQ切片缓存1中,以此类推,将HARQ数据块切片j存储到该切片控制器0对应设置的HARQ切片缓存j中;
通过所述第二多路复用器将每一HARQ切片缓存0(即每一切片控制器对应的HARQ切片缓存0)中的数据存储到DDR内存0中,将每一HARQ切片缓存1(即每一切片控制器对应的HARQ切片缓存1)中的数据存储到DDR内存1中,以此类推,将每一HARQ切片缓存j(即每一切片控制器对应的HARQ切片缓存j)中的数据存储到DDR内存j中。
该共享缓存控制器将每个用户的HARQ数据切片,编码求模后,分别对应到DDR内存0~j中存储,即每组DDR内存存储全部用户HARQ数据的1/(j+1),从而达到共享缓存的目的。
综上所述,基于上述译码资源池的优化处理,全部小区所有用户HARQ共享缓存,并在资源池采用硬件加速调度处理,并根据不同译码资源池负载情况动态分配,从而达到所有译码资源池负载均衡的目的。本申请实施例提供的技术方案的性能提升对比如图7所示。
本申请实施例提供的技术方案实现了一种上行HARQ缓存池化解决方案,提出了针对多个资源池并行处理场景下HARQ共享缓存机制,针对软件调度算法的局限性,提出了资源池硬件加速调度算法,显著提升译码器负载均衡。
参见图8,在FPGA侧,本申请实施例提供的一种译码资源分配方法包括:
S101、通过DMA控制器,从处理器(可以为X86多核处理器)获取至少一个小区的待译码用户数据,并传输给现场可编程门阵列FPGA内的调度器;
S102、通过所述调度器为所述至少一个小区的待译码用户数据分配译码资源池。
所述译码资源池,包括至少一个低密度校验码LDPC译码器。
该方法通过直接存储器访问DMA控制器,从处理器获取至少一个小区的待译码用户数据,并传输给现场可编程门阵列FPGA内的调度器;通过所述调度器为所述至少一个小区的待译码用户数据分配译码资源池,从而使得各种业务场景下多个分布式译码器的负载均衡处理更加便利,有利于译码器的资源共享和基站的节能减排,并且通过FPGA可以进一步加速译码资源池的调度处理。
可选地,通过所述调度器为所述至少一个小区的待译码用户数据分配译码资源池,具体包括:
通过所述调度器,根据至少一个译码资源池的空闲状态,为所述至少一个小区的待译码用户数据分配译码资源池。
可选地,所述至少一个译码资源池,包括译码资源池0~j;所述调度器包括调度队列、第一多路复用器、乒乓缓存0~j,其中j为自然数;
通过所述调度队列,将DMA控制器传输来的小区的待译码用户数据,按照用户级颗粒度,将被调度用户的待译码数据发送给所述第一多路复用器;
通过所述第一多路复用器,根据乒乓缓存0~j的空满状态,将被调度用户的待译码数据发送到乒乓缓存;
其中,其中,乒乓缓存0~j与所述译码资源池0~j一一对应,乒乓缓存i与译码资源池i对应,0≤i≤j。译码资源池i用于对乒乓缓存i中的数据进行译码。译码资源池0用于对乒乓缓存0中的数据进行译码,译码资源池1用于对乒乓缓存1中的数据进行译码,以此类推,译码资源池j用于对乒乓缓存j中的数据进行译码。
可选地,所述至少一个译码资源池,包括译码资源池0~j;
该方法还包括:
通过共享缓存控制器,将译码资源池0~j的混合自动重传请求HARQ数据,同时写入双倍速率同步动态随机DDR内存0~j中。
本申请实施例中,全部译码资源池共享DDR内存0~j,HARQ内存容量需求可减少为现有方案DDR内存容量的1/(j+1)。
可选地,所述共享缓存控制器包含:切片控制器0~j、第二多路复用器,以及与每一切片控制器对应设置的HARQ切片缓存0~j;
对于每一所述切片控制器:通过该切片控制器,对每个译码资源池的HARQ数据块,以64Byte为单位进行切片处理,得到HARQ数据块切片0~N,将每个HARQ数据块切片编号0~N对j+1求模后,得到HARQ数据块切片0~j,将求模得到的HARQ数据块切片0~j分别存储到该切片控制器对应的HARQ切片缓存0~j中;
通过所述第二多路复用器将每一HARQ切片缓存i中的数据存储到DDR内存i中,其中,i属于(0,j)即0≤i≤j,即通过所述多路复用器将每一HARQ切片缓存0中的数据存储到DDR内存0中,将每一HARQ切片缓存1中的数据存储到DDR内存1中,以此类推,将每一HARQ切片缓存j中的数据存储到DDR内存j中。
本申请实施例提供的一种译码资源分配装置(可以参见图3),包括DMA控制器、调度器和至少一个译码资源池;其中,
所述DMA控制器,用于从处理器获取至少一个小区的待译码用户数据,并传输给所述调度器;
所述调度器,用于为所述至少一个小区的待译码用户数据分配译码资源池。
可选地,所述调度器,根据至少一个译码资源池的空闲状态,为所述至少一个小区的待译码用户数据分配译码资源池。
可选地,所述至少一个译码资源池,包括译码资源池0~j;所述调度器(参见图4)包括调度队列、第一多路复用器、乒乓缓存0~j;
所述调度队列,用于将DMA控制器传输来的小区的待译码用户数据,按照用户级颗粒度,将被调度用户的待译码数据发送给所述第一多路复用器;
所述第一多路复用器,用于根据乒乓缓存0~j的空满状态,将被调度用户的待译码数据发送到乒乓缓存;
其中,其中,乒乓缓存0~j与所述译码资源池0~j一一对应,乒乓缓存i与译码资源池i对应,0≤i≤j。译码资源池i用于对乒乓缓存i中的数据进行译码。即译码资源池0用于对乒乓缓存0中的数据进行译码,译码资源池1用于对乒乓缓存1中的数据进行译码,以此类推,译码资源池j用于对乒乓缓存j中的数据进行译码。
可选地,所述至少一个译码资源池,包括译码资源池0~j;
所述装置还包括(参见图3):
共享缓存控制器,用于将译码资源池0~j的混合自动重传请求HARQ数据,同时写入双倍速率同步动态随机DDR内存0~j中。
可选地,所述共享缓存控制器包含:切片控制器0~j、第二多路复用器,以及与每一切片控制器对应设置的HARQ切片缓存0~j;
每一所述切片控制器用于:对每个译码资源池的HARQ数据块,以64Byte为单位进行切片处理,得到HARQ数据块切片0~N,将每个HARQ数据块切片编号0~N对j+1求模后,得到HARQ数据块切片0~j,将HARQ数据块切片0~j分别存储到该切片控制器对应的HARQ切片缓存0~j中;
通过所述第二多路复用器将每一HARQ切片缓存i中的数据存储到DDR内存i中,其中,i属于(0,j)即0≤i≤j,即所述第二多路复用器,用于将每一HARQ切片缓存0中的数据存储到DDR内存0中,将每一HARQ切片缓存1中的数据存储到DDR内存1中,以此类推,将每一HARQ切片缓存j中的数据存储到DDR内存j中。
可选地,所述装置为现场可编程门阵列FPGA。
本申请实施例提供的一种译码处理系统,例如参见图3,包括处理器(例如是图3所示的多核处理器)以及任一所述的译码资源分配装置(例如是图3所示的FPGA),所述处理器将至少一个小区的待译码用户数据通过直接存储器访问DMA传输给所述译码资源分配装置,由所述译码资源分配装置为所述至少一个小区的待译码用户数据分配译码资源。
参考图9所示,本申请实施例提供了一种计算设备,该计算设备具体可以为桌面计算机、便携式计算机、智能手机、平板电脑、个人数字助理(Personal Digital Assistant,PDA)等。该计算设备可以包括中央处理器(Center Processing Unit,CPU)、存储器100、输入/输出设备等,输入设备可以包括键盘、鼠标、触摸屏等,输出设备可以包括显示设备,如液晶显示器(Liquid Crystal Display,LCD)、阴极射线管(Cathode Ray Tube,CRT)等。
存储器100可以包括只读存储器(ROM)和随机存取存储器(RAM),并向处理器200提供存储器中存储的程序指令和数据。在本申请实施例中,存储器可以用于存储本申请实施例提供的任一所述方法的程序。
处理器200通过调用存储器存储的程序指令,用于按照获得的程序指令执行本申请实施例提供的任一所述方法。
例如处理器200用于通过DMA控制器,从处理器获取至少一个小区的待译码用户数据,并传输给现场可编程门阵列FPGA内的调度器;通过所述调度器为所述至少一个小区的待译码用户数据分配译码资源池。
所述的译码资源池,包括至少一个低密度校验码LDPC译码器。
通过DMA控制器从处理器获取至少一个小区的待译码用户数据,并传输给现场可编程门阵列FPGA内的调度器;通过所述调度器为所述至少一个小区的待译码用户数据分配译码资源池,从而使得各种业务场景下多个分布式译码器的负载均衡处理更加便利,有利于译码器的资源共享和基站的节能减排,并且通过FPGA可以进一步加速译码资源池的调度处理。
可选地,通过所述调度器为所述至少一个小区的待译码用户数据分配译码资源池,具体包括:
通过所述调度器,根据至少一个译码资源池的空闲状态,为所述至少一个小区的待译码用户数据分配译码资源池。
可选地,所述至少一个译码资源池,包括译码资源池0~j;所述调度器包括调度队列、第一多路复用器、乒乓缓存0~j,其中j为自然数;
通过所述调度队列,将DMA控制器传输来的小区的待译码用户数据,按照用户级颗粒度,将被调度用户的待译码数据发送给所述第一多路复用器;
通过所述第一多路复用器,根据乒乓缓存0~j的空满状态,将被调度用户的待译码数据发送到乒乓缓存;
其中,其中,乒乓缓存0~j与所述译码资源池0~j一一对应,乒乓缓存i与译码资源池i对应,0≤i≤j。译码资源池i用于对乒乓缓存i中的数据进行译码。译码资源池0用于对乒乓缓存0中的数据进行译码,译码资源池1用于对乒乓缓存1中的数据进行译码,以此类推,译码资源池j用于对乒乓缓存j中的数据进行译码。
可选地,所述至少一个译码资源池,包括译码资源池0~j;
处理器200还用于通过共享缓存控制器,将译码资源池0~j的混合自动重传请求HARQ数据,同时写入双倍速率同步动态随机DDR内存0~j中。
本申请实施例中,全部译码资源池共享DDR内存0~j,HARQ内存容量需求可减少为现有方案DDR内存容量的1/(j+1)。
可选地,所述共享缓存控制器包含:切片控制器0~j、第二多路复用器,以及与每一切片控制器对应设置的HARQ切片缓存0~j;
对于每一所述切片控制器:通过该切片控制器,对每个译码资源池的HARQ数据块,以64Byte为单位进行切片处理,得到HARQ数据块切片0~N,将每个HARQ数据块切片编号0~N对j+1求模后,得到HARQ数据块切片0~j,将求模得到的HARQ数据块切片0~j分别存储到该切片控制器对应的HARQ切片缓存0~j中;
通过所述第二多路复用器将每一HARQ切片缓存i中的数据存储到DDR内存i中,其中,i属于(0,j)即0≤i≤j,即通过所述第二多路复用器将每一HARQ切片缓存0中的数据存储到DDR内存0中,将每一HARQ切片缓存1中的数据存储到DDR内存1中,以此类推,将每一HARQ切片缓存j中的数据存储到DDR内存j中。
本申请实施例提供了一种计算机存储介质,用于储存为上述本申请实施例提供的装置所用的计算机程序指令,其包含用于执行上述本申请实施例提供的任一方法的程序。
所述计算机存储介质可以是计算机能够存取的任何可用介质或数据存储设备,包括但不限于磁性存储器(例如软盘、硬盘、磁带、磁光盘(MO)等)、光学存储器(例如CD、DVD、BD、HVD等)、以及半导体存储器(例如ROM、EPROM、EEPROM、非易失性存储器(NAND FLASH)、固态硬盘(SSD))等。
上述方法处理流程可以用软件程序实现,该软件程序可以存储在存储介质中,当存储的软件程序被调用时,执行上述方法步骤。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (9)
1.一种译码资源分配方法,其特征在于,所述方法包括:
通过DMA控制器,从处理器获取至少一个小区的待译码用户数据,并传输给现场可编程门阵列FPGA内的调度器;
通过所述调度器,根据至少一个译码资源池的空闲状态,为所述至少一个小区的待译码用户数据分配译码资源池;
其中,所述至少一个译码资源池,包括译码资源池0~j;所述调度器包括调度队列、第一多路复用器、乒乓缓存0~j,其中j为自然数;
通过所述调度队列,将DMA控制器传输来的小区的待译码用户数据,按照用户级颗粒度,将被调度用户的待译码数据发送给所述第一多路复用器;
通过所述第一多路复用器,根据乒乓缓存0~j的空满状态,将被调度用户的待译码数据发送到乒乓缓存;
其中,乒乓缓存0~j与所述译码资源池0~j一一对应,乒乓缓存i与译码资源池i对应,0≤i≤j。
2.根据权利要求1所述的方法,其特征在于,所述至少一个译码资源池,包括译码资源池0~j;
所述方法还包括:
通过共享缓存控制器,将译码资源池0~j的混合自动重传请求HARQ数据,同时写入双倍速率同步动态随机DDR内存0~j中。
3.根据权利要求2所述的方法,其特征在于,所述共享缓存控制器包含:切片控制器0~j、第二多路复用器,以及与每一切片控制器对应设置的HARQ切片缓存0~j;
对于每一所述切片控制器:通过该切片控制器,对每个译码资源池的HARQ数据块,以64Byte为单位进行切片处理,得到HARQ数据块切片0~N,将每个HARQ数据块切片编号0~N对j+1求模后,得到HARQ数据块切片0~j,将求模得到的HARQ数据块切片0~j分别存储到该切片控制器对应的HARQ切片缓存0~j中;
通过所述第二多路复用器将每一HARQ切片缓存i中的数据存储到DDR内存i中,其中,0≤i≤j。
4.一种译码资源分配装置,其特征在于,所述装置包括:DMA控制器、调度器和至少一个译码资源池;其中,
所述DMA控制器,用于从处理器获取至少一个小区的待译码用户数据,并传输给所述调度器;
所述调度器,用于根据至少一个译码资源池的空闲状态,为所述至少一个小区的待译码用户数据分配译码资源池;
其中,所述至少一个译码资源池,包括译码资源池0~j;所述调度器包括调度队列、第一多路复用器、乒乓缓存0~j;
所述调度队列,用于将DMA控制器传输来的小区的待译码用户数据,按照用户级颗粒度,将被调度用户的待译码数据发送给所述第一多路复用器;
所述第一多路复用器,用于根据乒乓缓存0~j的空满状态,将被调度用户的待译码数据发送到乒乓缓存;
其中,乒乓缓存0~j与所述译码资源池0~j一一对应,乒乓缓存i与译码资源池i对应,0≤i≤j。
5.根据权利要求4所述的装置,其特征在于,所述至少一个译码资源池,包括译码资源池0~j;
所述装置还包括:
共享缓存控制器,用于将译码资源池0~j的混合自动重传请求HARQ数据,同时写入双倍速率同步动态随机DDR内存0~j中。
6.根据权利要求5所述的装置,其特征在于,所述共享缓存控制器包含:切片控制器0~j、第二多路复用器,以及与每一切片控制器对应设置的HARQ切片缓存0~j;
每一所述切片控制器用于:对每个译码资源池的HARQ数据块,以64Byte为单位进行切片处理,得到HARQ数据块切片0~N,将每个HARQ数据块切片编号0~N对j+1求模后,得到HARQ数据块切片0~j,将求模得到的HARQ数据块切片0~j分别存储到该切片控制器对应的HARQ切片缓存0~j中;
通过所述第二多路复用器将每一HARQ切片缓存i中的数据存储到DDR内存i中,其中,0≤i≤j。
7.根据权利要求4~6任一所述的装置,其特征在于,所述装置为现场可编程门阵列FPGA。
8.一种译码处理系统,其特征在于,包括处理器以及权利要求4~7任一所述的译码资源分配装置,所述处理器将至少一个小区的待译码用户数据通过直接存储器访问DMA传输给所述译码资源分配装置,由所述译码资源分配装置为所述至少一个小区的待译码用户数据分配译码资源。
9.一种计算设备,其特征在于,包括:
存储器,用于存储程序指令;
处理器,用于调用所述存储器中存储的程序指令,按照获得的程序执行权利要求1至3任一项所述的方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202110575349.8A CN115408137B (zh) | 2021-05-26 | 2021-05-26 | 一种译码资源分配方法及装置、系统 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202110575349.8A CN115408137B (zh) | 2021-05-26 | 2021-05-26 | 一种译码资源分配方法及装置、系统 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN115408137A CN115408137A (zh) | 2022-11-29 |
| CN115408137B true CN115408137B (zh) | 2025-08-19 |
Family
ID=84156077
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202110575349.8A Active CN115408137B (zh) | 2021-05-26 | 2021-05-26 | 一种译码资源分配方法及装置、系统 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN115408137B (zh) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12362770B2 (en) * | 2022-02-24 | 2025-07-15 | Altera Corporation | Load balanced decoder systems and methods |
| CN118509123B (zh) * | 2024-07-22 | 2024-11-15 | 北京融为科技有限公司 | 用于星地激光通信的激光信号的译码方法、装置和设备 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20090039968A (ko) * | 2007-10-19 | 2009-04-23 | 삼성전자주식회사 | 무선통신시스템에서 자원 할당 정보 전송 장치 및 방법 |
| CN101494606A (zh) * | 2009-03-05 | 2009-07-29 | 华为技术有限公司 | 译码方法及译码装置 |
| WO2020119676A1 (zh) * | 2018-12-10 | 2020-06-18 | 中兴通讯股份有限公司 | 实现通话的方法、系统、装置、主控板、线卡及存储介质 |
Family Cites Families (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7738585B2 (en) * | 2005-09-23 | 2010-06-15 | Intel Corporation | Scalable system to adaptively transmit and receive including adaptive antenna signal and back-end processors |
| JP4732994B2 (ja) * | 2006-10-13 | 2011-07-27 | 富士通株式会社 | 移動通信システムの無線基地局における通信処理方式 |
| US8400974B2 (en) * | 2009-07-30 | 2013-03-19 | Apple Inc. | Methods and apparatus for providing dynamic information in a wireless information channel |
| CN104902216B (zh) * | 2014-03-05 | 2019-11-22 | 南京中兴软件有限责任公司 | 一种视频会议中多画面管控方法及相关设备 |
| CN103906257B (zh) * | 2014-04-18 | 2017-09-08 | 北京邮电大学 | 基于gpp的lte宽带通信系统计算资源调度器及其调度方法 |
| US20170017394A1 (en) * | 2015-07-15 | 2017-01-19 | Futurewei Technologies, Inc. | SYSTEM AND METHOD FOR DATA WAREHOUSE AND FINE GRANULARITY SCHEDULING FOR SYSTEM ON CHIP (SoC) |
| US11510079B2 (en) * | 2019-11-07 | 2022-11-22 | Ofinno, Llc | Sidelink sensing measurement |
-
2021
- 2021-05-26 CN CN202110575349.8A patent/CN115408137B/zh active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20090039968A (ko) * | 2007-10-19 | 2009-04-23 | 삼성전자주식회사 | 무선통신시스템에서 자원 할당 정보 전송 장치 및 방법 |
| CN101494606A (zh) * | 2009-03-05 | 2009-07-29 | 华为技术有限公司 | 译码方法及译码装置 |
| WO2020119676A1 (zh) * | 2018-12-10 | 2020-06-18 | 中兴通讯股份有限公司 | 实现通话的方法、系统、装置、主控板、线卡及存储介质 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN115408137A (zh) | 2022-11-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| TWI666893B (zh) | 使用者設備、數據機晶片以及分配使用者設備下行鏈路混合自動重複要求緩衝器的方法 | |
| US9225668B2 (en) | Priority driven channel allocation for packet transferring | |
| CN115408137B (zh) | 一种译码资源分配方法及装置、系统 | |
| WO2011139462A2 (en) | Techniques for initiating communication in a wireless network | |
| CN103906257A (zh) | 基于gpp的lte宽带通信系统计算资源调度器及其调度方法 | |
| CN107122244A (zh) | 一种基于多gpu的图数据处理系统及方法 | |
| CN111511028A (zh) | 一种多用户资源分配方法、装置、系统及存储介质 | |
| JP2024528103A (ja) | 無線リソース使用率の決定方法、装置、電子機器及びコンピュータプログラム | |
| CN103931262A (zh) | 一种数据调度方法和设备 | |
| CN115379508A (zh) | 载波管理方法、资源分配方法及相关设备 | |
| WO2017054631A1 (zh) | 配置资源的方法及网络设备 | |
| WO2024060682A1 (zh) | 内存管理方法、装置、内存管理器、设备及存储介质 | |
| CN105517176B (zh) | 动态调度虚拟化基站资源的方法 | |
| CN101925181B (zh) | 多载波系统调度的方法及设备 | |
| CN111602457B (zh) | 信息传输方法、通信装置及存储介质 | |
| CN103269519B (zh) | 一种集中式基站架构中的处理资源分配方法与系统 | |
| CN115412973B (zh) | 一种译码资源分配方法及装置 | |
| US12189456B2 (en) | Methods and apparatus for adaptive power profiling in a baseband processing system | |
| CN114281426B (zh) | 任务卸载方法、装置、电子设备及可读存储介质 | |
| CN101945039B (zh) | 数据流的传输方法和装置 | |
| CN100366110C (zh) | 移动通信系统基站中基带信道处理资源的分配方法 | |
| CN117858262B (zh) | 基站资源调度优化方法、装置、基站、设备、介质及产品 | |
| CN111224761B (zh) | 一种上行调度方法及装置 | |
| CN118251953A (zh) | 基于频谱利用在资源受限环境中复用多种无线技术的系统和方法 | |
| CN116711286A (zh) | 分布式任务的节点确定方法、装置、设备及介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |