全高速缓存访存模型

编辑
本词条由“匿名用户” 建档。
仅缓存内存架构(COMA)是一种用于多处理器的计算机内存组织,其中每个节点的本地内存(通常是DRAM)用作缓存。这与在NUMA组织中使用本地内存作为实际主内存形成对比。 在NUMA中,全局地址空间中的每个地址通常都分配有一个固定的主节点。当处理器访问某些数据时,会在其本地缓存中创建一个副本,但空间仍保留在主节点中。相反,对于COMA,没有家。来自远程节点的访问可能会导致该数据迁移。与NUMA相比,...

全高速缓存访存模型

编辑

仅缓存内存架构 (COMA) 是一种用于多处理器的计算机内存组织,其中每个节点的本地内存(通常是 DRAM)用作缓存。 这与在 NUMA 组织中使用本地内存作为实际主内存形成对比。

在 NUMA 中,全局地址空间中的每个地址通常都分配有一个固定的主节点。 当处理器访问某些数据时,会在其本地缓存中创建一个副本,但空间仍保留在主节点中。 相反,对于 COMA,没有家。 来自远程节点的访问可能会导致该数据迁移。 与 NUMA 相比,这减少了冗余副本的数量,并且可以更有效地使用内存资源。 另一方面,它提出了如何找到特定数据(不再有主节点)以及如果本地内存已满怎么办(将一些数据迁移到本地内存然后需要驱逐其他数据, 没有家可去)。 硬件内存一致性机制通常用于实现迁移。

大量研究探讨了这些问题。 已经开发了各种形式的目录、用于维护本地存储器中的空闲空间的策略、迁移策略和只读副本的策略。

全高速缓存访存模型

Hybrid NUMA-COMA 组织也被提出,比如 Reactive NUMA,它允许页面以 NUMA 模式启动,并在适当的时候切换到 COMA 模式,并在 Sun Microsystems 的 WildFire 中实现。 ScaleMP 提出并实施了基于软件的混合 NUMA-COMA 实现,允许从商用节点集群创建共享内存多处理器系统

内容由匿名用户提供,本内容不代表vibaike.com立场,内容投诉举报请联系vibaike.com客服。如若转载,请注明出处:https://vibaike.com/195808/

(1)
词条目录
  1. 全高速缓存访存模型

轻触这里

关闭目录

目录
尊敬的全球百科用户,全球百科新系统上线了!新增排名保障卡、词条年卡,更有增值功能——百度排名保障包年服务,详情访问“glopedia.cn/261472/”关注公众号可联系人工客服。