首页> 中国专利> 用于过滤存储以防止所有存储都必须针对高速缓存的所有字进行嗅探检查的方法和系统

用于过滤存储以防止所有存储都必须针对高速缓存的所有字进行嗅探检查的方法和系统

摘要

在处理器中,一种用于过滤存储以防止所有存储都必须针对高速缓存的所有字进行嗅探检查的方法。该方法包括:实现高速缓存,其中存储针对地址匹配嗅探高速缓存以保持相干性;如果多个核心之中的给定核心从高速缓存线的一部分进行加载,则通过使用访问掩码来标记该部分;在执行到高速缓存线的后续存储时检查访问掩码;以及当到高速缓存线的该部分的后续存储在访问掩码中见到来自加载的在先标记时,引发缺失预测。

著录项

  • 公开/公告号CN104583939A

    专利类型发明专利

  • 公开/公告日2015-04-29

    原文格式PDF

  • 申请/专利权人 索夫特机械公司;

    申请/专利号CN201380043002.2

  • 发明设计人 M·阿布达拉;

    申请日2013-06-11

  • 分类号G06F9/30;

  • 代理机构北京市金杜律师事务所;

  • 代理人李辉

  • 地址 美国加利福尼亚州

  • 入库时间 2023-12-18 08:35:15

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2018-02-23

    授权

    授权

  • 2017-04-12

    专利申请权的转移 IPC(主分类):G06F9/30 登记生效日:20170320 变更前: 变更后: 申请日:20130611

    专利申请权、专利权的转移

  • 2015-05-27

    实质审查的生效 IPC(主分类):G06F9/30 申请日:20130611

    实质审查的生效

  • 2015-04-29

    公开

    公开

说明书

本申请要求2012年6月15日由Mohammad A.Abdallah提交的题为 “A METHOD AND SYSTEM FOR FILTERING THE STORES TO  PREVENT ALL STORES FROM HAVING TO SNOOP CHECK AGAINST  ALL WORDS OF A CACHE”的共同待决共同转让的美国临时专利申请序 号61/660,553的权益,并且该申请被整体地并入到本文中。

技术领域

本发明总体涉及数字计算机系统,更具体地涉及用于选择指令(包 括指令序列)的系统和方法。

背景技术

要求处理器来处理相关或完全独立的多个任务。此类处理器的内部状 态通常由在程序执行的每个特定时刻可能保持不同的值的寄存器组成。在 程序执行的每个时刻,将内部状态图像称为处理器的架构状态。

当架构代码执行切换成运行另一功能(例如,另一线程、进程或程序) 时,然后必须保存机器/处理器的状态,使得新功能可以利用内部寄存器 以构建其新状态。一旦新功能已终止,则可以丢弃其状态,并且先前情境 的状态将被恢复且该执行又继续。此类切换过程称为情境切换,并且通常 包括10个或数百个循环,尤其是在采用大量寄存器(例如,64、128、256) 和/或乱序执行的现代架构的情况下。

在线程感知硬件架构中,硬件支持用于有限数目的硬件支持线程的多 个情境状态是正常的。在这种情况下,硬件复制用于每个所支持线程的所 有架构状态元素。这消除了在执行新线程时的情境切换的需要。然而,这 仍具有多个缺点,即复制用于用硬件中所支持的每个附加线程的所有架构 状态元素(即,寄存器)的面积、功率和复杂性。另外,如果软件线程的 数目超过明确支持的硬件线程的数目,则仍必须执行情境切换。

这变得常见,因为在要求大量线程的细粒度基础上需要并行性。具有 复制情境状态硬件存储的硬件线程感知架构无助于非线程软件代码,并且 仅仅减少了用于被线程化的软件的情境切换的次数。然而,那些线程通常 是针对粗粒并行性而构造的,并且导致用于发起和同步、离开细粒并行性 的沉重软件开销,诸如函数调用和回路并行执行,而没有高效的线程化发 起/自动生成。此类所述开销伴随着针对非明确/容易并行化/线程化软件代 码而使用现有技术编译程序或用户并行化技术进行此类代码的自动并行 化的困难。

发明内容

在一个实施例中,将本发明实现为一种用于过滤存储以防止所有存储 都必须针对微处理器中的高速缓存的所有字进行嗅探检查的方法。该方法 包括:实现高速缓存,其中存储针对地址匹配来嗅探高速缓存以保持相干 性;如果多个核心之中的给定核心从高速缓存线的一部分进行加载,则通 过使用访问掩码来标记该部分;在执行到高速缓存线的后续存储时检查访 问掩码;以及当到高速缓存线的该部分的后续存储在访问掩码中见到来自 加载的在先标记时,引发缺失预测。

前述是概要且因此必要地包含细节的简化、一般化以及省略;因此, 本领域的技术人员将认识到的是该概要仅仅是说明性的且并不意图以任 何方式是限制性的。单独地由权利要求定义的本发明的其他方面、发明特 征以及优点在下面阐述的非限制性详细描述中将变得显而易见。

附图说明

在附图中以示例的方式而不是以限制的方式举例说明本发明,并且在 附图中相同的附图标记指示类似元件。

图1示出了根据本发明的一个实施例的加载队列和存储队列。

图2示出了根据本发明的一个实施例的加载和存储指令分离的第一 图。

图3示出了根据本发明的一个实施例的加载和存储指令分离的第二 图。

图4示出了根据本发明的一个实施例的过程的步骤的流程图,其中图 示出用于实现从由加载存储重新排序和优化所引发的推测性转发缺失预 测/错误中恢复的规则。

图5示出了图示出根据本发明的一个实施例的用处理器的加载队列 和存储队列资源来实现过程300的规则的方式的图。

图6示出了图示出根据本发明的一个实施例的用处理器的加载队列 和存储队列资源来实现过程300的规则的方式的另一图。

图7示出了图示出根据本发明的一个实施例的用处理器的加载队列 和存储队列资源来实现过程300的规则的方式的另一图。

图8示出了根据本发明的一个实施例的其中在加载之后分派存储的 分派功能的概述的过程的流程图。

图9示出了根据本发明的一个实施例的其中在存储之后分派存储的 分派功能的概述的过程的流程图。

图10示出了根据本发明的一个实施例的统一加载队列的图。

图11示出了示出根据本发明的一个实施例的滑动加载分派窗口的统 一加载队列。

图12示出了根据本发明的一个实施例的分布式加载队列。

图13示出了根据本发明的一个实施例的具有按序连续性的分布式加 载队列。

图14示出了根据本发明的一个实施例的用于多核处理器的分段存储 器子系统的图。

图15示出了如何通过本发明的实施例来处理加载和存储的图。

图16示出了根据本发明的一个实施例的存储过滤算法的图。

图17示出了根据本发明的一个实施例的在组成按序从存储器进行读 取的加载的存储器一致性模型中具有乱序加载的信号量实现方式。

图18示出了根据本发明的一个实施例的到通过使用基于锁的模型和 基于事务的模型两者而组成按序的用于存储器的加载读取的存储器一致 性模型中的乱序加载。

图19示出了根据本发明的一个实施例的多核分段存储器子系统的多 个核心。

图20示出了根据本发明的一个实施例的访问统一存储队列的异步核 心的图,其中存储可以基于存储资历而从任一线程获得。

图21示出了描绘根据本发明的一个实施例的其中存储相比于其他线 程中的对应存储而言具有资历的功能的图。

图22示出了根据本发明的一个实施例的非消歧乱序加载存储队列退 出实现方式。

图23示出了根据本发明的一个实施例的非消歧乱序加载存储队列重 新排序实现方式的重新排序实现方式。

图24示出了根据本发明的一个实施例的指令序列(例如,踪迹)重 新排序的推测性执行实现方式。

图25示出了根据本发明的一个实施例的示例性微处理器管线的图。

具体实施方式

虽然已结合一个实施例描述了本发明,但本发明并不意图局限于本文 中所阐述的特定形式。相反地,其意图涵盖可以适当地包括在由所附权利 要求定义的本发明的范围内的此类替换、修改以及等同物。

在以下详细描述中,已阐述了许多特定细节,诸如特定方法顺序、结 构、元件以及连接。然而应理解的是不需要利用这些及其他特定细节来实 施本发明的实施例。在其他情况下,已省略众所周知的结构、元件或连接 或未特别详细地描述以避免不必要地使本描述含糊。

在本说明书内对“一个实施例”或“实施例”的引用意图指示在本发 明的至少一个实施例中包括结合该实施例所述的特定特征、结构或特性。 短语“在一个实施例中”在本说明书内的各种位置上的出现并不一定全部 参考同一实施例,也不是其他实施例的互斥的单独或替换实施例。此外, 描述了某些实施例可展示出而其他的没有的各种特征。同样地,描述了对 于某些实施例而言可能是要求但其他实施例并非如此的各种要求。

随后的详细描述的某些部分是在对计算机存储器内的数据位的操作 的程序、步骤、逻辑块、处理及其他符号表示方面提出的。这些算法描述 和表示是数据处理领域的技术人员用来最有效地向本领域的其他人传达 其工作的实质的手段。程序、计算机执行步骤、逻辑块、过程等在这里且 一般地被设想为是导致期望结果的步骤或指令的自相一致序列。该步骤是 要求物理量的物理操作的那些。通常但不一定,这些量采取计算机可读存 储介质的电或磁信号的形式,并且能够在计算机系统中被存储、传输、组 合、比较以及操纵。主要由于一般使用的原因,已证明将这些信号称为位、 值、元素、符号、字符、项、数字等有时是方便的。

然而,应记住的是所有这些和类似术语将与适当的物理量相关联且仅 仅是应用于这些量的方便标记。如从以下讨论显而易见的那样,除非另外 具体地说,应认识到的是遍及本发明,利用诸如“处理”或“访问”或“写” 或“存储”或“复制”等等术语的讨论指的是计算机系统或类似电子计算 设备的动作或过程,其对在计算机系统的寄存器和存储器及其他计算机可 读介质内表示为物理(例如,电子)量的数据进行操纵并变换成在计算机 系统存储器或寄存器或其他此类信息存储、传输或显示设备内同样地表示 为物理量的其他数据。

本发明的实施例实现了乱序指令调度过程,其中允许输入指令序列内 的指令在处理器资源可用于执行它们时就立即乱序发出。本发明的实施例 能够确保外部代理见到指令按序执行(例如,存储器一致性规则/模型)。 确保指令对外部代理可见地按序执行,从而确保无错误程序执行。本发明 的实施例确保处理器的存储器分级结构(例如,L1高速缓存、L2高速缓 存、系统存储器等)见到指令的一致按序执行。

图1示出了根据本发明的一个实施例的加载队列和存储队列。图1还 示出了输入指令序列。如上所述,处理器的存储器分级结构(例如,L1 高速缓存、L2高速缓存、系统存储器等)见到指令的一致性按序执行。 其后常常称为加载/存储队列的加载队列和存储队列可以用来保持按序执 行的语义。

另外,加载和存储的乱序执行引发推测性执行。当执行推测性执行时, 机器需要识别推测性错误。在图1的实施例中,加载/存储队列提供了一 种用于实现从由加载存储重新排序和优化引发的推测性转发或缺失预测/ 错误中恢复的系统。加载/存储队列包括允许从作为转发、分支和错误的 结果而由加载存储重新排序/优化引发的推测性错误中恢复的硬件支持。 为了允许机器从推测性错误中恢复,将推测性执行的结果保持在加载队列 和存储队列中。加载队列和存储队列保持推测性执行的结果直至可以修正 错误且可以使存储结果退出(retire)至存储器为止。加载队列和存储队列 的推测性执行内容对于外部代理而言是不可见的。相对于可见性,存储需 要按序退出至存储器。

图2示出了根据本发明的一个实施例的加载和存储指令分离的第一 图。本发明的一个特征是这样的事实,即加载被分离成两个宏指令,第一 个进行地址计算并取读到临时位置(加载存储队列),并且第二个是存储 器地址内容(数据)到寄存器或ALU目的地的加载。应注意的是虽然在 将加载和存储指令分离成两个相应宏指令并将其重新排序的情境内描述 了本发明的实施例,但可以通过在微代码情境内将加载和存储指令分离成 两个相应微指令并将其重新排序来实现该方法和系统。

该功能对于存储而言是相同的。存储也被分离成两个宏指令。第一指 令是存储地址和取读,第二指令是该地址处的数据的存储。存储和两个指 令的分离遵循与下面针对加载所述的相同规则。

加载到两个指令的分离允许运行时间优化器在给定指令序列内早得 多地调度地址计算和取读指令。这允许通过将数据预取读到与高速缓存分 级结构分离的临时缓冲器中而更容易地从存储器缺失恢复。使用临时缓冲 器以便保证关于LA/SA和LD/SD之间的一一对应的经预取读的数据的可 用性。如果存在与处于加载地址与加载数据之间的窗口中的在先存储的别 名使用(例如,如果从先前的存储检测到转发情况)或者如果地址计算存 在任何错误问题(例如,页面错误),则对应的加载数据指令可以重新发 出。另外,将加载分离成两个指令还可以包括将信息复制到两个指令中。 此类信息可以是地址信息、源信息、其他附加标识符等。此复制允许在不 存在LA/SA的情况下进行两个指令的LD/SD的独立分派。

加载地址和取读指令可以在不等待加载数据返回的情况下从实际机 器退出窗口退出,由此甚至在高速缓存缺失该地址(例如,在段落开头处 提到的加载地址)的情况下允许机器向前进行。例如,在高速缓存缺失该 地址(例如,地址X)时,机器可能停顿达几百个循环等待从存储器分级 结构取读数据。通过在不等待加载数据返回的情况下使加载地址和取读指 令从实际机器退出窗口退出,机器仍可以向前进行。

应注意的是指令的分离使得本发明的实施例的关键优点能够将 LA/SA指令重新排序得早于且更加远离LD/SD指令序列以使得能够实现 加载和存储的较早分派和执行。

图3示出了根据本发明的一个实施例的加载和存储指令分离的第二 图。图2实施例示出了如何使用复制特征以便规定加载指令的分离。在本 实施例中,将加载复制成两个宏指令,第一个是地址计算和取读到临时位 置(加载存储队列)中,并且第二个是存储器地址内容(数据)到寄存器 或ALU目的地中的加载。应注意的是虽然在将加载和存储指令复制成两 个相应宏指令并将其重新排序的情境下描述本发明的实施例,但可以通过 在微代码情境下将加载和存储指令复制成两个相应微指令并将其重新排 序来实现该方法和系统。

现在描述根据本发明的一个实施例的指令分离功能的更详细描述。在 一个实施例中,指令集不具有到LA、SA、LD或SD的直接模拟指令。在 此类实施例中,用指令前缀LAF、SAF、LASAF和伴随后缀指令的组合 来实现这些概念。并且粗略地确实映射到LA上的指令集具有LAD且SA 具有SAD,并且可以实现组合LADSAD。还可以将这些概念实现为微代 码内的微指令。

a)可以将在这里被定义为LAF—前缀+后缀指令的描述为‘LD’。

b)可以将在这里被定义为SAF—前缀+后缀指令的描述为‘SD’。

c)可以将在这里被定义为LAD指令的描述为‘LA’。

d)可以将在这里被定义为SAD指令的描述为‘SA’。

e)此外,我们具有LASAF指令和LADSAD指令。这些指令包括可 以用来实现信号量(锁定原子)操作的组合LAF/SAF—前缀+后缀指令。 还可能定义组合LAD—SAD指令以再次地预取读存储器操作数,结果产 生硬件的复杂化。

LAD代表‘LA-去融合’

LAD指令发起到执行管线中的数据预取读。其与正常预取读的不同 之处在于其直接地加载到执行管线中,可承担比一级高速缓存更低的执行 时延。在一个实施例中,通过将固定储存装置用于可以使用在LA—LD对 之间的ID链路(例如QID数)来标记的LA—LD对来实现此功能。LAD 指令计算有效存储器地址(例如,来自潜在复杂规范),指定操作数大小 (字节、半字、字、双字或更大);发起存储器引用;通过TLB和高速 缓存分级结构。记录例外(翻页缺失、特权、保护)以在LAF+后缀执行 时报告,或者替换实现方式可以使Q条目取消/无效,迫使LAF+后缀指令 重新执行,并且其将出现例外。

LAD指令具有一般格式和操作数:

LAD(os)    QID,M[EA]

·EA—是有效地址规范,其可以是基础寄存器、索引寄存器、移位因 数和/或索引偏移的组合。例如M[B,RI,sf,offset]

·os—是要读取的字节数的指示

·QID—将被用于存储器引用操作的加载存储器QID。其还用来链接 LAD的操作和后续LAF前缀的指令。QID在1至N范围内,N是实现特 定值。期望值是31、63、127。QID=0被预留给不具有前LAD的LAF指 令的特殊情况。QID=0始终立即被LAF使用,因为其不可用于LAD。

LAF代表‘LA-融合’。

LAF是指令前缀,意味着其必须与后缀指令直接耦合(或融合)。后 缀指令可以是独立的。后缀指令可以是具有至少一个源寄存器的任何指 令。作为前缀的LAF必须被耦合。LAF前缀改变后缀指令的性质。其寄 存器操作数中的一个或多个被前缀重新定义为存储器队列标识符(QID)。 此外,被关联为源自于寄存器的数据现在源自于存储器队列。

LAF-前缀+后缀指令可具有也可不具有前LAD指令。如果QID==0, 则LAF没有前LAD。如果QID!=0,则LAF具有或曾具有前LAD。当意 图创建加载指令到LA和LD的分离时,则LAF将具有QID!=0且将用在 LAF前面的同一QID将LAD实例化(例如,这基本上创建LA/LD对)。

当LAF/后缀执行且具有QID==0时,使用存储器队列的0条目来完 成‘LA’操作、存储器读、将数据升级到存储器队列,并且然后通过将 数据加载到后缀指令源来完成,将所应用的操作与潜在其他源组合,并将 结果写入一个或多个后缀指令目的地寄存器。另一方面,如果QID!=0, 则针对匹配QID查阅存储器队列(查找),如果存在的话,则从存储器队 列读取数据,并且应用后缀指令的操作,并将结果写入目的地寄存器。如 果匹配QID是有效但不完整的,则数据停顿直至数据可用为止。如果QID 是无效的,则LAF具有足够的信息(地址和数据操作操作数大小)以重 新开始该操作。匹配的QID可能由于多种原因而不存在,其中的某些是:

a)前LAD从未执行、坏编码或其他原因。

b)LAF与前LAD之间的执行流程被例外或中断所打断

c)居间的存储操作与LAD的地址别名使用且使其数据完整性无效。

在这些情况中的任何一个中,LAF前缀+后缀具有足以重复LAD (LA)操作的信息。这种能力使得我们的LAD指令成为暗示。LAD不必 成功地执行或者在这方面甚至超过作为用于正确代码的NOP以使用它之 外而实现。

具有后缀指令的LAF指令的一般格式和操作数是:

LAF         M[ea]

SUFFIX(os)  Rt,QID,….

LAF指令借用是操作数大小、QID,并且来自后缀指令的编码。如果 后缀是SIMD,则其还从后缀借用操作的SIMD宽度。始终在后缀指令的 源寄存器规范字段中的一个中对QID进行编码。在SMI的特定实现方式 中,这始终是位23:18,但情况不必如此。

SAD代表‘SA-去融合’

SAD是到仅用于存储的LAD的并行指令。其也预取读数据,将数据 送到高速缓存以用于修改。此外,其创建存储器存储队列条目。主要SAD 具有2个主要用途:

a)作为预取读,读取以用于数据的修改

b)保持正确的存储器排序并暴露并处理在存储(写)之前促进加载 (读)之后的潜在读后写危险

SAD是暗示指令。SAD指令计算有效存储器地址(潜在地来自复杂 规范),指定凑作数大小(字节、半字、字、双字等);发起存储器引用; 通过TLB、高速缓存/存储器分级结构。在SAF+后缀执行时记录例外(翻 页缺失、特权、保护)以重新执行且其出现例外。

SAD指令具有一般格式和操作数:

SAD(os)M[ea],QID

·Ea—是有效地址规范,其可以是基础寄存器、索引寄存器、移位因 数和/或索引偏移的组合。例如M[B,RI,sf,offset]

·Os—是要写入Ea的字节数的指示

·QID—将被用于存储器引用操作的存储存储器QID。其还用来链接 SAD的操作和后续SAF前缀指令。QID在1至N范围内,N是实现特定 值。期望值是31、63、127。QID=0被预留给不具有前SAD的SAF指令 的特殊情况。此QID始终立即被SAF使用。

SAF代表‘SA-融合’

SAF是LAF前缀的并行前缀,仅用于存储。作为前缀,其必须与后 缀指令直接地耦合(或融合)。后缀指令可以是独立的。后缀指令可以是 具有至少一个目标寄存器的任何指令。作为前缀的SAF耦必须被合。SAF 改变后缀指令的性质:目的地寄存器操作数中的一个或多个,其正常地是 到存储器存储队列标识符(QID)中的寄存器选择索引,并且操作从以寄 存器为目标到以存储器(更确切地存储器队列条目)为目标。同样地,其 将寄存器操作变成存储存储器操作。

SAF指令可具有也可不具有前SAD。如果QID==0,则SAF没有前 SAD。如果QID!=0,则SAF具有或曾具有前SAD。当SAF/后缀执行时, 如果QID==0,则使用存储器队列的0条目来完成‘SA’操作,存储器写, 将数据升级到存储器队列,并且然后通过存储由后缀指令源供应的数据来 完成。另一方面,如果QID!=0,则针对匹配QID查阅存储器队列(查找), 如果存在的话,数据将在应用后缀指令时被写入存储器队列条目。如果匹 配QID是有效但不完整的,则数据停顿直至数据可用为止。如果QID是 无效的,则SAF具有足够的信息(地址和数据操作操作数大小)以又继 续该操作并完成存储器写操作。。匹配QID可能由于多种原因而不存在, 其中的某些是:

a)前SAD从未执行、坏编码或其他原因。

b)SAF与前SAD之间的执行流程被例外或中断所打断

在这些情况中的任何一个中,SAF前缀+后缀具有足以重复SAD(SA) 操作的信息。这种能力使得我们的SAD指令称为暗示。SAD不必成功地 执行或者在这方面甚至超过作为用于正确代码的NOP以使用它之外而实 现。

LASAF是指令前缀

作为前缀的LASAF修改与源和目的地具有相同寄存器的指令。 LASAF将此类指令变成原子存储器引用读/写一次操作。使用来自加载存 储器队列的一个和来自存储存储器队列的一个。不存在前LAD或SAD指 令。

LASAF  M[ea3]

ADD    QID1,QID2,R1

LASAF创建加载和存储存储器队列两者中的QID条目。并且其将使 用QID2来读取存储器[ea3],添加R1并将结果存储在存储存储器QID1 中,实行M[ea3]的原子读修改写。

SMI实现(如果我们将实现它)将要求QID1==QID2==0。但是我们 不想只局限于该实现方式。

我们可以具有LASAD指令,认为是这样,但我们必须始终向存储器 队列中进行嗅探以完成它。使命中的嗅探上的两个条目都无效。并且在 LASAF上重新执行加载/存储。

示例性使用:

A.远远在数据的使用之前在促进加载之后保存寄存器资源。

假设原始代码为

LDR    R1,M[ea1]

ADD32    Rt,R1,R2

为了隐藏存储器访问时延,我们希望在执行流程中在R1数据(ADD) 的使用之上尽快地促进LDR。

LDR  R1,M[ea1]

...许多指令

ADD32  Rt,R1,R2

这样做的一个负面效应是其保持R1寄存器‘忙碌’等待数据,并且 其不能被用于其他目的。存储器队列扩展资源池以保持数据。因此我们将 LDR转换成LAD和后续LAD:

LAD  QID,M[ea1]

...许多指令

LAF  M[ea1]

ADD32  Rt,QID,R2

由于加载队列条目QID被使用,R1被自由地用于其他目的。

或者加载具有Rt-QID的差的Rt,或者如果QID不存在,则从M[ea1] 重新加载数据,从其减去R2,并将结果放置在Rt中。

应足以的是用上述实现方式,不需要存储器地址计算在2个加载之间 匹配。如果两个地址计算不同且QID仍是有效的,则很有可能存在不好的 程序员。OS(在我们的示例32中)也不必在LAD与LAF之间匹配。比 所需更多的数据可被LAD读取,在这种情况下,将使用数据读取的最低 有效字节。或者LAF+后缀可能需要比LAD读更多的数据,在这种情况下 将使用由LAD读取的最低有效字节,后面是0直至后缀操作足够为止。 此外,地址计算操作数不必在LAD与LAF之间匹配,虽然为了有良好的 编码,其应获得相同的结果产生的有效地址。

B.通过使正常ALU寄存器—寄存器操作变成ALU寄存器存储器操 作,节省执行循环。

在这里,我们正在使用特殊QID=0(%0)仅仅是为了将正常寄存器— 寄存器ADD指令变成存储器引用。由于LAF是前缀且必须直接耦合到 ADD,所以在中间不存在指令。QID=0始终可供使用,因为其立即被使用。

LAF  M[ea1]

ADD32  Rt,%qO,R2

LAF有效地将以上指令变成

ADD32  Rt,M[eal],R2

我们还可以使用SAF来将ALU寄存器—寄存器操作变体成将ALU 操作的结果存储到存储器中的操作。

SAF  M[ea1]

ADD  %qO,R2,R3

将把将R2和R3相加的结果在地址ea1处存储到存储器中。

C.促进存储之上加载时,保持顺序语义

另一问题是我们想要促进存储(STR)之上加载(LDR),其可以也 可不与加载的地址别名使用。别名:ea1的某些或所有数据地址与ea2相 同.

STR  M[ea2]

LDR  R1,M[ea1]

ADD32  Rt,R1,R2

变成

LDR  R1,M[ea2]

0至许多指令

STR  M[ea2],R3

0至许多指令

ADD32  Rt,Rl,R2

为了安全地完成此操作(生成正确代码),我们需要工具以完成此操 作。在这里,我们使用LAD和SAD指令两者及其相应的LAF和SAF前 缀+后缀指令,并且能够保持执行顺序且生成正确的代码。

LOOP:

SAD  M[ea2],R3

0至许多指令

a)

LAD  R1,M[ea1]

0至许多指令

b)

SAF  M[ea1],R3

0至许多指令

c)

saf-后缀

LAF M[ea1]

d)

BRN回路

在以上代码中,必须促进LAD和SAD两者且其保持相同的排序。可 能发生什么?在每个点a、b、c、d处指示替换。

a1)中断,使SAD无效,后续SAF将不许重新执行a2,LAD与SAD 别名使用,使SAD无效,或者将相反地不会被插入存储器队列中

b1)中断,使SAD和LAD无效

b2)SAF与LAD别名使用,并且使LAD无效

b3)SAF使用仍有效的SAF或者重新执行,

c1)中断,使LAD无效,

c2)如果仍有效,则LAF使用LAD的数据,否则重新执行。

c3)循环,利用硬件,用IP标记和执行序列ID的组合,并且适当的 管理QID、LAD/SAD/LAF/SAF。

在LA/SA和LD/SD的上述描述中,使用LA和SA相对程序顺序位 置来强制执行用于转发目的的顺序。在另一实施例中,可以使用LD/SD 相对程序顺序位置来强制执行用于转发目的的顺序(例如,如下所述)。

图4示出了根据本发明的一个实施例的其中图示出用于实现从由加 载存储重新排序和优化引发的推测性转发缺失预测/错误中恢复的规则的 过程400的步骤的流程图。

如步骤401所示,本发明的实施例的目的是在该存储与该加载之间有 地址匹配时找到向加载进行转发的存储。在步骤402处,最近的早先存储 (例如,按机器顺序)向加载进行转发。

在步骤403中,当按机器顺序来分配LD/SD时,针对LA/SA更新实 际年龄。为LA/SA实际年龄指派(assign)以与LD/SD年龄相同的值。 LD/SD保持实际年龄并执行原始程序顺序语义。

步骤404—407示出了用于在支持推测性执行的同时保持程序连续语 义的规则。步骤404—407被示为被相互水平地布置以指示同时地实现这 些规则功能的机制。如步骤404中所示,如果存储具有实际年龄但加载还 没有获得实际年龄,则存储早于加载。如步骤405中所示,如果加载具有 实际年龄但存储还没有获得实际年龄,则加载早于存储。如在步骤406中 所示,如果加载或存储都没有获得实际年龄,则将使用虚拟标识符(VID) 来找出哪个较早(例如,在某些实施例中,与加载/存储指令相关联的QID 表示VID)。如步骤407中所示,如果加载和存储两者都已经获得实际年 龄,则使用实际年龄来找出哪个较早。

应注意的是用来确定加载与存储之间的相对年龄的图4实施例所述 的算法还可以用来确定多个存储之间的相对年龄。这在如下面在图4和后 续图中所述的更新存储年龄戳时有用。

图5示出了图示出根据本发明的一个实施例的用处理器的加载队列 和存储队列资源来实现过程400的规则的方式的图。图5实施例示出了其 中指令回路已解开成两个相同指令序列401—402的示例。应注意的是SA 和LA可以自由地重新排序,然而,SD和LD必须保持其相对程序顺序。 较早的存储可以向较晚的加载进行转发。较早意味着较小的VID(例如, 保持在虚拟ID表中)或较小的年龄。如果SA具有VID但没有年龄,则 SA比具有年龄的加载晚。LA/SA的实际年龄在LD/SD分配时被更新,并 被指派LD/SD的相同年龄。如果存储或加载具有实际年龄,则其与实际 年龄相比较,否则使用VID年龄。

应注意的是VID表通过经由存储对应于每个VID唯一标识符的 LA/SA对应的机器ID和机器资源来跟踪LA/SA与LD/SD指令之间的关 联而运行。还应注意的是术语“VID”与术语“QID”是同义词,如在图 2A和图2B的讨论中所描述的。

现在描述图4实施例的操作示例。最初,考虑其中分配指针410最 初为3的情况。V3 LA已在加载队列条目#4中分派和分配。V1 SA和V2 SA 两者都已分派。它们与V3 LA相比较,并且由于V2 SA小于V3 LA且比 V1 SA更接近于V3 LA,所以其潜在地向V3 LA进行转发,并且因此其 更新用于V3 LA加载队列条目的存储初始年龄。

分配指针现在移动至6。V2 SA(#5)的存储实际年龄现在更新V3  LA加载队列条目(因为V2 SA是已被加戳成向此加载进行转发的记录的 存储)。V4 SA现在分派并与加载初始年龄相比较,并且由于V4大于V3 LA,所以其并不进行转发。分配指针现在移动至11。在分配V3 LD时, 其用V3 LD(#7)的实际年龄来更新加载队列条目#4。现在分派V1 SA #11。 由于V3 LA #1现在具有实际年龄但V1 SA #11没有,则加载早于存储, 并且因此转发是不可能的。

预测表用于检测其中默认假设不正确的情况。该默认假设是没有存 储向加载进行转发。一旦针对加载存储对检测到转发,则记录加载存储对 的程序计数器,使得加载将始终等待该存储地址被分配和被计算的地址以 找出该加载地址是否与该存储地址匹配且因此需要从其进行转发。

应注意的是在一个实施例中,本文所述的特征促进给定指令序列中 的在分支之前或在分支范围内的LA/SA的重新排序,其中,允许LD/SD 在不存在LA/SA的情况下进行分派。如果由于分支而跳过LA和SA,或 者由于已引发存储器例外情况而将其忽视,则LD和SD仍可以正确地运 行,因为其包括分派两次所需的信息:第一次作为LA/SA,并且第二次作 为LD/SD。在这种情况下,LD/SD的第一分派是执行地址计算(例如,加 载地址)。随后,同一LD/SD可以再次地分派以满足加载或存储(例如, 加载数据)的消耗部分。可以将此机制称为加载和存储指令的“双重分派”。

应注意的是在一个实施例中,LD/SD的双重分派在对应的经去融合 的LA/SA不存在时发生(例如,如经融合的LD/SD的情况一样),或者 如果由于分支而跳过LA/SA,或者其由于已引发存储器例外情况而被忽视 等。

上述双重分派功能确保LD/SD不依赖于被丢失、忽视和/或跳过 LA/SA而正确地执行。由上述特征提供的益处是由加载/存储指定的数据 的预取读可以通过甚至在存在分支、潜在错误、例外情况等情况下较早地 调度LA/SA而按照程序顺序较早地开始(例如,减少时延)。

图6示出了图示出根据本发明的另一个实施例的用处理器的加载队 列和存储队列资源来实现过程400的规则的方式的另一图。在图6实施例 中,考虑其中分配指针最初为3的情况。V3 LA已在加载队列条目#4中 分派和分配。分配指针现在移动至6。V1和V2(#4,#5)的存储实际年 龄现在用机器ID 2和3来更新对应的SA。V4 SA现在分派并与加载初始 年龄相比较,并且由于V4 SA大于V3 LA,所以其并不转发。分配指针现 在移动至11。在分配V3 LD时,其用V3 LD(#7)的实际年龄来更新加 载队列条目#4。现在分派ID 10的V1LA。

现在分派机器ID 2的V1 SA和机器ID 3的V2SA两者。其与ID 10 的V1 LA相比较,并且由于ID 10的V1 LA不具有机器年龄(其对应的 LD尚未分配),所以虽然机器ID 2的V1 SA和机器ID 3的V2 SA具有 实际年龄,然后已知V1和V2存储比V1更早/更旧。然后,这两个存储 (V2)中最新的一个可以向ID 10的V1进行转发。现在分派SA(V2) #11。由于V1 LA和V2 SA不具有实际年龄,但其VID被用于比较,并且 未检测到转发。分配指针现在移动至16。现在分派ID 16的V4SA,并且 其与ID 10的V1 LA相比较,并且由于V1 LA具有实际年龄但V4 SA不 具有,所以V4 SA比V1 LA晚。因此,不可能从此存储向此较早的加载 进行转发。

图7示出了图示出根据本发明的另一个个实施例的用处理器的加载 队列和存储队列资源来实现过程400的规则的方式的另一图。在图7实施 例中,考虑其中分配指针最初为3的情况。在存储队列条目#4和#5中已 分派并分配V1 SA和V2 SA。分配指针现在移动至6并分派V4 SA。V1 SA 和V2 SA两者都获得其4和5的实际年龄。

分配指针现在移动至11。V3 LA获得7的实际年龄。分派V1 SA #10 V2 SA #11。分派V3 LA且其将其地址与存储队列条目相比较,并且找到 跨V1 SA、V2 SA和V4 SA和V2 SA #11的匹配。由于V3 LA的实际年 龄为7,其将其实际年龄与最接近它的存储年龄相比较,其为5岁,属于 V2 SA,并且因此该加载将从第一存储进行转发,并在加载队列中被这样 标记。

图8示出了根据本发明的一个实施例的其中在加载之后分派存储的 分派功能的概述的过程800的流程图。

过程800在步骤801中开始,其中将存储指令分离成SA和SD。如 先前所述,SA指令随SD指令保持语义以在在分离的SA与刚刚分配的 SD之间不存在VID表中的匹配的情况下允许双重分派。在步骤802中, 将SA重新排序成较早的机器可见程序顺序,并且使用VID表来跟踪SA 以留存原始SD程序顺序。在步骤803中,在分派SA时,针对加载队列 中的所有加载进行检查针对SA的地址匹配。

在步骤804中,在有地址匹配时,通过使用加载和SA的VID号或 者使用加载和存储的实际年龄而比较匹配加载的程序顺序与SA的程序顺 序。这是在图3的讨论中较早图示出的过程。如果存储具有实际年龄但加 载没有,则存储早于加载。如果加载具有实际年龄但存储没有,则加载早 于存储。如果加载或存储任一具有实际年龄,则可以使用虚拟标识符(VID) 来找出哪个较早。如果加载和存储两者都具有实际年龄,则使用实际年龄 来找出哪个较早。如上所述,VID号允许跟踪原始程序顺序及重新排序的 SA和LA。VID表中的条目允许对应的SD和LD在其被分配时变得与指 派给SA和LA的机器资源相关联。

在步骤805中,针对按程序顺序较晚的加载,存储将进行检查以查 看该加载是否已由其他存储向其进行转发。在步骤806中,如果是这样, 则存储检查先前向此加载进行转发的存储的戳以查看该存储是否按照程 序顺序比其本身早。在步骤807中,如果是这样,则存储检查先前向此加 载进行转发的存储的戳以查看该存储是否按照程序顺序比其本身早。在步 骤808中,如果不是,则存储不向此加载进行转发。

图9示出了根据本发明的一个实施例的其中在存储之后加载被分派 的分派功能的概述的过程900的流程图。

在步骤901中,以上述方式将加载指令分离成LA和LD。在步骤 902中,将LA重新排序成较早的机器可见程序顺序并使用VID表来跟踪, 如上所述。作为903的替代,针对存储队列中的所有存储而检查LA针对 加载的地址匹配。

在904中,在有地址匹配时,通过使用加载和SA的VID号或者使 用加载和存储的实际年龄而比较匹配加载的程序顺序与存储的程序顺序。 这是在图3的讨论中较早图示出的过程。如果存储具有实际年龄但加载没 有,则存储早于加载。如果加载具有实际年龄但存储没有,则加载早于存 储。如果加载或存储任一具有实际年龄,则可以使用虚拟标识符(VID) 来找出哪个较早。如果加载和存储两者都具有实际年龄,则使用实际年龄 来找出哪个较早。如上所述,VID号允许跟踪原始程序顺序及重新排序的 SA和LA。随后,在步骤905中,使加载消耗来自按程序顺序最接近于其 自己的程序顺序的存储的数据。

图10示出了根据本发明的一个实施例的统一加载队列的图。虚拟 加载/存储队列的目的是允许处理器在机器中分配比使用其加载/存储队列 的实际物理大小可以容纳的更多的加载/存储。作为回报,这允许处理器 超过其处理器的加载/存储队列的物理大小限制分配除加载/存储之外的其 他指令。即使某些加载/存储在加载/存储队列中仍不具有空间,这些其他 指令仍可以被分派和执行。

随着加载从加载队列退出,加载分派窗口移动至序列中的后续指 令,并且将包括针对与已经从加载队列退出的加载数目等同的分派要考虑 的更多已分配加载。在此图中,加载分派窗口将从左向右移动。

在一个实施例中,加载分派窗口将始终包括与加载队列中的条目的 数目相等的加载数目。在任何时间不能在加载分派窗口之外分派加载。除 加载之外的调度器窗口中的其他指令(例如,Sub、Add等)可以分派。 加载分派窗口内的所有加载可以每当其准备就绪时分派。

图11示出了根据本发明的实施例的示出滑动加载分派窗口的统一 加载队列。图11示出了与图10相比较的后续时刻。随着加载退出加载队 列,加载分派窗口移动至序列中的后续指令,并且将包括针对与已经从加 载队列退出的加载数目等同的分派要考虑的更多已分配加载。加载分派窗 口将始终包括与加载队列中的条目数目相等的加载数目。在任何时间不能 在加载分派窗口之外分派加载。除加载之外的调度器窗口中的其他指令 (例如,Sub、Add等)可以分派。加载分派窗口内的所有加载可以每当 其准备就绪时分派。因此,用此方案获得的一个益处是如果超过加载或存 储队列容量,到调度器的分配不停止,替代地,尽管已超过加载或存储队 列容量,我们继续在调度器内部分配指令,包括加载和存储,加载和存储 动态窗口将确保将不会分派在加载或存储队列的容量之外的加载或存储。

图12示出了根据本发明的一个实施例的分布式加载队列。图12实 施例的目的是实现分布式加载队列和分布式存储队列,其保持单个程序/ 线程连续语义,但仍允许跨多个核心/存储器片段进行加载和存储的乱序 分派。

图12图示出了避免死锁的加载队列扩展解决方案。创建加载/存储 队列的扩展并从引发死锁的加载/存储点(从该点向前)按程序顺序向该 扩展队列分配死锁加载/存储直至加载/存储队列具有可用的自由的条目。 在图12情形中,LD 3加载取决于SD,SD又取决于由于load_Q B已满而 不能被分派的LD 2(具有映射到load_Q B的地址)。在此死锁情形中, 在检测到死锁时,允许LD 1和LD 2按序一个接一个地向预留部分B中 分派和退出。用于分布式加载/存储队列的保守策略是为每个加载/存储预 留每个加载/存储分布式队列中的条目。在此图中,每个分配的加载需要 预留load_Q A中的条目和load_Q B中的另一条目。

应注意的是在分布式加载/存储队列中,存在关于已分配加载/存储 的问题,因为其地址在分配时是未知的。因此,在乱序分派时仅知道给定 加载或存储将占用哪个分布式队列。

本发明的实施例可以采用用于分布式加载/存储队列的三个不同解 决方案来避免关于乱序分派的死锁。

1.在死锁(不具有分派给加载/存储缓冲器的空间)的最早加载/存 储处引发缺失预测和清刷并开始按序分派加载/存储达一段时间,或者通 过其中每个加载/存储在所有分布式队列中分配空间的保守分配。一旦(在 分派时)知道该加载/存储的地址,因此知道将接收该加载/存储的特定加 载队列,其可以将其他队列中的预留空间解除分配。

2.创建加载/存储队列的扩展并用来从引发死锁的加载/存储点按程 序顺序向该扩展队列分配死锁加载/存储(图9)。

3.动态分派窗口大小确定,其中,在连续性窗口之外的未分派加载 的和应小于或等于该特定加载队列中的自由非预留空间的数目(例如,图 11)。

图13示出了根据本发明的一个实施例的具有按序连续性窗口的分 布式加载队列。确定动态分派窗口大小确定,使得在连续性窗口之外的未 分派加载的和应小于或等于该特定加载队列中的自由非预留空间的数目。 每个加载队列将使用如这里所示的其相应分派窗口来跟踪其条目。在任何 时间用于每个加载队列的动态窗口大小=该队列的实际物理大小加虚拟 条目(在这种情况下6+4=10),因此在这种情况下,窗口大小应仅覆 盖10个负载。请注意,不对用于其他队列的负载进行计数(例如,LD 4)。

预留的预订比是3。该预订比是竞争每个预留空间的按序加载的数 目。在本示例中,只有前两个按序未分派加载(从左向右扫描按序连续性 窗口)可以向预留分配进行分派(假设队列的2个条目被分配给预留)。 因此,虚拟条目的数目=(预订比-1)*预留条目的数目=(3-1)*2= 4。

关于按序连续性窗口大小确定,未被分派给加载队列中的条目(被 捕捉空间)的在任何时间的加载数目(从最旧的至最新的进行计数)加到 预留空间的分派加载的数目必须小于或等于(预订比*预留条目的数目)。 在这种情况下,加载的数目必须小于或等于3。该预订比是设计可配置性 能度量,其确定预留空间的已接受(占用VS预订)比是什么。这在最早 的未分派加载不能找到要分派到预留条目外面的队列空间的情况中实行。 在这种情况下,从最早(最旧)加载开始的那些加载将竞争预留空间,预 订比确定多少加载将等待占用每个预留条目,预留条目始终被首先分配给 最旧的未分派加载,并且一旦该加载退出,则下一个最旧加载可以占用条 目(预订比确定从所分派的最旧的一个开始一个接一个地占用预留条目的 那些加载的数目)。

应注意的是在一个实施例中,来自每个队列的按序连续性窗口的加载 可以在该队列的未预留部分中未留下空间(按序从最旧加载开始)时向该 队列的预留空间进行分派。还应注意的是在一个实施例中,在任一队列的 按序连续性窗口外面和在该队列的动态分派窗口内的加载不能向该队列 的预留部分进行分派。

还应注意的是只要在队列的未预留部分中存在空间,该队列的整个 动态分派窗口内的任何加载就可以向任何分布式队列的未预留部分的任 何条目进行乱序分派。每个循环调整任一队列的按序连续性窗口和动态分 派窗口两者的大小以反映每个加载分派或退出之后的在上文提供的等式 中所述的其大小限制。

图14示出了根据本发明的一个实施例的用于多核处理器的分段存 储器子系统的图。图13示出了线程之间和/或一般地加载和存储之间的同 步方案的全面方案和实现。该方案描述跨加载/存储架构和/或跨存储器引 用和/或线程的存储器访问的存储器引用的同步和消歧的优选方法。在图 15中,示出了寄存器堆(地址和或数据寄存器)的多个分段以及执行单元、 地址计算单元和1层高速缓存和/或加载存储缓冲器的片段和/或2层高速 缓存和地址寄存器互连1200和地址计算单元互连1201。那些分段元素可 以通过将其集中式资源分段并分布到多个引擎中而在一个核心/处理器内 构造,或者其可由采取多核心/多处理器配置的不同核心/处理器的元件构 成。那些片段1211中的一个在图中被示为片段1号;可以将片段按比例 缩放至大的数目(一般地至N个片段,如图中所示)。

这种机制还充当用于那些引擎/核心/处理器之间的存储器架构的相 干性方案。此方案通过来自一个片段/核心/处理器中的地址计算单元中的 一个的地址请求开始。例如,假设由片段1(例如,1211)请求地址。其 可以使用属于其自己的片段的地址寄存器和或使用地址互连总线1200根 据跨其他片段的寄存器来获得并计算其地址。在计算该地址之后,其创建 用来访问高速缓存和存储器的32位地址或64位地址的引用地址。此地址 通常被分段成标签字段及设定和线路字段。此特定片段/引擎/核心将把地 址存储到其加载存储缓冲器和/或L1和/或L2地址阵列1202中,同时其将 通过使用压缩技术来创建标签的压缩版本(具有比地址的原始标签字段更 小的位数)。

此外,不同的片段/引擎/核心/处理器将使用设定字段或设定字段的 子集作为索引来识别地址被保持在哪个片段/核心/处理器中。由地址设定 字段位进行的此片段编索引确保不包括特定片段/核心/引擎中的地址的所 有权,即使对应于该地址的存储器数据可以存在于另一或多个其他片段/ 引擎/核心/处理器中。即使在每个片段中将地址CAM/标签阵列1202/1026 示为与数据阵列1207耦合,其也可能仅在放置和布局的物理接近区域中 被耦合,或者甚至由于两者都属于特定引擎/核心/处理器但在保持在地址 阵列的地址与一个片段内部的数据阵列中的数据之间不存在关系的事实。

图15示出了如何由本发明的实施例来处理加载和存储的图。如图 15中所描绘的,每个片段与其加载存储缓冲器和存储退出缓冲器相关联。 针对任何给定片段,指定与该片段或另一片段相关联的地址范围的加载和 存储被发送到该片段的加载存储缓冲器以用于处理。应注意的是其可随着 核心乱序执行指令而乱序到达。在每个核心内,核心不仅可访问其自己的 寄存器堆,而且可访问其他核心的寄存器堆中的每一个。

本发明的实施例实现分布式加载存储排序系统。该系统跨多个片段 分布。在片段内,由该片段来执行本地数据相关性检查。这是因为该片段 仅在该特定片段的存储退出缓冲器内加载和存储。这限制了必须注意其他 片段以保持数据相干性的需要。以这种方式,本地地执行片段内的数据相 关性。

关于数据一致性,存储分派门根据严格的按程序顺序存储器一致性 规则来强制执行存储退出。存储乱序到达加载存储缓冲器处。加载也乱序 到达加载存储缓冲器处。同时,乱序加载和存储被转发到存储退出缓冲器 以用于处理。应注意的是虽然存储在给定片段内按序退出,但随着其转到 存储分派门,其可以乱序从多个片段出来。存储分派门强制执行这样的策 略,即确保即使存储可乱序跨存储退出缓冲器而驻留,并且即使缓冲器可 相对于其他缓冲器的存储乱序将存储转发到存储分派门,分派门也确保其 被严格地按序转发到片段存储器。这是因为存储分派门具有存储退出的全 局视图,并且仅允许存储跨所有片段、例如全局地按序离开至存储器的全 局可见侧。以这种方式,存储分派门充当全局观察者以确保存储最终跨所 有片段按序返回到存储器。

图16示出了根据本发明的一个实施例的存储过滤算法的图。图16 实施例的目的是过滤存储以防止所有存储必须针对加载队列中的所有条 目进行检查。

存储针对地址匹配而嗅探高速缓存以保持相干性。如果线程/核心X 加载从高速缓存线进行读取,则其标记其从那里加载数据的高速缓存线的 部分。在另一线程/核心Y存储嗅探高速缓存时,如果任何此类存储与该 高速缓存线部分重叠,则针对线程/核心X的该加载引发缺失预测。

用于过滤这些嗅探的一个解决方案是跟踪加载队列条目的引用。在 这种情况下,存储不需要嗅探加载队列。如果存储具有与访问掩码的匹配, 则从引用跟踪符获得的加载队列条目将引发该加载条目进行缺失预测。

在另一解决方案(其中不存在引用跟踪符)中,如果存储与访问掩 码具有匹配,则该存储地址将嗅探加载队列条目并将引发匹配的加载条目 进行缺失预测。

用两个解决方案,一旦加载从高速缓存线进行读取,其设定相应的 访问掩码位。当该加载退出时,其将该位重置。

图17示出了根据本发明的一个实施例的具有组成从存储器按序进 行读取的存储器一致性模型中的乱序加载的信号量实现方式。本文所使用 的术语信号量指的是为多个线程/核心提供对公共资源的访问控制的数据 构造。

在图17的实施例中,使用访问掩码来控制由多个线程/核心对存储 器资源的访问。访问掩码通过跟踪高速缓存线的哪些字具有待决加载而运 行。乱序加载在访问高速缓存线的字时设定掩码位,并在该加载退出时清 除掩码位。如果来自另一线程/核心的存储在设定掩码位的同时向该字进 行写入,则其将用信号通知对应于该加载的加载队列条目(例如,经由跟 踪符)以被缺失预测/清刷或用其从属指令重试。访问掩码还跟踪线程/核 心。

以这种方式,访问掩码确保正确地实现存储器一致性规则。存储器 一致性规则规定对于此信号量而言存储按序更新存储器且加载按序从存 储器读取以跨两个核心/线程工作。因此,由核心1和核心2执行的代码 将被正确地执行,其中,其两者都访问存储器位置“标志”和“数据”。

图18示出了根据本发明的一个实施例的通过使用基于锁的模型和 基于事务的模型两者而组成针对存储器进行按序读取的加载的到存储器 一致性模型中的乱序加载。

如上所述,存储器一致性规则规定存储按序更新存储器且加载按序 引用存储器以便两个核心/线程适当地进行通信。在图18中的右侧底部, 示出了两个核心,核心1和核心2。使用两个存储器资源,标志和数据, 实现通信并正确地在核心1与核心2之间共享数据。例如,当核心1想要 将数据传递至核心2时,如核心1内的代码所指示的,其将存储数据且然 后设定标志。如核心2内的代码所指示的,核心2将加载标志并检查标志 是否等于1。如果标志不等于1,则核心2将向后转移并保持检查标志直 至其确实等于1。在该时间点处,其将加载数据。

用其中加载和存储乱序执行的乱序架构,可以使用基于锁的存储器 一致性模型来确保两个实体(例如,核心1和核心2)保持按序存储器一 致性语义。这通过使用访问掩码、线程ID寄存器以及跟踪符寄存器而示 出。通过在代码的关键段内设置任何加载的对应访问掩码位来设定该锁。 如果发生从另一线程/核心到该高速缓存线字的任何访问,则锁将阻止该 访问。在一个实施例中,这可以通过将访问示为缺失来实现。当该锁被清 除时,允许对该字的访问。

替换地,可以使用基于事务的方法来保持按序存储器一致性语义。 用基于事务的方法,通过设置事务内的任何加载的对应访问掩码位来设定 原子数。如果在设定掩码位的同时发生从另一线程/核心或并行事务到该 高速缓存线的任何访问,则其将用信号通知对应于该加载的加载队列条目 (例如,经由跟踪符)以被缺失预测/清刷或用其从属指令重试。访问掩 码还跟踪线程/核心。当该事务结束时,掩码位将被清除。使用线程ID寄 存器来跟踪哪个线程正在访问统一存储队列条目的哪个字。

图19示出了根据本发明的一个实施例的多核分段存储器子系统的 多个核心。本实施例示出了将如何防止来自多核分段存储器子系统内的加 载访问被标记为进行中的事务的一部分(例如,看类似于锁定情况)的字。

应注意的是如果此多核分段子系统是较大集群的一部分,则存在具 有共享存储器子系统的外部处理器/核心/集群。在这种情况下,属于其他 外部处理器/核心/集群的加载将继续进行且将不会被防止从任何存储器位 置进行加载,无论该存储器位置是否是事务访问的一部分。然而,所有加 载将对访问掩码进行标记以通知作为事务的一部分的未来存储。

来自其他处理器的嗅探存储将其地址与掩码相比较。如果存储见到 其正在尝试存储的地址在来自另一线程加载(作为事务的一部分的加载) 的访问掩码中被标记,则存储将引发该加载被缺失预测。否则,将在该加 载退出时清除该标记(例如,由此完成事务)。

图20示出了根据本发明的一个实施例的访问统一存储队列的异步 核心的图,其中存储可以基于存储资历而将数据转发到任一线程中的加 载。

如上所述,存储器一致性规则规定存储按序更新存储器且加载按序 从存储器进行读取,使得核心/线程适当地进行通信。在图20中的右侧底 部,示出了两个核心,核心1和核心2。两个核心是异步的,并执行在每 个核心内所指示的代码以访问标志和数据存储器资源。

在图20的实施例中,统一存储队列对于可以访问它的多个线程中 的任何线程而言是不可知的。在本实现方式中,来自不同线程的存储可以 向不同线程的加载进行转发,而同时通过遵循一组算法规则而仍保持按序 存储器一致性语义。线程可以基于存储资历而从彼此进行转发。

当在同一线程中的在一存储的前面的所有加载和存储都已被执行 时,该存储是资深的。从另一线程接收到转发的线程不能独立地退出加载 /存储。线程必须在它们从其接收到转发的其他线程已进行缺失预测的情 况下有条件地进行缺失预测。特定加载可以从同一线程转发存储或从不同 的线程资深存储进行转发,如果在同一线程内不存在向其进行转发的存储 的话。

用图20方法,通过设置对统一存储队列条目中的字内的字节的任 何访问的对应访问掩码位来设定原子数。如果在设定掩码位的同时发生从 另一线程/核心或并行事务到该存储队列条目的任何访问,则其将用信号 通知对应于该加载的加载队列条目(例如,经由跟踪符)以被缺失预测/ 清刷或用其从属指令重试。访问掩码还跟踪线程/核心。当该事务结束时, 掩码位将被清除。

图21示出了根据本发明的一个实施例的描绘其中存储具有资历的 功能的图。如图21中所描绘的,特定加载将从同一线程转发存储进行转 发。如果不存在来自线程内的传送,则其可以从不同的线程资深存储进行 转发。此原理在其中多个核心/线程正在访问共享存储器的情况下起作用。 在这种情况下,存储可以基于存储资历从任一线程向来自任一线程的加载 进行转发,然而,只有当不存在从线程内向特定加载的转发时。当在同一 线程中的在一存储前面的所有加载和存储都已被执行时,该存储是资深 的。

另外,应注意的是线程不能独立地退出加载/存储。线程在它从其接 收到转发的另一线程进行存储缺失预测或清刷时必须进行加载缺失预测。

图21直观地描述了两个异步核心/线程(例如,核心/线程1和核心 /线程2)之间的执行的示例性流。线2101—2105示出了存储基于其资历 而向不同的加载进行转发的方式。为了帮助举例说明资历如何从存储向存 储进展,紧挨着每个指令示出了数字以示出随着其从0进展至14的执行 的不同阶段。特别地,根据上述规则,应注意线2103所指示的存储向同 一线程内的加载进行转发的方式。因此,如上所述,从其自己的线程内进 行转发的加载不能从任何相邻线程进行转发。这用跨转发线的黑色十字形 示出。

图22示出了非推测性的根据本发明的一个实施例的未消歧乱序加 载存储队列退出实现方式(例如,提供低功率、低裸片面积以及较低的定 时紧迫性)。

加载退出/重新排序缓冲器(SRB)可以以两个实现方式、退出实现 方式和重新排序实现方式进行操作。

在退出实现方式中,在存储退出时按照原始程序顺序从存储队列将 存储加载到SRB中,使得按照原始程序顺序较早的存储在SRB的顶部处。 后续加载然后寻找地址匹配(例如,使用地址CAM),并从SRB/存储高 速缓存中的匹配条目进行转发。在其中存在两个或更多地址匹配的情况 下,优先级编码器可以通过扫描第一个来定位正确的转发条目。这节省了 到存储器的转移并允许机器向前继续进行。如果分派了加载且向其进行转 发的存储已退出到SRB/存储高速缓存,则该加载从SRB/存储高速缓存进 行转发并将配对关系记录在预测表中。为了检测其中在向加载进行转发的 存储退出到SRB/存储高速缓存之前分派加载的情况,加载必须创建地址 掩码,其在那里标记其自己的地址。这可以以不同的方式来实现(例如, 图17的实施例)。

如上文所讨论的,图17描述访问掩码,其通过跟踪高速缓存线的 哪些字具有待决加载而运行。乱序加载在访问高速缓存线的字时设定掩 码,并在该加载退出时清除掩码位。如果来自同一线程/核心的存储在其 退出时检测到其在掩码位被设置的同时向该字进行写入,则其将用信号通 知对应于该加载的加载队列条目(经由跟踪符)以被缺失预测/清刷或用 其从属指令重试。访问掩码还跟踪线程/核心。

图22是非消歧加载存储队列,因为其不包括用以将乱序加载和存 储消歧的对应硬件的事实。加载和存储根据机器资源允许而乱序分派。传 统上,在加载队列和存储队列两者中使用地址匹配和对应的消歧硬件以确 保正确的存储队列条目被转发到请求加载队列条目,如上所述(例如,图 5和图6)。加载队列和存储队列的内容对外面的核心/线程不可见。

在图22中,分派的加载和存储地址并未相对于存储队列或加载队 列中的条目而被消歧。加载/存储队里现在是具有减小的裸片面积、功率 消耗以及定时要求的改进的缓冲器实现方式。SRB将执行消歧功能。在 SRB中检测到第一匹配时,使用那些匹配来填充存储至加载转发预测表中 的条目以随着指令序列的执行向前进行而强制执行转发。

在加载被分派时,其检查预测表以查看其是否与对应的存储配对。 如果加载被配对且该特定存储已被分派,则加载将从在预测表中记录的该 存储队列条目号进行转发。如果该存储尚未被分派,则加载将其加载队列 条目号寄存在预测表中并将在加载队列中标记其本身以等待存储数据被 转发。当稍后分派存储时,其检查预测表以获得加载队列条目号并向该加 载进行转发。

一旦针对加载存储对检测到转发,则记录加载存储对的PC和地址, 使得地址匹配被验证。如果地址匹配,则加载将不会分派直至存储数据被 分派,并且该加载将被标记为从其进行转发。使用预测阈值来设置加载存 储对之间的转发关系中的置信度水平。

图23示出了根据本发明的一个实施例的未消歧乱序加载存储队列 重新排序实现方式的重新排序实现方式。图23还提供非推测性的低功率、 低裸片面积以及较低的定时紧迫性。

加载退出/重新排序缓冲器(SRB)可以以两个实现方式、退出实现 方式和重新排序实现方式进行操作。

在图23的重新排序实现方式中,从存储队列将存储地址乱序加载 到SRB中(例如,根据资源允许)。在分配每个存储时,其接收序列号。 SRB然后通过根据它们的序列号将存储重新排序而运行,使得它们按照原 始程序顺序而驻留于SRB中。按照程序顺序较早的存储在SRB的顶部处。 后续加载然后寻找地址匹配和分配年龄(在加载和存储的分配时间给定的 程序顺序序列号)。随着加载被分派,其查看SRB,如果其见到尚未分派 (尚无地址计算)的较早存储(与其自己的序列号相比),则可以实现两 个解决方案中的一个。

1.加载不分派,其在其将其本身分派之前等到所有较早存储都已分 派。

2.加载分派并在高速缓存的访问掩码中标记其地址(如图17中所 示)。后续存储检查访问掩码并遵循相同的方法,如图17中所描述的。

应注意的是优先级编码器如上所述地运行以定位正确的转发条目。

图24示出了根据本发明的一个实施例的指令序列(例如,踪迹) 重新排序的推测性执行实现方式。在推测性模式下,存储在存储退出时按 照原始程序顺序从存储队列移动至SRB中,使得按照原始程序顺序较早 的存储在SRB的顶部处。后续加载然后寻找地址匹配(例如,使用地址 CAM),并从SRB/存储高速缓存中的匹配条目进行转发。在其中存在两 个或更多地址匹配的情况下,优先级编码器可以通过扫描第一个来定位正 确的转发条目。这允许机器向前继续进行。如果分派了加载(其第一次检 查SRB))且向其进行转发的存储退出到SRB/存储高速缓存,则该加载 从SRB/存储高速缓存进行转发并将其配对关系记录在预测表中。为了检 测其中在向加载进行转发的存储退出到SRB/存储高速缓存之前分派加载 的情况,退出时的加载将再一次检查存储队列。如果加载发现转发存储匹 配,则其将用信号通知对应于该加载的加载队列条目以使其被缺失预测/ 清刷或用其从属指令进行重试。转发预测器将从此缺失转发进行学习。

应注意的是加载将能够针对先前的存储在SRB中检查匹配地址, 因为并非SRB中的所有存储都将被提交给外部高速缓存/存储高速缓存架 构上可见状态(将SRB存储装置留给可见存储器)直至包括所述加载的 踪迹中的所有指令都已达到踪迹提交(commit)状态(例如,全部变成非 推测性的且踪迹整体上准备好提交)。

存储退出/重新排序缓冲器在功能上启用推测性执行。可以将推测性 执行的结果保存在存储退出/重新排序缓冲器中直至已知推测性结果。推 测性结果并不是在架构上可见的。一旦提交推测性状态,则可以将存储提 交到存储高速缓存。在提交该状态之前,需要重新尝试的任何例外或加载 和存储将用信号通知将防止状态提交的例外或缺失预测。存储与对应的加 载之间的转发缺失预测可以是固定的(例如,通过引发在缺失=转发加载 点处清刷机器的缺失预测等)。

在2012年1月27日由Mohammad Abdallah提交的代理人档案号 SMII-033、“HARDWARE ACCELERATION COMPONENTS FOR  TRANSLATING GUEST INSTRUCTIONS TO NATIVE INSTRUCTIONS” 的美国专利申请13/360,024中可以找到SRB功能的附加描述。

图25示出了根据本发明的一个实施例的示例性微处理器管线2500 的图。微处理器管线2500包括取读模块2501,其实现用于识别并提取包 括执行的指令的过程的功能,如上所述。在图25的实施例中,取读模块 后面是解码模块2502、分配模块2503、分派模块2504、执行模块2505 和退出模块2506。应注意的是微处理器管线2500仅仅是实现上述本发明 的实施例的功能的管线的一个示例。本领域的技术人员将认识到可以实现 包括上述解码模块的功能的其他微处理器管线。

出于说明的目的,前述描述参考并不意图为穷举的或限制本发明的 特定实施例。根据以上讲授内容,可以有许多修改和变更。选择和描述实 施例是为了最好地解释本发明的原理及其实际应用,从而使得本领域的技 术人员在有和适合于其特定使用的各种修改的情况下最好地利用本发明 及其各种实施例。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号