首页 / 专利库 / 资料储存系统 / 高速缓冲存储器 / Procédé et dispositif pour gérer les conflits posés par des accès multiples à un même cache d'un système de traitement numérique de l'information comprenant au moins deux processeurs possédant chacun un cache

Procédé et dispositif pour gérer les conflits posés par des accès multiples à un même cache d'un système de traitement numérique de l'information comprenant au moins deux processeurs possédant chacun un cache

阅读:947发布:2023-12-03

专利汇可以提供Procédé et dispositif pour gérer les conflits posés par des accès multiples à un même cache d'un système de traitement numérique de l'information comprenant au moins deux processeurs possédant chacun un cache专利检索,专利查询,专利分析的服务。并且L'invention a pour objet un procédé et un dispositif pour augmenter la rapidité des tâches exécutees par un système da traitement numérique de l'information. Soit un système possédant au moins deux processeurs (CPU1, CPU2) possédant chacun un cache (C1, C2) ayant une partie répertoire (DY1, DY2) et une partie mémoire M1, M2). Un processeur (CPU1) exécute une tâche en émettant des requêtes internes pour son cache qui peut recevoir une requête dénommée externe venant de l'autre processeur (CPU2) qui traite lui-même une tâche. Pour éviter un conflit entre le traitement simultané d'une requête interne et d'une requête externe par un même cache (C1), une requête peut agir sur l'autre en retardant sa validation ou en suspendant son traitement, dès l'instant où ces requêtes désirent travailler simultanément sur la partie répertoire (DY1) ou la partie mémoire (M1) du cache (C1) du processeur (CPU1) concerné par ces requêtes.
L'invention s'applique notamment à des systèmes multiprocesseurs.,下面是Procédé et dispositif pour gérer les conflits posés par des accès multiples à un même cache d'un système de traitement numérique de l'information comprenant au moins deux processeurs possédant chacun un cache专利的具体信息内容。

1. Procédé pour gérer les conflits posés par des accès multiples à un même cache d'un système de traitement numérique de l'information comprenant au moins : une unité de mémoire principale(MMU), deux processeurs (CPU1 ; CPU2) possédant chacun des ressources propres telles qu'un cache (Cl ; C2) avec une partie mémoire (Ml ; M2) et une partie répertoire (DY1 ; DY2) d'identification des informations contenues dans ladite partie mémoire, une unité d'entrée-sortie (IOC), un bus principal de liaison (UMI) reliant ces différents éléments du système ; le traitement d'une tâche par un processeur consistant :- à émettre au moins une requête (ACRQ) pour accéder à au moins une information présente soit dans le cache du processeur ou d'un autre processeur, soit dans l'unité de mémoire (MMU) du système,- à faire valider cette requête par son cache qui considère cette requête comme interne (ACRQ), et- à faire exécuter ensuite cette requête interne (ACRQ) par ledit cache,
ce cache pouvant recevoir une requête (BMRQ) dénommée externe émise par un autre processeur du système traitant une autre tâche et demandant l'accès, par l'intermédiaire du bus de liaison (UMI), à au moins une information, caractérisé en ce que pour éviter un conflit entre les traitements d'une requête interne (ACRQ) et d'une requête externe (BMRQ) par un même cache, tout en favorisant le traitement simultané de ces requêtes, le procédé consiste :- à faire valider par le système une requête externe (BMRQ) émise par un processeur et s'adressant notamment à un autre cache du système,- à faire prendre en compte cette requête externe (BMRQ), une fois validée par tous les autres caches du système,- à faire analyser cette requête externe (BMRQ) par lesdits autres caches,- à faire traiter cette requête externe (BMRQ) par le cache concerné par cette requête externe,- à autoriser le traitement simultané par ledit cache concerné d'une requête interne (ACRQ) et d'une requête externe (BMRQ) tant que ces requêtes s'adressent à des ressources différentes du processeur telles que la partie mémoire et la partie répertoire, de son cache et- à interrompre le traitement en cours d'une requête interne (ACRQ) ou à interdire la validation d'une requête interne (ACRQ), si le traitement en cours d'une requête externe (BMRQ) nécessite l'ensemble des ressources dudit processeur concerné, ou- à interrompre le traitement en cours d'une requête externe (BMRQ) ou à retarder la validation d'une requête externe (BMRQ), si le traitement en cours d'une requête interne (ACRQ) nécessite l'ensemble des ressources dudit processeur concerné.
2. Procédé selon la revendication 1, caractérisé en ce que l'éxécution d'une requête interne (ACRQ) ou d'une requête externe (BMRQ) par un cache d'un processeur du système consiste :- à traiter une succession d'opérations de lecture et d'écriture au cours d'une succession de cycles (io,...,in) définis par le processeur,- à lancer le premier de ces cycles (io) de traitement à l'apparition d'une requête interne (ACRQ) validée ou d'une requête externe (BMRQ) validée,- à valider au cours du premier cycle de traitement (io) soit une requête interne (ACRQ), soit une requête externe (BMRQ), et à donner priorité à la validation d'une requête externe (BMRQ) sur une requête interne (ACRQ) lorsque ces requêtes demandent à être prises en compte simultanément par un même cache, et- à autoriser le traitement simultané de ces requêtes au cours des cycles suivants si elles font appel à des ressources différentes du cache du processeur.'3. Procédé selon la revendication 2, caractérisé en ce que, au début de chaque cycle de traitement (io,..., in) et afin de déterminer, en fonction de l'état du système, si les conditions sont requises soit pour exécuter l'opération de traitement suivante d'une requête interne (ACRQ) ou pour valider une nouvelle requête interne (ACRQ), soit pour exécuter l'opération de traitement suivante d'une requête externe (BMRQ) ou pour valider une nouvelle requête externe (BMRQ), le procédé consiste :- à inclure dans lesdites conditions, soit pour l'opération de traitement suivante d'une requête interne (ACRQ), soit pour la validation d'une nouvelle requête interne (ACRQ), au moins une condition de validation fonction de la nature de l'opération demandée par le traitement d'une requête externe (BMRQ) alors en cours, et- à inclure dans lesdites conditions, soit pour l'opération de traitement suivante d'une requête externe (BMRQ), soit pour la validation d'une nouvelle requête externe (BMRQ), au moins une condition de validation fonction de la nature de l'opération demandée par le traitement d'une requête interne (ACRQ) alors en cours.4. Procédé selon la revendication 3, caractérisé en ce qu'il consiste à 'retarder au début d'un cycle de traitement l'opération de traitement suivante d'une requête interne (ACRQ) et interrompre ainsi cette requête interne (ACRQ), notamment dans le cas d'une demande d'accès au bus de liaison (UMI) du système, si celui-ci est déjà occupé ou si la requête externe (BMRQ) alors en cours a réservé les ressources du cache comme par exemple sa partie mémoire et sa partie répertoire pour éviter un conflit d'accès simultané à ces ressources.5. Procédé selon la revendication 3, caractérisé en ce qu'il consiste à retarder au début d'un cycle, de traitement, la validation d'une requête interne (ACRQ) concernant une opération de lecture d'une information du cache du processeur émetteur de ladite requête interne (ACRQ), si une requête externe (BMRQ) validée travaille sur la partie répertoire ou la partie mémoire du cache du processeur.6. Procédé selon la revendication 3, caractérisé en ce qu'il consiste à retarder, au début d'un cycle de traitement, la validation d'une requête interne (ACRQ) concernant une opération d'écriture d'une information contenue dans le cache du processeur, si une requête externe (BMRQ) validée travaille déjà sur la partie mémoire ou la partie répertoire du cache du processeur, ou va travailler sur la partie mémoire ou la partie répertoire du cache dans le cycle de traitement suivant.7. Procédé selon la revendication 3, caractérisé en ce qu'il consiste à retarder la validation d'une nouvelle requête externe (BMRQ), si la nature de l'opération demandée alors par le traitement d'une requête interne(ACRQ) est une opération de transfert de données sur le bus de liaison (UMI) entre le cache du processeur émetteur de la requête interne (ACRQ) et l'unité de mémoire principale (MMU) du système.8. Procédé selon la revendication 3, caractérisé en ce qu'il consiste à interrompre au début d'un cycle de traitement, l'opération de traitement suivante d'une requête externe (BMRQ), si cette opération de traitement concerne la partie mémoire du cache alors qu'une requête interne (ACRQ) travaille déjà sur cette partie mémoire du cache du processeur.9. Dispositif pour la mise en oeuvre du procédé tel que défini selon l'une des revendications précédentes, dans un système comprenant au moins : une unité de mémoire principale (MMU), deux processeurs (CPU1 ; CPU2) dont chacun possède des ressources propres telles qu'un cache (Cl ; C2) ayant une partie mémoire (Ml ; M2) et une partie répertoire (DY1 ; DY2) d'identification des informations contenues dans ladite partie mémoire, caractérisé en ce que chaque cache (CPU1 ; CPU2) du système comprend :- des premiers moyens (IS) pour assurer la synchronisation entre les différentes opérations exécutées par le cache pour assurer le traitement d'une requête interne émise par le processeur associé à ce cache,- des seconds moyens(XS) pour assurer la synchronisation entre les différentes opérations exécutées par ledit cache pour assurer le traitement d'une requête externe émise par un autre processeur du système,- des troisièmes moyens (Ie) pour assurer un dialogue depuis lesdits seconds moyens (XS) vers lesdits premiers moyens (IS), par l'émission de signaux susceptibles d'interrompre le fonctionnement desdits premiers moyens (IS), et- des quatrièmes moyens (Ii) pour assurer un dialogue depuis lesdits premiers (IS) vers lesdits seconds moyens (XS), par l'émission de signaux susceptibles d'interrompre le fonctionnement desdits seconds moyens (XS).10. Dispositif selon la revendication 9, caractérisé en ce que lesdits premiers moyens (IS) comprennent une série de bascules (Bil,... Bin) montées en série, une horloge (H) émettant des tops d'horloge récurrents reçus par lesdites bascules (Bil,... Bin) et définissant une succession de cycles, un circuit de validation (Vil,... Vin) associé à chaque bascule pour valider l'ordre de basculement de ladite bascule associée, des circuits de commande (Ti) dénommés internes dont les sorties sont reliées à chacun desdits circuits de validation (Vil,...Vin) pour déterminer les conditions de basculement de chaque bascule en fonction de l'opération à traiter par le cache.11. Dispositif selon la revendication 9 ou 10, caractérisé en ce que lesdits seconds moyens (XS) comprennent une série de bascules (Bel,...Bem) montées en série et recevant les tops de l'horloge (H) précitée, un circuit de validation (Vel,... Vem) associé à chaque bascule pour valider l'ordre de basculement de ladite bascule associée, des circuits de commande (Te) dénommés externes dont les sorties sont reliées à chacun desdits circuits de validation (Vel,... Vem) pour déterminer les conditions de basculement de chaque bascule en fonction de l'opération à traiter par le cache.12. Dispositif selon l'une des revendications 9 à 11, caractérisé en ce que lesdits troisièmes moyens (Ie) comprennent un premier circuit de demande d'interruption (Ie) de fonctionnement desdits premiers moyens de synchronisation (IS) affectés au traitement d'une requête interne, au moins une sortie dudit premier circuit de demande d'interruption (Ie) étant reliée à une entrée de chaque circuit de validation (Vil,... Vin) desdits premiers moyens (IS).13. Dispositif selon l'une des revendications 9 à 12, caractérisé en ce que lesdits quatrièmes moyens (Ii) comprennent un second circuit de demande d'interruption (Ii) de fonctionnement des seconds moyens de synchronisation (XS) affectés au traitement d'une requête externe, au moins une sortie dudit second circuit de demande d'interruption (Ii) étant reliée à une entrée de chaque circuit de validation (Vel,... Vem) desdits seconds moyens (XS).
说明书全文

La présente invention concerne généralement et a essentiellement pour objet un procédé et un dispositif pour gérer les conflits posés par des accès multiples à un même cache d'un système de traitement numérique de l'information comprenant au moins deux processeurs possédant chacun un cache, tout en favorisant ces accès multiples afin d'autoriser le traitement simultané d'au moins deux tâches exécutéeL par deux processeurs du système respectivement, dès l'instant où l'éxécution de ces tâches font appel au même cache d'un processeur.

A l'heure actuelle, des caches ou mémoires de faible capacité à accès rapide sont incorporés dans les systèmes de traitement de l'information pour diminuer les temps de transfert des données. Cependant, les systèmes multiprocesseurs ne comprennent qu'un seul cache par unité de mémoire principale. Comme pour les mémoires, il se pose le problème des accès multiples à un même cache.

Ce problème est généralement résolu par des files d'attente gérées par des circuits de priorité par exemple. Dans tous les cas, ces temps d'attente se répercutent sur les temps de traitement sans autoriser des accès multiples à un même cache.

Selon une autre conception utilisée par la demanderesse, l'utilisation des caches a été décentralisée au-delà des unités de mémoire principale, en associant un cache à chaque processeur du système. Cette conception est mentionnée dans un article intitulé "Performance results for an m.i.m.d. computer organisation using pipelined binary switches and cache memories" paru dans la revue anglaise "PROC. IEE", vol. 125, n° 11, novembre 1978.

Cependant, cet article ne pose pas et ne résoud pas le. problème de la cohérence des informations enregistrées dans les différents caches et dans .la ou les unités de mémoire principale du système, problème qui, par contre, a été posé et résolu par la demanderesse selon une stratégie décrite dans sa demande de brevet français n° 78 20 206 du 6 juillet 1978.

Ce problème de la cohérence des informations ne résoud pas pour autant le problème posé par des accès multiples à un cache d'un même processeur, et c'est justement l'objet de l'invention que de gérer ces accès multiples dans le but d'éviter des conflits, tout en favorisant ces accès multiples afin d'augmenter la rapidité des traitements simultanés de plusieurs tâches exécutées par plusieurs processeurs respectivement.

Lorsqu'un processeur d'un système de traitement numérique de l'information traite une tâche, il est amené à dialoguer notamment avec l'ensemble mémoire du système comprenant au moins une unité de mémoire principale et les ressources propres du processeur telles que son cache. Ce dialogue donne lieu à l'émission par le processeur de requêtes demandant l'accès à des informations contenues dans l'ensemble mémoire du système. Le traitement de ces requêtes fait appel en priorité aux ressources propres du processeur, et éventuellement ensuite au reste du système par l'intermédiaire du bus principal de liaison reliant les différentes unités du système.

Lorsque le système comprend au moins un second processeur, celui-ci est également amené à émettre des requêtes pour accéder à des informations au cours du traitement d'une tâche. Tant que les deux processeurs du système font appel à leurs propres ressources, il n'y a pas de conflit entre les traitements des tâches exécutées par ces processeurs.

Cependant, au cours du traitement d'une requête, le processeur émetteur de cette requête peut être amené à demander l'accès à une information non contenue dans son propre cache. Il fait donc appel au reste du système, par l'intermédiaire du bus de liaison, pour accéder à une information contenue soit dans l'unité de mémoire principale, soit dans le cache du second processeur du système ou plus généralement dans un autre cache d'un processeur du système par exemple, lorsque l'information recherchée a été modifiée dans ledit cache, sans que son image en mémoire principale ait été déjà modifiée, selon la stratégie décrite dans la demande de brevet précitée. Cet autre cache peut être lui-même en cours de traitement d'une requête dénommée interne si elle est émise par le processeur associé à ce cache, lorsqu'il reçoit une demande d'accès aux informations qu'il détient, demande issue d'un processeur voisin et qu'il considère comme une requête dénommée externe dès l'instant où cette requête n'est pas émise par son processeur associé.

Dans ces conditions, au niveau de l'un des caches du système peut se présenter un conflit entre le traitement d'une requête interne émise par le processeur associé et le traitement d'une requête externe émanant d'un autre processeur du système.

L'invention a donc pour but de gérer ce type de conflit tout en favorisant l'exécution simultanée d'une requête interne et d'une requête externe par un même cache du système.

A cet effet, l'invention propose donc un procédé pour gérer les conflits posés par des accès multiples à un même cache d'un système de traitement numérique de l'information comprenant au moins : une unité de mémoire principale, deux processeurs possédant chacun des ressources propres telles qu'un cache avec une partie mémoire et une partie répertoire d'identification des informations contenues dans ladite partie mémoire, une unité d'entrée-sortie, un bus principal de liaison reliant ces différents éléments du système ; le traitement d'une tâche par un processeur consistant :

  • - à émettre au moins une requête pour accéder à au moins une information présente soit dans le cache du processeur ou d'un autre processeur, soit dans l'unité de mémoire du système,
  • - à faire valider cette requête par son cache qui considère cette requête comme interne, et
  • - à faire exécuter ensuite cette requête interne par ledit cache ; ce cache pouvant recevoir une requête dénommée externe émise par un autre processeur du système traitant une autre tâche et demandant l'accès, par l'intermédiaire du bus de liaison, à au moins une information, caractérisé en ce que, pour éviter un conflit entre les traitements d'une requête interne et d'une requête externe par un même cache, tout en favorisant le traitement simultané de ces requêtes, le procédé consiste :
  • - à faire valider par le système une requête externe émise par un processeur et s'adressant notamment à un cache d'un autre processeur du système,
  • - à faire prendre en compte cette requête externe, une fois validée, par tous les autres caches du système,
  • - à faire analyser cette requête externe par lesdits autres caches,
  • - à faire traiter cette requête externe par le cache concerné par cette requête externe,
  • - à autoriser le traitement simultané par ledit cache concerné d'une requête interne et d'une requête externe tant que ces requêtes s'adressent à des ressources différentes du processeur telles que la partie mémoire et la partie répertoire de son cache, et
  • - à interrompre le traitement en cours d'une requête interne ou à interdire la validation d'une requête interne, si le traitement en cours d'une requête externe nécessite l'ensemble des ressources dudit processeur concerné, ou
  • - à interrompre le traitement en cours d'une requête externe ou à retarder la validation d'une requête externe, si le traitement en cours d'une requête interne nécessite l'ensemble des ressources dudit processeur concerné.

Selon une autre caractéristique de l'invention, l'exécution d'une requête interne ou d'une requête externe par un cache du système consiste :

  • - à traiter une succession d'opérations de lecture et d'écriture au cours d'une succession de cycles définis par le cache,
  • - à lancer le premier de ces cycles de traitement à l'apparition d'une requête interne validée ou d'une requête externe validée,
  • - à valider au cours du premier cycle de traitement soit une requête interne, soit une requête externe, et à donner priorité à la validation d'une requête externe sur une requête interne lorsque ces requêtes demandent à être prises en compte simultanément par un même cache, et
  • - à autoriser le traitement simultané de ces requêtes au cours des cycles suivants si elles font appel à des ressources différentes du cache du processeur.

Selon une autre caractéristique de l'invention, au début de chaque cycle de traitement et afin de déterminer, en fonction de l'état du système, si les conditions sont requises soit pour exécuter l'opération de traitement suivante d'une requête interne ou pour valider une nouvelle requête interne, soit pour exécuter l'opération de traitement suivante d'une requête externe ou pour valider une nouvelle requête externe, le procédé consiste :

  • - à inclure dans lesdites conditions, soit pour l'opération de traitement suivante d'une requête interne, soit pour la validation d'une nouvelle requête interne, au moins une condition de validation fonction de la nature de l'opération demandée par le traitement d'une requête externe alors en cours, et
  • - à inclure dans lesdites conditions, soit pour l'opération de traitement suivante d'une requête externe, soit pour la validation d'une nouvelle requête externe, au moins une condition de validation fonction de la nature de l'opération demandée par le traitement d'une requête interne alors en cours.

Selon une autre caractéristique de l'invention, le procédé consiste :

  • - à retarder, au début d'un cycle de traitement, l'opération de traitement suivante d'une requête interne et interrompre ainsi cette requête interne, notamment dans le cas d'une demande d'accès au bus de liaison, si celui-ci est déjà occupé ou si la requête externe alors en cours de traitement a réservé les ressources du cache comme par exemple sa partie mémoire et sa partie répertoire pour éviter un conflit d'accès simultané à ces ressources.

Selon une autre caractéristique de l'invention, le procédé consiste : à retarder, au début d'un cycle de traitement, la validation d'une requête interne concernant une opération de lecture d'une information du cache du processeur émetteur de la requête interne, si une requête externe validée travaille sur la partie répertoire ou la partie mémoire du cache du processeur.

Selon une autre caractéristique de l'invention, le procédé consiste à retarder, au début d'un cycle de traitement, la validation d'une requête interne concernant une opération d'écriture d'une information contenue dans le cache du processeur, si une requête externe validée travaille déjà sur la partie mémoire ou la partie répertoire du cache du processeur, ou va travailler sur la partie mémoire ou la partie répertoire du cache dans le cycle de traitement suivant. -

Selon une autre caractéristique de l'invention, le procédé consiste à retarder la validation d'une nouvelle requête externe, si la nature de l'opération demandée par le traitement d'une requête interne est une opération de transfert de données sur le bus de liaison entre le cache du processeur émetteur de la requête interne et l'unité de mémoire principale du système.

Selon une autre caractéristique de l'invention, le procédé consiste à interrompre au début d'un cycle de traitement, l'opération de traitement suivante d'une requête externe, si cette opération de traitement concerne la partie mémoire du cache alors qu'une requête interne travaille déjà sur la partie mémoire du cache du processeur.

L'invention prévoit également un dispositif pour la mise en oeuvre du procédé dans un système comprenant au moins : une unité de mémoire principale, deux processeurs dont chacun possède des ressources propres telles qu'un cache ayant une partie mémoire et une partie répertoire d'identification des informations contenues dans ladite partie mémoire, caractérisé en ce que chaque cache du système comprend :

  • - des premiers moyens pour assurer la synchronisation entre les différentes opérations exécutées par le cache pour assurer le traitement d'une requête interne émise par le processeur associé à ce cache,
  • - des seconds moyens pour assurer la synchronisation entre les différentes opérations exécutées par ledit cache pour assurer le traitement d'une requête externe émise par un autre processeur du système,
  • - des troisièmes moyens pour assurer un dialogue depuis lesdits seconds moyens vers lesdits premiers moyens, par l'émission de signaux susceptibles d'interrompre le fonctionnement desdits premiers moyens, et
  • - des quatrièmes moyens pour assurer un dialogue depuis lesdits premiers moyens vers lesdits seconds moyens, par l'émission de signaux susceptibles d'interrompre le fonctionnement desdits seconds moyens.

Selon une autre caractéristique du dispositif, les premiers moyens comprennent une série de bascules montées en série, une horloge émettant des tops d'horloge récurrents reçus par lesdites bascules et définissant une succession de cycles, un circuit de validation associé à chaque bascule pour valider l'ordre de basculement de ladite bascule associée, des circuits de commande dénommés internes dont les sorties sont reliées à chacun desdits circuits de validation pour déterminer les conditions de basculement de chaque bascule en fonction de l'opération à traiter par le cache.

Selon une autre caractéristique du dispositif, les seconds moyens comprennent une série de bascules montées en série et recevant les tops de l'horloge précitée, un circuit de validation associé à chaque bascule pour valider l'ordre de basculement de ladite bascule associée, des circuits de commande dénommés externes dont les sorties sont reliées à chacun desdits circuits de validation pour déterminer les conditions de basculement de chaque bascule en fonction de l'opération à traiter par le cache.

Selon une autre caractéristique du dispositif, les troisièmes moyens comprennent un premier circuit de demande d'interruption de fonctionnement desdits premiers moyens de synchronisation affectés au traitement d'une requête interne, au moins une sortie dudit premier circuit de demande d'interruption étant reliée à une entrée de chaque circuit de validation desdits premiers moyens.

Selon une autre caractéristique du dispositif, les quatrièmes moyens comprennent un second circuit de demande d'interruption de fonctionnement des seconds moyens de synchronisation affectés au traitement d'une requête externe, au moins une sortie dudit second circuit de demande d'interruption étant reliée à une entrée de chaque circuit de validation desdits seconds moyens.

Selon un avantage important de l'invention, le fait d'autoriser au maximum le recouvrement entre le traitement par un même cache d'une requête interne et d'une requête externe permet non seulement d'augmenter la rapidité de traitement des tâches exécutées par un processeur, mais encore de permettre une utilisation optimum du bus de liaison améliorant d'autant les performances du système.

L'invention est exposée ci-après plus en détail à l'aide de dessins représentant seulement un mode d'exécution, où

  • - la figure 1 représente de façon schématique un système de traitement numérique de l'information auquel s'applique le procédé conforme à l'invention ;
  • - la figure 2 représente de façon schématique les circuits associés à un cache pour permettre l'éxécution du procédé conforme à l'invention ;
  • - la figure 3 représente différents signaux schématisant le traitement d'une requête interne dans le cas d'une lecture d'une information contenue dans le cache du processeur émetteur de la requête interne ;
  • - la figure 4 représente différents signaux schématisant le traitement d'une requête interne dans le cas d'une écriture d'une information contenue dans le cache du processeur émetteur de la requête interne ;
  • - la figure 5 représente différents signaux schématisant le traitement d'une requête interne dans le cas d'une lecture d'une information non contenue dans le cache du processeur émetteur de la requête interne ;
  • - la figure 6 représente différents signaux schématisant le traitement d'une requête externe dans le cas d'une lecture d'une information ;
  • - la figure 7 représente différents signaux schématisant le traitement d'une requête externe dans le cas d'une écriture d'une information.

Le système de traitement numérique de l'information représenté sur la figure 1 et auquel s'applique le procédé conforme à l'invention comprend :

  • - une unité de mémoire principale MMU,
  • - plusieurs processeurs CPU1, CPU2 et CPU3 possédant des ressources telles que des caches respectivement Cl, C2 et C3, et
  • - une unité d'entrée-sortie IOC reliée à plusieurs périphériques Pl, P2 et P3,

ces unités et ces processeurs étant reliés entre eux par un bus principal de liaison UMI.

Comme indiqué précédemment, l'exécution d'une tâche par l'un des processeurs CPU1, CPU2 ou CPU3 se traduit par l'émission de requêtes de demande d'accès à des informations pouvant être contenues : -

  • - dans les ressources du processeur émetteur de la requête, notamment dans son cache comprenant une partie mémoire M et une partie répertoire DY d'identification des informations enregistrées dans la partie mémoire M (parties mémoire Ml, M2, M3 et parties répertoire DY1, DY2, DY3 pour les trois processeurs CPU1, CPU2, CPU3 respectivement),
  • - dans les ressources des autres processeurs, et
  • - dans l'unité de mémoire principale MMU.

Pour mettre en oeuvre le procédé conforme à l'invention visant à améliorer la rapidité d'exécution des tâches exécutées par un même processeur, chaque cache est équipé d'un ensemble de circuits représentés schématiquement sur

la figure 2, à savoir :

  • - un séquenceur interne IS (premiers moyens) pour assurer la synchronisation des opérations à exécuter par le cache au cours du traitement d'une requête interne,
  • - un séquenceur externe XS (seconds moyens) pour assurer la.synchronisation des opérations exécutées par le cache au cours du traitement d'une requête externe, et
  • - des circuits de synchronisation ou de dialogue (Ie ou troisièmes moyens, Ii ou quatrièmes moyens) entre ces deux séquenceurs pour permettre le traitement simultané de requêtes respectivement interne et externe par un même cache, ou pour interrompre le fonctionnement soit du séquenceur interne, soit du séquenceur externe dès que deux opérations résultant des traitements de deux requêtes respectivement interne et externe ne peuvent pas être exécutées simultanément.

Chaque séquenceur interne IS comprend essentiellement plusieurs bascules Bil, Bi2,..., Bin montées en série, chaque bascule recevant des signaux récurrents issus d'une horloge H.

Chaque bascule Bil, Bi2,...Bin est associée à un circuit de validation Vil, Vi2,...Vin respectivement. Un circuit de validation a pour fonction de valider le basculement de la bascule associée suivant l'état des différentes entrées de ce circuit. Plus précisément, en supposant que le processeur CPU1 émette une requête dénommée ACRQ et considérée comme interne pour son cache Cl,cette requête une fois validée, par exemple à la fin du traitement d'une requête interne précédente, met en route le séquenceur interne IS du cache CI par l'intermédiaire de circuits de commande Ti. Ces circuits Ti ont pour fonction de transmettre aux différents circuits de validation Vil, Vi2, ..., Vin associés respectivement aux bascules Bil, Bi2,..., Bin du séquenceur interne, les conditions de basculement de ces bascules dont l'état autorise ou non, au début de chaque cycle de traitement défini par deux tops successifs émis par l'horloge H, la validation d'une requête interne ou l'opération demandée par une requête interne déjà validée.

Si les conditions envoyées au circuit de validation Vil sont satisfaites, ce circuit autorise le basculement de la bascule Bil à l'arrivée d'un top de l'horloge H, la bascule changeant à nouveau d'état au top d'horloge suivant. Ce dernier top d'horloge permettra le basculement de la deuxième bascule Bi2 si les conditions de validation présentes aux entrées du circuit de validation Vi2 associé à la bascule Bi2 sont satisfaites et ainsi de suite.

Au cours de chaque cycle de traitement défini par l'horloge H, il est associé une bascule du séquenceur interne IS pour le traitement d'une requête interne. L'état de la bascule associée à un cycle de traitement détermine la validation d'une requête interne ou l'exécution d'une opération d'une requête interne déjà validée. Il est à noter que le changement d'état d'une bascule fait partie des conditions de validation du basculement de la bascule suivante.

De façon analogue, le séquenceur externe XS du cache C1 comprend des bascules Bel, Be2,... recevant les tops de l'horloge H, et des circuits de commande Te pour assurer la validation et le traitement d'une requête externe.

Les circuits de synchronisation ou de dialogue (Ie, Ii) entre les deux séquenceurs interne IS et externe XS sont commandés, par exemple, par les circuits de commande Te, Ti respectivement, ces circuits de commande étant respectivement en relation constante avec le bus de liaison UMI et les autres circuits du processeur CPU associé. Les circuits de synchronisation ou de dialogue Ie (premier circuit de demande d'intérruption) a ses sorties qui sont reliées aux différentes entrées des circuits de validation Vil, Vi2,..., Vin du séquenceur interne IS, afin d'imposer une condition de validation supplémentaire lorsqu'une, requête interne doit être retardée ou suspendue. De façon analogue, le circuit de synchronisation ou de dialogue Ii commandé par les circuits de commande Ti, a ses sorties reliées aux différentes entrées des circuits de validation Vel, Ve2,... Ven du séquenceur externe XS, afin d'imposer une condition de validation supplémentaire pour retarder ou interrompre une requête externe.

Les requêtes internes émises par un processeur et traitées par son cache peuvent concerner (à titre d'exemple) :

  • - la lecture d'une information contenue dans le cache du processeur émetteur de la requête interne (figure 3),
  • - l'écriture d'une information contenue dans le cache du processeur émetteur de la requête interne (figure 4), et
  • - la lecture d'une information non contenue dans le cache du processeur émetteur de la requête interne, c'est-à-dire présente dans le cache d'un autre processeur ou dans l'unité de mémoire principale MMU du système (figure 5).

Il va être maintenant étudié ces différentes requêtes internes, en sachant que le cache qui doit les traiter peut soit être en train d'exécuter une requête externe, soit recevoir une requête externe pendant le traitement d'une requête interne.

Supposons le cas d'une requête interne concernant une lecture d'une information contenue dans le cache C1 du processeur CPU1 émetteur d'une requête (figure 3).

Cette requête interne est matérialisée par un signal ACRQ qui prend un niveau haut lorsque la requête interne est validée par des circuits de priorité (non représentés). Le signal ACRQ met en circuit le séquenceur interne IS du cache Cl qui va définir, à partir des tops h de l'horloge H, une succession de cycles de traitement i0, il..., in.

Le déroulement de la requête interne est le suivant :

  • - au cycle i0, le cache Cl autorise l'accès simultané à sa partie répertoire DY1 et à sa partie mémoire Ml (figure 1). La consultation de la partie répertoire DY1 du cache Cl permet de savoir, à partir de l'adresse de l'information que désire lire le processeur CPU1, si cette information est présente dans la partie mémoire Ml du cache Cl. Ces deux accès simultanés permettent de gagner du temps si l'information recherchée par le processeur CPU1 est effectivement dans la partie mémoire Ml de son cache Cl. Dans l'affirmative, l'information sous la forme d'un mot est transférée de la partie mémoire Ml du cache Cl dans un registre intermédiaire DTOR situé au niveau du cache Cl. Cette opération est matérialisée par un signal Ml (Cl) ayant un niveau haut représentatif du mot traité et par un signal DTOR ayant un niveau haut indiquant l'utilisation du registre DTOR.
  • - au cours du cycle il suivant, en supposant que tout se déroule normalement, c'est-à-dire que les conditions de validation présentes aux entrées des circuits de validation Vil associés au séquenceur interne IS sont satisfaites, rien ne s'oppose au basculement de la bascule Bil qui passe, par exemple, à un niveau haut au début du cycle il. Cet état de la bascule autorise le traitement d'une opération suivante de la requête interne, à savoir : transfert du mot contenu dans le registre DTOR au processeur CPU1 par l'intermédiaire des lignes de données PDT1 reliant le processeur à son cache. Cette opération est matérialisée par un signal PDT1 qui prend un niveau haut pendant le cycle il.

A la fin du cycle il, l'opération de lecture est terminée. Cependant, dans le cas de la lecture d'un double mot, ce deuxième mot est lu pendant le cycle il, transféré dans le registre DTOR alors libre, puis transféré au processeur au cours du cycle suivant i2 après le basculement de la bascule Bi2 autorisé par les circuits de validation Vi2. Le transfert du deuxième mot est matérialisé sur la figure 3 par des traits pointillés.

Comme cela a été explicité précédemment, l'exécution de cette requête interne ACRQ par le cache Cl peut éventuellement entrer en conflit avec une requête externe dénommée BMRQ émise par un autre processeur du système et s'adressant notamment au cache Cl.

Plusieurs cas peuvent se présenter alors :

1) si une demande de traitemment d'une requête interne émise par le processeur CPUl et une demande de traitement d'une requête externe BMRQ émanant d'un autre processeur tel que le processeur CPU2 et s'adressant au cache Cl, sont demandées simultanément, seule une de ces requêtes sera validée. Selon l'invention, une demande de requête externe est prioritaire sur une demande de requête interne. Dans ce cas, le signal ACRQ ne passe pas à un niveau haut et la requête interne est en attente. Le processeur CPU1 devra ré-émettre une demande de traitement de requête interne avant d'être validée.

2) si la demande de requête interne ACRQ a effectivement été validée au cours du cycle i0, il va être étudié ci-après l'influence que peut avoir une requête externe au cours des cycles il et i2 du traitement de la requête interne ACRQ.

Auparavant, il est souhaitable de se reporter aux figures 6 et 7 qui matérialisent schématiquement le traitement d'une requête externe dans le cas d'une lecture et dans le cas d'une écriture respectivement.

Lorsqu'une requête externe de lecture est validée, elle se décompose en deux requêtes externes BMRQ1 et BMRQ2, ces requêtes sont matérialisées sur la figure 6 par les signaux BMRQ1 et BMRQ2 qui sont à un niveau haut lorsque la requête correspondante est validée.

Lorsqu'un processeur, par exemple le processeur CPU2, désire lire une information qui n'est pas contenue dans son cache C2, il émet une requête qui est considérée par les autres caches comme une requête externe. Dans un premier temps, le processeur CPU2 émet une requête de lecture BMRQ1 qui, une fois validée, déclenche les séquenceurs externes XS des autres caches avec définition des cycles de traitement i0, il,... in. Comme pour le séquenceur interne IS de chaque processeur, les différentes bascules Bel, Be2..., Ben des séquenceurs externes XS des processeurs autres que celui qui a émis la requête externe BMRQl vont tour à tour basculer dans des conditions normales de fonctionnement pour permettre le traitement de cette requête externe lorsqu'elle sera identifiée par l'un des caches. Bien entendu, les cycles de traitement définis par un séquenceur externe XS d'un cache se superposent aux cycles de traitement du séquenceur interne IS du même cache, si ces deux séquenceurs sont amenés à fonctionner simultanément (l'horloge H à partir de laquelle sont définis ces cycles est commune aux deux séquenceurs d'un même cache).

En se reportant à nouveau à la figure 6 et en supposant que la requête externe de lecture BMRQ1 est validée au cours du cycle de traitement i0, le cycle il suivant permet aux caches, auxquels s'adresse cette requête externe, d'analyser cette requête pour en déterminer sa nature et recevoir l'adresse de l'information à laquelle désire accéder le processeur CPU2 émetteur de la requête externe par exemple. Cette opération est matérialisée par un signal BMAD qui indique, lorsqu'il est à un niveau haut, que les lignes d'adresse du bus de liaison UMI sont utilisées par le processeur CPU2. Ce signal BMAD correspond en fait à l'émission par chaque séquenceur externe XS des autres caches recevant cette requête externe, d'un signal XS01 émis par le circuit de synchronisation ou de dialogue Ie en direction des différents circuits de validation Vil, Vi2,..., Vin de chaque séquenceur interne IS associé.

La présence du signal XS01 au cours du cycle il signifie que la bascule Bel des séquenceurs externes XS des caches recevant la requête externe a basculé. A la fin du cycle il, les bascules Be2 de ces caches basculent à leur tour dans les conditions normales de fonctionnement, c'est-à-dire que les conditions de validation présentes aux entrées des différents circuits de validation Ve2 associés aux bascules Be2 sont satisfaites. Au cours de ce cycle i2, le processeur CPU2, émetteur de la requête externe, provoque la lecture des parties répertoire des caches des autres processeurs du système. Cette opération est matérialisée sur la figure 6 par un signal XS02 qui est à un niveau haut pendant le cycle i2. Il est important de noter également qu'au cours de ce cycle i2, chaque circuit de synchronisation ou de dialogue Ie des différents caches recevant la requête externe, envoie un signal XSRUN à l'ensemble des circuits de validation Vil, Vi2,..., Vin du séquenceur interne IS associé. La fonction de ce signal XSRUN sera explicitée plus loin.

A la fin du cycle i2, l'un des caches va se trouver effectivement concerné par la requête externe, c'est-à-dire qu'il contient l'information recherchée par le processeur CPU2 émetteur de cette requête. Dans le cas contraire, l'information recherchée par le processeur CPU2 sera lue dans l'unité de mémoire principale MMU du système. Pour la suite, on supposera que l'information recherchée est contenue dans le cache du processeur CPU1. Dans ces conditions, le cache Cl doit indiquer au processeur CPU2 qu'il contient l'information recherchée et qu'il est prêt à lui transmettre par l'intermédiaire des lignes de données du bus de liaison UMI. Pour cela, le cache Cl va émettre une requête de réponse qui, lorsqu'elle est validée, est matérialisée par un signal BMRQ2 ayant un niveau haut. Pour que cette requête de réponse BMRQ2 soit validée, il faut que les lignes de données du bus de liaison UMI soient disponibles. Cette validation peut par exemple intervenir au cours du cycle i4. Dès cet instant, le cache Cl peut transmettre l'information demandée par le processeur CPU2. En même temps que la validation de la requête de réponse BMRQ2 au cours du cycle i4, le premier mot de l'information à lire est transféré dans un registre intermédiaire du cache avant d'être envoyé sur les lignes de données BMDT du bus de liaison UMI au cours du cycle i5. Dans le cas représenté, l'information à transmettre se compose de quatre mots, ce qui nécessite l'utilisation des lignes de données du bus de liaison jusqu'au cycle i8. Il est à noter que dans les meilleures conditions de fonctionnement, la requête réponse BMRQ2 peut intervenir dès le cycle i3.

En se reportant à la figure 7, la requête externe BMRQ considérée est cette fois-ci une requête d'écriture. Une fois cette requête validée et matérialisée par le signal BMRQ ayant un niveau haut, les séquenceurs externes XS des caches recevant cette requête externe sont mis en route, comme dans le cas du traitement de la requête externe de lecture précédente. Au cours du cycle i0 où apparait le signal de validation BMRQ, le processeur émetteur de la requête externe envoie l'adresse de l'information à laquelle il veut accéder, adresse qui est envoyée à tous les caches par l'intermédiaire des lignes d'adresse BMAD du bus de liaison UMI. Cette opération est matérialisée par le signal BMAD qui indique, lorsqu'il est à un niveau haut, que les lignes d'adresse du bus de liaison UMI sont utilisées par le processeur émetteur de la requête externe. Ce signal BMAD correspond en fait à l'émission par le séquenceur externe XS des caches recevant l'adresse de l'information recherchée, d'un signal XS01 émis par le circuit de synchronisation ou de dialogue Ie en direction des différents circuits de validation Vil, Vi2,... Vin du séquenceur interne IS associé.

La présence de ce signal XS01 a la même signification que dans le cas d'une requête externe de lecture. Au cycle i2, il est effectué la lecture des parties répertoire des caches qui ont reçu la requête externe. Cette opération est matérialisée sur la figure 7 par un signal XS02 qui a un niveau haut pendant le cycle i2. Il est important de noter également qu'au cours de ce cycle i2, le circuit de synchronisation ou de dialogue Ie des cachés qui ont reçu la requête externe, envoie un signal XSRUN à l'ensemble des circuits de validation Vil, Vi2,... Vin du séquenceur interne IS associé. La fonction du signal XSRUN sera explicitée plus loin. Il est à noter également qu'au cours du cycle i2, la première donnée ou premier mot que désire écrire le processeur émetteur de la requête externe est reçu dans un registre intermédiaire de chaque cache des autres processeurs. Cette opération est effectuée en utilisant les lignes de données BMDT du bus de liaison UMI.

A la fin du cycle i2, c'est-à-dire après la lecture des parties répertoire des caches permettant d'identifier la présence de l'information à laquelle le processeur émetteur de la requête externe désire accéder, on connait celui des caches qui contient cette information recherchée. Si cela n'est pas le cas, l'opération d'écriture s'effectue dans l'unité de mémoire principale MMU. Par la suite, on suppose que l'information recherchée est contenue dans l'un des caches.

Si le traitement de la requête externe s'effectue dans des conditons normales, cela signifie que les différentes bascules du séquenceur externe XS du cache traitant cette requête externe sont amenées à basculer l'une après l'autre si les différentes conditions de validation de basculement des bascules sont satisfaites. Ainsi, au cours des cycles i2 à i5, les lignes d'adresse BMAD du bus de liaison UMI vont être utilisées pour transférer, dans l'exemple représenté, quatre mots à raison de un mot par cycle. Chacun de ces mots est écrit dans la partie mémoire du cache concerné à l'adresse donnée par le processeur émetteur de la requête externe. Comme chaque mot venant des lignes d'adresse BMAD du bus de liaison UMI est stocké dans un registre intermédiaire avant d'être écrit au cycle suivant dans la partie mémoire du cache concerné par cette requête externe, et l'opération d'écriture se termine au cycle i6.

Après ces explications, il est possible d'expliquer ce qui se passe lorsqu'une requête externe émise par exemple par le processeur CPU2 est validée et s'adresse au cache Cl qui est en train de traiter une requête interne de lecture.

En se reportant à nouveau à la figure 3, une requête externe BMRQ de lecture ou d'écriture peut apparaître dès le cycle il et être validée (présence du signal BMRQ) par le système qui lui donnera accès aux lignes d'adresse du bus de liaison UMI au cycle i2 (signal XS01 qui suit le signal BMRQ), que cette requête externe soit une requête de lecture ou d'écriture. Au cycle i2, le cache a soit terminé l'opération de lecture dans le cas d'un mot ou assure le transfert du deuxième mot à lire du registre intermédiaire DTOR au processeur CPU1. Il n'y a pas de conflit entre ces requêtes et leurs traitements peuvent se recouvrir pendant le cycle il, cycle où les deux séquenceurs IS et XS du cache Cl n'ont en fait aucun dialogue entre eux.

3) Enfin, une requête externe BMRQ peut être en cours de traitement, quand une requête interne de lecture ACRQ demande à être prise en compte par le cache Cl.

La requête interne de lecture ACRQ (figure 3) peut être validée dès le cycle il de traitement en cours d'une requête externe de lecture (figure 6) ou d'une requête externe d'écriture (figure 7). En effet, au cours de ce cycle il (présence du signal XS01), les requêtes externes de lecture et d'écriture sont en possession des lignes d'adresse du bus de liaison UMI, alors qu'au cours de ce cycle il (correspondant au cycle i0 de la figure 3), on consulte la partie répertoire DYl du cache Cl et on lit un mot ou un premier mot dans la partie mémoire Ml du cache Cl. Il n'y a donc pas de conflit entre le traitement simultané de ces requêtes qui ne travaillent pas sur les mêmes ressourcses du processeur CPUl.

Au cycle suivant (cycle i2 pour la requête externe et cycle il pour la requête interne), il n'y a également pas de conflit. En effet :

  • - au cycle i2 (présence du signal XS02) on lit la partie répertoire DY1 du cache Cl pour une requête externe de lecture, on lit également la partie répertoire DY1 du cache Cl pour une requête externe d'écriture, et le cache Cl reçoit dans un registre intermédiaire le premier mot transmis par les lignes de données BMDT du bus de liaison UMI, et
  • - au cycle il de la requête interne de lecture, le premier mot lu de la partie mémoire Ml du cache Cl est transféré du registre intermédiaire DTOR au processeur CPUl (présence du signal PDT1), et éventuellement le deuxième mot lu de la mémoire Ml du cache C1 est transféré dans le registre intermédiaire DTOR à la fin du cycle il.

Au cycle i2 d'une requête externe de lecture ou d'écriture (figure 6, 7), il est important de noter la présence du signal XSRUN qui a la signification suivante : interdire à toute requête interne l'accès à la partie répertoire et à la partie mémoire d'un cache, tant qu'une requête externe peut les utiliser au cours de son traitement.

Un signal XSRUN est émis par le circuit de demande d'interruption le (troisièmes moyens) du séquenceur externe XS. Ce signal est envoyé aux circuits de validation Vil, Vi2,... Vin du séquenceur interne IS associé et peut en interrompre le fonctionnement, c'est-à-dire interrompre le traitement en cours d'une requête interne ou interdire la validation d'une requête interne.

En se reportant à la figure 4, il va être décrit le traitement d'une requête interne d'écriture demandée par le processeur CPU1, écriture qui s'effectue dans son cache Cl. Lorsque la requête interne ACRQ est validée, (cycle i0) le processeur CPU1 envoie l'adresse de l'information à laquelle il désire accéder en utilisant les lignes d'adresse AD1 reliant le processeur à son cache pour consulter la partie répertoire DY1 du cache Cl et savoir ainsi s'il contient l'information recherchée. Dans l'affirmative, au cycle il suivant, le processeur CPU1 envoie un mot dans la partie mémoire Ml du cache Cl en utilisant les lignes de données PDT1 reliant le processeur CPU1 au cache Cl, et envoie éventuellement un deuxième mot au cours du cycle suivant i2.

Pour les raisons explicitées précédemment, la requête interne ACRQ ne peut être validée au cycle i0 que si les signaux XS01 et XSRUN concernant le traitement éventuellement en cours d'une requête externe par le cache Cl sont absents pour éviter un conflit d'accès simultané à la partie mémoire Ml du cache Cl notamment dans le cas de l'écriture d'un deuxième mot au cours du traitement de la requête interne. Si ces conditions ne sont pas satisfaites, le traitement de la requête interne ACRQ est retardé.

Par contre, si la requête interne ACRQ est validée au cours du cycle i0, le signal XS01 associé au traitement d'une requête externe peut apparaître au cycle il de traitement de la requête interne qui utilise la partie mémoire Ml du cache Cl, alors que le traitement de la requête externe concerne l'envoie par les lignes d'adresse BMAD du bus de liaison UMI, de l'adresse de l'information à laquelle demande d'accéder le processeur émetteur de la requête externe. Au cycle i2 suivant, le traitement de la requête interne peut concerner la transmission d'un deuxième mot dans la partie mémoire Ml du cache Cl, alors que le traitement de la requête externe d'écriture ou de lecture concerne la partie répertoire DY1 du cache Cl (signal XS02) ou une adresse (signal BMAD). Dans ce cas, il y a donc recouvrement entre le traitement d'une requête externe et d'une requête interne.

En se reportant à la figure 5, il va être décrit le traitement d'une requête interne de lecture effectué par le cache Cl mais qui ne possède pas l'information recherchée.

La requête interne ACRQ est validée (cycle 10), avec consultation de la partie répertoire DY1 du cache Cl qui indique à la fin du cycle i0 que l'information recherchée ne se trouve pas dans le cache. Au cycle il, le cache émet une demande d'accès au bus de liaison UMI pour interroger le reste du système. Lorsque cette demande d'accès est validée (signal LRQ ayant un niveau haut) par exemple dès le cycle il, le cache Cl envoie l'adresse de l'information qu'il recherche pendant le cycle i2. Le cache Cl est alors en attente et peut éventuellement traiter toute requête externe le concernant. On suppose que le cache Cl reçoit au cycle i4 la réponse de l'unité qui possède l'information qu'il recherche. Dans ces conditions, au cycle i4, les lignes de données BMDT du bus de liaison UMI (signal BMDT à un niveau haut) sont utilisées pour transmettre l'information au cache Cl. Simultanément à la réception d'un mot de l'information (un mot par cycle), ce mot est rangé dans un registre intermédiaire DTOR du cache récepteur Cl (signal DTOR à un niveau haut). Au cycle suivant i5 le registre DTOR est vidé pour envoyer son contenu à la partie mémoire Ml du cache Cl (signal Ml(Cl) à un niveau haut). Simultanément, le contenu du registre est également envoyé aux circuits de traitement de processeur CPU1 par l'intermédiaire des lignes de données PDT1 (signal PDT1 à un niveau haut). Cette opération de lecture se termine au cycle i8.

Au cycle i4, c'est-à-dire lorsque le cache Cl reçoit la réponse de l'unité qui contient l'information qu'il recherche, une requête externe ne peut pas être validée puisque la requête réponse de l'unité possédant l'information est elle-même prise en compte. Dans ce cas, une demande de requête externe est en attente.

Par contre, une demande de requête externe de lecture peut être validée au cours du cycle i5. En effet, en se reportant à la figure 6, le signal XSRUN intervient deux cycles après le cycle où est validée la requête. Dans ces conditions, l'apparition d'une requête externe de lecture pendant le cycle i5 de traitement de la requête interne représenté sur la figure 5, donne lieu à l'apparition du signal XSRUN au cycle i7, ce qui ne perturbe pas le déroulement de la requête interne étant donné-que ces deux requêtes font appel à des ressources différentes du cache Cl du processeur CPU1. Au cours du cycle i6 de traitement de la requête externe de lecture, on peut accéder sans problème aux lignes d'adresse du bus de liaison UMI, puisque la requête interne n'utilise en fait à ce moment que les lignes données BMDT de ce bus de liaison. Il y a donc recouvrement entre les traitements des deux requêtes sans conflit.

Par contre, si une requête externe d'écriture est validée au cycle de traitement i5 de la requête interne, la requête externe pourra utiliser les lignes d'adresse BMAD du bus de liaison UMI pendant le cycle i6, puis son traitement sera interrompu à partir de ce cycle car la requête interne utilise alors la partie mémoire Ml du cache Cl. Cette interruption du traitement de la requête externe se traduit par le signal DTBY (figure 5) qui est émis cette fois-ci par le séquenceur interne IS du cache Cl pour interrompre le fonctionnement du séquenceur externe XS associé afin de lui interdire l'accès à la partie mémoire Ml du cache Cl. De cette façon, on évite un conflit entre les traitements des requêtes.

Il est donc important de noter qu'une requête interne en cours de traitement peut interdire la validation d'une requête externe ou interrompre le traitement d'une requête externe. Dans les exemples illustrés, il a été considéré que deux requêtes respectivement interne et externe ne peuvent pas accéder simultanément aux mêmes ressources d'un processeur, ces ressources ayant été limitées à la partie mémoire et la partie répertoire du cache. Bien entendu, on peut augmenter le nombre des ressources auxquelles deux requêtes ne peuvent pas accéder simultanément.

Il est à noter également que la présence du signal XSRUN au cours du traitement d'une requête externe, n'empêche pas le processeur concerné d'émettre des requêtes internes et à son cache de recevoir des réponses des autres unités, ces réponses étant examinées par des circuits de priorité avant d'être validées.

Enfin, dans les exemples illustrés, il faut remarquer que le signal XSRUN émis au cours du traitement d'une requête externe interdit à une requête interne, au cours du cycle où ce signal est émis, l'accès à la partie répertoire d'un cache, et lui interdit l'accès à la partie mémoire du cache au cycle suivant. Cela est toujours compatible avec le fait que ces deux requêtes ne pourront pas avoir un accès simultané, au cours d'un même cycle, soit à la partie répertoire du cache, soit à la partie mémoire du cache.

高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈