DISPOSITIF D'ENTRAINEMENT AU TIR A PARTIR D'UNE ARME

申请号 EP06794318.3 申请日 2006-08-09 公开(公告)号 EP1913326A1 公开(公告)日 2008-04-23
申请人 Total Immersion; 发明人 LEFEVRE, Valentin; CHABIN, Laurent; MARIN, Emmanuel;
摘要 The invention relates to a gunnery training device using a weapon (1), said device being characterised in that it comprises video capturing means (5) for capturing the field of vision, angular capturing means for detecting angles defining the position of insertion of the synthesis images, processing means (21, 22) for inserting, in real-time, synthesis images into the captured field of vision, and means for visualising (6) the captured field of vision containing said at least one inserted synthesis image.
权利要求
REVENDICATIONS
1. Dispositif d'entraînement au tir à partir d'une arme, caractérisé en ce que le dispositif comprend :
- des moyens de capture vidéo aptes à capturer un champ angulaire visé par l'arme,
- des moyens de mesure d'angles aptes à déterminer au moins un angle représentatif de la position de l'arme,
- des moyens de traitement aptes à insérer, en temps réel, au moins une image de synthèse dans le champ capturé, selon les informations de position reçues desdits moyens de mesure d'angles, et
- des moyens de visualisation du champ capturé contenant ladite au moins une image de synthèse insérée.
2. Dispositif d'entraînement selon la revendication 1 , caractérisé en ce que le dispositif comprend des moyens de commande, en temps réel, aptes à commander les moyens de traitement pour l'insertion d'images de synthèse.
3. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que l'arme est une arme réelle.
4. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que l'arme comprenant des moyens de visée, le dispositif d'entrainement comprend des moyens optique d'adaptation aptes à permettre la visualisation d'une image dans les moyens de visée à partir des moyens de visualisation du champ de vision capturé contenant les images de synthèse insérées.
5. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que les informations de position reçues desdits moyens de mesure d'angles sont le cap et le tangage.
6. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que le dispositif comprend en outre, des moyens de pilotage aptes à piloter, en temps réel, les moyens de traitement aptes à insérer des images de synthèse.
7. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que le dispositif comprend des moyens de localisation apte à déterminer la position des moyens de capture vidéo dans le repère d'un terrain de synthèse en trois dimensions, le terrain de synthèse étant une modélisation correspondant à au moins un élément du champ angulaire capturé.
8. Dispositif d'entrainement selon la revendication 7, caractérisé en ce que les moyens de localisation comprennent des moyens d'appariement, en temps réel, de points du terrain de synthèse avec des points correspondant dans le champ angulaire capturé.
9. Dispositif d'entrainement selon la revendication 7, caractérisé en ce que le dispositif comprend des moyens de calage du terrain de synthèse sur le champ angulaire capturé.
10. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que le dispositif comprend un récepteur de localisation apte à localiser le dispositif.
11. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que le dispositif comprend des moyens d'analyse d'image aptes à augmenter la précision des mesures réalisées par les moyens de mesure d'angles.
说明书全文

DISPOSITIF D'ENTRAINEMENT AU TlR A PARTIR D'UNE ARME

La présente invention concerne un dispositif d'entraînement au tir à partir d'une arme permettant à un utilisateur de s'entraîner dans un contexte réel mais avec l'insertion d'objets virtuels dans le champ de vision.

L'invention a plus précisément pour objet un dispositif d'entraînement au tir ou un simulateur de tir, notamment à partir d'une arme réelle dans un contexte réel.

L'entraînement au tir utilisé notamment par les militaires consiste en l'utilisation d'armes non réelles dans un contexte aussi réel que possible. L'entrainement est réalisé à partir de différents types d'armes, par exemple : fusil, char, lanceur de missile.

Les systèmes permettant de s'entraîner au tir sont aujourd'hui réalisés principalement au moyen d'armes non réelles dédiées spécifiquement aux entraînements. La reproduction des armes tente de respecter parfaitement les dimensions, la masse et l'ergonomie du système réel.

Toutefois, bien qu'il soit reproduit des armes aussi proches que possible des armes réelles, ces armes restent des reproductions et peuvent avoir des comportements différents des armes réelles.

Les systèmes font également appel à certaines techniques de l'imagerie pour modéliser un l'environnement visuel du champ de bataille, notamment des décors de synthèse dans lesquels sont présentes des cibles également en images de synthèse.

Ces systèmes ont un faible niveau de réalisme étant donné que les décors sont modélisés en imagerie de synthèse. De plus, la préparation d'une scène d'entraînement est coûteuse. En outre, la scène d'entraînement doit être entièrement remodélisée de façon réaliste (avec la géométrie, les textures et les matériaux) si le terrain d'entraînement est différent.

De plus, ces systèmes ne fonctionnent que dans une salle, c'est-à- dire bien loin des conditions réelles. Compte tenu de ce qui précède, il serait par conséquent intéressant de pouvoir réaliser un dispositif d'entrainement au tir aussi bien à partir d'armes réelles que dans un contexte réel dans lequel peuvent varier la position de l'arme, ainsi que le lieu et le moment d'apparition des objets virtuels cibles tout en s'affranchissant d'au moins certains des inconvénients mentionnés ci- dessus.

La présente invention vise en premier lieu à fournir un dispositif d'entrainement au tir à partir d'une arme, caractérisé en ce que le dispositif comprend :

- des moyens de capture vidéo aptes à capturer un champ angulaire visé par l'arme,

- des moyens de mesure d'angles aptes à déterminer au moins un angle représentatif de la position de l'arme,

- des moyens de traitement aptes à insérer, en temps réel, au moins une image de synthèse dans le champ capturé, selon les informations de position reçues desdits moyens de mesure d'angles, et

- des moyens de visualisation du champ capturé contenant ladite au moins une image de synthèse insérée.

Le dispositif selon l'invention permet d'effectuer un entraînement au tir dans des conditions réelles c'est-à-dire sur un vrai théâtre d'opérations. Pour ce faire, il est créé une interaction réelle, en temps réel, entre une arme et un contexte réel d'une part, et des objets virtuels représentant des cibles, fixes ou en mouvement, d'autre part.

Les cibles virtuelles sont aptes à être positionnées au moyen des mesures obtenues par les moyens de mesure d'angles.

Selon un mode de réalisation particulier, le dispositif comprend des moyens de commande, en temps réel, aptes à commander les moyens de traitement pour l'insertion d'images de synthèse.

Selon une caractéristique particulière, l'arme est une arme réelle.

Selon cette caractéristique, l'entraînement pouvant être effectué à partir d'une arme réelle, l'entrainement est d'autant plus réel et moins coûteux car ne nécessite pas de création d'une fausse arme. Selon un mode de réalisation particulier, l'arme comprenant des moyens de visée, le dispositif d'entraînement comprend des moyens optique d'adaptation aptes à permettre la visualisation d'une image dans les moyens de visée à partir des moyens de visualisation du champ de vision capturé contenant les images de synthèse insérées.

Selon une caractéristique particulière, les informations de position reçues desdits moyens de mesure d'angles sont le cap et le tangage.

Selon une autre caractéristique particulière, le dispositif comprend en outre, des moyens de pilotage aptes à piloter, en temps réel, les moyens de traitement aptes à insérer des images de synthèse.

Selon une caractéristique particulière, le dispositif comprend des moyens de localisation apte à déterminer la position des moyens de capture vidéo dans le repère d'un terrain de synthèse en trois dimensions, le terrain de synthèse étant une modélisation correspondant à au moins un élément du champ angulaire capturé.

Selon cette caractéristique, le terrain de synthèse comprend des informations de géométrie pour déterminer la localisation des moyens de capture, afin que l'insertion ultérieure des images de synthèse soit réalisée rapidement et de manière ajustée.

Selon un mode de réalisation, les moyens de localisation comprennent des moyens d'appariement, en temps réel, de points du terrain de synthèse avec des points correspondant dans le champ angulaire capturé.

Selon un autre mode de réalisation, le dispositif comprend des moyens de calage du terrain de synthèse sur le champ angulaire capturé.

Selon une caractéristique particulière, le dispositif comprend un récepteur de localisation apte à localiser le dispositif, notamment un GPS.

Selon une autre caractéristique particulière, le dispositif comprend des moyens d'analyse d'image aptes à augmenter la précision des mesures réalisées par les moyens de mesure d'angles.

D'autres aspects et avantages de la présente invention apparaîtront plus clairement à la lecture de la description qui va suivre, cette description étant donnée uniquement à titre d'exemple non limitatif et faite en référence aux dessins annexés, dans lesquels :

- la figure 1 représente de façon schématique un dispositif d'entraînement au tir conforme à l'invention ;

- la figure 2 illustre une architecture matérielle du dispositif d'entraînement au tir selon un premier mode de réalisation conformément à l'invention ;

- la figure 3 illustre une architecture matérielle du dispositif d'entraînement au tir selon un second mode de réalisation conformément à l'invention ;

- la figure 4 est une architecture matérielle ou logicielle du dispositif d'entraînement au tir selon le premier mode de réalisation illustré en figure 2 ; et

- la figure 5 est une architecture matérielle ou logicielle du dispositif d'entraînement au tir selon le second mode de réalisation illustré en figure 3.

La description de l'invention est réalisée à partir d'une arme réelle, par exemple un fusil, telle qu'illustrée à la figure 1. Toutefois, la mise en œuvre peut être réalisée sur tout type d'arme, réelle ou non.

Tel qu'illustré à la Figure 1 , une arme réelle 1 comprend un canon 2, un viseur 3 et éventuellement un trépied 4, de façon à porter l'arme. Toutefois, en fonction de l'arme, le trépied n'est pas toujours nécessaire.

Le viseur 3 est notamment un système optique monté sur le canon, de telle sorte que l'axe optique soit quasiment confondu avec l'axe du canon. La parallaxe, c'est-à-dire le déplacement angulaire apparent d'un corps observé à partir de deux points différents, est négligeable.

Pour réaliser un dispositif d'entraînement au tir à partir d'une arme réelle, on fixe de façon rigide des moyens de capture vidéo 5, notamment une caméra vidéo haute définition. L'axe optique de la caméra est quasiment confondu avec l'axe du canon ; la parallaxe est donc négligeable. De la sorte, la caméra est apte à acquérir un flux vidéo correspondant à la vision du tireur. Les moyens de capture vidéo sont aptes à capturer un champ angulaire visé par l'arme. En outre, l'arme comprend des moyens de visualisation 6. Ces moyens de visualisation permettent au tireur de voir une image nette, par exemple à travers le viseur 3. Ils comprennent par exemple un moniteur vidéo 7 et un bloc optique d'adaptation 8. Le moniteur vidéo est de petite taille afin de pouvoir être adapté sur l'arme. De plus, afin d'obtenir un rendu aussi réel que possible, le moniteur vidéo est de haute définition.

On peut également ajouter à l'arme des moyens de mesure d'angles, 9 aussi appelés capteur de mouvement ou capteur angulaire basés sur différentes technologies, par exemple une centrale inertielle, un positionnement laser, des encodeurs optiques, un suivi par analyse d'image aussi appelé tracking en terminologie anglo-saxonne.

Un capteur de mouvement permet notamment de connaître l'orientation de l'arme, par exemple dans le cas d'une arme posée sur un trépied.

Le capteur de mouvement permet également d'indiquer la position et l'orientation de l'arme, par exemple dans le cas d'une arme libre de ses mouvements, notamment dans le cas d'un lanceur de missile positionné sur l'épaule du tireur.

En vue de réaliser un entrainement au tir, la vidéo issue des moyens de capture vidéo est modifiée en temps réel, de manière à ajouter sur les scènes réelles des cibles virtuelles que le tireur doit atteindre.

Pour ce faire, une architecture matérielle du dispositif d'entraînement au tir est maintenant décrite en référence à la Figure 2. Cette architecture est notamment utilisée lorsque l'arme est équipée d'un capteur de mouvement possédant une bonne précision.

Cette architecture comprend des moyens de capture vidéo 5, notamment une caméra haute définition et des moyens de visualisation 6 permettant au tireur de visualiser le paysage réel augmenté de cibles virtuelles.

En outre, le paysage réel augmenté peut comprendre des effets visuels, notamment l'ajout d'éléments virtuels sur le paysage. Ainsi, il est permis d'ajouter des bâtiments virtuels, d'occulter la vision lors du départ du coup. Par exemple on simule une fumée opaque au moment du tir et qui s'éclaircit au fur et à mesure du temps.

L'architecture matérielle comprend un premier moyen de traitement 21 appelé moyen de traitement du tireur, apte à générer les images vidéo augmentées d'objets virtuels constituant les cibles d'entraînement au tir et un second moyen de traitement 22 appelé moyen de traitement de l'instructeur, apte à contrôler l'apparition des cibles virtuelles sur les images vidéo.

Le capteur vidéo 5 est relié au moyen de traitement du tireur 21 par l'intermédiaire d'un convertisseur 23 de la sortie composante HD-YUV vers la norme HD-SDI (« High Définition Sériai Digital Interface » en terminologie anglo-saxonne), notamment au format 16/9. Le signal convertit HD-SDI est ensuite envoyé sur l'entrée HD-SDI 24 du moyen de traitement du tireur 21.

YUV désigne une interface vidéo analogique qui sépare physiquement sur trois conducteurs, la luminance (Y), la composante chrominance 1 (U) et la composante chrominance 2 (V) pour relier une source vidéo à un moyen de traitement.

L'architecture s'appuie également sur un bouton de mise de feu 25 présent sur l'arme. Ce bouton est relié à un port d'entrées / sorties 26 du moyen de traitement du tireur 21. Le port peut être notamment le port série, le port parallèle, le port USB, l'entrée analogique sur une carte PCI (« Peripheral Component Interconnect » en terminologie anglo-saxonne).

Le capteur de mouvement 9 ajouté sur l'arme tel que montré en Figure 1 est également connecté à un port d'entrées / sorties 26 du moyen de traitement du tireur 21.

Le moyen de traitement du tireur 21 est équipé d'une sortie audio 27 permettant de connecter des hauts parleurs 28 et d'une sortie vidéo 29.

La sortie audio 27 a pour objectif de reproduire les effets sonores provoqués par la mise de feu, les explosions, la destruction des cibles virtuelles, etc.

La sortie vidéo 29 est reliée aux moyens de visualisation 6 monté sur l'arme de façon à afficher dans le viseur de l'arme le paysage réel, correspondant au champ angulaire visé par l'arme du tireur, augmenté de cibles virtuelles et d'effets visuels.

La sortie vidéo est notamment au format UXGA (« Ultra eXtended Graphics Array » en terminologie anglo-saxonne).

Selon une mode de réalisation, la sortie vidéo 29 est reliée à un répartiteur vidéo 30. Ce répartiteur peut, de la sorte, dupliquer le signal vidéo vers les moyens de visualisation 6 montés sur l'arme et vers un enregistreur 32, notamment par l'intermédiaire d'un convertisseur 33, apte à convertir les images, par exemple au format UXGA dans un format PAL ou NTSC en vue de permettre l'enregistrement des images vidéo par l'enregistreur 32.

L'enregistreur 32 est notamment un enregistreur DVD comprenant un disque dur. Cet enregistreur permet, d'une part, de mémoriser les images vidéo vues par le tireur et, d'autre part, de permettre de rejouer les séquences de tir lors de la phase d'évaluation ou de débriefing.

Le répartiteur vidéo 30 peut également dupliquer le signal vidéo vers l'écran 34 d'un instructeur afin de permettre à l'instructeur de visualiser les images du tireur.

Le moyen de traitement de l'instructeur 22 comprend une sortie vidéo 35, notamment au format UXGA, reliée à un écran 34, notamment, par l'intermédiaire d'un commutateur vidéo 36. Au moyen de ce commutateur, l'écran de l'instructeur 34 permet une visualisation soit du champ de vision du tireur augmenté des cibles virtuelles, soit de l'interface homme-machine du poste de l'instructeur générée par le moyen de traitement de l'instructeur 22.

Le moyen de traitement du tireur 21 et le moyen de traitement de l'instructeur 22 peuvent être connectés ensemble via notamment un concentrateur Ethernet 37.

Les données correspondant aux objets virtuels à insérer dans la vidéo correspondant au paysage réel d'entraînement sont mémorisées, par exemple dans une base de données, soit sur le moyen de traitement du tireur 21 , soit sur le moyen de traitement de l'instructeur 22.

Il est également relié au moyen de traitement de l'instructeur 22 une manette de type souris ou joystick par l'intermédiaire d'un port d'entrées/sorties, notamment par l'intermédiaire du port USB (« Universal Sériai Bus » en terminologie anglo-saxonne).

Selon une variante de réalisation, il est maintenant décrit en référence à la Figure 3, une architecture matérielle du dispositif d'entraînement au tir comprenant des moyens d'analyse d'images. Cette architecture est notamment utilisée lorsque l'arme est équipée d'un capteur de mouvement ne possédant pas une bonne précision.

L'architecture matérielle illustrée en Figure 3 est équivalente à l'architecture matérielle illustrée en Figure 2, hormis le fait qu'un moyen d'analyse d'images spécifique 40 a été ajouté.

Les moyens illustrés en Figure 3 déjà présents en Figure 2 et décrits ci-dessus portent le même identifiant.

Selon cette architecture, le capteur de mouvement 9 est relié non plus au moyen de traitement du tireur 21 , mais au moyen d'analyse d'images 40 par l'intermédiaire de ports d'entrées / sorties 41 du moyen d'analyse 40.

En effet, de cette manière, le capteur de mouvement indique approximativement l'orientation (cap, tangage) des moyens de capture vidéo 5 dans l'environnement réel. A partir de cette information et de l'image en provenance des moyens de capture vidéo, le moyen d'analyse d'images 40 affine les valeurs de cap et de tangage.

Ainsi, l'analyse d'images augmente la précision de l'orientation des moyens de capture vidéo, l'orientation étant constituée des valeurs en (cap, tangage).

Selon un mode de réalisation particulier, les valeurs (cap, tangage) sont affinées en appariant des points d'intérêts contenus dans l'image vidéo en provenance des moyens de capture vidéo, avec des points d'intérêts prédéterminés du panorama global.

Le temps nécessaire à l'analyse d'image pour déterminer l'orientation est optimisé grâce à la connaissance grossière des valeurs de (cap, tangage) envoyées par le capteur de mouvement imparfait.

En outre, le capteur vidéo 5 est également relié au moyen d'analyse d'images 40 via l'entrée vidéo 42 du moyen d'analyse d'images 40. Le moyen d'analyse d'images 40 est relié aux différents moyens de traitement, notamment au moyen de traitement du tireur 21 et au moyen de traitement de l'instructeur 22, via un réseau, par exemple le réseau Ethernet.

Ce moyen d'analyse d'images 40, selon cette variante de réalisation, est dédié à l'envoi via le réseau des informations d'orientation (cap, tangage) des moyens de capture vidéo vers le moyen de traitement du tireur 21.

Ces informations sont générées, notamment au moyen de deux flux de données, à savoir le flux de données provenant du capteur de mouvement 9 et le flux de données provenant d'un algorithme d'analyse d'images.

Il est maintenant décrit l'architecture logicielle pour la mise en œuvre du système d'entraînement au tir conformément à l'invention, en référence à la Figure 4.

Cette architecture logicielle est présentée en référence à l'architecture matérielle illustrée en Figure 2.

Selon cette mise en œuvre, le moyen de traitement du tireur 21 est équipé de moyen de traitement de la réalité augmentée 45 notamment du logiciel D'FUSION de la société TOTAL IMMERSION.

La réalité augmentée consiste à mélanger des images de synthèse, aussi appelées objets virtuels avec des images réelles issues du moyen de capture vidéo 5.

Le moyen de traitement de la réalité augmentée réalise l'ajout d'objets virtuels dans une vidéo et la visualisation issue de cet ajout en temps réel, générant ainsi des vidéos de réalité augmentée en temps réel.

Pour ce faire, le moyen de traitement du tireur 21 mélange des images de synthèse et les images réelles en temps réel, c'est-à-dire opère le traitement à une cadence d'images vidéo de 50 trames par seconde ou de 60 trames par seconde en fonction du standard des moyens de capture vidéo.

Le moyen de traitement du tireur 21 , outre le fait de contenir un logiciel de traitement de réalité augmentée, comprend différents modules logiciels permettant le traitement du système d'entraînement au tir. L'un des modules consiste en un module de gestion de la mise de feu 44 apte à gérer la récupération de l'appui sur le bouton de mise de feu par le tireur.

Un second module consiste à déterminer en temps réel la trajectoire du tir 47. Pour ce faire, ce module calcule, en temps réel, les coordonnées du projectile, notamment les coordonnées en X, Y et Z, le cap, le tangage et le roulis.

En fonction également du type de l'arme, il est possible que l'axe de visée du tireur influence la trajectoire du missile, notamment dans le cas des missiles guidés.

Un troisième module recueille des données en provenance du capteur de mouvement 48. Ces données sont fonction du type de capteur et sont par exemple le couple cap et tangage, ou l'ensemble des données cap, tangage et roulis, ou encore les coordonnées X, Y et Z et le cap, le tangage et le roulis.

Quant au moyen de traitement de l'instructeur 22, un module de contrôle 49, aussi appelé module de gestion d'exercice, est présent afin de commander notamment le passage des cibles virtuelles en temps réel sur les moyens de visualisation de l'arme.

Ce module permet d'instruire un tireur (de missile, de char, ou de toute autre arme) sous la conduite d'un instructeur.

Pour ce faire, l'instructeur commande au moyen d'une interface homme / machine et d'une manette, les cibles virtuelles à insérer dans la vidéo acquise par le moyen de capture 5 et présentées au tireur.

Ainsi, ces instructions sont, selon un mode de réalisation, transmises au moyen de traitement du tireur 21 afin que ce dernier réalise, par le logiciel de traitement de réalité augmentée 41 , l'incrustation de cibles virtuelles dans la vidéo acquise.

En outre, l'instructeur peut piloter la symbologie, c'est-à-dire le réticule aussi appelé l'aide à la visée. En effet, l'instructeur peut manipuler des symboles qui apparaissent dans l'écran de visualisation du tireur. De la sorte, il peut guider le tireur, notamment, en lui montrant une cible qu'il n'a pas vu dans le paysage ou lui demander de viser un certain point du paysage.

Une interface de communication entre le moyen de traitement du tireur 21 et le moyen de traitement de l'instructeur 22 permet de gérer les communications. En effet, pour chaque cible virtuelle à insérer, on transmet du moyen de traitement de l'instructeur 22 au moyen de traitement du tireur 21 les coordonnées de la cible, notamment en fournissant les informations suivantes : les coordonnées X, Y et Z, le cap, le tangage et le roulis et, pour chaque type de symbologie, les coordonnées de l'écran à savoir les coordonnées en X et Y.

Selon une variante de réalisation, il est maintenant décrit en référence à la Figure 5, une architecture logicielle liée à la mise en œuvre du système d'entraînement au tir comprenant des moyens d'analyse d'images. Cette architecture est notamment utilisée lorsque l'arme est équipée d'un capteur de mouvement ne possédant pas une bonne précision.

L'architecture logicielle illustrée en Figure 5 est équivalente à l'architecture logicielle illustrée en Figure 4, hormis le fait qu'un module d'analyse d'images spécifique est installé sur le moyen d'analyse d'images 40, conformément à l'architecture matérielle illustrée en Figure 3.

Les modules illustrés en Figure 5 déjà présents en Figure 4 et décrits ci-dessus portent le même identifiant.

Selon cette mise en œuvre, le moyen de traitement du tireur 21 ne reçoit plus directement les données en . provenance du capteur de mouvement 9, mais possède un module de réception de données en provenance du moyen d'analyse d'images 40, par l'intermédiaire d'une interface de communication entre le moyen de traitement du tireur et le moyen d'analyse d'images.

Le moyen d'analyse d'images 40 reçoit, d'une part, les données en provenance du capteur de mouvement 9 et, d'autre part, le flux vidéo en provenance du capteur vidéo 5. Le module d'analyse d'images analyse le flux vidéo reçu avec les données reçues du capteur de mouvement en vue de déterminer les valeurs de cap et de tangage de l'arme. Le résultat de cette analyse est émis, en temps réel, au moyen de traitement du tireur 21 par l'intermédiaire du réseau.-

Une interface de communication entre le moyen de traitement du tireur 21 et le moyen d'analyse d'images 40 permet de gérer les communications. En effet, au moyen de cette interface, on transmet les données relatives à la position de la caméra, notamment en fournissant les informations suivantes : le cap et le tangage ou le cap, le tangage et le roulis ou les coordonnées X, Y et Z, le cap, le tangage et le roulis.

Dans ces différents modes de réalisation, le moyen de traitement du tireur 21 rafraîchit les images transmises aux moyens de visualisation 6 à une fréquence compatible avec le moyen de capture vidéo 5 et les moyens de visualisation 6, à savoir 50 Hz dans le cas d'un moyen de capture vidéo au standard européen et 60 Hz dans le cas d'un moyen de capture vidéo au standard américain. Il est à noter que les moyens de visualisation doivent fonctionner à la même fréquence que le capteur vidéo.

Concernant le pointage de l'arme induit visuellement, ce dernier induit visuellement un dépointage du paysage vidéo et des cibles et du missile.

La précision du calage des cibles virtuelles dans le paysage réel capturé est fonction de la précision de la méthode de capture de mouvement, notamment en fonction de l'analyse ou non d'images.

Concernant la résolution de la capture vidéo de type haute définition, il est à noter que la norme HD-SDI 16/9 comprend 1920 pixels par 1080 lignes entrelacées et que le champ angulaire visé par l'arme du tireur est circulaire et que la résolution vidéo utile à l'intérieur du champ circulaire est de 1080 pixels par 1080 lignes entrelacées.

De même, lors de la visualisation sur l'écran de l'instructeur du champ angulaire visé par l'arme du tireur, l'écran est par exemple au format 4/3, soit une résolution de 1440 pixels par 1080 lignes.

Pour ces raisons, la résolution vidéo utilisée pour la résolution de l'affichage doit être redimensionnée. En outre, au moyen du filtrage bilinéaire de texture du moyen de traitement du tireur 21 , l'image vidéo peut être redimensionnée sans aucun artefact visuel, c'est-à-dire sans pixellisation de l'image vidéo.

Ce redimensionnement est réalisé pour l'affichage du paysage réel augmenté de cibles virtuelles dans les moyens de visualisation 6. En outre, il peut être utilisé pour l'affichage du paysage augmenté sur l'écran de l'instructeur. Dans ce cas, le redimensionnement est effectué vers un format 1280 pixels par 1024 lignes en mode SXGA, soit vers un format 1600 pixels par 1200 lignes en mode UXGA.

Les moyens de visualisation 6 sont notamment un moniteur de petite taille ; en effet, ce dernier doit être léger et peu encombrant. Les technologies pouvant être utilisées sont les suivantes : LCD miniature, LCOS, DLP, OLED.

Les moyens de visualisation imposent une certaine résolution d'affichage. Ainsi, la carte graphique du moyen de traitement du tireur est configurée pour ces moyens de visualisation spéciaux. Par exemple, l'affichage est de 1280 pixels par 1024 lignes ou 1600 pixels par 1200 lignes.

A partir de ces informations d'affichage, on décrit maintenant comment déterminer la distance à laquelle Ia cible est détectée, reconnue et identifiée par le tireur. Il est à noter qu'une cible est détectée lorsque l'on voit une cible se déplacer mais celle-ci n'est pas reconnue. Par exemple, on identifie au loin un char mais le type du char n'est pas reconnu. On appelle une cible identifiée lorsque celle-ci est bien identifiée.

Il est maintenant décrit des critères de détection, reconnaissance et identification selon deux types de résolution d'écran.

Dans un premier cas, lorsque l'affichage a une résolution de 1280 pixels par 1024 lignes et un champ de vision de 8,5 degrés (correspondant à 1024 lignes), une cible est détectée sur une ligne vidéo, la cible est reconnue lorsqu'elle est présente sur 3 lignes vidéo et elle est identifiée lorsqu'elle est présente sur 5 lignes.

Selon cet exemple, pour une cible d'une hauteur de 2 mètres, on a les résultats suivants : la détection d'une cible a lieu sur une cible à une distance supérieure à 6 km, la reconnaissance de la cible est réalisée à 4600 mètres et l'identification est faite à 2760 mètres.

Dans un second cas, lorsque l'affichage a une résolution de 1600 pixels par 1200 lignes et un champ de vision de 8,5 degrés (correspondant à 1200 lignes), une cible est détectée sur une ligne vidéo, la cible est reconnue lorsqu'elle est présente sur 3 lignes vidéo et elle est identifiée lorsqu'elle est présente sur 5 lignes.

Selon cet exemple, pour une cible d'une hauteur de 2 mètres, on a les résultats suivants : la détection d'une cible a lieu sur une cible à une distance supérieure à 6 km, la reconnaissance de la cible est réalisée à 5390 mètres et l'identification est faite à 3200 mètres.

Comme indiqué précédemment, le moyen de traitement de la réalité augmentée ajoute à un paysage réel capturé des cibles virtuelles mobiles ou immobiles en temps réel. En effet, les cibles virtuelles peuvent se déplacer dans le paysage réel capturé par le capteur vidéo.

Par exemple, les cibles de type char ou de type hélicoptère peuvent se déplacer dans le paysage capturé.

Il est en outre possible d'ajouter des effets visuels tels que l'animation du rotor d'un hélicoptère.

L'instructeur, par le moyen de traitement de l'instructeur 22, peut choisir notamment deux types de déplacement pour chaque cible.

Un premier mode consiste à déplacer la cible selon une liste de points de passage, les points de passage étant modifiables durant l'exercice par l'instructeur. Ce mode de déplacement est appelé mode « point de passage ».

Pour ce faire, le moyen de traitement de l'instructeur 22 comprend des moyens de saisie et de modification des points de passage, notamment au moyen de la manette.

Pour saisir ou modifier les points de passage des cibles, l'instructeur peut obtenir une vue de la scène. A partir de la manette, par exemple, l'instructeur peut ajouter, supprimer ou modifier un point de passage. Les points de passage apparaissent numérotés sur l'écran de l'instructeur. Les points de passage pour les véhicules terrestres sont associés au relief du terrain. Les points de passage pour les véhicules aériens ont une altitude réglable par l'instructeur.

La trajectoire de la cible virtuelle le long des points de passage est calculée par le moyen de traitement de la réalité augmentée par interpolation linéaire.

Selon un mode de réalisation, on prévoit 16 points de passage par cible virtuelle.

Un second mode de déplacement consiste à déplacer la cible par pilotage avec la manette 38 par l'instructeur. Ce mode de déplacement est appelé mode « joystick ».

Il est à noter que très souvent, la vue du tireur présente un champ de vision trop étroit pour sélectionner les points de passage.

Ainsi, le moyen de traitement de l'instructeur est équipé d'un moyen de traitement de la réalité augmentée, notamment le logiciel D'FUSION de la société TOTAL IMMERSION configuré spécifiquement pour la saisie et la modification des points de passage, ainsi que la gestion du joystick.

Pour saisir ou modifier les points de passage des cibles, l'instructeur a une vue de dessus de la scène. A l'aide notamment, du clavier et de la souris, l'instructeur peut ajouter, supprimer ou modifier un point de passage. Les points de passage apparaissent numérotés à l'écran.

Concernant les points de passage pour les véhicules terrestres, ils sont associés au relief du terrain. Alors que les points de passage pour les véhicules aériens sont associés à une altitude réglable par l'instructeur.

Le moyen de traitement de la réalité augmentée permet la gestion du basculement du mode « point de passage » au mode « joystick ». Pour ce faire, la cible virtuelle part de sa position courante.

Quand au basculement du mode « joystick » au mode « point de passage », la cible virtuelle se repositionne sur le premier point de passage défini par l'instructeur.

A partir des données de position et d'orientation des cibles virtuelles définies par l'instructeur, ces dernières sont transmises en temps réel du moyen de traitement de l'instructeur 22 au moyen de traitement du tireur 21 équipé du moyen de traitement de la réalité augmentée en vue de leur traitement en temps réel pour un affichage sur le module de visualisation du tireur en cours d'entraînement.

En outre, les cibles peuvent apparaître comme non détruites ou détruites. Par exemple, le moyen de traitement de la réalité augmentée peut ajouter la carcasse immobile d'un char détruit par le tireur.

Toutefois, la gestion de la destruction d'une cible par le moyen de traitement de la réalité augmentée peut prendre plusieurs formes.

Par exemple, dans le cas de la destruction d'un char, lorsque la cible est atteinte par le tireur lors de son entraînement, le moyen de traitement de la réalité augmentée ajoute au paysage réel l'explosion du char puis affiche la carcasse du char.

Dans le cas de la destruction d'un hélicoptère, lorsque la cible est atteinte par le tireur lors de son entraînement, le moyen de traitement de la réalité augmentée ajoute au paysage réel l'explosion de l'hélicoptère, puis l'hélicoptère disparaît.

Toutefois, trois effets d'explosion de la cible virtuelle peuvent être mis en œuvre par le moyen de traitement de la réalité augmentée. Il s'agit, tout d'abord, de l'explosion suite à l'impact du tir sur le sol ou sur un élément du décor, ensuite, de l'explosion de la cible virtuelle suite à l'impact du tir sur une cible virtuelle aérienne, enfin, de l'explosion de la cible virtuelle suite à l'impact du tir sur une cible virtuelle terrestre.

Le moyen de traitement de la réalité augmentée gère chaque explosion par un objet virtuel de type « bilboard » dans lequel est joué une texture détourée. Toutefois, il s'agit d'une vidéo spécifique en fonction du type d'impact.

Un objet virtuel de type « bilboard » est un objet de synthèse constitué des éléments suivants : un rectangle d'épaisseur nulle et d'une texture appliquée sur ce rectangle. Le rectangle est positionné sur le sol en face de la caméra. La texture appliquée peut être une texture dynamique provenant d'un film stocké sur le disque dur. Par exemple, dans le cas d'une explosion, on a un film « explosion », qui se retrouve dans ce rectangle. En outre, les bords du rectangle ne sont pas vus, celui-ci étant transparent.

Cependant, dans le cas d'un impact sur le sol ou sur un élément du paysage réel, par exemple une maison, le paysage peut ne pas être visuellement modifié.

Lors d'un tir d'entraînement par un tireur, on détermine la distance d1 du tir par rapport au terrain dans le paysage, c'est-à-dire le point du terrain dans l'axe du tir. Puis, on détermine la distance d(N) du tir par rapport à la cible virtuelle N.

Selon un mode de réalisation simplifié, la distance d(N) est la distance entre le centre de gravité du tir et le centre de gravité de la cible.

A l'issue du calcul de ces distances, un algorithme d'affichage des effets d'explosion comprend un premier test permettant de déterminer si la distance d1 de tir par rapport au terrain dans le paysage est inférieure à une distance-seuil. Si tel est le cas, alors on détermine les coordonnées X, Y et Z de l'impact du tir et on déclenche l'ajout et l'affichage de l'explosion suite à l'impact du tir sur le terrain.

On détermine également si la distance d(N) du tir par rapport à la cible virtuelle N est inférieure à une distance-seuil. Si tel est le cas, alors on détermine les coordonnées X, Y et Z de l'impact du tir et on déclenche l'ajout et l'affichage de l'explosion suite à l'impact du tir sur la cible virtuelle et ensuite l'affichage de la cible virtuelle N détruite.

Dans le cas d'un tir de type missile, ce dernier est matérialisé par un objet virtuel 3D principalement vu de l'arrière. En outre, afin de simuler la fumée du missile, on affiche M objets de type « bilboard » circulaires dont on a appliqué une texture avec la gestion des paramètres alpha et transparence, afin d'obtenir une traînée de fumée réaliste.

L'affichage du missile peut être différé de quelques millisecondes après la réception de l'information de la mise de feu de façon à simuler le temps que met le missile à sortir du canon de l'arme.

Il est à noter que la trajectoire du missile est mémorisée afin de pouvoir positionner les M objets de type « bilboard » le long de la trajectoire. Pour la gestion des cibles virtuelles et des impacts au sol, il est nécessaire de disposer d'objets virtuels en mémoire, notamment, au sein d'une base de données, du terrain, c'est-à-dire du sol et des bâtiments.

Lors de l'utilisation du dispositif d'entraînement au tir, il est nécessaire d'installer l'arme sur le terrain réel et de procéder, avant le début de l'exercice, au recalage du terrain de synthèse par rapport au terrain réel.

Pour ce faire, un outil de localisation permet, au moyen d'un appariement de points, d'extraire la position du capteur vidéo dans le repère du terrain de synthèse. Ainsi, il est possible de caler le terrain réel avec le terrain de synthèse. Cet appariement consiste à associer des points du terrain de synthèse à leur équivalent dans la vidéo capturée.

A partir de quelques points appariés, l'outil de localisation détermine la position du capteur vidéo dans le repère du terrain de synthèse, le terrain de synthèse étant une modélisation en trois dimensions du terrain réel.

Cette technologie permet à l'instructeur d'installer le système à n'importe quel endroit d'un théâtre d'opération dans un temps raisonnable notamment au moyen de la modélisation en trois dimensions de celui-ci.

Selon un mode de réalisation particulier, un récepteur GPS (« Global Positioning System » en terminologie anglo-saxonne) peut être associé à l'arme afin que celle-ci puisse être localisée sur le terrain réel.

Le récepteur GPS envoie alors les diverses coordonnées de positionnement de l'arme sur le terrain réel.

Une fois ces informations reçues par l'outil de localisation, il est possible de localiser le capteur vidéo, notamment de deux manières.

Selon un premier mode de réalisation, on associe des points virtuels à des points réels du flux vidéo, capturés comme précédemment décrit.

Selon un second mode de réalisation, on cale, de manière angulaire, le terrain de synthèse au moyen notamment d'une manette. Le terrain de synthèse est alors affiché en transparence sur l'image vidéo pour permettre le calage.

Le moyen de traitement de la réalité augmentée est également apte à traiter l'occultation. En effet, au moment du départ du coup, un objet de type « bilboard » circulaire et texture est affiché à l'écran. Au cours de l'éloignement du coup, le coefficient de transparence est modifié pour passer d'un aspect opaque à un aspect transparent. La position de l'objet de type « bilboard » est couplée à la position du missile pour obtenir un effet d'occultation plus réaliste.

En outre, le moyen de traitement de la réalité augmentée peut afficher un réticule de visée. Ce dernier peut être contrôlé de façon à le faire apparaître ou disparaître et modifier sa position sur l'écran de visée.

De plus, le moyen de traitement de la réalité augmentée peut permettre l'ajout d'une information supplémentaire d'aide à la visée, par exemple, au moyen d'un chevron. Cette information peut également être contrôlée de façon à la faire apparaître ou disparaître et ajuster sa position sur l'écran de visée selon les coordonnées en X et en Y.

Le moyen de traitement du tireur 21 comprend des hauts parleurs permettant de reproduire également les effets sonores induits par le tir.

A cet effet, sur réception d'une information de mise de feu, le moyen de traitement du tireur 21 active un son représentant le départ du tir, notamment par le lancement d'un fichier audio de type « .wav ». De même, si le tir atteint le sol, un élément du paysage ou une cible virtuelle, un fichier son est activé afin de représenter le bruit de l'impact.

Comme illustré en Figure 2 et 3, l'architecture matérielle peut être munie d'un enregistreur, notamment d'un enregistreur DVD avec disque dur, de manière à enregistrer le contenu de la vue du tireur.

Ainsi, le rejeu de l'exercice de tir est possible en effectuant une relecture du film vidéo mémorisé par l'enregistreur.

La présence d'un disque dur sur l'enregistreur permet le rejeu sans obligation de graver l'exercice de tir sur un support.

De même, il est possible d'enregistrer les informations de positionnement et d'orientation des cibles, les informations de positionnement et d'orientation des missiles et les informations de positionnement et d'axe de visée de l'arme. Ainsi, à l'issue de l'exercice d'entraînement au tir, les informations sont disponibles pour analyser l'exercice, notamment au moyen d'un module logiciel d'analyse de l'exercice. Le système d'entraînement au tir comme précédemment décrit, peut être utilisé dans différents contextes.

En effet, il est possible d'utiliser le système d'entraînement au tir en salle. Dans ce cas, le système est placé devant une maquette d'un paysage dans laquelle des cibles virtuelles sont ajoutées par le moyen de traitement de la réalité augmentée. La maquette doit préalablement être modélisée.

En outre, il est possible d'utiliser le système d'entraînement au tir sur un terrain réel. Pour ce faire, il est nécessaire d'avoir modélisé un terrain de synthèse, ce dernier correspondant au terrain réel.

A titre d'illustration, le moyen de traitement du tireur 21 peut être un ordinateur individuel ayant les caractéristiques suivantes :

- processeur Pentium IV, 3 Ghz, ayant notamment le système d'exploitation Windows XP Pro, service pack 2,

- mémoire vive ou RAM de 1Go et disque dur 80 Go,

- carte mère avec bus PCI-X et PCI-Express.

- carte d'acquisition DeckLink HD.

- carte graphique Nvidia GeForceθ (6800 GT) ou ATI Radeon X800XT.

Les moyens de capture vidéo 5 sont par exemple une caméra haute définition de type Sony HDR-FX1. Le convertisseur 23 de la sortie composante HD-YUV vers la norme HD-SDI est notamment un convertisseur AJA HD 1OA. Le répartiteur vidéo 30 UXGA est par exemple le répartiteur Komelec MSV1004. Le commutateur vidéo 36 est notamment un commutateur Comprehensive Video HRS-2x1-SVA / 2x1 VGA/UXGA High Resolution Vertical Switcher. Le convertisseur 33 est par exemple le convertisseur Folsom ViewMax. Enfin, l'enregistreur 32 est un enregistreur de DVD Philips HDRW 720 ayant un disque Dur de 80 Go.

QQ群二维码
意见反馈