Académique Documents
Professionnel Documents
Culture Documents
I. Introduction ..................................................................................................................................... 3
A. Objectifs du TP............................................................................................................................. 3
II. Cahier des charges........................................................................................................................... 3
III. Conception ...................................................................................................................................... 4
A. Description sommaire de l'architecture ...................................................................................... 4
B. Choix du langage de programmation .......................................................................................... 5
FONCTIONS DE L’IRVISION ............................................................................................................... 5
CAMERA SETUP TOOLS .................................................................................................................... 7
LES INSTRUCTIONS DE COMMANDES TPE ..................................................................................... 19
IV. Réalisation ..................................................................................................................................... 22
A. Ébauche du code source............................................................................................................ 22
........................................................................................................................................................... 22
V. Conclusion ..................................................................................................................................... 30
Page | 2
I. Introduction
A. Objectifs du TP
Modèle : ER-4iA
- Caméra :
Modèle : SC130EF2B/W
Logiciel : IRvision.
- Objectifs du Projet :
Page | 3
- Cellule Robotisée :
- Logiciels Utilisés :
Caméra : IRvision.
- Étapes du Projet :
- Tests et Validation :
Critères de Réussite : Précision du picking, placement correct des objets, efficacité du processus de
palettisation.
Méthodologie de Test : Simulation dans RoboGuide et tests avec des objets réels.
- Livrables Attendus :
- Ressources :
III. Conception
La cellule robotisée Fanuc ER-4iA, spécialement conçue pour les étudiants, constitue le cœur de notre
système de palettisation automatisée. Cette plateforme est équipée de moteurs précis et de capteurs
sophistiqués pour garantir une manipulation efficace des objets. La caméra SC130EF2B/W, intégrée
dans le processus, fournit des données visuelles cruciales pour la détection et la localisation des
objets. Le logiciel RoboGuide de Fanuc orchestre l'ensemble du processus, permettant une
programmation précise du robot pour le picking, le placement et la palettisation. L'interaction entre
le robot et la caméra est assurée par une interface de communication spécifiée, facilitant la
synchronisation des mouvements du robot avec les informations visuelles. Enfin, le Teach Pendant est
utilisé pour manipuler la cellule et réguler le processus, assurant une interface conviviale pour les
Page | 4
utilisateurs. L'architecture globale se distingue par une intégration harmonieuse de composants,
favorisant l'automatisation fluide de la palettisation.
(Vision Data) :
Les données de configuration de la caméra définissent les caractéristiques de la caméra utilisée par la
vision (type de la caméra, numéro de port de la caméra, mode d’installation de la caméra, etc.
Page | 5
- Vision Process Tools
Les données du Process de Vision définissent les modèles de pièce et les traitements de l'image à
effectuer à savoir :
Vision Override : permet de modifier temporairement une des propriétés du Process de vision depuis
le programme du robot ; cela ajoute de la flexibilité au paramétrage des Process de vision.
Offset limit (Limit Check Tool) : outil de vérification de limite pour vérifier si le décalage trouvé ne
déborde pas du champ de vision ou de la zone vraiment accessible par le robot.
- Vision Runtime
Les images sauvegardées peuvent être retraitées à postériori dans le menu du Process de vision pour
analyse et fiabilisation.
Page | 6
- Vision Config
Renseigner le nom de la caméra dans le champ Name. Renseigner un court déscriptif dans le champ
Comment. Valider par la touche OK.
Page | 7
La page suivante apparait, sélectionner la caméra créée et appuyer sur la touche EDIT
Page | 8
Camera permet de déclarer le port coaxial sur lequel la caméra est branchée.
Robot-Mounted Cam permet de déclarer si la caméra est montée sur le robot ou pas.
Exposure Time permet de modifier le temps d’exposition pour le réglage de la caméra
LED Type permet de déclarer si l’éclairage sera piloté au moment de la prise d’image.
On utilisera Camera package dans le cas d’un éclairage fournit par FANUC. On aura alors la
possibilité de modifier l’intensité des LEDS dans le champ LED Intensity.
On utilisera External si un éclairage externe est utilisé. On aura alors la possibilité de paramétrer
le signal de sortie (DO, RO, MUX) qui pilote l’éclairage. Le champ LED Delay qui apparaitra alors,
permettra de piloter l’éclairage avant la prise d’image afin de couvrir le délai de commutation de la
sortie. Ce temps est limité à 1000ms.
Calibration permet d’associer une calibration à la caméra. La caméra et la calibration ne forment alors
qu’une seule DATA VISION.
- La zone barre d’outils
Page | 9
- La zone touches fonctions
Le fait de quitter les menus de paramétrage de l’iRVision sans avoir sauvegardé les modifications
provoque l’affichage du menu de rappel suivant :
Page | 10
- Création d’une calibration caméra
Dans le champ Calibration de la page Camera Setup, sélectionner la méthode de calibration Grid
Pattern Calibration.
Application Frame : Renseigner le repère d’application. Peut être confondu avec le repère de grille.
Grid Spacing : Renseigner le pas entre 2 points de la grille de calibration. Utiliser CUSTOM pour
spécifier un pas non proposé dans le menu déroulant.
Number of planes : Spécifier le nombre de plans utilisés pour la calibration (dans notre cas : 1)
Robot-Held Cal. Grid. : Spécifier si le robot porte la grille ou si elle est fixée sur un support.
Projection : La grille de calibration doit être calibrée de l’une des deux manières suivantes :
- Perpendiculaire à la caméra si le champ Orthogonal est activé.
- Avec un angle maxi de 30° si le champ Perspective est activé. Dans le cas d’une projection
Perspective, on doit renseigner la distance focale de l’objectif.
Camera Distance :
Page | 11
Cliquer ensuite sur le bouton FIND
La fenêtre suivante s’affiche. Utiliser les points d’ancrages du cadre mauve afin d’ajuster la zone de
recherche des points de la grille de calibration. Une fois le cadre ajusté, valider par le bouton OK.
Page | 12
L’écran suivant apparaît, sélectionner la page Calibration Points.
L’image ci-dessus peut montrer des croix verte et rouge sur chacun des points de calibration.
Une croix verte indique où le point de calibration a été trouvé sur l’image de la grille.
Une croix rouge indique la position calculée théorique où devrait se trouver le point de calibration.
On retrouve :
Vt,Hz : leurs coordonnées en pixels exprimées dans le repère caméra
X,Y,Z : leurs coordonnées en mm exprimées dans le repère de grille
Err : l’erreur, en pixels, entre la position calculée et la position trouvée.
- Vérification des données de calibration caméra
A l’issue de l’étape précédente les statuts du menu de calibration doivent être les suivants :
Dès que le status de la calibration est Found , il est possible de vérifier les données de la calibration.
Page | 13
Focal distance : Distance focale de l’objectif (NA en projection orthogonale)
Standoff Distance : Distance entre la grille de calibration et le milieu de l’objectif (NA en projection
orthogonale)
Lens distortion : Distorsion de l’objectif exprimé en %. Cette distorsion est prise en compte lors de la
conversion des coordonnées vers le repère robot
Max Lens distortion : Taille de la distorsion à l'emplacement où la distorsion de l'objectif est la plus
grande.
Scale : La magnification est la taille en mm d’un pixel. La magnification obtenue après calibration doit
être en adéquation avec la précision recherchée.
Mean Error Value : Erreur moyenne de tous les points de calibration indiqués dans le tableau
[Calibration Points].
Position of Camera Relative to Cal. Grid : Position de la caméra par rapport au repère de grille
Position of Cal. Grid Relative to App Frame : Position du repère de grille par rapport au repère
d’application.
Lorsqu’une caméra a déjà été créée, on retrouve la liste des process vision que l’on peut créer.
Page | 14
Sélectionner 2-D Single-View Vision Process, Renseigner le nom de la caméra dans le champ Name.
Renseigner un court descriptif dans le champ Comment. Valider par la touche OK.
Le process Vision créé apparait dans la liste. Cliquer sur EDIT pour rentrer dans le menu de
paramétrage de celui-ci. Cet écran est séparé en 4 zones distinctes :
Page | 15
1 : La zone Image avec sa barre d’outils
2 : La zone Tree view (Arborescence)
3 : La zone de paramétrage
4 : La zone résultats avec ses touches fonctions, permettant de tester les outils du process vision.
On distingue deux types de paramétrage différents :
Paramètres généraux du Process Paramétrage des outils du Process
Page | 16
- Déclaration d’un Outil de mesure (Locator TOOL)
On associe à un Process Vision des Locator Tools pouvant posséder eux même d’autres Locator Tools
Différents types d’outils sont disponibles en tant que LOCATOR TOOL et peuvent être combinés entre
eux.
Page | 17
- Apprentissage du « Pattern Model »
Placer une pièce au centre du champ de vision de la caméra, lieu où il y a le moins de déformation de
l’objectif. Désactiver la vue caméra dynamique via le bouton.
Page | 18
Sélectionner les points et ajuster le cadre mauve à la pièce. Cliquer sur le bouton
Le Langage TPE (Teach Pendant Editor) est le langage de base utilisé via le boîtier de commande
FANUC pour l’apprentissage des trajectoires. Le langage TPE utilise des instructions pré-écrites
permettant le contrôle de l’exécution des trajectoires. La syntaxe est automatiquement contrôlée lors
de la création des instructions.
- Arborescence de l'éditeur
Editer un programme : Sélectionner un programme TPE via la touche [SELECT]. Positionner le curseur
sur le nom du programme. Valider par la touche ENTER. Ou Appuyer sur la touche [EDIT]. Dans
l’éditeur, appuyer sur F1 [INST]
Page | 19
- Activer les repères de travail
Pour sauvegarder les coordonnées d’un repère utilisateur PR [n1] = UFRAME [n2] Voir instructions
REGISTER Le registre de position PR[ n1 ] change de format. Il contient désormais une matrice de
16 éléments permettant de définir le repère User n2. Pour restituer les coordonnées d’un repère
utilisateur UFRAME [n1] = PR [n2]
Page | 20
Pour sauvegarder les coordonnées d’un repère outil PR[n1 ] = UTOOL[ n2 ] Le registre de position
PR[ n1 ] change de format. Il contient désormais une matrice de 16 éléments permettant de définir le
repère outil n2. Voir instructions REGISTER, pour restituer les coordonnées d’un repère outil UTOOL[
n1 ] = PR[ n2]
Page | 21
IV. Réalisation
A. Ébauche du code source
On tape l’adresse ip ( 192.168.0.1 ) dans notre cas pour afficher la fenêtre de IRvision
Page | 22
On commence par sélectionné la caméra, puis passer a la calibration en utilisant une board de
calibration
Fixture position
Page | 23
Apres on trouvé les points
Page | 24
Voici le résultat de calibration
Page | 25
Prendre une capture a 100 % de zoom via snap Tool , et déterminer la zone de travail , cliquer sur
teach et après cen orf pour centraliser
Page | 26
Résultat Offset
Apprentissage
Page | 27
Programme Robot
Page | 28
Page | 29
V. Conclusion
Les résultats des tests ont confirmé la fiabilité du système, soulignant notre capacité à résoudre les
défis techniques et à créer une solution automatisée cohérente. En résumé, ce projet a non
seulement consolidé nos connaissances, mais a également illustré notre aptitude à appliquer ces
compétences dans des environnements pratiques, préparant ainsi le terrain pour notre future
contribution dans le domaine de l'automatisation et de la robotique.
Page | 30