Vous êtes sur la page 1sur 30

Table des matières

I. Introduction ..................................................................................................................................... 3
A. Objectifs du TP............................................................................................................................. 3
II. Cahier des charges........................................................................................................................... 3
III. Conception ...................................................................................................................................... 4
A. Description sommaire de l'architecture ...................................................................................... 4
B. Choix du langage de programmation .......................................................................................... 5
FONCTIONS DE L’IRVISION ............................................................................................................... 5
CAMERA SETUP TOOLS .................................................................................................................... 7
LES INSTRUCTIONS DE COMMANDES TPE ..................................................................................... 19
IV. Réalisation ..................................................................................................................................... 22
A. Ébauche du code source............................................................................................................ 22
........................................................................................................................................................... 22
V. Conclusion ..................................................................................................................................... 30

Page | 2
I. Introduction

Dans le cadre de la préparation de notre diplôme d’ingénieures en automatique


robotique, notre projet s'est centré sur l'exploration approfondie d'une cellule
robotisée FANUC dédiée aux étudiants. Cette plateforme, conçue spécialement pour
les cycles d'ingénierie, a constitué le terrain d'apprentissage idéal pour développer
nos compétences en conception, programmation et mise en œuvre de systèmes
robotiques industriels.

A. Objectifs du TP

L'objectif immédiat de ce TP est de concevoir un programme de palettisation


intégrant un robot FANUC et une caméra. Notre mission consiste à développer un
code performant permettant au robot de manipuler des objets avec précision, tout en
utilisant les données fournies par la caméra pour une détection et une localisation
efficace. Cette combinaison de technologies vise à automatiser le processus de
palettisation, démontrant ainsi notre capacité à intégrer différentes composantes
pour atteindre un objectif robotique complexe.

II. Cahier des charges

- Robot Fanuc ER-4iA :

Modèle : ER-4iA

Environnement de Programmation : RoboGuide de Fanuc.

- Caméra :

Modèle : SC130EF2B/W

Spécifications : Haute résolution, champs de vision appropriés.

Logiciel : IRvision.

- Objectifs du Projet :

Tâches Principales : Picks and places d'objets en utilisant la vision de la caméra.

Palettisation : Organiser les objets dans des zones spécifiques.

Page | 3
- Cellule Robotisée :

Spécificités : Conçue spécialement pour les étudiants.

Commande : Utilisation du Teach Pendant.

- Logiciels Utilisés :

Robot : RoboGuide de Fanuc.

Caméra : IRvision.

- Étapes du Projet :

Conception : Élaboration du programme de palettisation.

Intégration : Communication entre le robot, la caméra et la cellule.

Tests : Validation des fonctionnalités en utilisant des objets réels.

- Tests et Validation :

Critères de Réussite : Précision du picking, placement correct des objets, efficacité du processus de
palettisation.

Méthodologie de Test : Simulation dans RoboGuide et tests avec des objets réels.

- Livrables Attendus :

Code Source : Programme de palettisation.

Rapport Final : Résultats des tests, problèmes résolus et enseignements tirés.

- Ressources :

Matériel : Robot Fanuc ER-4iA, Caméra SC130EF2B/W, Cellule robotisée.

Logiciels : RoboGuide, IRvision.

III. Conception

A. Description sommaire de l'architecture

La cellule robotisée Fanuc ER-4iA, spécialement conçue pour les étudiants, constitue le cœur de notre
système de palettisation automatisée. Cette plateforme est équipée de moteurs précis et de capteurs
sophistiqués pour garantir une manipulation efficace des objets. La caméra SC130EF2B/W, intégrée
dans le processus, fournit des données visuelles cruciales pour la détection et la localisation des
objets. Le logiciel RoboGuide de Fanuc orchestre l'ensemble du processus, permettant une
programmation précise du robot pour le picking, le placement et la palettisation. L'interaction entre
le robot et la caméra est assurée par une interface de communication spécifiée, facilitant la
synchronisation des mouvements du robot avec les informations visuelles. Enfin, le Teach Pendant est
utilisé pour manipuler la cellule et réguler le processus, assurant une interface conviviale pour les

Page | 4
utilisateurs. L'architecture globale se distingue par une intégration harmonieuse de composants,
favorisant l'automatisation fluide de la palettisation.

B. Choix du langage de programmation


FONCTIONS DE L’IRVISION
L’accès à l’interface de vision se fait sur le Teach Pendant par la touche MENU [8 IR VISION]

- Vision Setup (iRVision Setup Main)

Pour rappel, il existe deux moyens d’accéder au

Menu de paramétrages des Données de Vision

(Vision Data) :

Teach Pendant > iRVision>Vision Setup

Internet Explorer> iRVision>Vision Setup

La mise en œuvre d’un système de vision

Comporte les différentes étapes de création de

DATA VISION suivante

- Déclaration d’une caméra

Les données de configuration de la caméra définissent les caractéristiques de la caméra utilisée par la
vision (type de la caméra, numéro de port de la caméra, mode d’installation de la caméra, etc.

- Création d’une calibration

Les données de calibration de la caméra établissent la correspondance mathématique entre les


coordonnées système d'images de caméra et le système de coordonnées dans lequel le robot se
déplace.

Page | 5
- Vision Process Tools

Les données du Process de Vision définissent les modèles de pièce et les traitements de l'image à
effectuer à savoir :

Apprentissage des pièces à reconnaître selon divers types de forme et de surface.

Ajout d’outils d’analyse (qualitatifs et quantitatifs) permettant d’optimiser la reconnaissance des


pièces ou d’effectuer des traitements exploitables au niveau des programmes robot.

- Application Setup Tools

Vision Override : permet de modifier temporairement une des propriétés du Process de vision depuis
le programme du robot ; cela ajoute de la flexibilité au paramétrage des Process de vision.

Offset limit (Limit Check Tool) : outil de vérification de limite pour vérifier si le décalage trouvé ne
déborde pas du champ de vision ou de la zone vraiment accessible par le robot.

- Vision Runtime

Affichage permanent pendant le fonctionnement du robot montrant les résultats d’acquisition et de


traitement de l’iRVision.

Les images sauvegardées peuvent être retraitées à postériori dans le menu du Process de vision pour
analyse et fiabilisation.

Page | 6
- Vision Config

Réglage des variables systèmes impactant le fonctionnement de l’iRVision.

CAMERA SETUP TOOLS

- Création d’une caméra

Sur la page iRVision Setup cliquer sur CREATE.

Renseigner le nom de la caméra dans le champ Name. Renseigner un court déscriptif dans le champ
Comment. Valider par la touche OK.

Page | 7
La page suivante apparait, sélectionner la caméra créée et appuyer sur la touche EDIT

- La zone de paramétrage de la caméra

Page | 8
Camera permet de déclarer le port coaxial sur lequel la caméra est branchée.
Robot-Mounted Cam permet de déclarer si la caméra est montée sur le robot ou pas.
Exposure Time permet de modifier le temps d’exposition pour le réglage de la caméra
LED Type permet de déclarer si l’éclairage sera piloté au moment de la prise d’image.
On utilisera Camera package dans le cas d’un éclairage fournit par FANUC. On aura alors la
possibilité de modifier l’intensité des LEDS dans le champ LED Intensity.
On utilisera External si un éclairage externe est utilisé. On aura alors la possibilité de paramétrer
le signal de sortie (DO, RO, MUX) qui pilote l’éclairage. Le champ LED Delay qui apparaitra alors,
permettra de piloter l’éclairage avant la prise d’image afin de couvrir le délai de commutation de la
sortie. Ce temps est limité à 1000ms.
Calibration permet d’associer une calibration à la caméra. La caméra et la calibration ne forment alors
qu’une seule DATA VISION.
- La zone barre d’outils

La zone image comporte une barre d’outils

Page | 9
- La zone touches fonctions

Le fait de quitter les menus de paramétrage de l’iRVision sans avoir sauvegardé les modifications
provoque l’affichage du menu de rappel suivant :

Page | 10
- Création d’une calibration caméra

Dans le champ Calibration de la page Camera Setup, sélectionner la méthode de calibration Grid
Pattern Calibration.

Dans la page Calibration s’affiche le paramétrage de la calibration

Robot to offset : Spécifier le robot concerné par la calibration

Application Frame : Renseigner le repère d’application. Peut être confondu avec le repère de grille.

Grid Spacing : Renseigner le pas entre 2 points de la grille de calibration. Utiliser CUSTOM pour
spécifier un pas non proposé dans le menu déroulant.

Number of planes : Spécifier le nombre de plans utilisés pour la calibration (dans notre cas : 1)

Robot-Held Cal. Grid. : Spécifier si le robot porte la grille ou si elle est fixée sur un support.

Cal. Grid Frame : Renseigner le repère de grille

Projection : La grille de calibration doit être calibrée de l’une des deux manières suivantes :
- Perpendiculaire à la caméra si le champ Orthogonal est activé.
- Avec un angle maxi de 30° si le champ Perspective est activé. Dans le cas d’une projection
Perspective, on doit renseigner la distance focale de l’objectif.
Camera Distance :

- Calculate automatically : estimation automatique

- Override focal distance : méthode utilisée par les anciens systèmes

- Override Standoff distance : distance entre le centre de la grille de calibration et le milieu de


l’objectif

Dans la page Calibration, cliquer sur le bouton set

Page | 11
Cliquer ensuite sur le bouton FIND

La fenêtre suivante s’affiche. Utiliser les points d’ancrages du cadre mauve afin d’ajuster la zone de
recherche des points de la grille de calibration. Une fois le cadre ajusté, valider par le bouton OK.

Page | 12
L’écran suivant apparaît, sélectionner la page Calibration Points.

L’image ci-dessus peut montrer des croix verte et rouge sur chacun des points de calibration.

Une croix verte indique où le point de calibration a été trouvé sur l’image de la grille.

Une croix rouge indique la position calculée théorique où devrait se trouver le point de calibration.

La zone à droite de l’écran liste les données des points de calibration.

On retrouve :
Vt,Hz : leurs coordonnées en pixels exprimées dans le repère caméra
X,Y,Z : leurs coordonnées en mm exprimées dans le repère de grille
Err : l’erreur, en pixels, entre la position calculée et la position trouvée.
- Vérification des données de calibration caméra

A l’issue de l’étape précédente les statuts du menu de calibration doivent être les suivants :

Dès que le status de la calibration est Found , il est possible de vérifier les données de la calibration.

Sélectionner la page Calibration Results

Page | 13
Focal distance : Distance focale de l’objectif (NA en projection orthogonale)

Standoff Distance : Distance entre la grille de calibration et le milieu de l’objectif (NA en projection
orthogonale)

Lens distortion : Distorsion de l’objectif exprimé en %. Cette distorsion est prise en compte lors de la
conversion des coordonnées vers le repère robot

Max Lens distortion : Taille de la distorsion à l'emplacement où la distorsion de l'objectif est la plus
grande.

Scale : La magnification est la taille en mm d’un pixel. La magnification obtenue après calibration doit
être en adéquation avec la précision recherchée.

Mean Error Value : Erreur moyenne de tous les points de calibration indiqués dans le tableau
[Calibration Points].

Maximum Error Value: Erreur maximum calculée

Position of Camera Relative to Cal. Grid : Position de la caméra par rapport au repère de grille

Position of Cal. Grid Relative to App Frame : Position du repère de grille par rapport au repère
d’application.

- Création d’un Process Vision

Dans la page iR Vision SETUP, cliquer sur le bouton CREATE.

Lorsqu’une caméra a déjà été créée, on retrouve la liste des process vision que l’on peut créer.

Page | 14
Sélectionner 2-D Single-View Vision Process, Renseigner le nom de la caméra dans le champ Name.
Renseigner un court descriptif dans le champ Comment. Valider par la touche OK.

Le process Vision créé apparait dans la liste. Cliquer sur EDIT pour rentrer dans le menu de
paramétrage de celui-ci. Cet écran est séparé en 4 zones distinctes :

Page | 15
1 : La zone Image avec sa barre d’outils
2 : La zone Tree view (Arborescence)
3 : La zone de paramétrage
4 : La zone résultats avec ses touches fonctions, permettant de tester les outils du process vision.
On distingue deux types de paramétrage différents :
Paramètres généraux du Process Paramétrage des outils du Process

Page | 16
- Déclaration d’un Outil de mesure (Locator TOOL)

On associe à un Process Vision des Locator Tools pouvant posséder eux même d’autres Locator Tools

Lors de la création d’un process, on retrouve cette architecture dans l’arborescence.

Tous les outils peuvent être renommés en utilisant la touche

Différents types d’outils sont disponibles en tant que LOCATOR TOOL et peuvent être combinés entre
eux.

On peut donc obtenir une architecture comme celle-ci.

Page | 17
- Apprentissage du « Pattern Model »

Sélectionner le GPM et activer la vue caméra dynamique via le bouton

Placer une pièce au centre du champ de vision de la caméra, lieu où il y a le moins de déformation de
l’objectif. Désactiver la vue caméra dynamique via le bouton.

Cliquer sur le bouton pour figer la vue caméra.

Cliquer sur le bouton TEACH du menu GPM du Cube.

Page | 18
Sélectionner les points et ajuster le cadre mauve à la pièce. Cliquer sur le bouton

LES INSTRUCTIONS DE COMMANDES TPE

Le Langage TPE (Teach Pendant Editor) est le langage de base utilisé via le boîtier de commande
FANUC pour l’apprentissage des trajectoires. Le langage TPE utilise des instructions pré-écrites
permettant le contrôle de l’exécution des trajectoires. La syntaxe est automatiquement contrôlée lors
de la création des instructions.

- Arborescence de l'éditeur

Editer un programme : Sélectionner un programme TPE via la touche [SELECT]. Positionner le curseur
sur le nom du programme. Valider par la touche ENTER. Ou Appuyer sur la touche [EDIT]. Dans
l’éditeur, appuyer sur F1 [INST]

- Instructions de repère « OFFSET/FRAMES »

1. Appuyer sur la touche F1 [INST] 2. Sélectionner l’item OFFSET/FRAMES 3. Sélectionner l’instruction


souhaitée. 4. Sélectionner les variables et opérations souhaitées

Page | 19
- Activer les repères de travail

Pour sélectionner le repère utilisateur : UFRAME_NUM = [valeur] Si [valeur] = 0, alors le programme


travaille dans le repère universel (WORLD).

Pour sélectionner le repère outil désiré : UTOOL_NUM = [valeur] Exemple : 1 : UTOOL_NUM = 1 2 :


UFRAME_NUM = 2 3 : J P[1] 100% FINE 4 : L P[2] 500mm/sec FINE 5 : L P[3] 500mm/sec FINE 6 : L P[4]
500mm/sec FINE

- Sauvegarder un repère dans un registre de position

Pour sauvegarder les coordonnées d’un repère utilisateur PR [n1] = UFRAME [n2] Voir instructions
REGISTER  Le registre de position PR[ n1 ] change de format. Il contient désormais une matrice de
16 éléments permettant de définir le repère User n2. Pour restituer les coordonnées d’un repère
utilisateur UFRAME [n1] = PR [n2]

Page | 20
Pour sauvegarder les coordonnées d’un repère outil PR[n1 ] = UTOOL[ n2 ]  Le registre de position
PR[ n1 ] change de format. Il contient désormais une matrice de 16 éléments permettant de définir le
repère outil n2. Voir instructions REGISTER, pour restituer les coordonnées d’un repère outil UTOOL[
n1 ] = PR[ n2]

Page | 21
IV. Réalisation
A. Ébauche du code source

Après qu’on a identifié l’adresse IP, on ping pour tester la connectivité

On tape l’adresse ip ( 192.168.0.1 ) dans notre cas pour afficher la fenêtre de IRvision

Page | 22
On commence par sélectionné la caméra, puis passer a la calibration en utilisant une board de
calibration

Fixture position

Page | 23
Apres on trouvé les points

Page | 24
Voici le résultat de calibration

Apres on ouvre la vision setup

Page | 25
Prendre une capture a 100 % de zoom via snap Tool , et déterminer la zone de travail , cliquer sur
teach et après cen orf pour centraliser

Page | 26
Résultat Offset

Apprentissage

Page | 27
Programme Robot

Page | 28
Page | 29
V. Conclusion

En conclusion, ce projet de palettisation avec la cellule robotisée Fanuc ER-4iA et la caméra


SC130EF2B/W a été une exploration enrichissante de la robotique appliquée. À travers l'intégration
du langage KAREL, notre équipe a réussi à concevoir un programme efficace permettant au robot de
réaliser avec précision les tâches de picking, placement et palettisation. L'architecture globale,
orchestrée par le logiciel RoboGuide, a favorisé une collaboration harmonieuse entre le robot et la
caméra, démontrant ainsi notre compréhension des concepts théoriques et des compétences
pratiques acquises au cours de notre formation en ingénierie robotique.

Les résultats des tests ont confirmé la fiabilité du système, soulignant notre capacité à résoudre les
défis techniques et à créer une solution automatisée cohérente. En résumé, ce projet a non
seulement consolidé nos connaissances, mais a également illustré notre aptitude à appliquer ces
compétences dans des environnements pratiques, préparant ainsi le terrain pour notre future
contribution dans le domaine de l'automatisation et de la robotique.

Page | 30

Vous aimerez peut-être aussi