Vous êtes sur la page 1sur 20

+

William Stallings
Organisation
et architecture informatique
10 e édition

© 2016 Pearson Education, Inc., Hoboken,


NJ. Tous les droits sont réservés.
+ Chapitre 6
Unités de traitement graphique
à usage général
© 2016 Pearson Education, Inc., Hoboken, NJ. Tous les droits sont réservés.
+ Architecture de périphérique unifiée de 3/20

calcul (CUDA)
 Une plate-forme de calcul parallèle et un modèle de programmation créés par NVIDIA et
mis en œuvre par les unités de traitement graphique (GPU) qu'ils produisent

 CUDA C est un langage basé sur C/C++

 Le programme peut être divisé en trois sections générales


 Code à exécuter sur l'hôte (CPU)
 Code à exécuter sur l'appareil (GPU)
 Le code lié au transfert de données entre l'hébergeur et l'appareil

 Le code parallèle aux données à exécuter sur le GPU s'appelle un noyau


 En règle générale, il y aura peu ou pas d'instructions de branchement
 Les instructions de branchement dans le noyau entraînent l'exécution en série des threads dans le
matériel GPU

 Un thread est une instance unique de la fonction noyau


 Le programmeur définit le nombre de threads lancés lorsque la fonction noyau est appelée
 Le nombre total de threads définis se compte généralement en milliers pour maximiser
l'utilisation des cœurs de processeur GPU, ainsi que pour maximiser l'accélération disponible.
 Le programmeur spécifie comment ces threads doivent être regroupés
© 2016 Pearson Education, Inc., Hoboken, NJ. Tous les droits sont réservés.
4/20

© 2016 Pearson Education, Inc., Hoboken, NJ. Tous les droits sont réservés.
5/20

Tableau 19.1

CUDA pour les composants matériels du GPU


Cartographie d' équivalence

© 2016 Pearson Education, Inc., Hoboken, NJ. Tous les droits sont réservés.
6/20

© 2016 Pearson Education, Inc., Hoboken, NJ. Tous les droits sont réservés.
7/20

© 2016 Pearson Education, Inc., Hoboken, NJ. Tous les droits sont réservés.
8/20
Présentation de l'architecture GPU

La première phase couvrirait le début des années 1980 à la fin des années

L'évolution historique
1990, où le GPU était composé d'étapes de traitement fixes, non
programmables et spécialisées.

peut être divisée en


La deuxième phase couvrirait la modification itérative de l'architecture GPU
de phase I résultante d'un pipeline matériel fixe et spécialisé à un processeur
entièrement programmable (du début au milieu des années 2000)

trois grandes phases :


La troisième phase explique comment l'architecture GPU / GPGPU constitue un coprocesseur
SIMD hautement parallélisé excellent et abordable pour accélérer les temps d'exécution de
certains programmes non graphiques, ainsi que la façon dont un langage GPGPU correspond à
cette architecture.

© 2016 Pearson Education, Inc., Hoboken, NJ. Tous les droits sont réservés.
9/20

© 2016 Pearson Education, Inc., Hoboken, NJ. Tous les droits sont réservés.
10/20

© 2016 Pearson Education, Inc., Hoboken, NJ. Tous les droits sont réservés.
11/20

© 2016 Pearson Education, Inc., Hoboken, NJ. Tous les droits sont réservés.
+ 12/20

Cœurs CUDA

 Les cœurs de processeur GPU NVIDIA sont également appelés cœurs


CUDA

 Il y a un total de 32 cœurs CUDA dédiés à chaque SM dans


l'architecture Fermi

 Chaque cœur CUDA a deux pipelines ou chemins de données


distincts
 Un pipeline d'unités entières (INT)
 Est capable de 32 bits, 64 bits et précision étendue pour les opérations
sur les nombres entiers et logiques/au niveau du bit
 Pipeline d'unités à virgule flottante (FP)
 Peut effectuer une opération FP simple précision, tandis qu'une opération
FP double précision nécessite deux cœurs CUDA

© 2016 Pearson Education, Inc., Hoboken, NJ. Tous les droits sont réservés.
13/20

Tableau 19.2
Attributs de la hiérarchie de la mémoire du GPU

© 2016 Pearson Education, Inc., Hoboken, NJ. Tous les droits sont réservés.
14/20

© 2016 Pearson Education, Inc., Hoboken, NJ. Tous les droits sont réservés.
15/20

© 2016 Pearson Education, Inc., Hoboken, NJ. Tous les droits sont réservés.
16/20

© 2016 Pearson Education, Inc., Hoboken, NJ. Tous les droits sont réservés.
17/20

© 2016 Pearson Education, Inc., Hoboken, NJ. Tous les droits sont réservés.
18/20

© 2016 Pearson Education, Inc., Hoboken, NJ. Tous les droits sont réservés.
19/20

© 2016 Pearson Education, Inc., Hoboken, NJ. Tous les droits sont réservés.
+ Résumé Unités de traitement
20/20

graphique à usage
général
Chapitre 19
 Présentation de
 Principes de base de CUDA
l'architecture GPU
 GPU contre CPU  Architecture GPU de base
 Différences fondamentales entre  Disposition complète des puces
les architectures CPU et GPU  Détails de l'architecture
 Comparaison des performances multiprocesseur de streaming
et des performances par watt  Importance de connaître et de
programmer vos types de
 GPU Gen8 d'Intel mémoire

© 2016 Pearson Education, Inc., Hoboken, NJ. Tous les droits sont réservés.

Vous aimerez peut-être aussi