Vous êtes sur la page 1sur 23

136 technologies importantes

(fiches détaillées)

Santé et technologies du vivant

• Animaux transgéniques
Le patrimoine génétique des animaux peut être modifié par addition d'ADN provenant
d'autres sources que le patrimoine génétique parental, en utilisant les techniques du
génie génétique. Trois directions sont particulièrement prometteuses dans le domaine
de la santé humaine: la préparation de protéines recombinantes dans le lait, la
préparation d'animaux transgéniques modèles (pour tester des médicaments), la
préparation d'animaux transgéniques donneurs d'organes pour la transplantation à
l'homme. L'amélioration des animaux d'élevage par transgénése pose de nombreux
problèmes tant techniques que d'acceptation sociale. Elle semble donc plus lointaine.

• Anticorps monoclonaux
Produits par clonage d'une cellule spécialisée, les anticorps monoclonaux reconnaissent
un antigène bien déterminé. Ils ont trouvé de nombreuses applications (tests de
dépistage, imagerie in vitro, immuno-purification, typage des groupes sanguins). Leur
développement en thérapeutique, encore limité, prendra un nouvel essor si leur activité
thérapeutique peut être mieux ciblée et si leur fabrication peut être industrialisée dans
de bonnes conditions économiques.

• Biomatériaux pour appareillage médical


L'utilisation de matériaux en contact avec des tissus vivants se traduit par des
exigences particulières, tout particulièrement la biocompatibilité. Les biomatériaux
permettent de réaliser des prothèses orthopédiques, des organes artificiels ainsi que
divers appareillages et des produits utilisés en ophtalmologie, odontologie urologie, etc.
Le développement des marchés correspondants est fortement lié d'une part au
vieillissement de la population, d'autre part aux accidents (transports, pratique
sportive).

• Cartographie des génomes


La cartographie des génomes a pour but de définir l'inventaire complet des gènes d'un
génome. Les recherches portent sur le génome humain mais aussi d'autres organismes:
animaux (vache, porc, souris, insectes...), plantes (colza, tournesol, maïs, soja, riz...),
micro organismes. Dans le domaine de la santé humaine, la cartographie des génomes
des parasites et l'identification des gènes humains impliqués dans une pathologie
permettent le développement d'approches et d'outils nouveaux. La cartographie du
génome est également un point de passage obligé pour les filières de sélection
animales, végétales et microbiologiques (par exemple levures de boulangerie et de
brasserie).

• Conservation des aliments


Ces technologies ont pour objectif l'allongement de la durée de conservation des
aliments tout en préservant de bonnes qualités organoleptiques. Il s'agit notamment de
l'utilisation: - de hautes pressions (4 000 à 8 000 bars) - de l'ionisation, - des ultra-sons,
- de la température (stérilisation).

• Extraction, séparation, purification


A mesure que la gamme des molécules issues des biotechnologies s'étend, les
techniques d'extraction, de purification et de séparation, qui constituent l'aval du
procédé de fabrication, prennent de l'importance en raison de la complexité chimique
des systèmes cellulaires qui synthétisent ces molécules. Ces techniques conditionnent
les performances industrielles et déterminent la qualité du produit final. Les principaux
procédés étudiés peuvent être classés en plusieurs catégories: extractions,
centrifugations, procédés électrocinétiques, procédés de séparation membranaire.

• Imagerie médicale
Parmi les principales technologies d'imagerie médicale, souvent complémentaires mais
parfois concurrentes, on trouve: - la radiologie numérisée, - la tomodensimétrie X, - les
scanners, - l'imagerie par résonance magnétique, - les ultra-sons (échographie,
techniques basées sur l'effet Doppler).

• Matières premières végétales à haut rendement pour les biocarburants


Des travaux portent sur la mise au point de nouvelles espèces végétales à haut contenu
énergétique. L'utilisation de matières premières agricoles présente a priori des
avantages en matière de protection de l'environnement ou d'indépendance
énergétique, mais les problèmes économiques à résoudre restent considérables.

• Médicaments recombinants
L'identification des gènes impliqués dans le fonctionnement normal de l'organisme et
dans les maladies humaines, le développement de systèmes permettant de les
transférer et de les exprimer dans les cellules ont ouvert la voie à la production de
médicaments recombinants (basés sur l'ADN recombinant, c'est-à-dire fourni par
recombinaison de fragments d'ADN d'origines différentes). Les principaux objectifs de
ces recherches sont les cancers, les maladies infectieuses et les maladies
dégénératives (Parkinson, Alzheimer).

• Méthodes rapides de détection microbiologique


Les progrès de la biologie moléculaire favorisent le développement de kits de détection
microbiologique qui permettent des contrôles quantitatifs avec un temps de réponse
plus court et une plus grande simplicité de mise en oeuvre. Détecter la présence de
micro organismes, de produits chimiques, de métaux lourds et d'autres contaminants
contribuera à améliorer la qualité sanitaire de la chaîne alimentaire.

• Microbiologie prédictive
La microbiologie prédictive permet de prédire la croissance des populations
microbiennes contenues dans un produit alimentaire en fonction, notamment, des
traitements précédemment subis et des conditions logistiques de stockage et
d'expédition.

• Modification génétique des plantes


Le patrimoine génétique des plantes peut être modifié par addition d'ADN d'autres
sources en utilisant les techniques du génie génétique. Ces modifications peuvent
conférer diverses propriétés aux plantes (par exemple résistance aux rongeurs et
parasites), améliorer la qualité des récoltes ou leur rendement. La technologie peut
également trouver des applications pour la production de produits pharmaceutiques ou
d'enzymes.

• Pharmacologie basée sur l'échange cellulaire


Grâce aux progrès que le génie génétique a permis de réaliser dans la connaissance
des mécanismes d'action thérapeutique, il devient envisageable de contrôler l'activité
des facteurs circulants (hormones, notamment) qui délivrent aux récepteurs de la
membrane de la cellule des messages à effet biologique que les récepteurs
reconnaissent par un mécanisme de transduction. Une nouvelle pharmacologie devrait
se développer sur ces bases, permettant de contrôler l'activité de bon nombre de
cellules normales ou tumorales La recherche est particulièrement intense en ce qui
concerne les maladies neuro-dégénératives et les cancers.

• Séquençage de l'ADN
Chaque espèce (virus, bactéries, plantes, animaux) est caractérisée par son ADN,
structure linéaire constituée d'un enchaînement de 4 monomères élémentaires (bases).
La structure de l'ADN conditionne les protéines susceptibles d'être synthétisées par
l'organisme considéré ainsi que les mécanismes de régulation de son expression, et
donc la physiologie de cet organisme. Le séquençage de l'ADN vise à déterminer cette
structure. Son automatisation devrait raccourcir significativement cette opération
actuellement très longue.

• Sondes moléculaires
Une sonde moléculaire reconnait une séquence donnée d'ADN. Les sondes moléculaires
sont aujourd'hui utilisées comme outils de diagnostic, principalement de maladies
infectieuses (en particulier de maladies sexuellement transmissibles). Elles pourraient
élargir leurs possibilités dans ce domaine mais aussi, à l'avenir, trouver des applications
thérapeutiques.

• Substituts du sang
Les substituts du sang sont des produits artificiels susceptibles de remplacer le sang
lors d'interventions chirurgicales ou de transfusions. Leur développement pourrait
éliminer les risques de contamination virale et permettre de s'affranchir des problèmes
de compatibilité de groupes sanguins.

• Suppléance cardiaque
Les systèmes de suppléance cardiaque régulent le rythme de pulsation. Ils apportent
une assistance temporaire ou permanente à une défaillance liée à une opération ou
résultant de crises aigües. Les principaux développements concernent les stimulateurs
cardiaques implantables pour le traitement d'une part de la tachycardie d'autre part de
la tachycardie et de la fibrillation.

• Système de production des protéines recombinantes


Pour produire une protéine recombinante (que l'organisme exploité ne synthétise pas
naturellement), il faut mettre au point un système de production et, si possible,
l'optimiser (rendements, coûts de production). Ces technologies sont donc
indispensables à l'industrialisation des produits issus du génie génétique (vaccins, tests
de diagnostic, protéines à visée thérapeutique, kits d'identification en microbiologie,
enzymes). Parmi les principaux systèmes à l'étude, on trouve des bactéries des levures
et champignons filamenteux, des cellules d'insectes, des animaux transgéniques, des
plantes recombinantes, etc.

• Technologies liées à l'hospitalisation à domicile


Les technologies liées à l'hospitalisation à domicile sont celles qui apportent des aides à
la vie quotidienne des patients ou des personnes dépendantes. Elles concernent des
appareils de surveillance et d'enregistrement des paramètres de santé, ainsi que des
systèmes thérapeutiques (par exemple hémodialyse à domicile). Le développement de
ces technologies est lié au souci de maîtrise des dépenses de santé, qui tend a
privilégier les soins à domicile des lors que le séjour à l'hôpital n'est pas considéré
comme obligatoire.

• Technologies peu invasives d'intervention médicale


Les technologies peu invasives d'intervention médicale visent plusieurs objectifs:
améliorer la sécurité et la précision dans la réalisation des actes médicaux, obtenir une
meilleure "productivité" des actes par le développement de techniques qui permettent
à la fois de repérer les lésions et de les traiter, offrir une meilleure qualité de vie aux
patients. Le domaine technologique comprend notamment la "chirurgie par agent
physique" (utilisation d'un agent physique tel que le laser en substitution de
l'intervention classique avec bistouri) et la "chirurgie minimale" (qui limite à l'extrême
la voie percutanée).

• Thérapie génique
La thérapie génique désigne l'ensemble des procédés qui visent à introduire in vivo ou
in vitro un gène normal dans des cellules où le même gène, anormal, provoque un
déficit fonctionnel à l'origine d'une maladie, ou à introduire un gène codant une
protéine ayant une action antitumorale dans les cellules cancéreuses ou antivirale dans
les cellules infectées par un virus pathogène.

• Vaccins issus du génie génétique

Le génie génétique peut permettre la production de vaccins en utilisant les techniques


de l'ADN recombinant (c'est-à-dire formé par recombinaison de fragments d'ADN
d'origines différentes). Ces vaccins devraient être plus efficaces (parce que plus ciblés)
et plus sûrs que les vaccins préparés par les techniques classiques.

Environnement

• Décontamination et réhabilitation des sols pollués


Les procédés de décontamination des sols peuvent être regroupés selon deux familles
distinctes : d'une part, celles qui font intervenir un traitement "ex situ" pour certains
polluants et, d'autre part, celles qui autorisent une décontamination "in situ" des sols
pollués. Ces deux familles ne constituent pas des groupes de solutions alternatives:
chacune correspond à des contraintes spécifiques résultant à la fois de la nature des
polluants, des objectifs de dépollution et du contexte environnemental. Parmi les
principaux traitements, on trouve l'excavation, l'extraction hydraulique, l'extraction
assistée par des souches bactériennes, la vaporisation assistée.

• Epuration biologique des eaux et traitement des boues


Les stations d'épuration des eaux usées utilisent généralement des techniques
d'épuration biologique avec, en complément, des traitements d'élimination des
matières azotées et phosphatées. Il faut également traiter les boues.

• Inertage et stockage des déchets nucléaires


Les déchets nucléaires ultimes sont conditionnés sous forme solide non dispersable. Cet
"inertage" est réalisé par solidification dans des matrices minérales (ciments, béton) ou
organiques (bitumes, résines), par compactage, par fusion (déchets métalliques) ou par
vitrification pour les déchets à haute activité contenant des radionucléides à vie longue.
Ces colis de déchets sont soit stockés dans un centre de stockage (déchets ne
contenant pas de radionucléides à vie longue, soit en volume 90 % des déchets), soit
entreposés en attente de l'ouverture d'un site de stockage profond définitif.
L'optimisation de la gestion des déchets à vie longue, y compris les études relatives à
une destruction partielle et à des réductions de volume avant conditionnement et
stockage, constitue un facteur important d'acceptabilité de l'industrie électronucléaire.

• Inertage et stockage des déchets ultimes


Les technologies d'inertage et de stockage des déchets ultimes s'appliquent aux résidus
des filières de valorisation ou de destruction, à l'exclusion des déchets nucléaires. Ces
déchets contiennent souvent des éléments toxiques ou dangereux dont l'élimination
doit faire l'objet d'un contrôle spécifique. Lorsque l'incinération n'est pas possible, il faut
recourir à des traitements physico-chimiques (neutralisation, décyanuration,
déchromation, échange d'ions, déshydration et/ou solidification des boues, etc.) pour
inerter les déchets avant leur stockage dans un centre d'enfouissement technique.

• Métrologie appliquée à l'environnement


L'instrumentation pour l'environnement s'intéresse à l'état des pollutions dans les
différents milieux (eau, air, sols et déchets solides). Elle doit être capable d'effectuer la
mesure sélective de polluants spécifiques, souvent à de très faibles concentrations. Le
bruit nécessite également une métrologie adaptée. La demande porte particulièrement
sur des capteurs et analyseurs plus adaptés au fonctionnement en milieu industriel et
sur le terrain, c'est-à-dire plus automatisés, plus fiables en exploitation, nécessitant
moins de maintenance, intégrables au sein de systèmes complets ou avec les
automates existants en contrôle de procédés.

• Modélisation et impact des polluants


Il existe un besoin très fort d'une part de caractériser les procédés et produits
industriels du point de vue des émissions directes ou indirectes de polluants, d'autre
part de prévoir et d'évaluer l'impact de ces émissions sur l'environnement tant au
niveau local qu'à un niveau plus global. Parmi ces techniques, on trouve en particulier le
bilan écologique. Un bilan écologique analyse l'impact d'un produit sur l'environnement
sur l'ensemble de son cycle de vie, depuis les matières premières nécessaires à sa
fabrication jusqu'à sa destrudion. Il dresse un inventaire quantitatif des flux de matières
et d'énergie d'un système.

• Nettoyage sans effluents


Les techniques de nettoyage sans effluents sont d'autant plus importantes que des
législations ou des accords internationaux prévoient le remplacement des solvants
chlorés et des CFC. Il existe des techniques en phase aqueuse qui impliquent le
traitement et le recyclage des eaux usées. D'autres voies sont le CO2 supercritique, les
plasmas à haute pression, le nettoyage au laser, etc.

• Recyclage des polymères


Des qualités des polymères (et particulièrement des matières plastiques), qui sont
appréciées lors de leur utilisation (imputrescibilité, résistance aux agents chimiques...),
deviennent souvent des inconvénients lorsqu'il s'agit de gérer les déchets qu'ils
constituent. Les caractéristiques de ces déchets sont très variables selon qu'ils
proviennent de l'industrie de transformation ou qu'ils sont issus de la masse des
déchets de toute nature collectés par différents systèmes. Dans le second cas, les
problèmes posés sont particulièrement complexes (identification et tri, compatibilité,
etc.). Le recyclage n'est souvent possible que pour des usages dégradés. Son intéret
économique reste problématique.

• Stockage souterrain des déchets


Pour éliminer certains déchets très toxiques (notamment du fait d'une forte solubilité),
mais solides et stables, la seule solution acceptable est actuellement le stockage
souterrain dans des sites géologiquement sûrs. Les déchets éliminables par cette filière
sont essentiellement les produits toxiques de laboratoires, certains déchets
organométalliques, les sels de trempe cyanurés, les déchets arséniés non recyclables.

• Traitement des déchets urbains


Le traitement concerne des quantités de déchets d'autant plus croissantes que les
dispositions législatives et règlementaires prévoient l'arrêt de la mise en décharge. Les
principales technologies concernées sont l'incinération avec ou sans récupération
d'énergie, la pyrolyse, le compostage et le recyclage. Les exigences environnementales
(par exemple traitement des fumées) se renforcent. La valorisation des déchets reste
un problème difficile.

• Traitement et contrôle de la qualité de l'eau potable


L'eau distribuée doit satisfaire en permanence plusieurs types de conditions : ne
contenir aucun organisme parasite ou pathogène pouvant provoquer des maladies,
respecter de sévères limites de concentration en substances toxiques ou indésirables,
satisfaire les exigences des utilisateurs (goût, absence d'odeur). Les efforts portent en
particulier sur la détection de polluants à l'état de traces, l'élimination des nitrates et
des pesticides et la diminution de sous produits de la chloration. Les procédés mis en
oeuvre, souvent de manière combinée, sont notamment l'oxydation, l'adsorption et
divers types de filtration membranaire.

• Tri, stockage et compactage des déchets urbains


Préalablement à leur traitement, les déchets urbains doivent être triés, stockés et
compactés. Les technologies mises en oeuvre ne sont pas nécessairement très
élaborées. La mécanisation des opérations se heurte à des problèmes techniques, mais
aussi à des problèmes de rentabilité économique.

• Utilisation des filières transversales pour la destruction des déchets

L'utilisation de filières transersales pour la destruction des déchets présente a priori un


grand intérêt économique, à condition de ne pas perturber le bon fonctionnement des
installations concernées (fours de cimenteries ou de sidérurgie, centrales thermiques,
etc.).

Technologies de l'information et de la communication

• Algorithmes de compression et de décompression de l'image et du son


Le développement des services de télécommunications, tels que la visiophonie, mais
aussi des services multimédias qui incorporent des images fixes ou animées, nécessite
le développement d'algorithmes de compression et de décompression de l'image et du
son afin d'utiliser au mieux la capacité des réseaux de transmission et des unités de
stockage. Une seule image couleur peut couramment représenter1 mégaoctet de
données. Une seconde de vidéo au standard européen (25 images par seconde)
représente un volume de 25 Mo. Le débit et le volume mémoire nécessaires obligent à
comprimer les signaux. Ces algorithmes élaborés doivent permettre de réduire
sensiblement la taille d'un fichier (d'un facteur de 10 à 100, voire plus), tout en
conservant une qualité visuelle acceptable. Ces algorithmes peuvent prendre la forme
d'un circuit intégré ou d'une application logicielle.

• Architectures client-serveur
L'architecture client-serveur permet à une application de s'adresser à une autre
application, physiquement distante, à travers un protocole d'échanges standardisés,
pour lui demander de réaliser une tâche pour son propre compte. La première
application de cette technologie se comporte en client de la seconde. La pénurie d'outils
méthodologiques pour la conception d'applications client serveur est un obstacle au
développement de cette technologie.

• Architectures massivement parallèles


Le recours à l'informatique pour traiter, notamment, des problèmes de plus en plus
complexes, oblige à disposer d'ordinateurs offrant une puissance de calcul et de
traitement importante. Les ordinateurs (massivement) parallèles permettent de
disposer de telles puissances. Ils sont conçus pour exécuter simultanément un
programme sur un ensemble de processeurs communiquant entre eux. Une grande
variété d'architectures existe, en fonction de l'application envisagée. Dans le domaine
de la gestion, on fait souvent appel à des machines faiblement parallèles, c'est-à-dire
utilisant plusieurs dizaines de processeurs. L'élément clé dans ces systèmes concerne la
programmation. Si de nombreux modèles et environnements de programmation ont été
développés, aucun ne répond véritablement au problème de la recherche d'erreurs
dans un programme parallèle.

• Batteries pour équipements électroniques portables


Le développement des applications mobiles (ordinateurs portables, radiotéléphone,
etc.) est conditionné par l'utilisation d'une source d'énergie à la fois peu volumineuse,
légère et de relativement forte capacité. Les batteries actuelles sont, surtout, au nickel-
cadmium. D'autres couples sont à l'étude, notamment le couple nickel-hydrures
métalliques et le couple lithium-carbone.

• Câbles optiques et fibres optiques


Les câbles et fibres optiques sont utilisées pour la transmission de communications sous
forme de signaux lumineux. Ils permettent des transmissions à haut débit. Avec les
projets d' "autoroutes de l'information", le défi que devront relever les fabricants est
d'ordre économique. Le câblage en fibre optique jusqu'à l'abonné ne sera
économiquement viable que si les coûts de production et d'installation baissent de
façon importante.

• Composants d'interconnexion et d'interface


La tendance générale à l'augmentation de la complexité des circuits et systèmes se
retrouve au niveau des composants d'interconnexion et d'interface (connecteurs,
circuits hybrides, circuits imprimés). Tout comme les semi-conducteurs, ces composants
doivent tenir le moins de place possible. De plus, ils doivent être légers. L'évolution
actuelle conduit notamment à une diminution de la largeur des pistes des circuits
imprimés et des modules de circuits hybrides (qui atteindra 50 microns), à
l'interconnexion en trois dimensions des composants électroniques, et à l'utilisation de
connexion par microbilles (qui autorisera l'augmentation du nombre d'entrées/sorties
d'un boitier).

• Composants hyperfréquences
Les composants hyperfréquences s'imposent dans un nombre croissant d'applications.
Le premier marché concerne la communication sans fil. Du téléphone cellulaire aux
réseaux locaux sans fil, en passant par les micro ordinateurs portables qui dialoguent à
distance avec l'ordinateur du bureau. Les appareils qui communiquent par radio sont de
plus en plus nombreux à utiliser des circuits intégrés hyperfréquences. Ces circuits
utiliseront l'arséniure de gallium (AsGa) qui, seul, permet à la fois une utilisation à haute
fréquence (supérieure au gigahertz) et une consommation réduite d'énergie. L'arrivée
de microprocesseurs ultra puissants, fonctionnant à des fréquences jusqu'à 300 MHz,
impose des circuits périphériques rapides pour lesquels l'AsGa est tout indiqué.

• Composants opto-électroniques
Les composants opto-électroniques se répartissent en quatre types de module : -
module d'amplification optique (qui se compose principalement d'un laser de pompe et
de l'électronique associée) ; - module optique pour la transmission (qui regroupe les
fonctions de conversion opto-électronique); - module de raccordement pour abonné qui
se compose d'un laser et d'un photodétecteur (qui permet la transmission
bidirectionnelle sur une seule fibre monomode) ; - module d'interconnexion optique (qui
assure les raccordements optiques entre fibres ou entre carte et fibre). Le déploiement
de la fibre optique jusque chez l'abonné entraine des contraintes économiques
considérables pour les composants opto-électroniques. La recherche d'un faible coût de
production devient plus importante que celle des performances techniques. L'utilisation
de la transmission optique s'est en effet généralisée à l'ensemble de la partie transport
du réseau de télécommunications (tant terrestre que sous-marin). La prochaine étape
devrait consister à utiliser les transmissions optiques pour le réseau de distribution,
aussi bien pour les liaisons téléphoniques que les transmissions de données ou la
diffusion de la télévision.

• Conception et fabrication de composants à faible consommation


La diminution de la consommation d'énergie des composants électroniques est liée aux
développements rapides des applications portables (micro-ordinateurs,
radiocommunication, produits audio, etc.). En effet, une faible consommation électrique
des composants est facteur d'allongement de l'autonomie des piles et batteries et
permet, indirectement, la réduction de leur poids. La réduction de la consommation
d'énergie est poursuivie à travers deux grandes tendances : une plus grande intégration
des composants, la réduction des tensions d'alimentation. Un aspect essentiel est la
meilleure gestion de la consommation d'énergie, ce qui suppose le développement de
circuits spécifiques.

• Connexion de machines et/ou d'applications différentes (middleware)


Le développement de l'informatique distribuée entraine la connexion sur les réseaux de
machines, d'applications et de systèmes d'exploitation différents. Il faut pouvoir faire
appel, à distance, aux fonctions et aux données de n'importe quelles applications, sur
n'importe quelle machine: c'est l'objet du "middleware". Ces logiciels servent, à la fois,
d'intermédiaires entre les applications logicielles différentes et de tampon entre le
logiciel d'application et l'architecture du réseau qu'ils essaient de rendre transparente.

• Echanges de données informatisés (EDI)


L'échange de données informatisé (EDI) est un moyen de transmettre électroniquement
des documents administratifs standardisés (commandes, factures, bordereaux de
livraison...) à ses partenaires (clients, fournisseurs, banques, transporteurs,
administrations). L'évolution de l'EDI doit aller dans le sens de la transmission, non plus
seulement de documents administratifs, mais aussi de données techniques telles que
les plans ou les données de CAO.

• Ecrans plats
Le marché des équipements portables a fait des écrans plats, une technologie
essentielle. Mais l'utilisation des écrans plats ne se limite plus à ces seuls appareils : à
terme, les applications à tubes cathodiques pourraient être concernées. Trois
technologies au moins permettent d'obtenir des écrans plats : - les cristaux liquides,
développés à l'origine pour l'affichage des calculettes dominent largement le marché
des ordinateurs portables. L'écran se compose d'une multitude de points commandés
par un transistor individuel. Le point est plus ou moins lumineux en fonction du signal
qui arrive au transistor. - les écrans à plasma utilisent un gaz dont les molécules sont
dissociés en ions et en électrons pour obtenir un point lumineux. La fabrication de ces
écrans se rapproche plus des procédés d'imprimerie ou de sérigraphie, ce qui permet
de traiter de grandes surfaces. - les écrans à "micropointes" utilisent un principe proche
de celui des tubes cathodiques. La lumière de l'image est produite par un faisceau
électronique qui excite des substances luminescentes mais, au lieu d'un seul canon à
électrons, ce sont plusieurs milliers de "micro-pointes" qui excitent les récepteurs.

• Ergonomie autour de l'écran et du clavier


De plus en plus d'équipements utilisent un écran et un clavier comme interface entre
l'homme et la machine. Face à la complexité des applications et à la multiplicité des
fonctionnalités offertes, il est essentiel de proposer des systèmes conviviaux et simple
d'usage. L'ergonomie permet d'éclairer les choix à faire pour les dessins des postes,
l'implantation et la forme des commandes, la conception des interfaces (graphiques
notamment), les aides au travail, etc.

• Gestion de réseaux "intelligents"


Les réseaux "intelligents" sont à la base du développement des services de
télécommunications (renvoi d'appel, numéro "vert", réseaux privés virtuels, etc.). Ce
concept a pour objet de faciliter l'introduction de nouveaux services en apportant plus
de flexibilité et des fondionnalités nouvelles. Les programmes et les bases de données
sont centralisés; l'ensemble des commutateurs est "piloté" quasi simultanément. Les
principaux objectifs sont la réduction du délai d'introduction et de modification de
nouveaux services, une baisse des coûts de développement, des fonctionnalités plus
élaborées (telles que permettre à l'usager de gérer et modifier ses propres données).

• Images de synthèse
La simulation, le design, mais aussi les jeux vidéo créent d'importants besoins d'images
de synthèse (2D et 3D) qui trouvent déjà des applications trés diverses: simulation d'un
crash automobile ou de la propagation d'une pollution, effets spéciaux pour le cinéma,
décors des simulateurs d'apprentissage... L'élément essentiel est la conception d'outils
logiciels pour la création d'images (artificielles).

• Ingénierie linguistique (interrogation en langage naturel)


L'ingénierie linguistique participe à l'amélioration de l'interface homme-machine.
L'utilisation de l'étude de la langue trouve son application dans de nombreux
domaines : consultation de bases de données, traduction automatique, résumé de
textes, fusion d'informations textuelles. L'interrogation en langage naturel revient à
poser des questions à une machine en utilisant le vocabulaire courant.

• Interfaces métaphoriques
Les nouveaux produits logiciels doivent s'adapter aux utilisateurs non spécialistes de
l'informatique. Les interfaces métaphoriques sont un mode de relations entre l'homme
et la machine qui permet à l'utilisateur de "travailler" sans avoir recours à un
apprentissage fastidieux de procédures et de commandes. Ils utilisent, le plus souvent,
des représentations graphiques d'objets courants évoquant une action précise.

• Mémoires flash
Les appareils "nomades" (micro ordinateurs portables, radiotéléphones, etc.) imposent
une gestion "économe" de l'énergie si l'on souhaite une autonomie conséquente entre
deux recharges des batteries. L'avantage majeur des mémoires flash est, contrairement
aux mémoires vives de conserver l'information stockée même lorsque l'alimentation
électrique est coupée. En fonctionnement, leur consommation énergétique est très
faible. Avec les progrés de la technologie (la capacité de stockage, les temps d'accès et
la durée de vie s'améliorent), les mémoires flash vont concurrencer les disques
magnétiques et les mémoires Dram (Dynamic random access memory).

• Mémoires de masse (optiques et magnétiques)


Avec le développement du multimédia et l'évolution des applications informatiques, le
stockage des données devient un problème crucial. Outre la capacité de stockage, les
mémoires devront avoir des caractéristiques de plus en plus "pointues", que ce soit au
niveau des taux de transfert ou de la fiabilité. Deux technologies sont en concurrence :
les technologiques magnétiques et les technologies optiques.

• Outils de programmation (génie logiciel)


Les outils de programmation ont pour but d'améliorer la productivité et la qualité de
développement d'applications informatiques, mais aussi de maîtriser les coûts et les
délais de développement des programmes. Ils mettent en oeuvre les principes de génie
logiciel : structuration, modularité, prototypage des applications. Ils utilisent de
nouvelles techniques : approche objet, intelligence artificielle, traitement coopératif.

• Programmation orientée objet


Alors que la programmation classique sépare données et traitements, un logiciel "objet"
est constitué d'un assemblage d' "objets" contenant à la fois des données et des
procédures de traitement. Ces objets communiquent entre eux par des messages.
Grâce à la standardisation des objets, on peut "bâtir" des programmes en intégrant
simplement des "composants logiciels". La programmation orientée objet est une
évolution radicale de l'écriture des logiciels. Elle améliore la productivité des équipes de
développement et facilite la maintenance et l'évolution des applications. La
généralisation de ces méthodes et des langages objets devrait permettre une
réutilisation plus systématique d'une partie des programmes.

• Reconnaissance de la parole
La commande vocale est un des divers modes d'interaction avec la machine. Il existe
déjà des systèmes permettant la reconnaissance de vocabulaires de 100 000 mots,
mais en "monolocuteur" et "mots isolés". Les développements en cours vont vers la
reconnaissance de courtes séquences de mots "enchain"s" avec la possibilité de
reconnaitre plusieurs locuteurs.

• Reconnaissance des formes


reconnaissance des formes concerne aussi bien la reconnaissance des caractères que
celle d'objets. Si la reconnaissance des caractères dactylographiés est bien au point, la
reconnaissance des caractères manuscrits doit encore être améliorée. La
reconnaissance d'objets doit également progresser, notamment pour toutes les
applications touchant au domaine du contrôle: contrôle de pièces ou contrôle d'accès
(par reconnaissance du visage, par exemple).

• Réseaux neuronaux
Les systèmes à base de réseaux de neurones permettent de répondre à des problèmes
de reconnaissance de données à partir d'une base de connaissances modifiable par
apprentissage. La mise en oeuvre de ces systèmes suppose des bases de données
complètes et variées pour créer l'apprentissage du système, mais surtout des outils de
simulation.

• Sécurité pour systèmes transactionnels


Avec le développement des systèmes informatiques et leur interconnexion à travers les
réseaux de communication, les risques relatifs à la sécurité des informations échangées
vont croissant. Qu'il s'agisse de malveillance, de sabotage (virus), de piratage ou de
fraude, la vulnérabilité des systèmes transactionnels devient un sujet d'inquiétude. Il
est vital de développer des outils permettant de sécuriser les échanges d'informations.
Les principales fonctions à traiter sont l'identification et l'authentification des
participants, la garantie de la confidentialité et l'intégrité des données, la gestion de la
communauté des utilisateurs (autorisation d'accès général ou restreint, etc.).

• Serveurs vidéo
Dans tous les projets de "télévision interactive" ou de vidéo à la demande, le serveur
d'images joue un rôle clé. La solution technologique pour distribuer l'information à un
grand nombre d'abonnés repose sur des architectures massivement parallèles, offrant
la tolérance aux pannes et utilisant des capacités de stockage très importantes. La
maîtrise des logiciels de gestion, de stockage, d'adressage et de diffusion de
l'information est un élément essentiel.

• Systèmes à base d'"agents"


Le développement des services en réseau suppose la mise en place d'outils pour
accéder à des données complexes, ainsi qu'une utilisation facile pour l'usager Les
agents intelligents sont des programmes prévus pour accomplir des tâches sur un
réseau de communication pour le compte d'un utilisateur, sans que celui-ci ait besoin
de le surveiller. Par exemple, l'utilisateur confiera à un agent la mission d'effectuer une
recherche documentaire dans des bases de données différentes. Cette technologie
exige une intégration fine avec le réseau, ainsi que des services capables de les utiliser.
Les agents seront des auxiliaires intéressants pour les équipements tels que les PDA
(Personal Digital Assistant) car ils seront à la base de leur fonction d'assistant intelligent
et communicant.

• Systèmes de navigation pour services multimédias


Avec l'arrivée du multimédia, l'utilisateur de services d'information ou de
divertissement va se trouver face une multitude de possibilités de choix. Les systèmes
de navigation pour services multimédias s'adresseront le plus souvent à des utilisateurs
non spécialistes et devront donc être simples d'emploi. Ils permettront de choisir
l'information ou le programme que l'on souhaite. Dans le cas des applications de loisirs,
ils proposeront des sélections croisées par listes, thèmes, plages horaires mais aussi en
fonction des habitudes et des goûts des utilisateurs.

• Systèmes temps réel


Les systèmes temps réel se distinguent des autres par un couplage très étroit avec leur
environnement. Ils pilotent de très nombreuses tâches complexes : réservation de billet
d'avion, vidéo à la demande, contrôle d'une chaine de fabrication, etc. A la différence
d'un programme classique, un système temps réel est toujours à l'écoute de
l'environnement avec lequel il doit être en totale interaction pour répondre, de façon
quasi simultanée, à toute sollicitation. La qualité essentielle de ces systèmes doit être la
fiabilité. Mais ils doivent aussi faire face à des contraintes de délais d'exécution et de
simultanéité de tâches qui en rendent la conception fort délicate.
• Technologies submicroniques profondes
L'intégration de plus en plus poussée des composants électroniques à semi conducteurs
(mémoires d'un gigabit microprocesseurs 64 bits, etc.) oblige à réduire la taille des
motifs et à augmenter la taille des puces. Cette évolution induit des contraintes
technologiques importantes que l'on peut traduire par les questions suivantes : - quelle
lithographie pour atteindre 0,1 micron ? - quelle technique de dépôt utiliser pour obtenir
des oxydes minces d'une dizaine de nanomètres ? - pourra-t-on atteindre les degrés de
pureté des matériaux pour obtenir des rendements acceptables ? - saura-t-on réaliser 6
à 7 niveaux d'interconnexion sur une puce ? - saura-t-on dissiper la chaleur produite par
ces circuits rapides et denses ? C'est à ces questions (parmi d'autres) que doivent
répondre les technologies submicroniques "profondes".

• Test et certification de logiciels

Les programmes informatiques sont de plus en plus complexes. Ils sont utilisés dans
tous les domaines, notamment dans ceux qui touchent à la sécurité des personnes.
L'erreur de programmation peut donc être lourde de conséquences. Les tests de
contrôle sont de trois ordres :

o vérification de la consistance fonctionnelle (les opérations doivent se


réaliser correctement quel que soit l'environnement);
o vérification de la consistance logique (par rapport à un certain nombre de
règles);
o vérification de la consistance temporelle (les opérations s'exécutent dans
le bon ordre, quelles que soient les conditions internes et externes).
Le problème essentiel à résoudre est de concilier fiabilité et coût de développement.

• Transmission et commutation large bande

Les autoroutes de l'information, qui véhiculeront les services multimédias associant les
données informatiques, la voix et l'image animée au sein d'une même application,
exigeront des réseaux à très grand débit (plusieurs gigabits/s). Ces réseaux utiliseront
en transmission la technologie SDH (Synchronous Digital Hierarchy) et, en
commutation, la technologie ATM (Asynchronous Transfert Mode). Pour faire face au
problème de saturation des réseaux locaux d'entreprises (interconnexion de réseaux,
architecture client-serveur, transfert de fichiers électroniques), l'ATM semble être la
solution actuellement retenue par les constructeurs de matériel.

Transports

• Amélioration de la recyclabilité des véhicules


Le problème majeur de la recyclabilité des véhicules automobiles est celui du
traitement des matières plastiques. On trouve dans un véhicule automobile une dizaine
de matériaux plastiques différents et certaines pièces de carrosserie sont en matériaux
composites. Les difficultés à résoudre sont le tri et le recyclage des matériaux obtenus
après démontage. Les solutions passent par une meilleure conception des véhicules
afin de réduire le nombre de matériaux plastiques et d'améliorer l'accessibilité des
pièces pour faciliter le démontage.

• Batteries pour véhicule électrique


Le marché de la voiture électrique est fortement dépendant des améliorations de la
source d'énergie. En effet, dans un véhicule électrique, la puissance et l'autonomie sont
essentiellement liées aux caractèristiques de la batterie. Seule la batterie au plomb est
industrialisée à grande échelle. Equipé d'une telle batterie, le véhicule électrique a une
autonomie d'environ 60 km (pour une masse de batterie d'environ 240 kg). Le
développement de ce marché passe par la mise au point de batteries de plus grande
énergie massique. De nouveaux couples électrochimiques sont à l'étude: cadmium-
nickel, sodium-soufre, lithium-carbone. Les progrés attendus concernent à la fois la
densité d'énergie, la densité de puissance et la durée de vie (nombre de cycles
possibles).

• Climatisation des véhicules


La climatisation des véhicules est une des réponses à l'attente de confort des
utilisateurs. C'est un système qui permet de maintenir automatiquement une
température et un degré d'humidité constants à l'intérieur du véhicule, quelle que soit
la température extérieure. Les efforts de développement portent surtout sur une
réduction de la consommation énergétique de ces systèmes.

• Composants électroniques de très forte puissance


Les composants électroniques de très forte puissance (de 100 kW à plus de 1000 kW)
sont utilisés pour le contrôle de l'énergie. Les principaux domaines d'application sont le
matériel ferroviaire et le contrôle industriel pour la commande de gros moteurs.

• Conception de poste de contrôle et de pilotage de véhicules


La conception de poste de contrôle et de pilotage de véhicules (que ce soit avion, train
à grande vitesse, voiture ou camion) doit en faciliter l'utilisation, l'objectif majeur étant
la sécurité. Seront utilisés divers savoir-faire ou technologies. L'ergonomie agit sur la
définition des différents modes d'interface homme-machine, comme la présentation des
informations et leur visualisation ou la forme et la place des différents organes de
commande. Un système d'aide à la décision, très utile face à la multiplication des
informations disponibles, aura recours à l'intelligence artificielle. Il faut également
prendre en compte les conséquences d'éventuelles défaillances humaines, d'oú la
nécessité, par exemple, de prévoir de nouveaux dispositifs analysant l'état de veille du
conducteur.

• Contrôle de la gestion dynamique des flux routiers


Les problèmes de congestion urbaine, notamment, imposent le développement du
contrôle et de la gestion dynamique des flux routiers. Il s'agit de concevoir des
dispositifs électroniques informant l'automobiliste en temps réel de l'état des routes. Le
système RDS (Radio Data System) est le précurseur de ces futurs systèmes. Des
capteurs, des caméras, des radars et d'autres appareils enregistreront les mouvements
du trafic routier et transmettront ces informations à des ordinateurs centraux. Les
centres de contrôles adapteront la signalisation et les feux de circulation, mais aussi
informeront les automobilistes afin d'optimiser les flux de circulation.

• Diminition de la consommation de carburant des moteurs


La diminution de la consommation de carburant des moteurs, outre qu'elle permet une
économie du coût d'exploitation du véhicule, s'inscrit dans le cadre de la lutte contre la
pollution. L'utilisation de l'injection directe et le contrôle électronique du moteur sont
les points essentiels.

• Matériaux absorbants pour tenue aux chocs


En matière de transport, la sécurité est une exigence de plus en plus forte. Aussi, les
technologies permettant une meilleure tenue aux chocs deviennent importantes. Il
s'agit de développer des matériaux à haute résistance, mais surtout de concevoir des
structures qui permettent d'absorber l'énergie due au choc.

• Moteur (à combustion) propre


Les limites d'émission des voitures neuves ont, entre 1970 et 1994, été divisées par 10
ou 20 selon les polluants. Cette évolution va se poursuivre : les développements autour
du thème du moteur propre (à essence ou diesel) devront donc continuer. A moyen
terme, ces travaux consisteront surtout à optimiser les solutions existantes de
dépollution. Les actions devraient principalement porter sur l'amélioration des
chambres de combustion, du système de distribution, du système d'allumage et du
traitement des gaz d'échappement. Les recherches reposent, en partie, sur une
modélisation plus performante (donc une meilleure connaissance des phénomènes à
traiter).

• Positionnement des véhicules


Le positionnement des véhicules est l'élément essentiel de l'aide à la navigation. Grâce
à des capteurs de localisation du véhicule, une carte numérisée embarquée et un
calculateur d'itinéraire, les systèmes d'aides à la navigation doivent permettre aux
conducteurs de véhicules de repérer leur position sur un écran et leur indiquer le
meilleur chemin à suivre pour atteindre leur destination.

• Réduction de la masse des véhicules automobiles


Une diminution de 10 % du poids d'un véhicule automobile se traduit par une réduction
de la consommation de carburant d'environ 5 % en moyenne et de 10 % en ville. Toute
la difficulté pour les constructeurs est d'alléger la voiture sans toucher à l'espace, au
confort et à la sécurité. L'utilisation de nouveaux matériaux, tels que les tôles
"sandwiches" ou les matériaux composites, de l'aluminium, du magnésium, des aciers
de haute résistance devrait permettre des gains de poids significatifs. Il sera également
nécessaire d'optimiser le dessin des caisses et des pièces mécaniques pour tirer le
meilleur parti de ces avancées techniques.

• Réduction des bruits aérodynamiques (avions, trains à grande vitesse)

Le problème du bruit aérodynamique est un problème majeur des systèmes de


transport à grande vitesse (TGV, avions). A partir d'une certaine vitesse, le bruit
aérodynamique augmente beaucoup plus vite que toutes les autres sources de bruit. En
matière ferroviaire, le bruit tient à la coexistence de deux composantes :

o un bruit de roulement, émis à la fois par le matériel et l'infrastructure ;


o un bruit aérodynamique, dû aux écoulements d'air autour du train.
Dans le domaine aéronautique, le bruit de roulement correspond aux bruits des
moteurs. La connaissance et la modélisation du bruit aérodynamique sont moins
avancées que pour les autres sources de bruit. L'objectif est donc d'améliorer cette
connaissance, de la traduire en modèles et de les valider pour rechercher des solutions
concrètes permettant une réduction significative du bruit aérodynamique.

• Réduction du bruit des véhicules automobiles


La réduction du bruit des véhicules automobiles vise à la fois à améliorer le confort de
l'utilisateur et à lutter contre une nuisance de plus en plus mal acceptée par les
riverains. La réduction passive du bruit est prise en compte lors de la conception du
véhicule. Elle se traduit par l'emploi de matériaux absorbants, mais aussi par un dessin
approprié de certaines pièces ou sous-ensembles (les pneumatiques, par exemple). La
réduction active du bruit est au stade pré-industriel et concerne essentiellement les
bruits internes. Il s'agit d'introduire un bruit en opposition de phase qui annule le bruit
produit par le véhicule.

• Simulation et protection pour la compatibilité électromagnétique


La banalisation des matériels électroniques et informatiques conduit, aujourd'hui, à une
telle densité d'installation dans les véhicules que les phénomènes de parasitage
risquent d'être de plus en plus nombreux, mais surtout dangereux. Le vocable de
compatibilité électromagnétique (CEM) regroupe ces manifestations parasites. Il est
essentiel de pouvoir simuler les conséquences électromagnétiques de l'intégration d'un
matériel susceptible d'être à l'origine de perturbations. Ces matériels peuvent être de
natures très diverses : émetteurs hertziens oscillateurs locaux, ordinateurs numériques,
systèmes d'allumage des véhicules, composants électro mécaniques (relais, moteurs,
etc.).

• Technologies roue-rail à très grande vitesse


Pour le ferroviaire, la réduction des temps de parcours est un objectif majeur, en
particulier vis-à-vis des modes de transports concurrents (automobile, mais surtout
avion). Le TGV de nouvelle génération doit être capable d'une vitesse supérieure ou
égale à 350 km/h. Cet impératif pose un certain nombre de problèmes techniques, dont
les solutions sont rassemblées sous le vocable de technologies roue-rail. Il s'agit en fait
des études relatives à la chaine de traction, au système de freinage, à la réduction du
bruit de roulement, à la stabilité des boggies, à la suspension active.

Matériaux

• Alliages de polymères
Les alliages de polymères sont des mélanges physiques ou des associations chimiques
d'au moins deux polymères différents et de compatibilisants. On cherche à obtenir des
propriétés plus élevées que celles des constituants (par exemple résistance mécanique,
tenue en température) et/ou une mise en forme plus facile.

• Caractérisation et surveillance de l'endommagement


Le suivi permanent de l'état des pièces pendant leur durée de vie améliore la
disponibilité et la fiabilité des systèmes qui les incorporent (réacteurs, ailes d'avion,
ouvrages d'art...) et réduit leur coût d'exploitation. La caractérisation et la surveillance
de l'endommagement nécessitent la mise en place de méthodes et de moyens de
contrôle (capteurs, notamment).

• Collage structural
Le collage structural est l'assemblage par adhésif de pièces soumises à des contraintes
sévères de nature mécanique ou liées à leur environnement de travail. Le choix de
l'adhésif, la préparation des surfaces et le contrôle sont des points essentiels pour la
maitrise du collage. Celui-ci permet souvent de simplifier les process industriels. Il
trouve des applications dans tous les secteurs.

• Elaboration de composites à matrice organique


Les matériaux composites à matrice organique sont constitués d'une matrice
polymèrique (thermodurcissable ou thermoplastique) et d'un renfort fibreux (le plus
souvent en fibre de verre, éventuellement en fibre de carbone ou en fibre aramide) qui
améliore leurs propriétés mécaniques. Les travaux sur les divers procédés de mise en
oeuvre ont principalement pour objectif la diminution des coûts (automatisation,
réduction du temps de cycle) et l'amélioration des performances (on cherche
notamment à réduire la dispersion des caractéristiques).

• Logiciels de modélisation complète des matériaux et de leurs procédés de mise en


oeuvre
Pour concevoir des pièces, définir les appareillages nécessaires à leur mise en oeuvre et
déterminer les paramètres du procédé, on recourt à des logiciels de modélisation qui
permettent de vérifier l'adéquation des moyens (matériau, procédé, machines de
transformation, moules, etc.) au but poursuivi et d'évaluer les caractéristiques des
pièces en fonctionnement. On peut ainsi éviter des essais dont la réalisation serait trop
longue ou trop coûteuse).

• Matériaux adaptatifs
Les matériaux adaptatifs, parfois aussi appelés intelligents, offrent à terme de
considérables perspectives de développement en raison de leur réactivité et de la
possibilité d'être commandés de l'extérieur. Ils sont capables de détecter les variations
de leur environnement et de s'y adapter. Il peut s'agir, suivant les cas, de modifier les
caractéristiques en fonction des sollicitations, de s'autoréparer ou encore de
transmettre la charge de la fonction à un autre matériau plus apte à y répondre.

• Matériaux pour procédés pour hautes températures


Certains procédés industriels, en particulier pour la production de métaux et
superalliages, requièrent des températures de plus en plus élevées. Les matériaux
utilisés sont généralement des céramiques, massives ou en revêtement.

• Nouvelles fibres textiles


On cherche des fibres textiles susceptibles de conférer aux tissus des fonctionnalités et
des caractéristiques nouvelles (par exemple pouvoir couvrant, anti transpiration,
toucher agréable, entretien facile, résistance à la lacération, résistance au feu,
résistance à la température pendant la mise en oeuvre, etc.) Il peut s'agir
d'optimisation de fibres classiques mais aussi d'utilisations nouvelles, sous formes de
fibres, de matériaux récemment développés ou encore de procédés nouveaux. Les
débouchés se trouvent dans la mode, les vêtements de loisirs et de sports. Les
nouvelles fibres peuvent cependant aussi être employées dans le secteur des
transports (sièges automobiles ou ferroviaires) et trouver d'autres applications
techniques.

• Polymères piézo-électriques, ferroélectriques et magnétiques


Les polymères piézo-électriques permettent de transformer une énergie mécanique en
énergie électrique. L'état actuel de la technologie limite les applications à la faible
puissance. Le coût de production est encore élevé. A plus long terme, on peut envisager
que d'autres polymères (ferroélectriques, magnétiques) puissent également
commander des actions.

• Revêtements de surface multifonctions


Les revêtements de surface correspondant à un ensemble de technologies diverses qui
ont pour objectif de conférer aux pièces des fonctions multiples : résistance à l'abrasion,
à la corrosion, protection thermique, propriétés tribologiques, propriétés tactiles, etc.).
Les principaux procédés de revêtement sont: - par voie humide: l'électrolyse,
l'électrophorèse, le dépôt chimique; - par voie sèche: le placage, le dépôt par
projection, le rechargement, le dépôt chimique en phase vapeur, le dépôt physique en
phase vapeur (évaporation, dépôt ionique, pulvérisation cathodique).

• Synthèse de molécules complexes

Pour les besoins de l'industrie chimique (notamment agro-chimie et colorants) et, plus
encore, de l'industrie pharmaceutique, on cherche à synthétiser par voie chimique des
molécules organiques de plus en plus complexes. Il faut donc, dans les meilleurs délais,
concevoir un schéma de production comportant plusieurs étapes qui aboutisse à une
molécule donnée et puisse être industrialisé dans les meilleures conditions de fiabilité,
de sécurité et de rentabilité.

Energie

• Composants électroniques de moyenne puissance


Les composants électroniques de moyenne puissance (entre 100 W et 100 kW) sont
utilisés pour le contrôle de l'énergie à moyenne puissance. Ils trouvent des applications
dans la commande de moteurs et dans les alimentations en énergie, principalement
pour l'automobile et l'électroménager.

• Contrôle commande des grands systèmes


La gestion des grands systèmes, comme les réseaux de communication, de transport et
de distribution de l'énergie, ou encore les raffineries et les centrales nucléaires, fait
appel à des technologies de contrôle commande extrêmement complexes. Par exemple,
dans les cas de l'exploitation d'un réseau électrique, le système de contrôle commande
doit fournir une certaine marge de sécurité en cas d'incident tout en conduisant le
réseau de façon optimale du point de vue économique. L'utilisation de l'intelligence
artificielle tend à se généraliser dans la conduite de ces grands systèmes: par exemple
pour l'analyse des alarmes, la remise en service, l'évaluation des risques, le diagnostic
de fonctionnement...

• Conversion de la biomasse
La biomasse, constituée de l'ensemble de la matière végétale, est une véritable réserve
d'énergie. Les ressources en biomasse sont de trois types : la biomasse forestière, la
biomasse agricole et la biomasse aquatique. Il existe deux technologies pour récupérer
l'énergie contenue dans la biomasse, selon la nature de la matière végétale. La
première, thermochimique, est adaptée aux matériaux secs comme le bois et la paille.
La seconde, biologique, convient mieux aux produits humides. La filière
thermochimique recouvre trois types de techniques de conversion: la combustion, la
carbonisation et la gazéification. La filière biologique met en jeu des processus
microbiologiques qui ont pour effet de dégrader la matière végétale. On distingue la
fermentation méthanique, la fermentation alcoolique et la fermentation
acétonobutylique.

• Eclairage domestique à faible consommation


L'éclairage représente une consommation énergètique importante. le marché grand
public est le plus important et il représente le principal "gisement" d'économies
d'énergie. Des technologies reposant sur la fluorescence permettent, par rapport aux
ampoules à incandescence traditionnelles, de réduire significativement la
consommation et d'allonger la durée de vie.

• Maintenance des grands systèmes


La maintenance des grands systèmes doit être pensée en fonction d'au moins deux de
leurs caractéristiques : leur complexité et les conséquences économiques de leur arrêt
pour cause d'incident ou de panne. La maintenance de ces grands systèmes s'appuie
sur des outils d'aide au diagnostic, mais aussi d'assistance aux opérations de
maintenance. Mais au-delà de cette maintenance corrective, il y a l'aspect plus
important de la maintenance préventive qui vise à diminuer les risques de panne.
L'utilisation de systèmes experts est une solution qui semble se développer de plus en
plus.

• Nucléaire propre et sûr


Les technologies nucléaires visent deux objectifs complémentaires: la réduction des
déchets et l'accroissement de la sécurité. Si le nucléaire n'émet ni gaz à effet de serre
tel que le dioxyde de carbone (CO2), ni polluant acide du type dioxyde de soufre (SO2)
OU oxyde d'azote (NO2), les centrales nucléaires rejettent dans l'environnement de trés
faibles quantités de produits radioactifs qui se diluent dans l'air ou dans l'eau. Ces
rejets doivent être contrôlés et réduits au maximum. La fin du cycle nucléaire appelle
des solutions spécifiques pour préserver l'environnement à long terme. La gestion des
combustibles usés impose une destination finale satisfaisante. La sûreté est, à
l'évidence, l'un des points majeurs soulevés par l'exploitation de l'énergie nucléaire à
des fins civiles. Si le principe d'une centrale nucléaire peut paraître simple, en revanche
les technologies mises en oeuvre sont complexes. Les phénomènes en présence (la
maîtrise de la réaction en chaîne, notamment), les puissances en jeu font que la sûreté
nucléaire est une exigence qui doit s'exprimer à tous les stades : de la conception à la
construction et à l'exploitation.

• Photovoltaïque
La conversion photovoltaïque permet d'obtenir de l'énergie électrique à partir de
l'énergie solaire. La cellule photovoltaïque la plus courante utilise le silicium. Le
développement de ce type de convertisseur énergétique repose essentiellement sur le
choix des matériaux semi-conducteurs qui le composent, car de ce choix découle le
coût de la cellule. Le silicium nanocristallin, très pur, est d'un rendement satisfaisant
(environ 20 %) mais d'un coût prohibitif. Le silicium multicristallin, moins pur, est d'un
coût moins élevé et d'un rendement plus faible. Le silicum amorphe permet d'obtenir
des cellules d'un prix de revient intéressant, mais son faible rendement en limite
l'application à des appareils de petite puissance. Sont à l'étude le tellure de cadmium
(CdTe) et le cuivre-indium sélénium (CIS), ainsi que des procédés qui permettront
d'obtenir un meilleur rendement.

• Production pétrolière par grands fonds


La recherche de nouveaux gisements pétroliers ou gaziers se déplace vers des zones
maritimes de plus en plus profondes. On considère qu'un tiers des réserves mondiales
sont à grande profondeur d'eau (supérieure à 200 m). L'exploitation de ces gisements
devrait doubler, pour représenter à la fin de cette décennie environ 50 % de la
production off-shore. La majeure partie de la production off-shore provient,
actuellement, de puits situés sur le plateau continental. Il existe deux types de
technologies : - avec plate-forme ancrée (c'est la technologie utilisée aujourd'hui) ; -
sans plate-forme (les installations sont posées sur le fond de la mer et les têtes de puits
sont télécommandées depuis la surface. Des canalisations amènent le produit extrait
vers une plate-forme classique située en eau moins profonde).

• Récupération optimisée du pétrole


Afin d'améliorer le rendement des champs pétrolifères, il est indispensable de
développer des techniques de récupération optimisée du pétrole. En effet, ce n'est
qu'environ 20 % du volume de brut (selon la qualité de l'huile et du gisement) qui est
récupéré par pompage (récupération primaire). La récupération assistée ou secondaire
consiste à injecter de l'eau ou du gaz dans le gisement qui " pousse " le pétrole restant
vers les systèmes d'extraction. Ces techniques permettent de récupérer, en moyenne,
un tiers des réserves disponibles. La récupération tertiaire met en oeuvre es techniques
dont certaines sont encore au stade expérimentale: injection de vapeur,
d'hydrocarbures miscibles ou d'eau additionnée de divers produits chimiques. Ce type
de récupération porte le taux d'extraction à 40, voire 50 %. D'importants progrès
peuvent encore être accomplis.

• Stockage et transport du gaz naturel liquéfié


Une fois extrait du sous-sol et épuré, le gaz naturel doit parvenir aux lieux de
consommation: on utilise des gazoducs ou des navires méthaniers. Dans les gazoducs,
le gaz circule sous pression et est recomprimé à des intervalles de 80 km environ. Le
problème essentiel est celui de la détection des fuites éventuelles. Le transport du m_
éthane par voie maritime exige la liquéfaction du gaz à la pression atmosphérique et à
une température de -160 C. Cette opération réduit de 600 fois le volume du méthane
par rapport à son état gazeux. Ces navires utilisent des aciers et des alliages spéciaux.
La consommation de gaz subissant des variations saisonnières importantes, le stockage
doit amortir les à-coups de la demande. En France, deux techniques sont utilisées: le
stockage en nappe aquifère profonde, entre 200 et 400 m, est la technique la plus
répandue; le stockage en cavité saline, entre 900 et 1400 m, est un procédé plus
récent.

• Traitement des fumées résultant de la combustion du charbon et des déchets

En France, la part du charbon dans le marché énergétique résidentiel est très modeste:
environ 2 %. Dans l'industrie, L'intérêt économique du charbon est remis en cause par
l'évolution générale des prix de l'énergie. Le débouché essentiel actuel est celui des
centrales électriques. Le charbon contribue pour 7,4 % à la production totale brute
d'électricité, et il joue un rôle essentiel dans le " bouclage " du système énergétique lors
des aléas climatiques et de la demande. La combustion (mais aussi la pyrolyse et la
méthanisation) des différents types de déchets, urbains et industriels, permet de
récupérer une partie de l'énergie qu'ils contiennent. Cette combustion se traduit par
des émissions de composants plus ou moins polluants. Les techniques de traitement
des fumées doivent limiter au maximum ces effets.

Bâtiments et infrastructures

• Bétons à performances optimisées


L'optimisation des performances du béton concerne aussi bien ses qualités de mise en
oeuvre (fluidité, vitesse de prise, durabilité, aspect, réduction du prix) que ses
performances proprement dites. Elle est fonction des contraintes spécifiques relatives à
chaque partie de l'ouvrage (résistance aux sollicitations mécaniques, thermiques,
chimiques). Cette optimisation est obtenue notamment par l'utilisation d'adjuvants, de
poudres réactives, de granulats.

• Entretien/réhabilitation des réseaux d'eau et d'assainissement


L'entretien et la réhabilitation des réseaux d'eau et d'assainissement font appel à un
ensemble de techniques de diagnostic de l'état des ouvrages, de mesures et
d'intervention. Les mesures portent notamment sur la dégradation des performances
(étanchéité, débit), la conformité des branchements, le repérage rapide des sections
défectueuses. Les techniques d'intervention visent plusieurs objenifs: rapidité,
économie, impact réduit pour les usagers des voies publiques.

• Gestion de l'air dans les bâtiments


La gestion de l'air (ou génie climatique) dans les bâtiments d'habitation et
professionnels (usines, bureaux, hôpitaux) vise trois domaines principaux: le confort
(thermique, hygrométrique), la salubrité (poussières, germes pathogènes) et la
consommation d'énergie. Son champ d'application concerne non seulement les
bâtiments nouveaux mais également l'aménagement des bâtiments anciens. Sa
maîtrise relève tout autant d'une approche scientifique, qui en est encore au stade de la
recherche (modèles de diffusion), que de l'utilisation de systèmes de mesure et de
régulation.

• Gestion des ressources en eau


La gestion des ressources en eau permet de disposer de ressources suffisantes, en
termes de qualité et de quantité, face à l'augmentation continue des consommations et
à la dégradation du milieu naturel, indépendamment des risques consécutifs aux
périodes de sécheresse. Elle concerne principalement la prospection (localisation,
mesure), le stockage et l'interconnexion des bassins.

• Outils de connaissance du vieillissement des ouvrages de BTP


La connaissance des ouvrages de BTP a deux objets principaux : leur vieillissement et
leurs pathologies. Les outils qui permettent cette connaissance relèvent tant de
disciplines théoriques (modèlisations mathématiques, physiques, chimiques) que de
l'utilisation de procédures continues ou discontinues de contrôle faisant appel à des
capteurs capables (ou non) de traiter l'information (mesures des sollicitations, des
déformations, de l'étanchéité, etc.).

• Techniques d'exécution des travaux souterrains

Les travaux souterrains ont trois domaines majeurs d'applications: l'aménagement de


l'espace urbain (transports, parkings, développement des réseaux), les infrastructures
de transports (tunnels) et les stockages (énergie, déchets). Ils s'appuient sur des
disciplines théoriques (théorie des ouvrages, maîtrise des problématiques liées aux
grandes distances, à la profondeur et à la variété des terrains) et des études
scientifiques (géologie), ainsi que sur la mise en oeuvre de techniques et d'équipements
utilisés dans la construction (bétons optimisés, tunneliers, micro-tunneliers, suivi du
vieillissement des ouvrages, équipements de forage, havage...).

Technologies organisationnelles et d'accompagnement

• Analyse de la valeur, analyse fonctionnelle, conception coût-objectif


Plusieurs méthodes d'analyse permettent, sous la contrainte d'impératifs
prédéterminés, de définir les différentes fonctions d'un produit et de les hiérarchiser
selon l'importance objective et subjective accordée à chacune d'elles par l'utilisateur ou
le consommateur. L'analyse fonctionnelle est une démarche à caractère général qui
consiste à rechercher, ordonner, caractériser, hiérarchiser et/ou valoriser les fonctions
d'un produit. Appliquée à la création ou à l'amélioration d'un produit, elle est un
élément fondamental de l'analyse de la valeur, principalement pendant les phases
d'expression des besoins et de spécifications fonctionnelles. L'analyse de la valeur est
une méthode opérationnelle et créative visant la satisfaction du besoin de l'utilisateur
par une démarche prenant simultanément en compte les fonctions et les coûts. La
conception pour un coût objectif (CCO) est une méthode de gestion de projet sous la
contrainte d'un objectif de coût prédéterminé et fixé indépendamment de toute
référence à des coûts de solution.

• Documentation et rédaction des manuels


Plusieurs méthodes d'analyse permettent, sous la contrainte d'impératifs
prédéterminés, de définir les différentes fonctions d'un produit et de les hiérarchiser
selon l'importance objective et subjective accordée à chacune d'elles par l'utilisateur ou
le consommateur. L'analyse fonctionnelle est une démarche à caractère général qui
consiste à rechercher, ordonner, caractériser, hiérarchiser et/ou valoriser les fonctions
d'un produit. Appliquée à la création ou à l'amélioration d'un produit, elle est un
élément fondamental de l'analyse de la valeur, principalement pendant les phases
d'expression des besoins et de spécifications fonctionnelles. L'analyse de la valeur est
une méthode opérationnelle et créative visant la satisfaction du besoin de l'utilisateur
par une démarche prenant simultanément en compte les fonctions et les coûts. La
conception pour un coût objectif (CCO) est une méthode de gestion de projet sous la
contrainte d'un objectif de coût prédéterminé et fixé indépendamment de toute
référence à des coûts de solution.

• Ergonomie des postes de travail et des produits professionnels


L'ergonomie des postes de travail a pour finalité la transformation des situations de
travail, non pas seulement dans leurs aspects techniques mais aussi dans leurs aspects
socio-organisationnels, de façon à ce que le travail puisse être réalisé dans le respect
de la santé et de la sécurité des hommes et avec le maximum d'efficacité économique.

• Ergonomie des produits de grande consommation


L'ergonomie est une démarche qui repose sur l'observation et l'analyse de l'utilisation
du produit par un panel correspondant à sa cible, dans une situation aussi proche que
possible du réel, afin de repérer les difficultés rencontrées par les utilisateurs et d'y
remédier. L'ergonomie ne prend pas seulement en compte les caractéristiques
objectives du produit mais également la perception subjective qu'en a le consommateur
du fait de sa culture et de ses habitudes.

• Etiquettes électroniques
Les étiquettes électroniques sont des cartes ou des badges dotés d'une mémoire
assortie (ou non) d'une capacité de traitement de l'information. Attachées à un porteur
quelconque (par exemple un produit en cours de fabrication) elles permettent, sans
contact physique avec un système de lecture, d'identifier automatiquement ce porteur
et d'opérer le traitement attendu (usinage, comptage, ouverture de portes, etc.). Les
étiquettes électroniques sont en fait une petite partie d'un système complexe de
production, de gestion et de contrôle facilitant non seulement les opérations
industrielles mais également celles qui sont liées à la logistique et à la grande
distribution.

• Gestion de l'information logistique en temps réel appliquée à la gestion des flux


La gestion logistique en temps réel permet de gérer au plus juste les stocks en liaison
continue avec la vente et la production: elle rend possibles des délais de livraison plus
courts et la reconstitution rapide des stocks. Son enjeu est donc principalement
économique et concerne toutes les activités avec un large éventail de produits et de
variantes. Un système logistique intégré permet de centraliser en temps réel les
informations sur les articles vendus dans le monde entier et de les transmettre à la
production. Sont principalement concernées les industries manufacturières et les
grandes sociétés de distribution.

• Ingéniérie simultanée
L'ingénierie simultanée fait travailler en parallèle les différentes équipes qui,
auparavant, intervenaient de façon successive, depuis la phase de recherche jusqu'au
lancement en fabrication. C'est un mode d'organisation particulièrement approprié à la
gestion de projet dans les industries manufacturières car elle permet de mobiliser
l'ensemble des connaissances et des savoir-faire d'une entreprise selon une vision
intégrée du produit. L'ingénierie simultanée utilise les technologies de la
communication (téléréunion, réseaux locaux, logiciels de travail coopératif, mais il lui
faudra intégrer également des méthodes de créativité, de résolution de conflits, ou
encore l'intégration multi-point de vue.

• Méthodes de mise en oeuvre de la qualité


La qualité est une notion complexe intégrant non seulement les caractéristiques
physiques objectives du produit, mais également l'appréciation subjective que le client
en a (la qualité perçue): elle moilise donc des contrôles techniques et le suvi
d'indicateurs de satisfaction (réponses des clients à des questionnaires, taux de
retours...), ainsi que des techniques de métrologie sensorielle;Mais au-delà de ces
procédures, la qualité résulte d'une organisation conçue dans ce but et d'une volonté
affirmée à tous les échelons de la hiérarchie de l'entreprise.

• Métrologie sensorielle
La métrologie sensorielle vise à mieux cerner les perceptions et les évaluations
subjectives du consommateur, et à les objectiver en les corrélant avec des propriétés
physiques mesurables sur le produit ou en cours de fabrication. Elle tend à élaborer de
nouveaux instruments de mesure susceptibles de qualifier le goût, l'odorat, le toucher,
la vue et l'ouïe.

• Modèles d'amélioration de fiabilité et de simulation des risques


Les modèles d'amélioration de fiabilité et de simulation des risques concernent non
seulement des produits complexes, mais aussi des équipements travaillant au sein de
systèmes. Ils font appel à des plans d'expérience (c'est-à-dire à la codification des
connaissances accumulées dans la conduite d'une opération), au contrôle statistique
des procédés (c'est -à-dire l'intégration de l'historique de fonctionnement d'un procédé
pour en prévoir les performances et les défaillances sur une base statistique), ainsi qu'à
des simulations intégrant des hypothèses d'évènements divers pouvant provenir de
tous les niveaux de la chaîne logistique.

• Modélisation de la sociologie des organisations


La modélisation de la sociologie des organisations permet d'exploiter certains acquis
des sciences sociales et humaines afin de simuler, et donc d'anticiper, les
comportements sociaux. Le but de cette modélisation est de concevoir et de mettre en
place des organisations hautement opérationnelles, tant dans une perspective
d'organisation efficace du travail que dans celle de la prévention de
dysfonctionnements éventuels.
• Outils de gestion de projets complexes
La gestion des projets complexes a pour objet la maîtrise des grands chantiers liés, par
exemple, à la réalisation d'ouvrages de BTP, d'unités de production (usines, centrales
nucléaires) ou encore au développement de produits de haute technologie
(aéronautique, transports). C'est un système d'organisation qui mobilise les
technologies informatiques et de communication, mais également des méthodes et
pratiques telles que l'ingénierie simultanée, le "groupware", la simulation dynamique, la
sociologie des organisations. La gestion des projets complexes est un important facteur
de compétitivité au niveau international sur des grands chantiers (centrales hydro-
électriques, métros, complexes architecturaux).

• Prototypage rapide
Le protypage rapide (ou maquettage rapide) permet de réaliser automatiquement et
très rapidement des pièces "prototypes" dont la géométrie et les dimensions sont très
proches de celles qu'aura le produit final. Il utilise des logiciels de design industriel
commandant des dispositifs de formage de la matière. Le prototypage rapide fait appel
à diverses technologies (prototypage utilisant le laser : fabrication par découpe et
laminage, stéréolithographie, frittage ; prototypage sans laser : dépôt de fil fondu,
flashage couche par couche, projection de colle, de cire ou de plastique). Les
recherches tendent à rendre possible l'utilisation, en prototypage rapide, des mêmes
matériaux que ceux qui seront employés pour la fabrication du produit final.

• Sûreté de fonctionnement

La sûreté de fonctionnement est obtenue par la qualité des produits (ou des systèmes),
mais aussi par des techniques spécifiques. Celles-ci font appel à une modélisation
intelligente applique au fonctionnement des systèmes de gestion et de maintenance
assistée par ordinateur (GMAO). Ces systèmes, en intégrant des hypothèses
d'événements divers et aléatoires, sont capables de prédire les dysfonctionnements et
de prévenir l'opérateur avant qu'il ne soit trop tard. Bien entendu, une telle démarche
d'anticipation n'évite pas de procéder au suivi du fonctionnement par des contrôles
opérés de façon continue ou discontinue.

Production, instrumentation et mesure

• Capteurs intelligents
Les capteurs intelligents sont des dispositifs capables non seulement de détecter et de
mesurer un phénomène quelconque, mais encore de le traduire en informations et de
les traiter (c'est-à-dire de générer le déclenchement d'actions en fonction des
informations reçues). Les capteurs intelligents connaissent des applications dans tous
les domaines (production, environnement, santé, électroménager, automobile, etc.).

• Catalyse
La catalyse (qu'elle soit hétérogène, homogène ou enzymatique) intervient dans la
plupart des réactions chimiques industrielles. Elle rend possibles des réactions qui, sans
elle, ne se produiraient pas ou trop lentement. Elle permet une plus grande sélectivité:
ne produire que les produits souhaités (et donc réduire les problèmes
environnementaux). Elle peut améliorer l'économie d'un procédé en permettant
d'utiliser d'autres matières premières moins chères. Pour concevoir de manière
rationnelle de nouveaux catalyseurs, il faut comprendre au niveau moléculaire l'acte
catalytique lui-même. Le génie catalytique doit également améliorer les techniques de
mise en forme.

• Coulée directe et procédés continus d'élaboration de l'acier


La coulée directe et les procédés continus d'élaboration de l'acier visent à s'affranchir
des opérations classiques de transformation (par exemple le laminage à chaud ou les
traitements thermiques qui font appel à des équipements lourds et coûteux), de
manière à obtenir directement un produit utilisable par les utilisateurs industriels. La
coulée continue de brames minces (lingots aplatis d'une épaisseur de 20 à 50 mm) est
une première étape vers la coulée continue de tôles dont l'épaisseur sera comprise
entre 1 et 10 mm.

• Découpe
Les techniques de découpe concernées sont les procédés non conventionnels rendant
des services différents, ou même se substituant aux classiques outils de coupe
tranchants. Il s'agit de technologies comme le laser, la découpe au jet d'eau et l'usinage
par ultra-sons. La découpe au jet d'eau consiste à utiliser l'énergie cinétique de
particules d'eau (pure ou chargée de particules abrasives) projetées à grande vitesse,
de l'ordre de 1 000 m/s, sur le matériau à découper. L'usinage par ultra-sons est un
procédé de haute précision consistant à utiliser des vibrations en fréquences ultra-
sonores pour projeter de fines particules abrasives contre une pièce à éroder, couper,
graver ou percer.

• Désassemblage des produits en fin de vie


Les impératifs liés aux problèmes d'environnement et aux économies de matières
premières et d'énergie imposent de plus en plus de recycler les différents composants
dont sont constitués les produits, et donc de désassembler les produits en fin de vie. Il
s'agit de mettre au point de nouveaux outils (méthodes et technologies) pour le
démontage de produits (qui, souvent, n'ont pas étéconçus pour être désassemblés
facilement), de séparer les composants et de les recycler. Toutes les industries
manufacturières sont concernées par cette démarche, dans laquelle l'automobile joue
un rôle de pionnier. Les contraintes du désassemblage entraînent un surcoût que la
valorisation des composants récupérés ne compense pas complètement.

• Equipements pour unités de production de semi-conducteurs


Le processus de fabrication d'un circuit intégré à semi-conducteurs se divise
essentiellement en deux phases: - la diffusion (front end), procédure tres complexe,
consiste à réaliser la photogravure de la puce de silicium; - l'assemblage (back end),
procédure de précision hautement automatisée, permet de monter la puce sur son
boîtier, puis de tester le circuit qu'elle supporte. Les équipements qui permettent
d'enchaîner ces différentes opérations sont extrêmement complexes: il faut en effet
pouvoir gérer et contrôler des phénomènes tant physiques que chimiques, dans une
ambiance oú la pureté de l'air est essentielle pour éviter toute contamination.

• Essais non destructifs


Les essais non destructifs sont d'une application universelle dans l'industrie car ils sont
un facteur très important de la fiabilité, de la sécurité et de la qualité des produits et
des équipements. Les essais non destructifs constituent, en fait, une appelation
générique désignant de nombreuses technologies différentes (contrôle d'étanchéité,
magnétoscopie, radiographie X et gamma, neutronographie, ultra-sons, courants de
Foucault, méthodes thermiques et/ou acoustiques...).

• Microtechniques
Les microtechniques, grâce notamment à l'utilisation des technologies de gravure et
d'intégration mises au point dans le cadre de la micro-électronique, rendent possible la
création de produits ultraminiaturisés dont les dimensions vont du millimètre au
millième de millimètre. Les microtechniques recouvrent deux domaines principaux :
d'une part des dispositifs mécaniques (micromoteurs, microvalves, microrobots,
modules d'automatisme, etc.), d'autre part des appareils de détection, de mesure et
d'actionnement (microcapteurs, microcapteurs " intelligents "). L'association des
appareils de détection miniaturisés et des dispositifs micromécaniques permet
d'élaborer des produits complexes généralement désignés sous le terme de
microsystèmes.
• Procédés de séparation membranaire
Les procédés de séparation membranaire reposent sur les propriétés de rétention
sélective des membranes vis-à-vis des molécules d'un fluide (liquide ou gaz). Suivant la
taille des pores, on parle de microfiltration (taille des pores comprise entre 0,1 µm et 10
µm), d'ultrafiltration (0,1 à 0,001 µm) ou de nanofiltration. La mise au point d'un
procédé adapté à un besoin spécifique requiert généralement la combinaison et
l'assemblage de modules mettant en oeuvre différentes techniques membranaires.

• Robotique en milieu hostile


L'objet de la robotique en milieu hostile est d'opérer sans intervention humaine dans
des milieux de haute dangerosité (nucléaire, aérospatial, off-shore, militaire...), tant
dans une situation de fonctionnement normale des installations que pour leur
démantèlement, ou encore pour le traitement des conséquences de
dysfonctionnements faibles ou majeurs. Ce résultat est obtenu en maîtrisant trois
fonctions principales: interface homme machine, contrôle commande, systèmes
mécaniques.

• Spectrométrie de masse
La spectrométrie de masse, avec ses différents modes d'introduction de l'échantillon
(chromatographie en phase gazeuse ou en phase liquide, introdudion directe), a pour
objet la détermination de la masse atomique ou moléculaire de composés chimiques et
l'identification des substances qui les composent. Les composés chimiques qu'elle
permet d'analyser peuvent être des mélanges complexes à l'état gazeux, liquide ou
solide. Sa haute sensibilité en fait un excellent outil, par exemple pour déterminer la
nature d'une pollution dans l'environnement, ou pour rechercher des impuretés lors de
la fabrication de produits chimiques. Cette technologie se diffuse rapidement dans le
domaine des biotechnologies, ses développements permettant d'étudier la structure de
molécules de masse moléculaire élevée (protéines, peptides).

• Systèmes de gestion de l'ultrapureté pour l'électronique

Le processus de fabrication des composants électroniques ne tolère aucun défaut. Les


matériaux utilisés et l'environnement de fabrication doivent être exempts de toute
impureté. La gestion de cet impératif concerne donc plusieurs aspects : pureté des
matériaux semi-conducteurs, des gaz utilisés et des produits chimiques destinés au
lavage des produits, propreté de l'air ambiant ("salles blanches").