Vous êtes sur la page 1sur 17

Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

OLIVIER BARRE (1) , YANN PANKOW 2)

(1) Lycée G.EIFFEL , France, Email : olivier.barre@ac-lille.fr.

(2) LABORELEC, Belgique

olivier.barre@ac-lille.fr . ( 2 ) LABORELEC, Belgique Résumé : Les premiers pas de l’industrie de production,

Résumé : Les premiers pas de l’industrie de production, de transport et de distribution de l’énergie électrique commencèrent en 1882 quand les dynamos de la « Edison Electric Light Compagny » produisirent le courant nécessaire aux 1 200 lampes et lampadaires installés dans les quartiers New-Yorkais de Wall Street et Manhattan. Même si l’avenir montra que le courant alternatif était le plus intéressant, il n’en est pas moins vrai que cette première expérience provoqua, en très peu de temps, la création de l’ensemble des équipements que l’on connait aujourd’hui. Qui n’a pas une fois dans sa vie changé un fusible ou réenclenché un disjoncteur ? Techniquement, la concentration des unités de production est avantageuse pour accroitre les rendements des équipements. Les densités énergétiques des sources primaires non renouvelables facilitent cet objectif. Les sources vertes, dites renouvelables, n’ont pas cette caractéristique. De plus, leur disponibilité est loin d’être parfaite et rend difficile la gestion de la production par rapport à la demande. Les anciennes règles bien établies évoluent. Il faut, par exemple, prendre en compte des phénomènes aussi simples que les aléas météorologiques. Ceux-ci sont non seulement des éléments perturbateurs pour la consommation, le vent nous conduit à chauffer nos habitations, mais sont aussi des sources pour la production. La production, utilisant les énergies vertes, n’est donc pas une production idéale et elle tend à réduire les perturbations qu’elle peut occasionner. Finalement, ces nouveaux générateurs vont-ils être acceptés comme source d’énergie à part entière ?

1.

Introduction

En 1887, Edison avait promis que l’énergie électrique serait tellement bon marché que seuls les « riches » pourraient continuer à s’éclairer à la bougie. Cette promesse d’un autre âge nous rappelle les débuts de l’utilisation de l’énergie électrique où elle était considérée comme la seule source d’énergie d’avenir. Cela ne masque cependant pas le fait que sans source d’énergie primaire, les centrales électriques sont dans l’incapacité de délivrer cette précieuse marchandise et sans ligne de transport, celle-ci ne peut pas arriver au point d’utilisation. Les premières lignes électriques transportaient du courant continu et il fallait installer une centrale tous les deux miles pour compenser les pertes. Il n’y avait, bien sûr, pas de chutes d’eau exploitables tous les deux miles. Le conflit, qui opposa Edison à Westinghouse, vit la victoire du courant alternatif. La première centrale hydroélectrique du monde, la « Niagara Falls Power Company » se mit au courant alternatif et en 1896 la distribution de l’énergie électrique en courant alternatif se généralise. Pourtant, pour certaines applications, comme le transport sur les longues distances, les pertes en courant continu sont plus faibles.

2. Production à la demande.

La principale caractéristique de ce vecteur d’énergie est sa difficulté à être stocké. Les condensateurs arrivent à des densités d’énergie proches de 20 Wh/kg et les cellules de polymère de lithium peuvent atteindre 150 Wh/kg. Le résultat est, que globalement, il est difficile d’atteindre les 12 000 Wh/kg du pétrole. En poursuivant la comparaison, nos ordures ménagères avec 2 500 Wh/kg semblent plus prometteuses. Dans une structure où le stockage est difficile, il faut produire la quantité demandée par les utilisateurs et prévoir, bien à l’avance, les possibilités d’adaptation [1]. L’énergie électrique se stocke mal, se transporte avec des pertes non négligeables mais heureusement elle est facile à produire avec un bon rendement (Fig. 1). De plus, la mutualisation des sources est un des éléments qui palie aux difficultés de stockage ou à la défaillance d’une source.

Il est enseigné, dans toutes les filières associées au génie électrique, que la fréquence de la tension délivrée par le réseau est de 50 Hz. Cette constatation se double généralement d’une conclusion sur l’invariabilité de

Figure-1 : Avec une production centralisée, de meilleurs rendements peuvent être obtenus au niveau des

Figure-1 : Avec une production centralisée, de meilleurs rendements

peuvent être obtenus au niveau des équipements de production. Il faut

assurer le transport

et la distribution

de

l’énergie au mieux de la

consommation pour ne pas perdre les effets positifs de la concentration

de la production.

cette fréquence. Il est exact que, pour qu’un générateur puisse être raccordé au réseau électrique, il doit, avant toute chose, se synchroniser sur la fréquence du réseau ainsi que sur sa phase et ses niveaux. Tout couplage au réseau avec des paramètres différents engendrera de sévères pointes de courant. En réalité, la fréquence du réseau varie, car c’est le premier moyen qui permet d’adapter la production à la demande [2]. Une variation naturelle de la fréquence, c'est-à-dire de la vitesse de rotation des générateurs, apparaît dès que la puissance mécanique envoyée aux générateurs n’est plus équilibrée par la puissance électrique absorbée par les utilisateurs. Pour éviter des variations brutales de puissance consommée ou de puissance produite, les réseaux de transport sont au moins de taille nationale. Si une région perd accidentellement une unité de production, la défaillance est moins préjudiciable si les autres unités de production nationale peuvent la compenser. Cette sûreté de fonctionnement a toutefois un coût : elle ne peut être assurée que si le réseau national de transport peut acheminer ce manque de puissance vers la région concernée. Par sécurité, il ne faut donc pas utiliser les lignes au maximum de leurs possibilités en fonctionnement normal. Cela impose des définitions de besoins d’infrastructure à très long terme [3] [4] [5].

L’histoire montre que les plus grandes catastrophes sont les conséquences d’incidents insignifiants mais dont la réunion provoque un effet dévastateur. Lors du naufrage du Titanic, les vigies n’avaient pas de jumelles car elles étaient introuvables depuis le départ. De plus, la mer était trop calme et aucune écume

blanche révélatrice ne pouvait entourer l’iceberg qu’il allait bientôt percuter. Le 28 septembre 2003, le réseau électrique italien s’est écroulé vers 3h30 du matin [6]. Le 4 novembre 2006 le réseau Nord Européen suit la même logique [7]. Pour la panne d’origine italienne, le premier élément est la part très importante d’énergie électrique importée pour assurer le fonctionnement du pays à cet instant. L’ensemble des liaisons avec les états limitrophes permettait d’importer jusqu'à 6 000 MW. Les puissances les plus importantes transitaient par la France et par la Suisse. Cette nuit là, deuxième élément, l’importation était déjà au dessus de cette valeur (6 400 MW environ). Le gestionnaire du réseau italien avait toutefois en réserve 3 500 MW. L’une des liaisons avec la France subit un incident technique et la puissance fut répartie temporairement sur les autres ouvrages déjà bien chargés. Hélas, côté italien, le gestionnaire ne fut pas en mesure de rétablir une situation stable dans les délais impartis. Par mesure de sécurité, les ouvrages acceptent une surcharge pendant un temps limité et se mettent automatiquement hors tension. Finalement, l’un des ouvrages de liaison a déclenché à 3h25 entraînant avec lui les autres ouvrages permettant l’exportation d’énergie électrique vers l’Italie. En quelques minutes, la déconnexion de l’Italie se fit et les 6 400 MW produits en Europe ne sont plus utilisés. L’ensemble des générateurs monte en vitesse face à un surplus général d’énergie mécanique. Une augmentation de 0,2 Hz de la fréquence de base est ainsi enregistrée. En Italie, les conséquences furent plus désastreuses… Ne pouvant compenser la perte de puissance engendrée par la déconnexion avec les autres pays Européens, le réseau italien complet s’est mis en sécurité. Il est maintenant clair que la fréquence est un indicateur de la bonne adéquation de la puissance produite et de la puissance consommée.

L’Europe a connu en 2006 une panne similaire. C'est-à-dire, l’effondrement du réseau suite à la perte d’un ouvrage. Cet évènement a pris naissance dans le nord de l’Allemagne, lors de la sortie d’un navire de croisière du chantier Meyer. Une ligne à haute tension, sous laquelle ce navire allait passer, devait par mesure de sécurité être mise hors service. L’opération, prévue bien à l’avance et ayant fait l’objet de simulation, fut avancée de quelques heures. Toutefois, il semble que celle-ci se soit déroulée encore bien plus tôt. L’énergie transitant sur cette ligne fut reportée sur les ouvrages voisins qui subirent une surcharge immédiate. Le temps de réaction des sécurités ne permit pas aux opérateurs de rétablir une situation stable et cet incident a conduit au déclenchement en cascade des lignes à

haute tension européennes. Finalement le réseau Européen s’est scindé en trois zones (Nord, Nord-est et Sud-est), comme l’équilibre énergétique n’était pas réalisé dans chaque zone, les fréquences respectives de ces réseaux ont évolué. En particulier, la fréquence dans la zone Nord-est est montée jusqu’à 51 Hz (50 Hz nominale).

Ces quelques exemples ont fait naître l’idée selon laquelle l’interconnexion des réseaux est un principe périmé et générateur de blackout de très grande ampleur [8]. Il ne faut cependant pas oublier que l’interconnexion est un processus qui date de l’origine des réseaux électriques (début du XXème siècle) [8]. La standardisation au niveau de la fréquence a permis d’associer les différents réseaux indépendants et de générer des économies d’échelles. Il était ainsi plus facile de valoriser des ressources énergétiques, géographiquement éloignées des centres de consommation. L’interconnexion permet d’apporter l’énergie dont on ne dispose pas ou plus sur place. Avec les énergies renouvelables, cette remarque prendra de plus en plus d’importance. Que fera-t-on les jours sans vent à proximité des éoliennes [9]… Dans une situation où les sources d’énergies renouvelables sont avant tout des sources diluées, il n’est pas envisageable de se passer de l’interconnexion des réseaux. Les éoliennes, les panneaux solaires, les hydroliennes, les barrages… ne sont pas obligatoirement à proximité des villes ou des centres industriels. Ils sont avant tout placés là où il y a du vent, un bon ensoleillement, des courants marins puissants, une vallée encaissée aisément transformable en lac artificiel… Quand cette interconnexion est abordée au niveau Européen, la problématique du

Figure-2 : Répartition du transport d’une puissance de 100 MW entre la suisse et l’Allemagne.

Figure-2 : Répartition du transport d’une puissance de 100 MW entre la

suisse et l’Allemagne. 40 % peuvent transiter directement entre ces deux

pays et 27% doivent faire un détour dans plus de 2 pays successifs.

(Source : Cours de J.L. Julien – Univ. Liège)

transport devient plus évidente. Un pays qui ne bénéficie pas d’un ensoleillement favorable ira naturellement chercher son électricité d’origine photovoltaïque dans un pays mieux exposé. La figure N°2 illustre le cheminement d’un transfert de 100MW de la Suisse vers l’Allemagne. Seul 40% de ces 100MW peuvent directement transiter entre ces deux pays [10]. Heureusement, ces transferts sont actuellement fictifs : l’énergie en provenance de Suisse peut être consommée par les régions françaises adjacentes et l’énergie envoyée à l’Allemagne peut être produite par des centrales françaises plus proches.

3. Les limites de la prévision.

Dans la recherche de l’adéquation entre la production et la consommation, il n’est pas suffisant de se limiter à l’examen de la fréquence de la tension du réseau. Tous les opérateurs savent, qu’il faut impérativement prévoir la consommation, pour mettre en action les bons moyens de production et ceci de manière économiquement rentable.

Pour mettre en évidence la nécessité d’avoir une prévision fiable, il suffit de reprendre un chiffre donné par une étude anglaise [11]. Une prédiction, dont la précision diminue de 1% engendre un surcoût de plusieurs millions de £. A contrario, une bonne prédiction permet de ne pas exagérer les réserves. Réaliser des prévisions de productions ne peut se faire qu’en ayant une bonne image des flux d’énergies électriques nationaux. Savoir que la demande va baisser ou augmenter, permet de programmer le fonctionnement des centrales. Il faut aussi, pour chaque région, avoir une bonne image des flux d’énergies internes. Par exemple, une région peut voir sa consommation baisser et une autre, augmenter. Même si ces deux évènements s’équilibrent, ce n’est pas pour autant que les centrales ne doivent pas modifier leur production. Si la région qui voit sa consommation augmenter est le sud et celle qui voit sa consommation baisser est le nord, il serait assez peu judicieux de fournir le manque d’énergie par l’intermédiaire d’une centrale située à plus de 800 kms.

Pour mieux mettre en évidence les aspects bénéfiques de la prévision, un exemple issu d’une étude américaine va servir de support [11]. En 1999, une étude fut réalisée sur l’un des réseaux électriques de Chicago, Illinois. Ce réseau, de conception classique, desservait des quartiers d’habitation ; les puissances mises en jeux atteignaient 1 300 kW. La source d’énergie était une centrale au charbon dont la commande principale était le flux de charbon vers la

chaudière. En se limitant à cette zone restreinte d’investigation et en limitant la variable d’action à ce seul flux, il était possible d’évaluer l’impact des méthodes de prédiction sur la stabilité du réseau. L’adaptation aux évolutions de la consommation a conduit les concepteurs à utiliser les réseaux de neurones. Le réseau de neurones repose sur l’utilisation de neurones élémentaires associés entre eux pour arriver à produire une décision. Le fonctionnement d’un neurone élémentaire n’est pas figé car les paramètres associés, comme les coefficients synaptiques, peuvent être modifiés à tout moment. Tout comme les neurones réels, il faut une phase d’apprentissage. Face à des situations ponctuelles, définies comme situation d’apprentissage, Le réseau s’adapte de manière à se conformer aux décisions déjà prises. Le réseau peut ainsi se modifier au fur et à mesure sans pour autant perdre ses règles antérieures. Les prédictions issues des réseaux de neurones ne sont jamais conformes aux consommations réelles mais restent meilleures que celles issues des méthodes conventionnelles. Il apparait finalement, qu’au moyen de cette étude, la prédiction est suffisante pour que le système de production ne soit pas sollicité à l’excès. Le différentiel de puissance existant entre la prédiction et la demande réelle est suffisamment faible pour être totalement pris en charge par la centrale. C'est-à-dire, que la centrale ne sera pas dans une situation où elle est en limite de fonctionnement, la commande de la chaudière n’atteindra jamais 100%. Elle pourra toujours fournir à temps l’énergie électrique demandée, sans pour autant se servir de l’énergie mécanique stockée dans ses éléments tournants. Ainsi, la stabilité de fréquence sera parfaite. Il est apparu dans cette étude un élément intéressant : c’est l’influence de la météo. Les baisses de température vont bien sûr augmenter la consommation d’énergie électrique, mais ce phénomène se rencontre aussi avec les fortes chaleurs. L’utilisation massive des climatiseurs provoque un appel de puissance électrique, d’autant plus difficile à prévoir qu’il est lié au niveau d’équipement des foyers. L’intérêt du réseau de neurones est d’autoriser une adaptation automatique à l’introduction de nouveaux types de récepteurs.

Cet exemple montre bien que la prévision de la demande est indispensable à la bonne stabilité du réseau de production et de distribution. En restant à un niveau local, l’aspect transport sur de longues distances n’est pas pris en compte et le choix d’une zone résidentiel n’est pas représentatif de l’ensemble d’un

territoire.

publié un état de l’art en 2001 sur les travaux réalisés et

L’ « Electric Power Researche Institute » a

les perspectives d’avenir [11]. Plusieurs méthodes, permettant d’accroitre la précision de la prédiction et diminuer les coûts de fonctionnement, furent étudiées. Les réseaux de neurones, de part leurs capacités d’adaptation à des systèmes complexes, sont incontournables. Ils sont maintenant couplés à la logique floue pour intégrer des paramètres plus subjectifs. Le résultat est que, finalement, les prédictions sont à moins de 5% d’erreur. Les évènements inhabituels restent toutefois des obstacles pour les méthodes de prévisions. Les incidents sur les lignes sont très difficilement pris en compte. Ils sont trop rares et trop hétéroclites, pour qu’un système neuronal puisse construire une commande adaptée. Comment déduire une tendance de la consommation lors de l’effondrement d’une ligne à haute tension ?

Les Etats-Unis, en mettant en œuvre la dérégulation, ont introduit une nouvelle contrainte sur

la gestion du réseau électrique. L’aspect économique a toujours été présent, mais pas à un niveau tel qu’il l’est aujourd’hui. « The Intelligent Power Grid », le réseau

de distribution intelligent, c’est en ces termes, qu’IBM

présentait en 2006 sa vision du réseau de l’avenir [12].

La gestion d’un tel réseau se ferait au moyen d’une

utilisation massive des réseaux de communication comme le réseau INTERNET. La ramification du réseau électrique, qui doit aller jusqu'à l’utilisateur final, n’est pas associée à une telle ramification du système de surveillance. Une zone d’ombre existe donc à partir des sous-stations. Même si les technologies actuelles permettraient d’avoir des informations fiables et sécurisées sur les éléments de niveau inférieur à la sous-station, ce n’est pas pour autant que ces

informations seront exploitables ; c’est l’équivalent d’un bruit de fond. De plus, il faut traiter des quantités volumineuses d’informations pour en extraire les différentes consignes à envoyer aux producteurs. Ceux-

ci sont des industriels privés, appliquant la loi du

marché. Les fluctuations du coût de l’énergie en l’espace de quelques heures deviennent telles, que toute

décision devient problématique (Fig. 3). De plus, les

Figure-3 : Variation du prix de l’énergie sur une semaine.

Figure-3 : Variation du prix de l’énergie sur une semaine.

réserves, que pouvait accepter un système étatique, ne sont plus aussi importantes ; cela occasionne des instabilités au niveau du réseau. Le gestionnaire du réseau reste toutefois un organisme relevant de l’état qui a de plus en plus de contraintes à intégrer. D’un côté, les clients demandent une grande qualité de courant et mettent en œuvre des charges générant des harmoniques. De l’autre, les producteurs d’énergie, mis régulièrement en concurrence, n’ont pas toujours un comportement solidaire [13] [14] [15].

4. Les énergies renouvelables dans l’arène.

Les grandes centrales électriques fonctionnent avec une source primaire d’énergie qu’elles maîtrisent parfaitement. Les centrales au fuel ou au charbon ont un stock-tampon d’énergie primaire qui leur permet de ne pas faillir en cas de rupture temporaire d’approvisionnement. Les centrales nucléaires sont bien mieux protégées contre ce type d’aléas. Une telle situation ne se rencontre pas avec les énergies renouvelables. Pour avoir de la puissance, il faut de grandes surfaces et pour l’éolien, les zones venteuses ne sont pas extensibles [16]. Même si certains pays nordiques ont une puissance installée par habitant importante, il ne faut pas oublier qu’il n’y a pas de vent tous les jours ! En décembre 2001, l’Allemagne, avec le plus grand parc éolien du monde, a mis le réseau européen en difficulté car les anticyclones persistants interdisaient la production d’électricité par ses éoliennes.

Le soleil fournit de l’énergie. D’après des analyses quantitatives, celle-ci est amplement suffisante pour les besoins de la planète. Pour exploiter cette source d’énergie, plusieurs voies doivent être envisagées. La conversion de la lumière en énergie électrique est réalisée au moyen de cellules photovoltaïques. Il est toujours possible de reprendre les anciennes technologies et de les adapter au soleil ; c’est le cas des centrales à four solaire. Elles ne font que puiser la chaleur dont elles ont besoin dans un four recevant le rayonnement solaire concentré.

a) Les cellules photovoltaïques.

Les cellules solaires existent depuis 1950, leur développement n’a vraiment été lancé qu’au moment de la conquête spatiale initiée par J.F. Kennedy. Elles sont capables de transformer le rayonnement solaire en énergie électrique avec un rendement, de l’ordre de 15% pour les cellules utilisant le silicium [17]. Malgré les progrès, elles restent encore dispendieuses et seuls des programmes de subventions nationales peuvent

accélérer leur introduction. Il faut attendre 3 à 15 ans (selon subventions) pour que la cellule soit rentabilisée. Les cellules utilisaient initialement du silicium. Ce composé, indispensable à l’industrie électronique, ne peut être considéré comme une ressource exclusive. La génération d’énergie est certes un objectif important mais inutile, si la fabrication des composants électroniques est remise en cause. Il semblerait finalement, que ce moyen de produire de l’énergie électrique, présente des inconvénients majeurs. La production d’électricité, en utilisant un autre matériau de base, est donc un sujet d’avenir. Comme le faisait remarquer le professeur Wolfgang Witthuhn de l’institut de Jena, en plus de son utilisation massive par d’autres industries, le silicium n’est pas le composé le plus adapté à la réalisation de cellules photovoltaïques [18]. Un autre matériau semble bien plus prometteur :

le Cuivre-Indium-Sulfure (CIS). Le coût, associé à des cellules l’utilisant, est encore trop élevé pour espérer les distribuer massivement ; de plus des augmentations de rendements sont à attendre. Ainsi on comprend mieux l’intérêt que portent les laboratoires de recherches japonais aux composés nouveaux, capables de produire de l’énergie électrique à partir de la lumière, sans mettre en œuvre le silicium cristallin. Depuis 1974, le Japon a l’ambition de mettre le prix du kWh photovoltaïque au prix du kWh en provenance des centrales thermiques [19]. Ce qui n’est pas le cas actuellement, le photovoltaïque reste 4 à 5 fois plus cher. Le photovoltaïque envisagé par les japonais est au niveau local : la production d’énergie au niveau domestique ou au niveau des équipements mobiles. Tout en travaillant aussi sur le CIS, les japonais expérimentent les cellules photovoltaïques organiques ainsi que d’autres composés. Il est à remarquer la grande diversité des méthodes employées par les japonais pour arriver à produire de l’énergie électrique. Ces travaux restent toutefois une activité en amont et ne provoqueront pas immédiatement une révolution technique. L’efficacité de ces dispositifs doit être accrue et ils restent instables dans le temps. Par exemple, les cellules organiques se dégradent et la densité de courant chute de 6% après 100h d’illumination, tout en ayant un rendement initial de l’ordre de 7%.

Les avancés techniques liées aux capteurs photovoltaïques sont importantes. Leur utilisation, dans la conquête spatiale, les a rendus populaires et il est logique que les USA aient une certaine avance dans ce domaine. Les Sandia National Laboratories, sous la direction du DOE (Department Of Energy – U.S.A.), a conduit des études sur l’énergie solaire [20]. En

particulier, plusieurs technologies furent associées pour exploiter au mieux l’énergie solaire. Un résultat très intéressant fut obtenu dans les années 80. En associant les cellules à un concentrateur optique (Fig. 4), il en résulte une meilleure production d’énergie électrique, le rendement augmente (Tab-1). De plus, moins de matière noble est requise. La première centrale européenne utilisant des cellules à concentrateur a été activée en 2008. Cette centrale de 100 kW est installée en Espagne à Puertollano. Lles cellules travaillent aussi à plus haute température, 100°c et elles doivent être refroidies. L’énergie thermique produite est évacuée à l’extérieure et elle est disponible pour des applications de chauffage. Les américains ont bien sûr exploré cette possibilité, ils ont donc finalement fait une certaine forme de cogénération avant l’heure.

Il n’en reste pas moins vrai que l’élément le plus important est la cellule élémentaire ; aucun facteur d’échelle ne pourra en augmenter le rendement. Ce qui n’est pas le cas pour les alternateurs. En conséquence, le laboratoire américain a aussi étudié le moyen d’associer le simple particulier à la production d’électricité solaire. Pour avoir de l’énergie, il faut de la surface, et pas obligatoirement de la surface au sol… Le premier bâtiment équipé de panneaux solaires en toiture avec concentrateurs optiques est l’hôpital Wilcox d’Hawaii (1981). En 1985, des projets de résidences équipées de panneaux solaires en toiture étaient déjà en diffusion. Les futures centrales solaires de plusieurs mégawatts n’étaient programmées qu’au début des années 90. Il apparait finalement que ces prévisions étaient encore optimistes, les premières centrales photovoltaïques mises en service datent des années 2007 et 2008.

Si on recouvrait de panneaux solaires la totalité des toitures, on arriverait à fournir assez d’énergie pour satisfaire les besoins de la planète, pendant le jour

Figure-4 : Principe de la cellule photovoltaïque à concentrateur. Un système optique, qui n’est pas

Figure-4 : Principe de la cellule photovoltaïque à concentrateur. Un

système

optique,

qui

n’est

pas

obligatoirement

une

lentille,

fait

converger

le

rayonnement

solaire

vers

une

unique

cellule.

Une

multiplication par deux du rayonnement solaire provoque plus que le

double de production d’énergie électrique.

et avec un bon ensoleillement. La solution individuelle a déjà été testée, le japon a commencé à produire des maisons individuelles équipées de panneaux photovoltaïques dès 1994 [21]. Ces cellules sont tout à fait utilisables pour des particuliers car leur fonctionnement ne demande pas d’entretien difficile.

L’augmentation du rendement (Tab 1 et Tab 2), la baisse des coûts et la facilité d’intégration sont donc des objectifs majeurs. Mais le résultat sera toujours un courant continu qui, depuis les débuts des réseaux électriques, n’est pas la solution la plus judicieuse pour la distribution de l’énergie. Il est toujours possible de transformer le courant continu en courant alternatif au moyen d’un onduleur. Cet équipement indispensable ne peut qu’augmenter le coût de l’installation et en réduire la fiabilité. De plus, les puissances mises en jeux sont encore faibles et il faut se demander si l’injection de cette production décentralisée, difficilement gérée par l’organisme de régulation, sur le réseau ne risque pas de le déstabiliser. Au japon, où l’installation de panneaux solaires sur les habitations neuves est effective depuis 1994, le résultat est que

Rendement des générateurs PV Source : Ambassade de France en Allemagne (2008) Rendement des générateurs
Rendement des générateurs PV
Source : Ambassade de France en Allemagne (2008)
Rendement des générateurs PV avec concentrateur solaire
Rendement
Rendement
Technologie
visé
obtenu
Source : Sandia National Laboratory (1981)
Rendement
Rendement
Poly-Si (Couche mince)
15%
6%
Technologie
maxi
obtenu
Si amorphe / Si cristallin
24%
18%
Alliage CIS
35%
20%(Test)
Si
26%
18,5
CulnSe2
10%
GaAl-As
26%
23%
Cellule Tandem (Multi spectral)
50%
Multi-spectral GaAlAs-Si
35%
31%
Organique
15%
4% à 5%
Cellules multiples
Cellules à concentrateur
GaAsSb / GaAlAsSb
40%
Module FLATCON
28,50%
Thermal+PV
40%
26%
Tab 2 : Résultats des recherches sur le PV en Allemagne (2008).
Tab 1 : Résultats des recherches sur le PV aux USA (1980).
Figure-5 : Four solaire Themis, conçu à l’origine pour être la première centrale électrique solaire

Figure-5 : Four solaire Themis, conçu à l’origine pour être la première

centrale électrique solaire en France.

ces sources de faibles puissances totalisent aujourd’hui une puissance totale de 622,8 MW. Même si l’expérience japonaise est réussie, elle ne doit pas masquer la démarche globale entreprise. En effet, les efforts des japonais se font dans plusieurs directions, l’isolation en est une ; une diminution de 67% des fuites d’air par rapport à des maisons plus anciennes a aussi été obtenue. A quoi bon produire de l’énergie si celle-ci ne reste pas dans la maison ?

b) La conversion lumière chaleur.

La concentration de la lumière fournit assez de chaleur pour enflammer un simple morceau de papier. Cette expérience réalisable par toute personne ne doit pas pour autant introduire l’idée que la solution se trouve sous ses yeux et que les problèmes énergétiques sont ainsi résolus. Curieusement, cette forme de génération de chaleur, qui permet de reprendre en grande partie la technologie des centrales électriques à flammes ne s’est pas imposée (Fig. 7).

Figure-7 : Principe de fonctionnement d’une centrale solaire thermodynamique conçue dans les années 1980
Figure-7 :
Principe
de
fonctionnement
d’une
centrale
solaire
thermodynamique
conçue
dans
les
années
1980
et
ayant
une
puissance thermique de 115 MW.
Implantation prévue : Saguaro
Station (Arizona)
Figure-6 : Four solaire CRTF du laboratoire national SANDIA à Albuquerque. (10 MW)
Figure-6 :
Four
solaire
CRTF
du
laboratoire
national
SANDIA
à
Albuquerque. (10 MW)

Les premières réalisations en France sont : le four solaire d’Odeillo, mis en service en 1970 et d’une puissance thermique de 1Mw et le four solaire Themis (Fig. 5), inauguré en 1983 et d’une puissance thermique de 2,5 MW. Il est à noter qu’aucun des deux n’est une centrale en activité. Ils restent des sites pilotes pour des expériences scientifiques. Les américains avaient lancé dans les années 1980, un vaste programme de développement de centrales électriques utilisant des fours solaires. Un rapport du laboratoire national SANDIA fait état de ces centrales solaires dont la puissance est de l’ordre de 100MW. Disséminées dans le sud du pays, elles devaient être opérationnelles dès 1985 [46]. Il est clair que sur les 14 sites prévus, aucune construction n’a vu le jour. Seul persiste de cette époque, le four solaire expérimental CRTF, du laboratoire SANDIA [22], qui a une puissance de 5 MW (Fig.6) ainsi que la centrale de 10 MW, Solar one, dans le désert de Mojave (Fig. 8).

Les centrales solaires de ce type, aussi appelées Centrales Solaires Thermodynamiques, seront toutefois en construction avec quelques années de retard… La réalisation la plus marquante est celle de Séville en Espagne, PS-10, Centrale solaire thermodynamique

Figure-8 : Four solaire Solar Two (1995), construit à partir du premier site solaire Solar

Figure-8 : Four solaire Solar Two (1995), construit à partir du premier

site solaire Solar One (1970).

de 11 MW. Une centrale plus puissance, de 20 MW (PS-20) est en cours de réalisation. Les projets américains, sans doute initiés par la baisse de la production pétrolière américaine des années 80 [23], furent oubliés dès que l’énergie est redevenue à un coût acceptable. Les premières réalisations sont certes arrivées trop tôt, mais elles ont figées les bases des futures réalisations. On retrouve systématiquement les mêmes architectures : un four solaire qui fonctionne à haute température (pouvant atteindre 1000°) est alimenté en rayonnement au moyen d’un champ de miroir. Il chauffe un fluide caloporteur, en général un sel fondu (nitrate de sodium ou de potassium). Ce fluide, comme pour les centrales classiques, sert à produire de la vapeur qui entraine des turbines. Même si la technique semble simple, ces centrales souffrent des mêmes défauts que les cellules photovoltaïques, que faire quand le soleil disparait ? Déjà, dans les années 1970, le laboratoire SANDIA avait abordé le problème et proposait dans certaines de ces futures centrales des accumulateurs de chaleur. Le sel fondu était stocké et pouvait être utilisé durant la nuit. L’idée était bien sûr séduisante et elle est toujours d’actualité. En 2007, une équipe du centre de recherche aérospatial allemand (DLR) est parvenue à mettre en service un accumulateur de chaleur couplé à une centrale thermoélectrique solaire. On est encore loin des 100 MW des années 80, mais les 100 KWh ainsi stockés peuvent être utilisables pendant 10 h.

Face à ces technologies qui imposent des grandes structures, les concentrateurs optiques ont encore un avenir. En effet, la puissance de ces centrales est limitée. Impossible d’augmenter exagérément la température de l’échangeur. Un accroissement de puissance passe par une multiplication des tours solaires. C’est ce qui va se passer sur le site où la centrale PS-20 est en construction. A terme, les 300 MW prévus en 2013 le seront au moyen de plusieurs tours. En 1980, les américains avaient construits des échangeurs linéaires placés au centre d’un concentrateur solaire. La température du fluide caloporteur restait modérée et surtout l’accroissement de puissance thermique s’obtenait par une mise en parallèle des échangeurs (Fig 9). Le laboratoire

SANDIA a expérimenté des échangeurs de ce type qui fournissaient de la vapeur à 174°c (350°c au maximum). Les expérimentations débouchèrent finalement sur une réalisation concrète. Dans le désert de Mojave, ou le taux d’ensoleillement est le meilleur possible, les américains construisent le SEG : centrale solaire de 354 MW utilisant les échangeurs linéaires

abordés précédemment [24].

.

Figure-9 : Echangeurs linéaires capables de chauffer un fluide jusqu’à des températures de 350°c. L’accroissement

Figure-9 : Echangeurs linéaires capables de chauffer un fluide jusqu’à

des températures de 350°c. L’accroissement de puiss ance s’obtient en

mettant en parallèle les différentes structures.

c)

L’éolien.

Pris très souvent comme exemple, les moulins à vent ont, par le passé, assurés la production d’énergie mécanique pour le bien de la communauté. Les aspects mécaniques de ce type de matériel, les architectures possibles ainsi que les solutions à retenir sont connues depuis plus de 30 ans [25]. Un article de synthèse paru dans la revue « Pour La science » en 1986 l’illustre bien [26]. Les rotors doivent comporter un faible nombre de pales et tourner à grande vitesse de manière à diminuer la puissance perdue dans les tourbillons créés dans le sillage. Toutes les configurations ont ainsi été testées ; de l’éolienne à une seule pale (éolienne de Bremerhaven) à la turbine verticale (Darrieus). L’absence de vent, phénomène aléatoire et inévitable, pouvait causer autrefois des problèmes d’approvisionnement en farine si aucun autre moulin ne pouvait assurer la relève. Le même phénomène se retrouve aujourd’hui vis à vis des éoliennes, le redémarrage des centrales conventionnelles ou l’importation d’énergie électrique est rendu obligatoire lors de la présence d’anticyclone persistant sur les zones où elles sont implantées. Durant de telles périodes il est à prévoir des augmentations rapides des prix de l’énergie.

L’éolien est le système de production alternatif qui a le plus pris de l’importance ces dernières années. On approche aujourd’hui les 100 Gw mondiaux. Pour le Danemark, pays ou la part d’éolien est la plus forte, cette source ne produit néanmoins que 19% de l’énergie électrique consommée (Chiffre 2007).

L’Allemagne, avec ces 23,3 GW installés, n’arrive qu’à 6% de sa consommation nationale. La puissance installée n’a finalement que peu de valeur car une éolienne n’arrive qu’à produire globalement qu’1 jour sur 4. Ce chiffre donne un rendement de 25% et il faut garder à l’esprit qu’il est calculé par rapport aux implantations actuelles, choisies pour leur bonne couverture venteuse. Les zones restantes sont moins rentables. La couverture venteuse y sera plus faible, et la production erratique qui risque d’en découler, peut déstabiliser le réseau. Les parcs éoliens, soumis à trop d’aléas météorologiques, vont se comporter comme des sources d’énergie peu fiables qui peuvent disparaitre du réseau à tout moment. Le résultat risque fort d’être similaire aux incidents cités dans le premier chapitre qui ont conduit à des black-out. Les parcs existants ne sont pas pour autant exemptés de défaut. Par exemple, dans les anciens parcs, les éoliennes sont de puissances similaires. Il n’y a pas une éolienne maîtresse ni d’éoliennes esclaves, leur faible puissance ne leur permet que de se synchroniser sur le réseau considéré comme référent. Comment, dans une telle configuration, peut-on être sûr que leur comportement sera acceptable en toute situation. Une étude américaine répond négativement. Dans le cas où une défaillance se produit sur le réseau (court-circuit par exemple) des générateurs éoliens peuvent accélérer et des oscillations électromécaniques peuvent apparaitre entre les différents générateurs de la zone. Si un tel phénomène n’est pas amorti, des dommages peuvent en résulter au niveau de ces générateurs éoliens.

Les centrales conventionnelles peuvent compenser les jours sans vent. Mais il ne faut pas que ces mêmes centrales démarrent intempestivement, suite à des déventements passagers ; le coût de suppléance annule tous les effets bénéfiques de cette solution alternative.

Figure-10 : « Ferme d’éoliennes » en Espagne, En multipliant le nombre d’éoliennes, les fluctuations

Figure-10 : « Ferme d’éoliennes » en Espagne, En multipliant le nombre

d’éoliennes, les fluctuations de production diminuent et le système devient

moins contraignant pour la mise en place d’une production de secours.

Figure-11 : L’augmentation du nombre de générateurs permet de diminuer les fluctuations de puissance. Pour
Figure-11 :
L’augmentation
du
nombre
de
générateurs
permet
de
diminuer les fluctuations de puissance. Pour avoir moins de 1% de
variation, par
rapport à la puissance installée, il
faut plus
de
50
éoliennes.

Ainsi, le stockage de l’énergie pour palier aux fluctuations rapides reste un problème pour ce type de production.

Bien que le manque de vent soit généralement présenté comme un aspect négatif pour l’utilisation des éoliennes, les études menées ne permettent pas d’arriver systématiquement à cette conclusion [27]. En effet, il faut analyser les aléas liés au vent, sous un aspect temporel. Les japonais ont montré que les parcs éoliens sont sujets à des fluctuations de puissance mais celles-ci sont loin d’être aussi préjudiciables que l’on pourrait le penser. Les variations à court termes, moins de 10 minutes, sont rapidement étouffées si la zone de production est grande et le nombre d’éoliennes important (Fig. 10 et 11). Par contre, pour des périodes plus grandes, 100 minutes, l’effet climatique va finalement reprendre un rôle prépondérant et il devient nécessaire de palier aux futurs manques de puissance. Comme cet effet est à échéance plus importante et de plus, prévisible car il est lié à la météo, il peut être anticipé et son traitement ne demande plus l’utilisation de centrales de secours à démarrage rapide.

Il faut, dans un premier temps, trouver des moyens pour supprimer les fluctuations de production à échéance brève. Le nombre de turbines va certes minimiser l’effet d’un déventement local, mais il ne faut pas oublier que les zones encore libres ne pourront plus être aussi favorables aux grands champs d’éoliennes. Les champs de plusieurs milliers d’éoliennes, comme celui de Altamont Pass Wind Farm (576 MW, 4900 Générateurs) au USA, coexistent avec des sites plus petits comme celui de Windpark Egmond aan Zee dans la mer du nord (actuellement

108 MW et 36 générateurs). Ce sont justement les champs marins qui sont les plus porteurs d’avenir (Fig. 12) [28]. L’équipement unitaire, l’éolienne ou le groupe d’éoliennes, devra comporter tous les systèmes lui permettant de gérer au mieux les différents aléas météorologiques à courts termes. C'est-à-dire, intégrer un système de stockage permettant de générer de l’énergie active et réactive. En fonctionnement normal, l’énergie réactive est nécessaire. Elle est utilisée pour compenser l’énergie réactive absorbée par les lignes de transport et ainsi stabiliser le niveau de tension [14]. En cas de défaillance ou d’incident, c’est surtout la réserve d’énergie active qui sera sollicitée. Elle servira à gommer les pertes passagères de puissance. Le recourt à l’électronique de puissance est indispensable [27] ; cette même électronique qui utilise le silicium cristallin qui donne les bons rendements des cellules PV. Elle introduira des limitations dans les niveaux de tension et les courants qui pourront être générés (Tab. 3). Le résultat est que les structures actuelles qui autorisent des niveaux de puissance et de tension élevées sont encore rares. Par exemple, pour une ligne de transport HVDC de 3 GW, il faut près de 40 000 transistors IGCT [29].

d) L’énergie des mers.

Les vastes zones marines peuvent être vues comme sources d’énergie primaire. D’une part les courants de marées peuvent faire tourner des générateurs et ainsi fournir de l’énergie ; et d’autre part, cette imposante masse d’eau à température faiblement variable peut être considérée, thermodynamiquement, comme une source chaude. Dans le cas où les courants sont utilisés comme source primaire d’énergie, le système employé est une hydrolienne [30]. Celle-ci est de conception similaire à celle retenue pour l’éolienne. Une hélice de grand diamètre transforme l’énergie cinétique du fluide

Figure-12 : Le potentiel terrestre des éoliennes arrive à terme. La bande côtière reste à

Figure-12 : Le potentiel terrestre des éoliennes arrive à terme. La

bande côtière reste à exploiter.

caractéristiques des composants d'électronique de puissance

( Sources : Riso National Laboratory : 1998)

Type:

courant admissible (A)

Tension supportée (V)

GTO

4

000

6

000

IGCT

2

000

4

500

BJT

 

800

1

200

MOSFET

 

28

1

000

IGBT

2000

3

300

Tab 3 : Performance des Composants de puissance disponibles

(1998).

en mouvement, en énergie mécanique. De plus, certaines caractéristiques de cette source primaire sont intéressantes. Il y a deux marées par jour et les aléas météorologiques n’y ont que peu d’influence. Par contre, dès que l’étal apparaît, aucune production d’énergie ne peut être assurée. Le milieu marin est certes plus agressif que le milieu atmosphérique, mais il est moins variable. Le différentiel de température est bien moins important et les effets des tempêtes sont atténués, même à faibles profondeurs. La première hydrolienne opérationnelle a délivré ces premiers watts en juin 2006, dans la baie de Fundy au royaume uni. La Norvège a suivi, en installant une hydrolienne de 20m de diamètre (300 kW) par 45 m de fond. Actuellement, ces prototypes ne sont pas encore raccordés au réseau (Fig. 13).

Cette exploitation nouvelle des courants marins ne doit pas masquer les anciens travaux de Georges Claude [31] [32]. Cet ingénieur français a repris les idées d’Arsène d’Arsonval. Le fond de la mer est à une température de 4°c, l’eau de surface est plus chaude, de l’ordre de 18°c à 20°c pour nos côtes. Si cet écart de température résultant peut être considéré comme faible, il ne faut pas oublier qu’il n’y a pour ainsi dire pas de

Figure-13 : Vue d’artiste d’une ferme d’hydroliennes sous-marines.

Figure-13 : Vue d’artiste d’une ferme d’hydroliennes sous-marines.

limitation des volumes d’eau mis en jeux. La quantité requise pour faire fonctionner une telle centrale thermodynamique n’est qu’une goutte d’eau dans la mer… Ainsi, l’eau de surface est utilisée comme source chaude et celle en provenance des grandes profondeurs tient lieu de source froide. Les difficultés techniques que rencontra G. Claude en 1929 firent que seule sa troisième expérience lui permit de produire une puissance de 22 kW. L’Energie Thermique des Mer, désignée ETM en France et OTEC pour les pays anglophones, n’est pourtant pas à négliger. Même si l’histoire a conservé les expériences de cet ingénieur français, ce sont les japonais et les américains qui ont le plus abouti dans la réalisation de centrales expérimentales. En particulier, à Hawaï, le Natural Energy Laboratory et des investisseurs privés montent en 1979 une centrale OTEC. Celle-ci est en circuit fermé et utilise l’ammoniac comme fluide interne (Cycle thermodynamique de Rankin) [33] [34]. En 1980, un démonstrateur ETM japonais de 100 kW est installé sur l'île de Nauru. D’autres expériences sont conduites et il faut noter que, même si les équipements testés se sont comportés de manière satisfaisante, les centrales sont démantelées à la fin des essais. La France a participé pendant un temps aux essais de ce type de centrale mais s’est arrêtée avant les expérimentations. La centrale de 3 MW d’Abidjan (Côte d’ivoire) ne fut jamais terminée. Le Japon, l’Inde et les USA continuent aujourd’hui à étudier ces dispositifs. L’Inde, en coopération avec le Japon, met en service en 2001 une barge ETM de 1 MW (Fig. 14). Des installations terrestres existent au Japon. Les instances locales en ont financé une dizaine.

Les centrales ETM ne peuvent être construites que dans des zones géographiques précises. Pour des installations côtières, il faut pomper l’eau située

Figure-14 : Vue d’artiste d’une unité flottante de production ETM. La colonne centrale permet de

Figure-14 : Vue d’artiste d’une unité flottante de production ETM. La

colonne centrale permet de pomper l’eau froide des profondeurs.

à plus de 1000 m sous la surface ; le plateau continental doit donc être de faible étendue. Pour obtenir un bon différentiel de température, les zones équatoriales sont préférables. Finalement, en 1997, une étude américaine arrive à la conclusion que les côtes Européennes ne sont pas favorables. Nos côtes sont ainsi écartées de la liste des zones possibles, au profit des USA, de l’Inde et de l’Afrique [35]. Dans cette étude, l’aspect économique n’était pas oublié. La rentabilité du procédé ne devenait intéressante que si le prix du baril

Enfin, il ne faut pas perdre

de pétrole dépassait 25$

de vue, comme le soulignaient les deux organisateurs du Groupe de travail sur les centrales ETM en 2007, que cette énergie est disponible 24 heures par jour et 365 jours par an [36].

5. La fin des grandes unités de production ?

Les énergies renouvelables sont dans l’incapacité de rivaliser avec les plus puissants turboalternateurs associés aux centrales nucléaires. La production à la demande sera de plus en plus difficile à assurer si ces nouvelles sources ne sont pas fiables. En France, la consommation d’énergie électrique augmente régulièrement. En 2008, elle a augmenté de 1,2%. La baisse du secteur industriel est compensée par l’augmentation du secteur domestique. Il est donc clair que la tendance à la baisse, pour l’énergie électrique, n’est pas encore amorcée.

Les recherches réalisées ont montré que la solution, qui consistait à assurer la production d’énergie électrique au moyen des énergies renouvelables, ne devait pas se focaliser sur ce seul et unique vecteur d’énergie. Par exemple (Fig 15), les ambitieux projets ETM (OTEC) montrèrent vite leurs limites car ils ne concernent que des zones géographiquement limitées et

Figure-15 : Maquette d’une unité ETM côtière de 10 MW, produisant de l’électricité ainsi que

Figure-15 : Maquette d’une unité ETM côtière de 10 MW, produisant

de l’électricité ainsi que de l’eau douce. Le cycle thermodynamique

retenu permet aussi de dessaler l’eau de mer. (Projet présenté par

l’ANL – Argonne National Laboratory - USA).

Figure-16 : La ferme d’éolienne n’est plus un regroupement de générateurs indépendants, mais devient un

Figure-16 : La ferme d’éolienne n’est plus un regroupement de générateurs indépendants, mais devient un système complexe qui, malgré les efforts, reste lié

aux aléas météorologiques. (Source : General Electric Energy)

trop éloignées des centres de consommation. Ce qui explique que, seuls les pays convenablement situés, poursuivent ces expérimentations, la production d’énergie électrique n’est plus obligatoirement la priorité ; le dessalement de l’eau de mer, la production d’hydrogène… font maintenant partie intégrante des productions possibles associées à l’ETM [37]. Finalement, il faut voir cette filière comme étant similaire à la filière géothermique. Même si la référence au volume de l’eau des mers peut plaider en faveur de ce procédé, l’énergie disponible par m 3 d’eau de mer est faible.

L’éolien met en avant les principaux défauts des énergies renouvelables. Sans vent, point de production, et même en présence de vent ; inutile d’espérer adapter la production à la demande… L’introduction de ces sources sur le réseau de distribution ne peut se faire sans adaptation. Les efforts entrepris pour rendre plus stable la production n’ont réussi, jusqu’à présent, qu’à diminuer les fluctuations à très courts termes. Les premiers générateurs installés dans les années 70 ne possèdent pas ces derniers perfectionnements et cela peut expliquer le renouvellement annoncé du parc continental (Fig. 12). De plus, un parc éolien doit se comporter le plus possible comme une centrale conventionnelle : ne pas introduire de perturbation sur le réseau durant sa production. Cet objectif s’accompagne d’une augmentation de la complexité du système et finalement d’une augmentation des coûts d’installation (Fig. 16). L’éolien perd en compétitivité face à d’autres sources [38].

Le photovoltaïque (PV) est particulier dans le sens où il est incapable de générer des économies d’échelles. Le panneau solaire est au même prix de production, qu’il soit installé chez un particulier ou dans une centrale PV en Espagne. Par contre, il n’en va pas de même pour le raccordement au réseau. Les futures grandes centrales PV vont comporter des onduleurs leur donnant l’accès au réseau européen. Ceux-ci seront de très forte puissance ; il faut se poser la question des perturbations qui vont apparaitre sur le réseau, en particulier au niveau des harmoniques qu’ils génèreront.

Le raccordement au réseau n’est donc pas une opération aisée. Comme la majorité des équipements de production furent pendant longtemps des alternateurs délivrant une forme d’onde sinusoïdale, les équipements associés ont été conçus par rapport à cette forme d’onde. La relative simplicité, pour obtenir des tensions élevées au moyen des transformateurs, fait que l’épine dorsale du système de distribution est constituée de lignes à haute tension de 400 kV pour le réseau européen. Il est clair que ces niveaux sont hors de portée des composants usuels d’électronique de puissance. Finalement, l’infrastructure existante conduit à privilégier, pour la production de masse, des techniques éprouvées. L’alternateur et le turbo- alternateur restent des équipements incontournables. L’utilisation du courant alternatif, de fréquence 50 Hz (ou 60 Hz), ne peut pas être remise en cause dans l’immédiat.

Des solutions intéressantes sont proposées pour des gammes de puissances faibles à moyennes. Elles étaient déjà présentées durant les années 80 par les USA. Un concentrateur optique fournit la chaleur nécessaire au fonctionnement d’un moteur thermique basé sur le cycle de Rankine ; en ajoutant un générateur électrique, il peut produire de l’énergie électrique. Ces équipements sont toujours d’actualité et ont évolué en s’orientant vers le cycle de Sterling (Fig. 17) [39]. Des solutions, permettant de produire un courant alternatif à une fréquence égale à celle du réseau, pour des vitesses d’entrainement variables existent. Les brevets en cours montrent bien les efforts d’adaptation de la technologie. Les projets de centrales de plusieurs centaines de MW, basés sur ce concept, verront sans doute le jour…

Les sources d’énergie renouvelable qui ne peuvent produire rapidement de l’énergie électrique ne sont pas à négliger. L’énergie électrique se stocke difficilement. La nature montre régulièrement que le procédé de stockage chimique est le plus intéressant. La photosynthèse en est un exemple marquant. Depuis les années 90, les travaux sur les fours solaires se sont étendus à d’autres productions que la production d’énergie électrique. L’institut Weizmann (Israël) a utilisé dans les années 90 sa tour solaire pour expérimenter ce procédé [40]. En chauffant du méthane et du dioxyde de carbone, on produit de l’hydrogène et du monoxyde de carbone. Ces deux derniers composés peuvent se reformer sous la forme des deux composés initiaux en dégageant de la chaleur. L’avantage d’un tel procédé est de fonctionner en circuit fermé. Il ne consomme et ne rejette rien. Toutefois, il serait assez

Figure-17 : Un moteur Stirling est associé à un réflecteur solaire. Dans cette configuration, l’énergie

Figure-17 : Un moteur Stirling est associé à un réflecteur solaire. Dans

cette configuration, l’énergie mécanique ainsi produite peut être utilisée

pour entrainer un générateur électrique. L’équipement ainsi présenté est

capable d’envoyer une puissance de 25 kW électrique sur le réseau.

(Source : Sandia National Laboratories – 2005).

difficile de considérer un tel procédé comme l’avenir de la production de combustible pour les véhicules. Quel utilisateur aujourd’hui recueille les produits de la combustion du gas-oil ou de l’essence dans un réservoir hermétique pour le retourner à la station service ? Ce problème de récupération des produits de combustion se pose d’ailleurs pour le charbon, première réserve d’énergie fossile. Les Etats Unis ont testé des centrales au charbon « propres », désignées « Clean Coal Power Plants ». Il reste difficile de garantir un fonctionnement exempté de pollution et d’un coût modéré (Tab. 4).

Si l’objectif est de diminuer les émissions de CO2 ou d’autres produits de combustion [41], il est toujours possible de diminuer les pertes. Cela revient, avec une telle approche, à favoriser la production locale. Les technologies ne sont pas remises en cause et on peut garder les procédés existants. Si le rendement est moins favorable, les pertes associées aux transports de l’énergie disparaissent et globalement la pollution est moindre. La majorité des procédés abordés montrent que les techniques basées sur les énergies renouvelables sont loin d’être capables de se substituer aux centrales électriques actuelles. Dans tous les cas, les ingénieurs ou scientifiques, qui ont travaillé sur ces nouveaux procédés, ont finalement mis en avant les performances sous une forme plus globale. Passer de la cellule unitaire à une cellule associée à un concentrateur optique a conduit celle-ci à fonctionner à haute température. Pour contrer les effets néfastes de cette température sur la cellule, celle-ci doit être refroidie. En devenant une source de chaleur, cet ensemble peut produire une énergie thermique utilisable pour le chauffage d’un bâtiment ou d’une habitation. Les fours solaires sont capables de rivaliser avec les centrales au charbon de puissance moyenne (100 MW). Ils sont hélas situés dans des zones où résident peu de consommateurs ou d’industries. Il est possible de les convertir en systèmes de production de vecteurs d’énergie chimique. Comme cela avait été abordé en introduction, car le stockage de l’énergie sous forme électrique n’est pas performant.

Source

Côut du Kwh ( en $)

éolien

0.03

à 0.06

Solaire à concentration

0.11

Photovoltaïque

0.14

à 0.25

IGCC (+ capture du CO2)

0.09 à 0.11 (+ 0.05)

Tab 4 : Coût du kWh en fonction de la technologie employée. ( Clean

Coal Power Plant = IGCC) Source : EnergyJustice.net

C’est aussi dans ce sens que l’ETM est maintenant abordée. Faudra-t-il considérer les pays équatoriaux comme de futurs fournisseurs d’énergie et ainsi remplacer les anciens pétroliers par des transports de gaz de synthèse ; ils pourront être brulés dans les moteurs peu polluants qui équiperont nos futurs véhicules ?

Finalement, en revenant sur cette dernière image, les ports de départs de ces navires n’auront plus les mêmes noms mais les destinations resteront les mêmes.

Il faudra repenser la relation qui existe entre l’énergie et l’économie dans les pays occidentaux [42]. Il est maintenant évident que, les centrales basées sur les énergies renouvelables n’atteindront, jamais les puissances des tranches nucléaires des centrales en acticités. Par exemple une seule tranche de la centrale de Gravelines (NORD) fait 910 MWe et il y a quatre tranches. Toutefois, l’énergie renouvelable, du fait de sa dilution, est disponible en tout point de la planète. Les expéditions polaires rechargent toujours leurs batteries au moyen de panneaux solaires ; il est tout à fait possible de survivre en milieux hostiles, avec du vent et de la lumière (Fig. 18). Donc en tout point de la planète, il est possible d’avoir une source d’énergie renouvelable. Jusqu'à présent, comme pour les puits de pétrole, les sources les plus exploitées sont celles qui offrent le meilleur rendement. La centrale photovoltaïque de Serpa, au Portugal, qui est dans une des zones les plus ensoleillées de l’Europe ne fait que 11 MW. La centrale thermo-solaire PS-10, près de Séville en Espagne, ne fait, elle aussi que 11 MW [43]. Pour mieux comprendre ce point de vue, il suffit d’aller sur le site de la commission européenne, http://re.jrc.ec.europa.eu , et de calculer en ligne les

Figure-18 : Station polaire « Princesse Elisabeth » en Antarctique : La Fondation Polaire Internationale,

Figure-18 : Station polaire « Princesse Elisabeth » en Antarctique : La Fondation Polaire Internationale, Laborelec et Schneider Electric ont doté ce centre scientifique de près de 300 m² de panneaux solaires et de 9 éoliennes de 9 KW. L’énergie produite est stockée à l’intérieur de la station et ce sont des batteries conventionnelles qui sont utilisées. Source : Wikipedia : Station « Princesse-Elisabeth ». [47] [48]

capacités associées au lieu où vous résidez (Fig 19). La coexistence entre des petites unités et les grandes centrales nationales, fait qu’actuellement, la production à l’aide d’énergie renouvelable est plutôt vue comme une charge négative par les gestionnaires de réseau. Il faudra sans doute repenser les modes de décisions. Il ne faut pas en déduire que, le déséquilibre entre la consommation et la production est accepté, car c’est impossible, mais il faut revoir la forme dite « Fit and Forget », c'est-à-dire qu’il ne sera plus possible de considérer que, le raccordement d’un générateur utilisant l’énergie renouvelable, est la seule opération à réaliser. Il faudra tenir compte de ses fluctuations de production durant son fonctionnement et surtout accepter que les unités de production utilisant les énergies renouvelables ne peuvent pas satisfaire l’impératif : Production = Consommation [44]. Le stockage ou des moyens de réduire la consommation, sans pour autant arriver au délestage de zones, devront être envisagés. Par exemple, l’éclairage public rentre pour une grande part dans la consommation d’électricité ; il est possible de réduire le nombre de luminaires en service, sans pour autant plonger la ville dans le noir complet. De nouveaux moyens de contrôle vont devoir être développés ; ils feront appel à l’électronique de puissance et à l’informatique, mais leur objectif sera avant tout, de maîtriser les flux locaux d’énergie électrique.

L’accumulation sera un enjeu majeur pour toutes les formes d’énergie renouvelable et cette accumulation n’est pas limitée au stockage hydraulique [45]. Dans le cas de l’énergie électrique, aucune solution n’arrive aux densités rencontrées dans les hydrocarbures. Le

Figure-19 : Un panneau solaire de 1 KWp installé dans le nord, peut fournir de

Figure-19 : Un panneau solaire de 1 KWp installé dans le nord, peut fournir de l’énergie électrique, mais cette production est non contrôlable et bien sûr ne suit pas les besoins en énergie de l’utilisateur. En particulier, les besoins plus importants en hiver ne seront pas couverts.

stockage, sous forme de réaction chimique réversible, est utilisé depuis bien des années par la nature sans pour autant être mis systématiquement en œuvre dans les réalisations humaines. Les équipements mobiles, comme les véhicules de type « transport en commun », peuvent rouler aujourd’hui avec des combustibles gazeux issus de la biomasse. La remise en service des anciens sites comme Themis et Odeillo ainsi que leur changement d’activité, montre que la production d’énergie électrique n’est plus le seul objectif. Par exemple, le site d’Odeillo participe actuellement aux activités de synthèse de l’hydrogène au moyen du rayonnement solaire.

6. Conclusion

Comme le soulignait un ingénieur de la NASA durant les pires instants du déroulement de la 13 ème mission Apollo, sans énergie, rien n’est possible… Les Etats-Unis ont, depuis les années 80, expérimenté les différentes techniques présentées dans cet article. L’énergie sera indispensable à la création et au développement des systèmes de production alternatifs. L’énergie d’origine nucléaire, mise en avant depuis plusieurs années, ne sera qu’un palliatif qui, dans le meilleur des cas, laissera un peu de temps aux ingénieurs et aux scientifiques pour mettre en place des solutions globales. Il faut garder à l’esprit que sur les 450 réacteurs en activités en 2003, la totalité d’entre eux sont des réacteurs à neutrons thermiques qui n’utilisent que 1% de l’énergie potentiellement disponible. Les 50 à 100 années annoncées de réserve pour cette source d’énergie n’en font pas une source d’énergie inépuisable. Les Etats unis, qui ont connu les premiers la baisse de la production pétrolière, furent les premiers à explorer d’autres moyens pour assurer la production d’énergie. L’existence de ressources pétrolières extérieures aux USA, a conduit ceux-ci à réduire les investissements. La plupart des travaux des années 80 furent mis en sommeil par manque de compétitivité face aux sources non renouvelables. Cette fois, le problème ne peut plus se traiter de la même façon, il faut palier à la décroissance des énergies fossiles car il est inutile d’espérer s’approvisionner sur d’autres planètes.

7. Bibliographie

[1]

Kirby J. B., “Frequency Regulation Basics and Trends”, 2004, US Department Of Energy / Oak Ridge National Laboratory.

[2]

Kirby B.J., Dyer J., Martinez C., Shoureshi R. A., Guttromson R. et Dagle J., “Frequency Control Concerns in the North American electric power

system”, 2002 , US Department Of Energy / Oak Ridge National Laboratory.

[3] Dale S.J., Stovall J.P. et Klein K.W., “Maintaining Electric power system performance: preparing for the year 2020”, 1991, US Department Of Energy / Oak Ridge National Laboratory / Martin Marietta Energy.

[4]

Stoffel J. B., Pentecost E. D., Roman R. D. et Traczyk P. A., “Electric Power High-Voltage Transmission Lines: Design Options, Cost and Electric and Magnetic Field levels”, 1994, US Department Of Energy / Argonne National Laboratory.

[5]

Wald M. L., “US wind power strangled by antiquated power grid”, 2008, International Herald Tribune.

[6]

La panne du réseau électrique italien le 28 septembre

2003.

http://www.industrie.gouv.fr/energie/electric/panne-

italie2003.htm

[7]

Merlin A. « La panne électrique du 4 novembre 2006 :

un plaidoyer pour une véritable politique européenne de l’énergie ». 2006, Fondation Robert Schuman, http://www.robert-schuman.eu.

[8]

Réseau Electrique

2008 - Wikipedia.

[9]

Agence Reuters, “Loss of wind causes Texas grid emergency”, 2008.

[10] Julien J. L., « Transport et distribution de l’énergie électrique », 2006, Cours donné à l’institut de l’Electricité Montefiore – Université de Liège.

[11] Amin M. et Adapa R., “Intelligent Management of the power grid: An Anticipatory, Multi Agent, High Performance Computing Approach”, 2001, Electric Power Research Institute / US Department Of Energy.

[12]

Taft

J.,”The

intelligent

Power

Grid”,

2006,

IBM

Application Innovation Services.

 

[13]

Lerner E, “What’s wrong with the electric grid?”, 2003, American Institute of Physics / The industrial physicist.

[14] “Analogie du tandem pour la compréhension des –

systèmes

Kupferinstitut. http://fr.leonardo-energy.org.

électriques”,

Stefan

Fassbinder

[15] Erwann M.K., « Risque à grande échelle dans les systèmes en réseau : quelques interrogations »; 2000, publication CIRANO.

[16]

Power Grid and Electricity Delivery. 2005 – New York State – Energy Research and development Authority.

[17]

“Photovoltaic

National Laboratories.

Systems

Technology”,

1980,

Sandia

[30]

Vidéos « Hydroliennes »

http://www.marineturbines.com/21/technology/32/seag

en_video/

[18] Ambassade de France en Allemagne, Dossier d’information du service pour la science et la technologie de l’ambassade de France en Allemagne- Octobre 2008 - Les technologies solaires de production

[31] Gautier M., « L’énergie thermique des mers, une énergie renouvelable oubliée mais pleine d’avenir », 2006, « La revue Maritime ».

d’électricité.

[32]

Penney T. et Bharathan D., « L’énergie thermique des océans », Pour La Science, N°113, Mars 1987, pp 66-

[19]

Destruel

P.,

Numzi

J.M.

et

Valade

L.,

« Le

74.

photovoltaïque

Organique

au

Japon »,

2007,

Ambassade de France au japon – Service pour la science et la Technologie.

[33]

« Ocean Energy Launch (Part-1) et (Part-2)», 1980 http://fr.youtube.com

[20]

“The

solar

Thermal

Report”,

1982,

Jet

Propulsion

[34]

« Ocean Thermal Energy Conversion System», 2007

Laboratory.

http://fr.youtube.com

[21] Noguchi N., « Habitations Solaires Photovoltaïques – Stratégie Japonaise de commercialisation axée sur l’efficience », 2005, Conférence ISES – Solar World Congress.

[35]

« Ocean thermal energy », rapport de synthèse de l’université Johns Hopkins, department de physique appliqué, décembre 1981.

[22] Solar Energy at Sandia National Laboratories 1981 – US Departement of Energy / Sandia National Laboratory.

[36] Panchal C.B. and Kumm B., « WorkShop on ocean thermal energy conversion (OTEC) planships », 11 september 2007, Washington DC.

[23]

Roturier J. et Mills E. “Les économies d’énergie”, 1991, “La recherché”.

[37] Panchal C.B. and Bell J.K.; “Simultaneous production of desalinated water and power using a hybrid-cycle OTEC plant”, Journal of solar energy engineering ISSN 0199-6231, 1987, vol. 109, no2, pp. 156-160.

[24]

« ACCIONA - Nevada Solar One video», 2008 http://fr.youtube.com

[25] Hansen L.H., Helle L., Blaabjerg F., Ritchie E., Munk-

[38]

General Electric Energy, 1.5 to 3,6 MW wind turbine, http://www.gepower.com.

Nielsen S., Binder H., Sorensen P. et Bak-Jense B., “Conceptual survey of generator and power electronics for wind turbines”, December 2001 – Riso National

[39]

« Sterling Dish 500MW solar power plant», 2007 http://fr.youtube.com

Laboratory, Roskilde, Denmark.

[40]

http://www.weizmann.ac.il/

[26]

Moretti P. et Divone L., « Les éoliennes modernes »,

[41]

Socolow R., « Peut-on enterrer le réchauffement

Revue « Pour La Science », N° 106, Aout 1986, pp 38-

climatique ? », Pour La Science, N°335, Septembre

46.

2005, pp 76-81.

[27] McGowin C. et Steeley W., “Wind Power Integration:

[42]

Brown L.R., « Repenser notre avenir économique »,

 

Smoothing Short-Term Power Fluctuations”, 2005, Final Report of Electric Power Research Institute.

Mai 2006, N°255, L’Observateur de l’OCDE.

[28] “Planning of the grid integration of wind energy in Germany onshore and offshore up to the year 2020”, 2005, Consortium DEWI / E.ON / EWI / RWE / VE transmission.

[43]

« PS 10 Solar thermal power station», 2008 http://fr.youtube.com

[44] Fall N., Giles L., Marchionini B. et Skolnik E.G., “Remote Area Power Supply RAPS Load and resource profiles”, 2007, A study for the Sandia National

[29]

http://www.abb.com/hvdc, Technologie en courant continu et haute tension pour le transport de l’énergie électrique.

Laboratories / US Department Of Energy, Energy Storage Program.

 

[45]

Eyer J., Lannucci J. et Butler P., “Estimating Electricity Storage Power Rating and discharge duration for utility

transmission and distribution deferral”, 2005, A study for the Departement Of Energy - Energy Storage Program.

[46]

“Solar Thermal Repowering”, 1980, US Department of Energy / Sandia National Laboratories.

[47]

http://www.antarcticstation.org.

[48]

http://www.schneider-

electric.fr/documents/sustainable-development-and-

foundation/fr/dp_20081016_polarstation_fr.pdf