Académique Documents
Professionnel Documents
Culture Documents
2
LA AVIACIÓN EN GENERAL
Se entiende por aviación el desplazamiento a través del aire de aparatos
mecánicos más pesados que éste, concretamente aviones y helicópteros. Los
dirigibles y los globos aerostáticos no se incluyen en este concepto, por tratarse de
ingenios que se mantienen suspendidos en el aire por sus propios medios. Por
otra parte, se entiende por aviación también la industria y las organizaciones
relacionadas con los aviones y helicópteros.
En base al uso de los aviones y helicópteros, la aviación se divide habitualmente
en tres grandes grupos:
Aviación general
Aviación comercial
Aviación militar
La aviación general comprende una larga lista de usos, como la aviación
deportiva, de negocios, de vigilancia, de rescate, de extinción de fuegos, para la
agricultura y otros.
La aviación comercial consiste en las compañías aéreas, ya sean éstas grandes o
pequeñas, en las compañías dedicadas al transporte aéreo de mercancías, así
como en las empresas de aero-taxi.
La aviación general y la aviación comercial se agrupan a su vez bajo el término de
aviación civil, en contrapartida con la aviación militar.
Finalmente, la aviación militar comprende todo lo que está relacionado con los
vuelos de ataque y de defensa, de reconocimiento y vigilancia, de transporte, de
rescate, y otros similares.
Comienzos de la aviación
3
En el siglo XIII el monje inglés Roger Bacon tras años de estudio, llegó a la
conclusión de que el aire podría soportar un ingenio de la misma manera que
el agua soporta un barco.
A comienzos del siglo XVI Leonardo da Vinci analizó el vuelo de los pájaros y
anticipó varios diseños que después resultaron realizables. Entre sus
importantes contribuciones al desarrollo de la aviación se encuentra el tornillo
aéreo o hélice y el paracaídas. Concibió tres tipos diferentes de ingenios más
pesados que el aire: el ornitóptero, máquina con alas como las de un pájaro
que se podían mover mecánicamente; el helicóptero diseñado para elevarse
mediante el giro de un rotor situado en el eje vertical y el planeador en el que
el piloto se sujetaba a una estructura rígida a la que iban fijadas las alas
diseñadas a imagen de las grandes aves. Leonardo creía que la fuerza
muscular del hombre podría permitir el vuelo de sus diseños. La experiencia
demostró que eso no era posible. Fue una figura muy importante porque aplicó
por primera vez técnicas científicas para desarrollar sus ideas.
4
hizo varios vuelos, recorriendo entre 900 y 1.200 metros de distancia durante un
minuto y medio. Subía en grandes círculos; luego, al pararse el motor, descendía
lentamente para posarse en las aguas del río Potomac.
Se hicieron numerosos esfuerzos para imitar el vuelo de las aves con
experimentos basados en paletas o alas movidas por los músculos humanos, pero
nadie lo logró. Merecen citarse el austriaco Jacob Degen entre 1806 y 1813, el
belga Vincent DeGroof, que se estrelló y murió en 1874 y el estadounidense R. J.
Spaulding quien patentó su idea del vuelo empujado por músculos en 1889. Más
éxito tuvieron quienes se dedicaron al estudio de los planeadores y contribuyeron
al diseño de las alas, como el francés Jean Marie Le Bris, quien probó un
planeador con las alas batientes, el estadounidense John Joseph Montgomery y el
renombrado alemán Otto Lilienthal. Lilienthal realizó sus experimentos con
cometas y ornitópteros pero los mayores éxitos los obtuvo con sus vuelos en
planeador entre l894 y 1896. Por desgracia murió en 1896 al perder el control de
su aparato y estrellarse contra el suelo desde 20 metros de altura. Percy S.
Pilcher, de Escocia, que también había obtenido grandes éxitos con su planeador,
tuvo asimismo un accidente mortal en 1899. El ingeniero estadounidense Octave
Chanute consiguió en 1896 pequeños logros con sus planeadores de alas
múltiples, pero su contribución más notable a la aviación fue su libro sobre los
avances aeronáuticos Progress in Flying Machines (1894).
Los numerosos experimentos realizados con cometas durante esta época,
consiguieron mejorar de forma notable los conocimientos sobre aerodinámica y
estabilidad del vuelo. El inventor estadounidense James Means publicó sus
resultados en los Aeronautical Annuals de 1895, 1896 y 1897. Lawrence Hargrave
inventó en 1893 la cometa en forma de caja y Alexander Graham Bell desarrolló
entre 1895 y 1910 diversas cometas en forma de tetraedro capaces de transportar
a un ser humano en un pequeño alojamiento.
Entre 1890 y 1901 se realizaron numerosos experimentos con prototipos provistos
de motor. El más importante fue el de Langley que en 1901 y 1903 probó e hizo
volar sin piloto un aeroplano a un cuarto de escala de su tamaño real. Le llamó
Aerodrome y fue la primera aeronave más pesada que el aire provista de un motor
de gasolina que consiguió volar. El modelo a escala real se terminó en 1903 y
realizó dos pruebas que acabaron en desgraciados accidentes. El aviador alemán
Karl Jatho intentó en 1903, también sin éxito, volar un modelo motorizado de
tamaño real.
Los logros conseguidos a lo largo del siglo XIX aportaron los fundamentos
necesarios para el éxito de los hermanos Wright, pero los mayores avances se
debieron a los esfuerzos de Chanute, Lilienthal y Langley a partir de 1885. En
1903 aún no se habían conseguido la estabilidad y el control necesarios para un
vuelo prolongado, pero los conocimientos aerodinámicos y sobre todo el éxito de
los motores de gasolina, que sustituyeron a los más pesados de vapor, permitirían
que la aviación evolucionase con rapidez.
5
PRIMERA GUERRA MUNDIAL
6
A medida que avanzaba la guerra el reconocimiento se hizo más profesional y
amplio. Los primeros informes de los pilotos sobre concentraciones y movimientos
enemigos se ampliaron mediante avances técnicos en la fotografía. A menudo se
enviaba aviones de artillería para ayudar a los cañones a precisar el alcance de
los blancos enemigos, escuadrillas de largo alcance bombardeaban y
fotografiaban las concentraciones y fortificaciones enemigas en retaguardia.
Debido a que la Primera Guerra Mundial fue en gran medida una guerra de
artillería masiva, esta cooperación con la artillería era de gran importancia. El
globo cautivo, lleno de gas, era de gran valor a ese respecto, pero también eran
vulnerables a los aviones enemigos, pues estaban anclados al suelo y los dos
observadores de la barquilla inferior estaban desarmados. Las armas habituales
eran pistolas y fusiles, aunque algunos pilotos ingeniosos llevaban consigo un
ladrillo o piedra pesada con la esperanza de tirarla a través del frágil fuselaje de
algún avión enemigo.
En mayo de 1915, los alemanes consiguieron la supremacía aérea, absoluta
aunque temporal, con un nuevo artefacto, el llamado engranaje interruptor. Hasta
entonces, aunque muchos aviones llevaban ametralladora, al piloto le había
resultado imposible disparar hacia delante -la dirección mas obvia y letal- por
miedo de destruir su propia hélice. Se diseñaron numerosos expedientes
mecánicos para superar este problema, entonces el holandés Anthony Fokker,
que diseñó dos de los aviones alemanes más exitosos –el Fokker y el Albatros-
desarrolló el sincronizador o engranaje interruptor, que permitía disparar a través
de la hélice, dejando de disparar temporalmente la ametralladora cuando había
una hoja justo delante de la boca. Los alemanes fabricaron grandes cantidades de
engranaje interruptor, hacia 1915, con un excelente resultado, ya que los cazas
Fokker derribaron muchos aviones británicos y franceses con pocas pérdidas
propias. El "azote Fokker" obligó a los aliados a replantear su estrategia en el aire.
Pronto ellos también tuvieron engranajes interruptores, pero mientras tanto habían
desarrollado un método de patrullas ofensivas por el cual los cazas estaban
adscritos a escuadrillas específicas con el objeto de destruir a los contrarios
detrás de las líneas enemigas, para dejar sin enemigos potenciales los aviones de
reconocimiento. Su dominio no duró mucho, pues los alemanes no sólo
7
produjeron monoplanos más elaborados, sino también el sistema de "circo". Cada
una de esas escuadrillas estaba dirigida por un "as" hábil, el más famoso de los
cuales era Manfred von Richthofen, el "Barón Rojo", quien elegía personalmente a
los pilotos de su escuadrilla.
Los alemanes trataron de desmoralizar el frente doméstico británico mediante
ataques aéreos contra Londres y la costa oriental, pero los aliados tenían dentro
de su radio de acción un blanco importante más significativo: el corazón industrial
de Alemania, el Ruhr y el Sarre, donde se fabricaba la mayor parte de la
munición. Sin embrago, como observó Basil Liddell Hart: "La inmensa oportunidad
de invalidar el suministro de municiones a los ejércitos alemanes se sacrificó en
favor de combates aéreos sobre el frente de trincheras". No obstante, aunque
tardíamente, los aliados habían llegado a comprender el potencial mortal del arma
aérea. Ahora, por primera vez, se podía emplear a los aviones como fuerza
separada, autónoma. Así, cuando el frente aliado fue destrozado por la última
ofensiva alemana, en marzo de 1918, todas las escuadrillas británicas y francesas
que estuvieran libres se combinaron para atacar conjunta y coordinadamente a
los alemanes en avance. La fuerza aérea tuvo incluso un papel más importante
cuando, en otoño, el ataque final alemán se vio destruido por los contraataques
masivos aliados. El daño material fue limitado, pero la producción industrial
alemana efectivamente sufrió, y el efecto que tuvo sobre la población civil ya
cansada de la guerra redujo más aún la moral. Esta nueva concepción de la
guerra (derrotar al enemigo no mediante un ataque frontal sino destruyendo su
corazón industrial) se aplicaría con efectos terribles en conflictos futuros.
Durante los años treinta las compañías aeronáuticas francesas pusieron en vuelo
150 modelos diferentes de aviones militares, muchos de ellos se destacaron por
su feo aspecto, pero a partir de 1935 los diseñadores galos fueron creando cada
vez diseños más competitivos. El único caza disponible por la Armée de l´Air (la
fuerza aérea francesa) en gran número durante 1939 fue el M.S.406, que cuando
se enfrentó al Bf 109E resultó un fracaso por su poca velocidad. Dejando a un
lado los magníficos prototipos de ingenieros tales como Vernisse y Galtier en el
Arsenal de l´Aéronautique, que no llegaron a los escuadrones, se consideró que
el mejor caza francés de la Segunda Guerra Mundial fue el Dewoitine 520. L
´Armée de l´Air de 1939 estaba en condiciones desastrosas. Poseía sólo 1300
aparatos, casi todos tenían cinco o hasta diez años de edad. Los únicos
bombarderos franceses modernos y eficaces eran los bimotores Lioré y Oliver
LeO 451 y Potez 633. Del primer tipo sólo cinco ejemplares estaban preparados el
día que Francia entró en guerra, el 3 de septiembre de 1939. Los motores de que
se disponía no eran lo suficientemente potentes para hacer que los cazas
franceses demostraran ser adecuados cuando llegaba la prueba final. Se
consideró que el mejor caza francés de la Segunda Guerra Mundial fue el
8
Dewoitine 520, pequeño y ligero, lo suficientemente ágil para ser eficaz.
Alemania
9
conflicto, pero el plan de modernización de las escuadrillas (los grupos aéreos)
progresaban a ritmo acelerado. En primer línea estaban los bombarderos de
altura, todos bimotores, menos veloces que sus correspondientes alemanes, pero
bastante más adaptados a los fines estratégicos; aunque, por el momento, eran
pocos. Algunos destacamentos de caza tienen ya adjudicado el inmejorable
Spitfire, uno de los primeros aviones británicos en adoptar la construcción con los
modernos revestimientos resistentes, y dotado de alas elípticas, poco común, que
le permitía descender en picado más rápidamente que cualquier otro avión. Sin
embargo, la importancia del Spitfire residió en su increíble capacidad de
desarrollo, ya que fue capaz de recibir más potencia, más combustible, cañones,
bombas y equipo naval, e incluso llevó barriles de cerveza con destino a las
tropas en las cabezas de playa de Normandía.
Polonia
La aviación polaca disponía de unos centenares de aviones de producción
nacional. Sin embargo, Polonia fue invadida en cuestión de semanas o días por
los ejércitos alemanes y pocos de sus aparatos sobrevivieron. El país dió una
imagen muy pobre. A mediados de los años treinta, su fuerza aérea había sido
una de las más potentes y mejor entrenadas de Europa, y su despliegue de
regimientos de caza equipados con el P.11 hubiera podido hacer frente a
cualquier agresor. Sin embargo, en 1939 esos cazas estaban pasados de moda.
Hubo realmente un sustituto, el PZL P.50 Jastrzab, pero sólo existía un prototipo
cuando los alemanes invadieron Polonia, y fue abatido por la artillería antiaérea al
confundirlo con un avión alemán.
Australia
La Commonwealth de Australia, separada geográficamente de sus enemigos
potenciales, gastó sólo simbólicas cantidades en defensa y no tuvo prácticamente
capacidad de fabricar aviones de combate hasta justo después del inicio de la
Segunda Guerra Mundial. Quizás en parte por la iniciativa del comandante de ala
Lawrence Wackett, quien formó la Tugan Aircraft y posteriormente, en 1936,
registró la Commonwealth Aircraft Corporation, germinó la semilla de una industria
aeronáutica.
Unión Soviética
Tan en secreto trabajaron los soviéticos que el mundo comenzó a conocer sus
aviones a través de las fotografías editadas por los alemanes, durante sus
invasiones. Los dos únicos cazas que se pensaba que existían eran el biplano
Chato y el monoplano Rata, y estos nombres eran los apodos con los que los
bautizaron los pilotos de Franco durante la Guerra Civil española. No fue hasta los
años sesenta cuando los estudiosos del potencial aéreo soviético comenzaron a
reunir las piezas de la impresionante historia de lo que habían conseguido los
burós de diseño (OKB) soviéticos. Los Chato y Rata (en realidad los I-15 e I-16)
habían sido los cazas predominantes en 1941, pero también estaban en
producción aparatos mucho mejores. Los LaGG, MiG y Yak estaban destinados a
10
ser fabricados en cantidades fantásticas a pesar de la necesidad imperiosa del
otoño de 1941 de evacuar la mayoría de las fábricas e instalar nuevas cadenas de
montaje más al este. Gradualmente y con un coste horroroso, el control del
espacio aéreo en el frente del Este fue pasando a manos soviéticas. En los
combates tomaron parte algunos cazas enviados desde EE.UU. y Gran Bretaña, y
también algunos pilotos no soviéticos.
Estados Unidos
Geográficamente alejados de cualquier enemigo potencial, los EE.UU. dedicaron
únicamente sumas modestas a los aviones de combate hasta que las guerras en
China, España y luego Europa forzaron al país a despertarse, a finales de los
años treinta. En esta época, a pesar de tener una industria de primera línea en
capacidad técnica, tecnológica y potencial de producción, la nación no se había
volcado en el diseño de cazas y no tenía nada similar al Bf 109E o al Spitfire. En
noviembre de 1939, cuando la North American Aviation fue requerida por Gran
Bretaña para que construyera el Curtiss P-40 para la RAF, el presidente de la
compañía, "Dutch" Kindelberger, replicó que la NAA podía diseñar un caza mucho
mejor y partiendo de cero. El P-40, aunque mediocre, era algo seguro, mientras
que NAA no tenía experiencia en la construcción de cazas. El NA-73 resultante
tenía un motor Merlin. Llamado Mustang, el avión resultó ser una obra maestra.
Un área donde Estados Unidos demostró su hegemonía fue en la de los aviones
navales. El Grumman F4F mantuvo a solas el poderío sobre los océanos hasta
que en 1943 hicieron su aparición los formidables F6F y F4U. Gracias a sus
potentes motores podían mover sus pesadas células mucho mejor que sus
pequeños y ligeros enemigos.
Italia
En los años treinta Italia se encontraba a la cabeza en la fabricación de motores
avanzados de combustión interna, tenía un instinto especial para el diseño
aeronáutico y sus pilotos acrobáticos eran excelentes. Durante la guerra el
potencial aéreo italiano fue rápidamente considerado por los británicos como un
bienvenido descanso en la dura tarea de combatir contra la Alemania nazi. El
caza italiano más numeroso era el biplano C.R.42, muy agradable de pilotar pero
ampliamente superado por Hurricane y Spitfire. Además de los tipos principales,
Italia produjo también numerosos cazas menores, pero hacia 1943 ya había
perdido tanto la capacidad como el deseo de lucha y casi ninguno de estos
excelentes cazas llegó a ser fabricado en serie.
Japón
Como en el caso de la Unión Soviética, el desarrollo de aviones de caza en Japón
era casi completamente desconocido para los países occidentales en el momento
del ataque a Pearl Harbor, en diciembre de 1941. En lugares tales como Londres
y Washington creían que los japoneses sólo podían hacer copias inferiores de los
aparatos occidentales y que sus fuerzas aéreas y navales estaban equipadas casi
11
por completo con biplanos con tren de aterrizaje fijo. El resultado inevitable fue
que cuando los pilotos aliados se enfrentaron con los cazas japoneses, estos
últimos no representaron solamente una sorpresa grave y desagradable, sino que
en alguna medida fueron considerados como casi invencibles por ambos bandos.
Las máquinas japonesas tenían una célula muy ligera y escasa protección: se
había primado la maniobrabilidad a toda costa.
POSGUERRAS
12
algunos aspectos a un catamarán. El avión iba provisto de dos motores, el
delantero para despegar maniobrar y aterrizar y el posterior para el vuelo de
crucero. Los materiales eran de plástico ligero por lo que su peso al despegar
era tan solo de 4.420 kilogramos y cargaba 4.500 litros de combustible
distribuidos en 17 depósitos. Una vez consumidos, su peso al aterrizar era de
840 kilogramos. Los pilotos fueron Dick Rutan (hermano de Burt) y Jeanna
Yeager, y volaron 40.254 kilómetros en 9 días, 3 minutos y 44 segundos, a una
velocidad media de 186,3 km/h. Este vuelo estableció una nueva plusmarca de
distancia y tiempo en el aire, duplicando el de distancia que permanecía desde
1962 en 20.169 kilómetros.
Ya en 1889 se efectuaron varias conferencias para resolver los problemas
internacionales originados por la aviación, pero hasta 1947 no se creó el
primer organismo adecuado: la Organización de la Aviación Civil Internacional
(OACI), adscrita a la ONU, con sede en Montreal (Canadá). Otra organización
que surge a partir de la iniciativa de las compañías aéreas es la Asociación
Internacional del Transporte Aéreo (IATA), también con sede en Montreal y
que agrupa a más de 100 empresas de transporte aéreo, por lo general de
líneas regulares, unidas en este organismo para resolver sus problemas
comunes. El gran desarrollo de la aviación a escala mundial ha obligado a
todos los países a establecer leyes y regulaciones que permitan un eficiente y
seguro tráfico aéreo y a firmar convenios y protocolos internacionales como el
de Tokio en 1963 o el de La Haya en 1973. En la actualidad existen en la
mayor parte de las naciones leyes sobre la navegación aérea que junto con
otras medidas han llevado a este medio de transporte a convertirse en uno de
los más seguros y eficientes.
La Aviación Militar
13
Estrictamente, la primera vez que se utilizan aeronaves para realizar operaciones
militares (aunque no de combate) fue en 1794, durante la batalla de Fleurus,
cuando el ejército francés emplea globos para observar a las fuerzas austríacas. A
pesar del enorme potencial de estos aparatos para las labores de observación y
reconocimiento en el campo de batalla, tuvieron una difícil historia operacional,
pues el mismo Napoleón los desestimó como instrumentos valiosos para la guerra.
Aviones de ataque
14
es especialista en misiones de ataque conserva la capacidad de ataque combate
aire-aire del modelo F-15C, por lo qué técnicamente es un cazabombardero,
aunque generalmente es considerado un avión de ataque; además, tenemos los
aviones de ataque puro, cómo el A-10 Thunderbolt y el Su-25 Frogfoot.
Tampoco se debe confundir a los cazas de ataque con los bombarderos, ya que
éstos últimos poseen objetivos y misiones diferentes. Los bombarderos atacan
objetivos relativamente grandes (no necesariamente en tamaño pero sí en
importancia estratégica) y comúnmente vuelan desde bases lejanas y a gran
altura, para evitar radares y defensas anti-aéreas, ya que son relativamente lentos,
grandes y vulnerables; en cambio, los cazas de ataque se ocupan de objetivos
más pequeños, es decir, tácticos, y operan desde el mismo teatro de operaciones
en misiones a baja cota, combatiendo a quemarropa contra las defensas del
enemigo. Por lo tanto, deben estar equipados con un fuerte blindaje tanto en el
fuselaje como en los motores, armas inteligentes que puedan ser colocadas con
precisión al primer disparo, equipos de contramedidas electrónicas para ser
menos vulnerables a las armas enemigas y potentes motores que puedan volar
bajo y lento cuando sea necesario (para identificar y apuntar a los objetivos) y que
sean capaces de soportar el peso extra de armas y combustible.
En conclusión, lo que define a un avión de ataque es que su principal misión
(aunque no sea la única) es el ataque a objetivos en superficie. Se trata de
aparatos capaces de ejecutar misiones imposibles para los demás.
Ejemplos de aviones de ataque:
Contra-insurgencia o contraguerrilla: IA-58 Pucará, OV-10 Bronco.
15
Aviones especialistas en ataque, pero que conservan capacidades de caza: F-15E
Strike Eagle, Panavia Tornado IDS
Bombarderos
Los bombarderos son aviones diseñados para transportar una carga bélica
determinada y lanzarla sobre un objetivo, ya sea en tierra o en el mar, teniendo
muchas veces para ello que adentrarse en espacio aéreo dominado por el
enemigo, que empleará los medios antiaéreos y los aviones caza de su sistema de
defensa para evitar el ataque.
16
Los bombarderos están dotados de bodegas y/o puntos de anclaje externos donde
transportan la carga que puede ser bombas o también misiles crucero, y deben
contar con medios para apuntar el lanzamiento, estos pueden ser ópticos o
electrónicos.
Los bombarderos no se diseñaron para enfrentarse directamente con otras
aeronaves y se clasifican de acuerdo con la capacidad en peso en armas que
pueden transportar. Así, se distinguen bombarderos ligeros, medianos y pesados,
de acuerdo con designaciones muchas veces arbitrarias. Conjugando la capacidad
de transporte con el alcance, se puede además clasificar a los bombarderos como
convencionales o estratégicos, estos últimos cuando suponen una amenaza para
una nación potencialmente enemiga, convirtiéndose en un elemento disuasorio de
primer orden.
Ejemplos de bombarderos son: B-1 Lancer, B-2, B-52, Tu-22M, Tu-160, etc.
Aviones de caza
17
Caza de superioridad aérea estadounidense F-22 Raptor.
Se denominan "caza" o "caza-interceptores" a aquellas aeronaves concebidas,
diseñadas, equipadas, armadas y utilizadas para la búsqueda y destrucción de las
aeronaves del enemigo, así como para la defensa del espacio aéreo propio.
Un avión caza es, en realidad, el último eslabón del sistema de defensa aérea de
un determinado país, el cual comienza en el Estado Mayor de su fuerza aérea y
abarca todos los medios de detección y neutralización de la amenazas que
puedan presentarse en el espacio aéreo propio. De ahí la denominación, ya que
su función es "cazar" a otras aeronaves.
Los aviones caza tienen la función de desplegarse para defender puntos
estratégicos en caso de que el enemigo envíe sus aviones para atacarlos. Por
tanto, es esencial que entre sus características figure poder emplear pistas de
reducidas dimensiones; poseer potencia suficiente para ganar altura en poco
tiempo, así como una gran velocidad final; poseer agilidad y maniobrabilidad para
el combate cercano; contar con medios electrónicos (como el radar) para detectar
y poder atacar al adversario; y, por último, tener la capacidad de portar y disparar
munición para el combate aire-aire.
El avión de caza es el encargado de patrullar el espacio aéreo propio en las
llamadas CAP (Combat Air Patrol, del inglés: Patrulla Aérea de Combate) y del
dogfight, término que en inglés significa literalmente "pelea de perros", y que hace
referencia al combate cerrado entre aviones. Aquí conviene diferenciar entre los
aviones caza-interceptores "livianos" y los "pesados". Los primeros son más
pequeños y livianos, ya que su misión principal consiste en defender el espacio
áereo propio (Mirage III, BAC Lightning, MiG-23, F-102, F-106,etc.), mientras que
los segundos deben adentrarse en el espacio aéreo del enemigo para
arrebatárselo, por eso se los llama también cazas de superioridad aérea (Su-27,
F-22).
Ejemplos de aviones caza-interceptores son: F-102, F-106 Delta Dart, Mirage IIIC
(no confundir con la versión IIIE), BAC Lightning, F-14 (aunque la Armada de los
Estados Unidos lo equipó luego con bombas), F-15, F-22 (actualmente re
designado "F-22A" ya que se le agregó la capacidad de portar bombas), MiG-23,
Su-27, etc.
18
Como se ven, la mayoría de las veces tanto los fabricantes como los gobiernos
clientes de los mismos, terminan optando por los cazabombarderos, debido a su
mayor relación costo-beneficio.
Las aeronaves de transporte militar son típicamente aeronaves de carga de ala fija
o giratoria que son usadas para enviar tropas, armamento y otro equipamiento
militar a través de distintos métodos a cualquier lugar de operaciones militares
alrededor de la superficie del planeta, normalmente fuera de las rutas de vuelo
comerciales en espacio aéreo no controlado. Originalmente derivados de
bombarderos, los aviones de transporte militar fueron usados para desplegar
fuerzas aerotransportadas durante la segunda Guerra Mundial y remolcar
planeadores militares. Algunas aeronaves de transporte militar están diseñadas
para desempeñar múltiples misiones como reabastecimiento en vuelo y transporte
táctico, operacional y estratégico sobre pistas no preparadas, o construidas por
ingenieros.
Helicópteros militares
19
Helicóptero de ataque estadounidense AH-64 Apache.
Un helicóptero de ataque es un helicóptero militar específicamente diseñado y
fabricado para portar armamento dedicado a atacar objetivos terrestres, tales
como infantería, vehículos blindados y estructuras del enemigo. El armamento
usado en los helicópteros de ataque pueden incluir cañones automáticos,
ametralladoras, cohetes, y misiles como el AGM-114 Hellfire o el Spike ER.
Muchos helicópteros de ataque también tienen capacidad para llevar misiles aire-
aire, aunque normalmente como medida de autoprotección. Actualmente, los
helicópteros de ataque tienen dos cometidos principales: el primero, proporcionar
apoyo aéreo cercano directo y preciso a las unidades terrestres, y el segundo,
destruir vehículos acorazados y mecanizados del enemigo en el marco de
misiones antitanque. También son utilizados para complementar a helicópteros
más ligeros, como el OH-58 Kiowa, en misiones de reconocimiento armado.
Aeronaves de reconocimiento
20
Aeronaves experimentales
21
Cazabombardero polivalente ruso-indio Sujói Su-30MKI.
El cazabombardero es un avión caza que además de poder asumir la función de
defensa aérea, sirve como plataforma de ataque al suelo. En general, se los
denomina simplemente cazas, y descienden de los cazas puros o caza-
interceptores, ya que muchas veces son versiones con capacidad aire-suelo de los
mismos. De hecho, por razones presupuestarias, pocas naciones pueden darse el
lujo de poseer un avión distinto para cada función, optando por aeronaves
ultimación.
El cazabombardero es el principal avión de combate con que cuentan las fuerzas
aéreas de todo el mundo ya que es un sistema de armas muy flexible, pudiéndose
emplear, indistintamente, tanto para tareas de vigilancia del espacio aéreo como
para misiones de ataque a superficie de objetivos tácticos, asumiendo además
tareas anti buque, de guerra electrónica, supresión de defensas, reconocimiento,
etc.
Ejemplos de cazabombarderos son: F-4, F-15E Strike Eagle, F-16, F-18, F-35,
MiG-23B Flogger-F, MiG-29, Su-30, etc.
Aviones supersónicos
22
Los aviones supersónicos vuelan a mayor velocidad que el sonido (MACH 1).
Existen muchos aviones militares supersónicos, pero solo se han fabricado 2
aviones supersónicos de pasajeros (también llamados SST):el ruso Tu-144 y el
Concorde, producido conjuntamente por franceses y británicos. El Tu-144 tenía
una velocidad máxima mayor que el Concorde, pero fue retirado en 1978, después
de solo 6 meses en servicio. El Concorde ha permanecido en servicio desde 1976.
Se caracteriza por muchas innovaciones, que incluyen una proa abatible que se
baja durante el despegue y el aterrizaje para mejorar la visibilidad de la cabina de
mando; y también el bombeo de combustible y entre los tanques de compensación
delanteros y traseros para ayudar a estabilizar el avión. El concorde tiene un
fuselaje estrecho y corta envergadura de alas para reducir la resistencia durante el
vuelo supersónico. Sus ruidosos motores turborreactores con postquemador le
capacitan para transportar 100 pasajeros a una velocidad de crucero de MACH 1
entre 15000/18000 metros de altitud.
Cuando un avión rebasa la velocidad de MACH 1 se produce una onda de choque,
o expansión, que es percibida como un "estampido sónico".
Concorde Mach 1
23
TOMCAT, disponen de alas de flecha variables (oscilante). Durante el despegue y
el aterrizaje sus alas están completamente extendidas, pero para vuelos de alta
velocidad y ataques a bajo nivel las alas son pivotadas hacia atrás.
Una reciente innovación técnica es el bombardero "STEALTH" (el furtivo) que está
diseñado para absorber o desviar el radar enemigo y no ser detectado. Los
bombarderos anteriores, como el Tornado, utilizan radares de seguimiento del
terreno para volar tan cerca del suelo que impiden su detección por el radar
enemigo.
Uno de los grandes descubrimientos de la aviación moderna ha sido la
construcción y desarrollo de los helicópteros tanto en el ámbito militar como civil.
24
Celulares
El uso de los teléfonos celulares, ha aumentado de manera notable en los últimos
años. Esta demanda creciente de la comunicación celular ha sido necesariamente
acompañada por la instalación de una red de estaciones base de antenas para poder
recibir y para enviar las señales adecuadas a esas comunicaciones.
FUNCIONAMIENTO
Según las bandas o frecuencias en las que opera el móvil, podrá funcionar en
una parte u otra del mundo.
25
Los teléfonos celulares, por sofisticados que sean y luzcan, no dejan de ser
radio transmisores personales. Siendo un sistema de comunicación telefónica
totalmente inalámbrica, los sonidos se convierten en señales electromagnéticas,
que viajan a través del aire, siendo recibidas y transformadas nuevamente en
mensaje a través de antenas repetidoras o vía satélite.
Para entender mejor cómo funcionan estos sofisticados aparatos puede ayudar
compararlos con una radio de onda corta (OC) o con un walkie-talkie. Un radio OC
es un aparato simple. Este permite que dos personas se comuniquen utilizando la
misma frecuencia, así que sólo una persona puede hablar al tiempo. Un teléfono
celular es un dispositivo dual, esto quiere decir que utiliza una frecuencia para
hablar, y una segunda frecuencia aparte para escuchar. Una radio OC tiene 40
canales. Un teléfono celular puede utilizar 1664 canales. Estos teléfonos también
operan con “células” (o “celdas”) y pueden alternar la célula usada a medida que el
teléfono es desplazado. Las células le dan a los teléfonos un rango mucho mayor
a los dispositivos que lo comparamos. Un walkie-talkie puede transmitir hasta
quizás una milla. Una radio OC, debido a que tiene un poder mucho más alto,
puede transmitir hasta 5 millas. Alguien que utiliza un teléfono celular, puede manejar a
través de toda la ciudad y mantener la conversación todo el tiempo. Las células
son las que dan a los teléfonos celulares un gran rango.
En un radio simple, ambos transmisores utilizan la misma frecuencia. Sólo uno
puede hablar al tiempo.
La genialidad del teléfono celular reside en que una ciudad puede ser dividida en
pequeñas "células" (o celdas), que permiten extender la frecuencia por toda una
ciudad. Esto es lo que permite que millones de usuarios utilicen el servicio en un
territorio amplio sin tener problemas. He aquí cómo funciona. Se puede dividir un
área (como una ciudad) en células. Cada célula es típicamente de un tamaño de
10 millas cuadradas (unos 26Km2). Las células se imaginan como unos
hexágonos en un campo hexagonal grande, como este:
Sin embargo, el tamaño de las células puede variar mucho dependiendo del
lugar en que se encuentre. Las estaciones de base se separan entre 1 a 3 Km. en
zonas urbanas, aunque pueden llegar a separarse por más de 35Km en zonas
rurales. En zonas muy densamente pobladas o áreas con muchos obstáculos
(como ser edificios altos), las células pueden concentrarse en distancias cada vez
26
menores. Algunas tecnologías, como los PCS (Personal Communication Services),
requieren células muy cercanas unas de otras debido a su alta frecuencia y bajo
poder en el que operan. Los edificios pueden, a su vez, interferir con el envío de
las señales entre las células que se encuentren más lejanas, por lo que algunos
edificios tienen su propia "microcélula." Los subterráneos son típicos escenarios
donde una microcélula se hace necesaria. Microcélulas pueden ser usadas para
incrementar la capacidad general de la red en zonas densamente pobladas como
ser los centros capitalinos.
Cada célula tiene una estación base que consta de una torre y un pequeño
edificio en donde se tiene el equipo de radio. Cada célula utiliza un séptimo de los
416 canales duales de voz. Dejando entonces a cada célula aproximadamente los
59 canales disponibles nombrados anteriormente. Si bien los números pueden
variar dependiendo de la tecnología usada en el lugar, las cantidades sirven para
mostrar cómo funciona esta tecnología; que en caso de tratarse de una generación
más moderna, puede de todas formas extrapolarse directamente.
27
Las transmisiones de las estaciones base y de los teléfonos no alcanzan una
distancia más allá de la célula. Es por esto que en la figura de arriba en cada celda
se pueden utilizar las mismas frecuencias sin interferir unas con otras.
Las transmisiones de la base central y de los teléfonos en la misma celda no salen
de ésta. Por lo tanto, cada celda puede reutilizar las mismas 59 frecuencias a
través de la ciudad.
Cuando el usuario desea realizar una llamada, el teléfono celular envía un mensaje
a la torre solicitando una conexión a un número de teléfono específico. Si la torre
dispone de los suficientes recursos para permitir la comunicación, un dispositivo
llamado "switch" conecta la señal del teléfono celular a un canal en la red de telefonía
pública. La llamada en este momento toma un canal inalámbrico así como un
canal en la red de telefonía pública que se mantendrán abiertos hasta que la
llamada se concluya.
28
con los de la nueva célula cuando cambia de canal. Si el teléfono no puede hallar
canales para escuchar se sabe que está fuera de rango y muestra un mensaje de
"sin servicio".
Este fue el inicio de una de las tecnologías que más avances tiene, aunque
continúa en la búsqueda de novedades y mejoras.
Con el tiempo se fue haciendo más accesible al público la telefonía móvil, hasta
el punto de que cualquier persona normal pudiese adquirir un terminal. Y es así
como en los actuales días el teléfono móvil es uno de los objetos más usados.
29
Los primeros sistemas de telefonía móvil civil empiezan a desarrollarse a partir
de finales de los años 40 en los Estados Unidos. Eran sistemas de radio
analógicos que utilizaban en el primer momento modulación en amplitud (AM) y
posteriormente modulación en frecuencia (FM). Se popularizó el uso de sistemas
FM gracias a su superior calidad de audio y resistencia a las interferencias. El
servicio se daba en las bandas de HF y VHF.
Los primeros equipos eran enormes y pesados, por lo que estaban destinados
casi exclusivamente a su uso a bordo de vehículos. Generalmente se instalaba el
equipo de radio en el maletero y se pasaba un cable con el teléfono hasta el
salpicadero del coche.
Los equipos 1G pueden parecer algo aparatosos para los estándares actuales
pero fueron un gran avance para su época, ya que podían ser trasladados y
utilizados por una única persona.
En 1986, Ericsson modernizó el sistema, llevándolo hasta el nivel NMT 900. Esta
nueva versión funcionaba prácticamente igual que la anterior pero a frecuencias
superiores (del orden de 900 MHz). Esto posibilitó dar servicio a un mayor número
de usuarios y avanzar en la portabilidad de los terminales.
30
El desarrollo de esta generación tiene como piedra angular la digitalización de
las comunicaciones. Las comunicaciones digitales ofrecen una mejor calidad de
voz que las analógicas, además se aumenta el nivel de seguridad y se simplifica la
fabricación del Terminal (con la reducción de costes que ello conlleva). En esta
época nacen varios estándares de comunicaciones móviles: D-AMPS (EEUU),
PDC (Japón), cdmaOne (EEUU y Asia) y GSM.
• Itinerancia.
31
agregar más de estos tendría que agregarse otra plantilla. Cabe mencionar
que no es posible enviar un vídeo de más de 15 segundos de duración.
Para poder prestar estos nuevos servicios se hizo necesaria una mayor
velocidad de transferencia de datos, que se hizo realidad con las tecnologías
GPRS y EDGE.
Hoy en día no hay ningún sistema de este nivel que esté claramente definido,
pero a modo de ejemplo podemos echar un vistazo a los sistemas LTE (Long Term
Evolution).
32
La evolución del teléfono móvil ha permitido disminuir su tamaño y peso, desde
el Motorola DynaTAC, el primer teléfono móvil en 1983 que pesaba 780 gramos, a los
actuales más compactos y con mayores prestaciones de servicio. El desarrollo de
baterías más pequeñas y de mayor duración, pantallas más nítidas y de colores, la
incorporación de software más amigable, hacen del teléfono móvil un elemento
muy apreciado en la vida moderna.
CONEXIÓN A INTERNET
Con la aparición de la telefonía móvil digital, fue posible acceder a páginas de
Internet especialmente diseñadas para móviles, conocido como tecnología WAP.
33
Otras tecnologías más recientes que permiten el acceso a Internet son EDGE,
EvDO y HSPA.
Por otro lado, es común entre los operadores anunciar supuestas tarifas planas que
después resultan estar limitadas.[] No obstante, Vodafone ofrece desde abril de
2010 una tarifa de internet móvil sin límites de descarga y, sobre todo, sin bajadas
de velocidad (21,6 Mbps).[]
34
24.405.387 líneas,[7] según datos oficiales del ente gubernamental competente
(CONATEL).
BLUETOOTH
Los dispositivos que con mayor frecuencia utilizan esta tecnología pertenecen a
sectores de las telecomunicaciones y la informática personal, como PDA, teléfonos móviles,
computadoras portátiles, ordenadores personales, impresoras o cámaras digitales.
CÁMARA DIGITAL
Una cámara digital es una cámara fotográfica que, en vez de capturar y almacenar
fotografías en películas fotográficas como las cámaras fotográficas convencionales, lo hace
digitalmente mediante un dispositivo electrónico, o en cinta magnética usando un formato
analógico como muchas cámaras de video.
INFRARROJO
35
El infrarrojo es un tipo de luz que no podemos ver con nuestros ojos. Nuestros
ojos pueden solamente ver lo que llamamos luz visible. La luz infrarroja nos brinda
información especial que no podemos obtener de la luz visible.
VIDEOLLAMADA
WAP
WIFI
36
En la actualidad podemos encontrarnos con dos tipos de comunicación WIFI:
Para tener una red inalámbrica en casa sólo necesitaremos un punto de acceso,
que se conectaría al módem, y un dispositivo WIFI que se conectaría en nuestro
aparato. Existen terminales WIFI que se conectan al PC por USB, pero son las
tarjetas PCI (que se insertan directamente en la placa base) las recomendables,
nos permite ahorrar espacio físico de trabajo y mayor rapidez. Para portátiles
podemos encontrar tarjetas PCMI externas, aunque muchos de los aparatos ya se
venden con tarjeta integrada.
MANOS LIBRES
Podemos distinguir dos tipos diferentes de kit manos libres: Aquellos que
requieren instalación y los que no. Los primeros suelen ser más pequeños, y se
conectan directamente a la batería del coche. El sonido sale por los altavoces del
vehículo, por lo que la calidad de sonido es mejor. Por el contrario, los manos
libres sin instalación suelen llevar una batería que es necesario recargar con cierta
frecuencia. Eso sí, estos últimos no necesitan ser instalados por un especialista.
FABRICANTES
Nokia es actualmente el mayor fabricante en el mundo de teléfonos móviles, con
una cuota de mercado global de aproximadamente 39,1% en el segundo trimestre
de 2008. Continúan la lista con un 14,4% Samsung, 10,2% Motorola, 8% LG y 7,5% Sony
Ericsson. Entre otros fabricantes se encuentran Alcatel, Apple Inc., Audiovox (hoy UT Starcom),
Benefon, BenQ-Siemens, Hewlett Packard, High Tech Computer, Fujitsu, HTC, Huawei, Kyocera,Mitsubishi,
NEC Corporation, Neonode, Panasonic (Matsushita Electric), Pantech Curitel, Philips, Research In Motion,
SAGEM, Gtran, Sanyo, Sharp, Sierra Wireless, SK Teletech, Skyzen, TCL Corporation, Toshiba, Verizon,
Zonda Telecom, verykool y Tocs, etc.
CONTAMINACIÓN ELECTROMAGNÉTICA
La contaminación electromagnética, también conocida como electropolución, es la
contaminación producida por las radiaciones del espectro electromagnético
37
generadas por equipos electrónicos u otros elementos producto de la actividad
humana.
A algunos analistas sociales les preocupa que estos mensajes, con su jerigonza
y sintáctica, lleven a que la juventud no sepa escribir bien. Sin embargo, otros
ortográfica
opinan que “favorecen el renacer de la comunicación escrita en una nueva generación”.
La portavoz de una editorial que publica un diccionario australiano hizo este
38
comentario al rotativo The Sun-Herald: “No surge a menudo la oportunidad de forjar un
nuevo estilo [de escritura] [...;] los mensajes de texto, unidos a Internet, logran que
los jóvenes escriban bastante más. Necesitan tener un dominio de la expresión
que les permita captar el estilo y defenderse bien con el vocabulario y el registro [...]
correspondientes a este género”.
¿Las radiaciones que emiten las antenas de telefonía celular son perjudiciales
para la salud? Un informe reciente no pudo constatar los efectos que denuncian
organizaciones como STOP UMTS, de Holanda.
El sistema UMTS le sucede al conocido como GSM. Las mejoras técnicas que
incorporó facilitan el acceso a la información en lugares remotos, como en las
regiones rurales. La integración de servicios es uno de sus puntos a favor. Por
ejemplo, la comunicación telefónica, la transmisión de datos informáticos o de
video, son accesibles tanto para el hombre de ciudad como para el de una
comunidad rural.
39
El estudio sometió a prueba a dos grupos de personas, las que se describen a
sí mismas como "sensibles" a los campos radioeléctricos y las que desconocen su
presunta influencia en la salud. Ambos grupos permanecieron expuestos a las
radiaciones a lo largo de tres sesiones de 45 minutos cada una. La intensidad de
la emisión varió de la primera a la última: en la primera, la antena permaneció
apagada; en la segunda, se aplicó el mismo nivel de campo eléctrico que se utilizó
en el estudio holandés de 2003; y en la última, se multiplicó su intensidad por diez.
"En ninguno de los dos grupos hemos podido encontrar una correlación entre lo
que ellos se reportan a sí mismos y el hecho de que la antena estuviera o no
funcionando, explica Berdiñas.
"De las tecnologías que se han introducido quizás ésta sea la que más sujeta
está a estudios", reconoce el titular del Departamento de Electromagnetismo en la
Universidad Politécnica de Madrid, José María Gil. En efecto, hay "infinidad de
estudios" con animales y con cultivos celulares sobre los que se han basado los
científicos para establecer los niveles de exposición.
El ministro de salud holandés, Pieter van Geel, aseguró que no existe ningún
peligro para la salud pública, porque "los investigadores suizos no encontraron
diferencias significativas en el bienestar, entre aquellos que fueron expuestos a las
radiaciones de una antena UMTS y aquellos que estuvieron sujetos a una
40
exposición corta”. Y sugirió que las municipalidades que se oponían a la
instalación de las antenas, podrían, por tanto, levantar la suspensión.
Por este motivo aunque existe algún indicio, no se puede señalar con certeza
que las exposiciones a los campos de RF de los dispositivos para las
comunicaciones celulares afecten la regulación del calcio de los tejidos nerviosos
o que los efectos de este tipo, tengan alguna consecuencia para la salud. No
obstante, investigaciones en curso podrían probar tales efectos biológicos.
Comunicación
41
Un modelo simple de comunicación con un emisor que transmite un mensaje a
un receptor.
Para otros usos de este término, véase Comunicación (desambiguación).
La comunicación es el proceso mediante el cual se transmite información de una
entidad a otra. Los procesos de comunicación son interacciones mediadas por
signos entre al menos dos agentes que comparten un mismo repertorio designos y
tienen unas reglas semióticas comunes. Tradicionalmente, la comunicación se ha
definido como "el intercambio de sentimientos, opiniones, o cualquier otro tipo de
información mediante habla, escritura u otro tipo de señales". Todas las formas de
comunicación requieren un emisor, un mensaje y un receptor. En el proceso
comunicativo, la información es incluida por el emisoren un paquete y canalizada
hacia el receptor a través del medio. Una vez recibido, el receptor decodifica el
mensaje y proporciona una respuesta.
Origen de la comunicación
El lenguaje y la escritura
Existe un fundamento psicológico que permite al ser humano aprender diferentes
lenguajes. Aparentemente, el hombre comienza a expandirse desde África Oriental
(homo sapiens), cuyo centro del nacimiento humano se cree está en Etiopía. De
acuerdo a su evolución física y cognitiva existen 4 cambios evolutivos que darán
lugar al hombre actual:
El lenguaje aparece hace 100.000 años, aunque el Homo Sapiens hubiera surgido
hace 150.000 produciendo un proto-lenguaje. La última fase, el lenguaje, aparece
hace 100.000 años. Cuando se determinó la articulación de sonidos, sólo faltaba
unirlos con signos que los representaran.
Sociedades orales
Hasta el momento de la creación de la escritura, existía la necesidad de almacenar
de alguna forma en la memoria colectiva e individual toda clase de información
42
(historias, nombres, mitos...). Para ello, se crearon mapas lingüísticos (rituales),
entre los que se encuentran:
43
origen de la escritura cuneiforme y las más antiguas fueron encontradas en el
templo de Uruk. Sin la escritura, los sacerdotes no habrían podido establecer su
situación de privilegio y su papel organizador del pueblo. Con este tipo de escritura
se formalizan las divisiones sociales, por su función sancionadora y normativa.
El origen de la escritura
El origen de la escritura no se dio de forma sincrónica en el tiempo. Estuvo
localizada entre la revolución neolítica y la revolución urbana, donde conocemos 5
civilizaciones en las cuales se desarrolló la escritura:
44
Teoría de la información
45
Si bien la teoría de la información es útil a la teoría de la comunicación como
aportante matemático y a la comprensión lógica de los procesos, dicha teoría no
corresponde en concreto a la preocupación de la teoría de la comunicación, la cual
analiza la vinculación de los procesos comunicativos individuales a la problemática
social, así como la relación universal existente en torno a la comunicación
mediática y el poder político y se apoya en el uso de lasemiología, que es el estudio
de los signos, en la realidad social y se nutre de la lingüística y otras ciencias.
Puntos de vista de la teoría de la comunicación
Los siguientes son algunos puntos de vista sobre la comunicación y de la teoría de
la comunicación:
La revisión de una teoría en particular a este nivel dará un contexto sobre el tipo
de comunicación tal como es visto dentro de los confines de dicha teoría. Las
teorías pueden ser estudiadas y organizadas además de acuerdo a la ontología,
la epistemología y la axiología que en general son impuestas por el teórico.
46
Epistemología: Pone la pregunta sobre el cómo los teóricos estudian el
fenómeno escogido. En los estudios epistemológicos, el conocimiento objetivo
es aquel que es el resultado de una mirada sistemática de las relaciones
casuales del fenómeno. Este conocimiento es por lo general deducido por
medio de métodos científicos. Los estudiosos por lo general piensan que la
evidencia empírica recogida de manera objetiva está más cerca de reflejar la
verdad en las investigaciones. Teorías de este corte son generalmente creadas
para predecir fenómenos. Teorías subjetivas sostienen que el entendimiento
está basado en conocimientos localizados, típicamente establecidos a través
de la utilización de métodos interpretativos tales como la etnografía y
la entrevista. Las teorías subjetivas se desarrollan por lo general para explicar
o entender fenómenos del mundo social.
Modelos de comunicación
47
Código: Es la forma que toma la información que se intercambia entre la
Fuente (el emisor) y el Destino (el receptor) de un lazo informático. Implica la
comprensión o decodificación del paquete de información que se transfiere.
Mensaje: Es lo que se quiere transmitir.
Situación o contexto: Es la situación o entorno extralingüístico en el que se
desarrolla el acto comunicativo.
manera que pueda ser manejada por el dispositivo destino. Por ejemplo, un
módem captara la señal analógica de la red o línea de transmisión y la convertirá
en una cadena de bits.
48
Aunque el modelo presentado puede parecer sencillo, en realidad implica una gran
complejidad. Para hacerse una idea de la magnitud de ella a continuación una
breve explicación de algunas de las tareas claves que se deben realizar en un
sistema de comunicaciones.
los requisitos del sistema de transmisión y del receptor, sino que deben permitir
alguna forma de sincronizar el receptor y el emisor. El receptor debe ser capaz de
determinar cuándo comienza y cuándo acaba la señal recibida. Igualmente,
deberá conocer la duración de cada elemento de señal.
período, las dos partes (emisor y receptor) deben cooperar. En los dispositivos
para el procesamiento de datos, se necesitaran ciertas convenciones además del
simple hecho de establecer la conexión. Se deberá establecer si ambos
dispositivos pueden Enlace de comunicación Estación de trabajo Módem Medio de
Módem transmisión Servidor transmitir simultáneamente o si deben hacerlos por
turnos, se deberá decidir la cantidad y el formato de los datos que se transmiten
cada vez, y se debe especificar que hacer en caso de que se den ciertas
contingencias.
49
tolerar errores es decir, cuando la señal transmitida se distorsiona de alguna
manera antes de alcanzar su destino.
50
el descifrar e interpretar lo que el emisor quiere dar a conocer. Existen dos
tipos de receptor, el pasivo que es el que sólo recibe el mensaje, y el receptor
activo o perceptor ya que es la persona que no sólo recibe el mensaje sino que
lo percibe, lo almacena, e incluso da una respuesta, intercambiando los roles.
En este caso, donde un receptor o perceptor se transforma en emisor al
producir y codificar un nuevo mensaje para ser enviado al ente emisor -ahora
devenido en receptor- es donde se produce el feed-back o retroalimentación; y
es lo que comúnmente sucede en cualquier comunicación interpersonal.
Código: Es el conjunto de reglas propias de cada sistema de signos y
símbolos de un lenguaje que el emisor utilizará para trasmitir su mensaje, para
combinarlos de manera arbitraria y socialmente convenida ya que debe estar
codificado de una manera adecuada para que el receptor pueda captarlo. Un
ejemplo claro es el código que utilizan los marinos para poder comunicarse;
la gramática de algún idioma; los algoritmos en la informática, todo lo que nos
rodea son signos codificados.
Mensaje: Es el contenido de la información (contenido enviado): el conjunto
de ideas, sentimientos, acontecimientos expresados por el emisor y que desea
trasmitir al receptor para que sean captados de la manera que desea el emisor.
El mensaje es la información debidamente codificada.
Canal: Es por donde se transmite la información-comunicación,
estableciendo una conexión entre el emisor y el receptor. Mejor conocido como
el soporte material o espacial por el que circula el mensaje. Ejemplos: el aire,
en el caso de la voz; el hilo telefónico, en el caso de una conversación
telefónica. Cuando la comunicación es interpersonal -entre personas y sin
ningún medio electrónico de por medio, como una conversación cara cara (de
ahí "interpersonal")- se le denomina Canal. Pero cuando la comunicación se
realiza por medio de artefactos o instancias electrónicas o artificiales, se le
denomina Medio. Por ejemplo: Una charla de café, Canal; Una llamada
telefónica o un mensaje de texto, un Medio. Los medios de comunicación
masiva -TV, Radio, Periódicos, Internet, etc.- tienen por canal a un Medio.
Referente: Realidad que es percibida gracias al mensaje. Comprende todo
aquello que es descrito por el mensaje.
Situación: Es el tiempo y el lugar en que se realiza el acto comunicativo.
Interferencia, barrera o ruido: Cualquier perturbación que sufre la señal en
el proceso comunicativo, se puede dar en cualquiera de sus elementos. Son
las distorsiones del sonido en la conversación, o la distorsión de la imagen de
la televisión, la alteración de la escritura en un viaje, la afonía del hablante, la
sordera del oyente, la ortografía defectuosa, la distracción del receptor, el
alumno que no atiende aunque esté en silencio.También suele llamarse ruido
Retroalimentación o realimentación (mensaje de retorno): Es la condición
necesaria para la interactividad del proceso comunicativo, siempre y cuando se
reciba una respuesta (actitud, conducta) sea deseada o no. Logrando la
interacción entre el emisor y el receptor. Puede ser positiva (cuando fomenta la
comunicación) o negativa (cuando se busca cambiar el tema o terminar la
comunicación). Si no hay realimentación, entonces sólo hay información mas
no comunicación.
51
Funciones de la comunicación
Axiomas de la comunicación
Diversos enfoques de la comunicación humana la conciben como un ritual que los
seres humanos llevan acabo desde que nacen. Los teóricos han determinado
52
cinco axiomas de la comunicación,1 también conocidos como axiomas de Paul
Watzlawick:
1. Es imposible no comunicarse.
2. Toda comunicación tiene un aspecto de contenido y uno de relación,
tales que el segundo califica al primero y es por ende una
metacomunicación.
3. La naturaleza de una relación depende de la puntuación de
secuencias de comunicación entre los comunicantes.
4. Los seres humanos se comunican tanto digital como analógicamente.
El lenguaje digital cuenta con una sintaxis lógica sumamente compleja y
poderosa pero carece de una semántica adecuada en el campo de la
relación, mientras que el lenguaje analógico posee la semántica pero no
una sintaxis adecuada para la definición inequívoca de la naturaleza de las
relaciones.
5. Los intercambios comunicacionales son simétricos o
complementarios según estén basados en la igualdad o la diferencia
Campo teórico
Una disciplina se define cuando forma parte de una estructura teorética. Los estudios
sobre la comunicación suelen presentar teorías de otras ciencias sociales. Esta
variación teorética hace difícil que se llegue a término con un campo totalizado.
Sin embargo, existe un rango de elementos comunes que sirven para dividir las
investigaciones sobre comunicación. Dos tipos de divisiones tienen que ver con
contextos y los campos teóricos asumidos.
Contextos
Para muchos autores y estudiosos la comunicación se divide en lo que
llaman contextos o niveles, pero que en muchas ocasiones representan historias
institucionales. El estudio de la comunicación en los EE.UU., cuando ocurren
dentro de departamentos de psicología, sociología, lingüística, antropología y
escuelas de periodismo, entre muchas otras, generalmente desarrolla escuelas de
laretórica. Mientras muchos de estos se convirtieron en "departamentos de
comunicación", por lo general retienen sus raíces históricas adheriendo la mayoría
de las veces a teorías del discurso de la comunicación en casos pasados y
después de los medios de comunicación social. La gran división entre el discurso
de la comunicación y los medios masivos se vuelve complicado para un número
de pequeñas subáreas de los estudios en comunicación lo que incluye la
comunicación intercultural e internacional, los pequeños grupos de comunicación,
las Tecnologías de la información y la comunicación, las políticas y marcos legales de la
comunicación, lastelecomunicaciones y el trabajo en otros niveles variados. Algunos de
estos departamentos toman una gran perspectiva social y científica, otros tienden
más hacia una perspectiva humanista y todavía otros se impulsan a sí mismos
hacia la producción y la preparación profesional.
53
Estos "niveles" de comunicación ofrecen algunos modos de agrupar las teorías de
la comunicación, pero inevitablemente algunas teorías y conceptos pasan de una
área a otra o encuentran su sitio definitivamente.
Asumidos
Otro modo de dividir los campos de la comunicación enfatiza en los asumidos que
están a la base de teorías particulares, modelos y aproximaciones. Mientras estas
aproximaciones tienden también a tener sus divisiones institucionales básicas, las
teorías dentro de cada una de las siete "tradiciones" de la teoría de la
comunicación que Robert Craig sugiere, tienden a reforzarse unas a otras y retienen
el mismo terreno de asumidos epistemológicos y axiológicos. Estas "siete
tradiciones" consisten en las siguientes:2
54
Discurso e interacción: Teoría de los actos discursivos y administración
coordinada del significado.
Desarrollo de las relaciones: Teoría de la reducción de incertezas y teoría
de la penetración social.
Relaciones en proceso: Teoría de los sistemas de relación y dialéctica
relacional.
Organizacional: Teoría de la estructura y teoría del control coercitivo.
Pequeños grupos: Teoría funcional y teoría de la convergencia simbólica.
Procesos de los medios masivos y sus efectos: Teoría cognitiva social y
teoría de usos y gratificaciones.
Medios masivos y sociedad: Teoría de la agenda establecida y teoría de la
espiral del silencio.
Cultura: Teoría de los códigos discursivos y teoría de la conservación del
rostro.3
Escuelas
55
Néstor García Canclini, argentino.
Daniel Hernández, mexicano.
Jesús Martín-Barbero, nacido en Ávila, España está nacionalizado
enColombia, semiólogo, antropólogo y filósofo, es uno de los escritores más
prolíferos en el continente.
Sandra Massoni, argentina.
Armand Mattelart, belga, nacionalizado en Chile en donde desarrolló sus
investigaciones especialmente.
Carlos Monsiváis, mexicano.
Antonio Pasquali, venezolano.
Daniel Prieto Castillo, argentino.
Fernando Reyes Matta, chileno.
Héctor Schmucler, argentino.
Washington Uranga, argentino.
Eliseo Verón, semiólogo argentino.
Enrique Bustamante Ramírez, economista político de la comunicación
español.
Manuel Martín Serrano, teórico de la comunicación español.
José María Desantes Guanter, teórico del derecho de la comunicación
español.
Ciencias de la comunicación
La existencia de las denominadas ciencias de la comunicación presupone dar a la
comunicación una entidad autónoma y un campo de investigación propio en el
conjunto del saber. El problema que cabe plantearse es si la comunicación es una
disciplina como tal, o si por el contrario es un ámbito concreto del conocimiento al
que disciplinas ya consolidadas tratan de estudiar, como la psicología, lasociología,
el análisis político, la antropología o la lingüística. Es decir, puede considerarse la
comunicación como un campo de estudios transversal, en el que concurren
diversas ciencias para explicar el fenómeno desde puntos de vista concretos.
Es posible así hablar de una pragmática de la comunicación, que tiene su objeto de
estudio en el proceso de comunicación afectado de manera individual (personas),
grupal (comunidades), social y cultural. Puede ser considerada una disciplina
moderna, producto de la reflexión multidisciplinaria en torno a este fenómeno, su
riqueza y su validez está dada por los diferentes puntos de vista que reúne en
torno a la discusión de una situación particular.
Por otra parte, el desarrollo de estas ciencias ha ido de la mano con el desarrollo
de las tecnologías y de los medios de transmisión de información.
Ciencias sociales
La comunicación es un proceso de interrelación entre dos o más seres vivos o
entidades donde se transmite una información desde un emisor que es capaz de
codificarla en un código definido hasta un receptor, el cual decodifica la
56
información recibida, todo eso en un contexto determinado. El proceso de
comunicación emisor - mensaje - receptor, se torna bivalente cuando el receptor
logra codificar el mensaje, lo interpreta y lo devuelve al emisor originario, quien
ahora se tornará receptor.
La comunicación es de suma importancia para la supervivencia de
especies gregarias, pues la información que ésta extrae de su medio ambiente y su
facultad de transmitir mensajes serán claves para sacar ventaja del modo de vida
gregario.
Etimológicamente, la palabra comunicación deriva del latín "communicare", que
puede traducirse como "poner en común, compartir algo". Se considera
una categoría polisémica en tanto su utilización no es exclusiva de una ciencia social en
particular, teniendo connotaciones propias de la ciencia social de que se trate.
Análisis social de la comunicación
La comunicación como disciplina social que analiza los contenidos, características
y canales a través de los cuales se da la comunicación incluye las siguientes
subdisciplinas:
57
Comunicación Satelital
58
Directa al Hogar, y Televisión por cable), Telefonía (Internacional, rural), y
Telemedicina. Por ejemplo, en el caso del sector educativo, desde hace 5 años
Edusat desarrolla programas de alfabetización a distancia en todo el país,
cubriendo todos los niveles en el cual se ve reflejado los avances.
Antecedentes históricos
La primera representación ficticia conocida de un satélite artificial lanzado a
una órbita alrededor de la Tierra aparece en un cuento de Edward Everett Hale, The Brick
Moon (‘la luna de ladrillos’). El cuento, publicado por entregas en Atlantic Monthly, se
inició en 1869.[1] [2] El objeto del título se trataba de una ayuda para la navegación
pero que por accidente fue lanzado con personas en su interior.
59
etapas, estaciones espaciales, escotillas para salir de una nave en el espacio y un
sistema biológico cerrado para proporcionar comida y oxígeno a las colonias
espaciales. También profundizó en las teorías sobre máquinas voladoras más
pesadas que el aire, trabajando de forma independiente en mucho de los cálculos
que realizaban los hermanos Wright en ese momento.
En 1928, Herman Potočnik publicó su único libro, Das Problem der Befahrung
des Weltraums - der Raketen-motor (El problema del viaje espacial - el motor de
cohete), un plan para progresar hacia el espacio y mantener presencia humana
permanente. Potočnik diseñó una estación espacial y calculó su órbita geoestacionaria.
También describió el uso de naves orbitales para observaciones pacíficas y
militares y como se podrían utilizar las condiciones del espacio para realizar
experimentos científicos. El libro describía satélites geoestacionarios y discutía
sobre la comunicación entre ellos y la tierra utilizando la radio pero no sobre la
idea de utilizarlos para comunicación en masa y como estaciones de
telecomunicaciones.
60
Estados Unidos había considerado lanzar satélites orbitales desde 1945
bajo la Oficina de Aeronáutica de la Armada. El Proyecto RAND de la Fuerza Aérea
presentó su informe pero no se creía que el satélite fuese una potencial arma
militar, sino más bien una herramienta científica, política y de propaganda. En
1954, el Secretario de Defensa afirmó: «No conozco ningún programa
estadounidense de satélites».
El 29 de julio de 1955, la Casa Blanca anunció que los Estados Unidos intentarían
lanzar satélites a partir de la primavera de 1958. Esto se convirtió en el Proyecto
Vanguard. El 31 de julio, los soviéticos anunciaron que tenían intención de lanzar un
satélite en el otoño de 1957.
61
unos kilogramos. Aproximadamente el 7% de los objetos espaciales (unos 560
satélites) están en funcionamiento, mientras que el resto son chatarra espacial.
Se hace mención que una réplica idéntica, desarrollada en Rusia, del famoso
se encuentra en el vestíbulo principal del edificio de las Naciones Unidas, en la
Sputnik
ciudad de Nueva York, como símbolo del desarrollo tecnológico alcanzado por los
humanos.
SATELITES ORBITALES
Los satélites mencionados, hasta el momento, son llamados satélites
orbitales o no síncronos. Los satélites no síncronos giran alrededor de la Tierra en
un patrón elíptico o circular de baja altitud. Si el satélite esta girando en la misma
dirección de la rotación de la Tierra y a una velocidad angular superior que la de la
Tierra, la órbita se llama órbita progrado. Si el satélite esta girando en la dirección
opuesta a la rotación de la Tierra o en la misma dirección, pero a una velocidad
angular menor a la de la Tierra, la órbita se llama órbita retrograda.
Consecuentemente, los satélites no síncronos están alejándose continuamente o
cayendo a Tierra, y no permanecen estacionarios en relación a ningún punto
particular de la Tierra. Por lo tanto los satélites no síncronos se tienen que usar
cuando están disponibles, lo cual puede ser un corto periodo de tiempo, como 15
minutos por órbita. Otra desventaja de los satélites orbitales es la necesidad de
usar un equipo costoso y complicado para rastreo en las estaciones terrestres.
Cada estación terrestre debe localizar el satélite conforme esta disponible en cada
órbita, y después unir su antena al satélite y localizarlo cuando pasa por arriba.
Una gran ventaja de los satélites orbitales es que los motores de propulsión no se
requieren a bordo de los satélites para mantenerlos en sus órbitas respectivas.
SATELITES GEOESTACIONARIOS
Los satélites geoestacionarios o geosíncronos son satélites que giran en un
patrón circular, con una velocidad angular igual a la de la Tierra.
Consecuentemente permanecen en una posición fija con respecto a un punto
específico en la Tierra. Una ventaja obvia es que están disponibles para todas las
estaciones de la Tierra, dentro de su sombra, 100% de las veces. La sombra de
un satélite incluye todas las estaciones de la Tierra que tienen un camino visible a
él y están dentro del patrón de radiación de las antenas del satélite. Una
desventaja obvia es que a bordo, se requieren de dispositivos de propulsión
sofisticados y pesados para mantenerlos fijos en una órbita. El tiempo de órbita de
un satélite geosíncrono es de 24 h. igual que la Tierra.
62
relación a la superficie de la Tierra, mientras que el subsistema interno
proporciona una estabilización de giro.
Los satélites geosíncronos deben compartir espacio y espectro de
frecuencia limitados, dentro de un arco específico, en una órbita geoestacionaria,
aproximadamente a 22,300 millas, arriba del Ecuador. La posición en la ranura
depende de la banda de frecuencia de comunicación utilizada. Los satélites
trabajando, casi o en la misma frecuencia, deben estar lo suficientemente
separados en el espacio para evitar interferir uno con otro. Hay un límite realista
del número de estructuras satelitales que pueden estar estacionadas, en un área
específica en el espacio. La separación espacial requerida depende de las
siguientes variables:
• Ancho del haz y radiación del lóbulo lateral de la estación terrena y antenas
del satélite.
• Frecuencia de la portadora de RF.
• Técnica de codificación o de modulación usada.
• Límites aceptables de interferencia.
• Potencia de la portadora de transmisión.
Modelodesubida
63
convierte la IF convierte las señales de banda base de entrada a una frecuencia
intermedia modulada en FM, en PSK o en QAM. El convertidor (mezclador y filtro
pasa-bandas) convierte la IF a una frecuencia de portadora de RF apropiada. El
HPA proporciona una sensibilidad de entrada adecuada y potencia de salida para
propagar la señal al transponder del satélite. Los HPA comúnmente usados son
klystons y tubos de onda progresiva.
Transponder
Modelodebajada
64
4.2.1. Introducción.
Los satélites de INMARSAT III cuentan con un sistema SAR (Búsqueda y
Rescate) a bordo, el sistema COSPAS-SARSAT es actualmente el máximo
exponente en lo que a búsqueda y rescate vía satélite se refiere.
4.2.2. El sistema.
COSPAS-SARSAT es un sistema internacional de búsqueda y rescate
consistente en una constelación de satélites con cobertura global dispuestos en
órbita polar (entre 800 y 1000 Km de altitud) y en una red de estaciones terrestres
que envían señales de alerta o informaciones de localización a las autoridades
encargadas de las labores de rescate ya sea por tierra, mar o aire.
Nace de la unión SARSAT (Search And Rescue Satellite-Aided Tracking) y su
homólogo soviético COSPAS (acrónimo ruso de Sistema Espacial para la
Búsqueda de Buques en Peligro).
Este programa conjunto está esponsorado por Canadá (pionera en 1982), Francia,
Estados Unidos y el propio COSPAS soviético.
4.2.3. Participantes.
Hay 28 países y organizaciones participantes en el funcionamiento del
sistema, entre ellos están las 4 partes del acuerdo COSPAS-SARSAT (Canadá,
Francia, Rusia y Estados Unidos), 14 proveedores de segmentos terrestres, 8
países usuarios y 2 organizaciones participantes, los países adicionales están en
proceso de integración.
Las organizaciones son the International Maritime Organization (IMO), the
International Civil Aviation Organization (ICAO), the International
Telecommunication Union (ITU), the International Chamber of Shipping (ICS), the
International Radio Maritime Committee (CIRM) and the International Federation of
Air Line Pilots Associations (IFALPA).
4.2.4. Funcionamiento.
Actuando como repetidores de comunicaciones, los satélites COSPAS-
SARSAT reciben señales de alerta emitidas por:
• Radiobalizas marítimas de emergencia e indicadoras de posición (EPIRBs).
• Transmisiones aéreas de localización de emergencia (ELTs).
• Radiobalizas de localización personal (PLBs).
65
La velocidad y precisión de estas comunicaciones incrementa
significativamente las posibilidades de supervivencia de las víctimas del accidente
en cuestión.
Hay 14 MCCs operativos situados en 14 paises y 6 MCCs bajo test en 6
paises, respecto a las LUTs cabe destacar la existencia de 29 operativas
distribuidas en 17 países y 4 bajo test en 4 países.
4.2.5. Los satélites.
La configuración del sistema comprende cuatro satélites, dos COSPAS y
dos SARSAT.
Los satélites soviéticos están situados en órbita polar a 1000 Km. de altitud
y están equipados con instrumental SAR (Búsqueda y Rescate) a 121.5 y 406
MHz.
Los Estados Unidos contribuyen con dos satélites meteorológicos NOAA
(National Oceanic and Atmospheric Administration) situados a 850 Km. de altitud
en órbita polar y equipados con instrumental SAR a 121.5 y 406 MHz apoyados
por Canadá y Francia.
Cada satélite da una vuelta completa a la Tierra en 100 minutos
aproximádamente a una velocidad de 7Km por segundo.
Los satélites obtienen imágenes del planeta barriendo zonas con un haz de
4000 Km de ancho.
4.2.6. Resultados.
Desde Septiembre de 1982 hasta Junio de 1995 el sistema COSPAS-
SARSAT contribuyó al rescate de 5541 personas en 1800 sucesos SAR:
• Accidentes aéreos: 1624 personas en 755 sucesos SAR.
• Accidentes marítimos: 3633 personas en 922 sucesos SAR.
• Accidentes terrestres: 284 personas en 123 sucesos SAR.
El sistema de 406 MHz fue utilizado en 500 de estos incidentes (2193 personas
rescatadas), el sistema de 121.5 MHz se utilizó en el resto de los casos.
4.2.7. Nuevos desarrollos.
El concilio COSPAS-SARSAT está considerando el desarrollo del sistema
GEOSAR con satélites de búsqueda y rescate en órbita geoestacionaria que
incrementaría el potencial de los ya existentes en órbita polar.
Se ha desarrollado un D&E (Demostración y Evaluación) de GEOSAR .
4.3. GPS.
Inmarsat pretende crear un sistema de navegación (GNSS, Global
Navigation Satellite System) totalmente independiente del sistema GPS (EE.UU.) y
GLONASS (Rusia), y por tanto, constituiría una alternativa (civil) a ellos.
De hecho, el contratista de Inmarsat, ITT, ha señalado que un sistema
global de navegación civil espacial puede ser desarrollado por menos de un
66
millardo de dólares, una pequeña cantidad comparada con el coste del sistema
GPS (6-10 millardos de dólares).
Los pasos a seguir hasta constituir la GNSS son los siguientes:
1. En los satélites Inmarsat-3 se incluye un transpondedor separado que
gestiona las señales GPS, aumentando la integrabilidad de este sistema. Lo
complementa.
Veamos el primer paso dado por Inmarsat para establecer una GNSS propia a
partir de los satélites de Inmarsat 3. Concretamente, la tercera generación de
Inmarsat se encarga de la integridad del sistema GPS mediante la técnica GIC
(GPS Integrity Channel) , está basada en una red terrena que monitoriza los
satélites y transmite a los usuarios los resultados, para lo que el uso de satélites
geoestacionarios y los satélites de INMARSAT serán los encargados de llevarla a
cabo.
Los satélites de INMARSAT III operarán a la misma frecuencia que la señal
C/A (código que permite un posicionamiento rápido del receptor pero con precisión
media SPS) del GPS (1575.42 MHz) con una secuencia directa pseudoaleatoria
con modulación de espectro ensanchado de la misa familia de GPS que llevará la
información de integridad además de la de navegación, se comportarán como
repetidores con lo que se simplificarán los circuitos del satélite y la información de
integridad podrá ser actualizada en tiempo real.
Las estaciones terrenas de enlace con el satélite serán las mismas que
proporcionan los servicios de comunicaciones móviles y son operadas por
asociaciones que integran INMARSAT (como Comsat) que será responsable de
los satélites.
Requisitos del repetidor del satélite:
Los requisitos del repetidor del satélite son tres:
• PIRE de 28 dBW en el haz de cobertura global para que la potencia de la
señal recibida sea semejante a la señal de los satélites GPS.
• Ancho de banda nominal del repetidor de 2 MHz para poder transmitir la
señal de espectro ensanchado modulada con código C/A a la frecuencia de
1.023 MHz.
• Estabilidad de las características de retardo de grupo del sistema de modo
que pueda ser calibrado para su uso en navegación.
67
Los satélites INMARSAT III poseen un enlace de banda C a banda L y otro
de banda C a banda C de baja potencia, la comparación de los retardos
producidos en los dos enlaces se usa para compensar el retardo de propagación
ionosférica en el enlace de subida.
Al usar INMARSAT III como repetidor se produce un desplazamiento
Doppler adicional debido al enlace de la estación terrena con el satélite, para que
la señal recibida sea compatible con la señal GPS se debe compensar en tiempo
real el enlace de subida al satélite adelantando la señal de reloj una cantidad igual
al retardo del enlace de subida y se desplaza ligeramente la frecuencia de la
portadora, este método de generar una señal de reloj virtual en el satélite se
denomina Generación de Señal en Bucle Cerrado .
Presentación
Los satélites de radioaficionado son una de las áreas de la radioafición que
en México menos se practica. La creencia a que operar satélites es complejo y
caro no es necesariamente cierta: hay satélites que podemos trabajar sin tener
que estudiar el tema por meses ni contar con equipo sofisticado.
Aunque parezca difícil de creer en la mayoría de nuestros cuartos de radio
existen los equipos necesarios para iniciarse en este campo de la
radioexperimentación.
La presente es una lista de preguntas básicas sobre la operación satelital
con sus correspondientes respuestas. Su nivel es elemental e introductorio y es
muy probable que quién desee operar algún satélite deba de consultar otras
fuentes, mismas que se citan al final del documento. 73s de XE1KK.
1. ¿Que es un satélite?
En su concepción más sencilla, y quizá simplista, los satélites de
radioaficionados son repetidoras voladoras. Su principal diferencia con sus
equivalentes terrestres el que vuelan y el que al volar se mueven.
2. ¿Como funciona un satélite?
Un radioaficionado "A" emite una señal que es recibida por el satélite. El
satélite la amplifica y la retransmite inmediatamente. El radioaficionado "B" la
recibe y le contesta. Así inicia un comunicado por satélite.
3. ¿Como "se mueven" los satélites?
Los actuales satélites con los que podemos experimentar los
radioaficionados tienen dos tipos de órbita: circular y elíptica.
Los satélites con órbitas circulares se mantienen mas o menos a la misma
distancia de la tierra pero su posición respecto a la superficie varia cada momento.
Es la mas común y conocida de las órbitas. Por su parte los satélites de órbitas
elípticas, tiene la característica que pueden permanecen más tiempo viendo un
mismo lugar de la tierra y su órbitas son mucho más largas.
68
4. ¿Que cobertura tiene un satelite de orbita baja?
Al igual que en la repetidoras tradicionales a mayor altitud mayor cobertura.
Los satélites de órbita baja se encuentran entre 400 y 1400 Km. de altura así que
el área que pueden cubrir equivale a toda la República en los más bajos o una
área equivalente a México, sur de Estados Unidos, Centro América, parte del
Caribe y norte de Colombia en los de mayor altura.
Esta área o sombra del satélite permite que cualquier estación que se
encuentre dentro de ella pueda, en principio, contactar otras estaciones que estén
dentro de esa sombra. La duración del satélite en esa posición en muy breve ya
que se mueven a gran velocidad. La sombra mantiene su diámetro pero también
se está moviendo.
5. ¿Cuantas veces pasa un satélite sobre nosotros?
Un satélite de orbita baja pasa por arriba de un determinado punto, entre 4
y 6 veces al día. La duración de cada pase varia dependiendo de la órbita pero en
promedio podemos decir que entre 10 y 18 minutos están disponibles para que los
operemos. Tenemos pues más de una hora diaria para usarlo.
Si consideramos que hay más de 15 satélites de órbita baja nos daremos
cuenta que hay más tiempo de satélites que tiempo para hacer radio.
6. ¿Como funcionan los satélites de órbita elíptica?
Los satélites de órbita elíptica tienen otras características. Su órbita tiene
dos puntos claves: el más cercano se le conoce como perigeo y el más lejano
como apogeo. En su apogeo casi toda una cara de la tierra esta disponible para
comunicar ya que en el caso de algunos satélites como el OSCAR 13 llega a estar
a 38,000 Km. de distancia.
Estos satélites equivalen en cierta manera a 20 metros en HF: hay buen DX
y siempre hay estaciones llamando CQ. A diferencia de los satélites de órbita baja
casi no se nota el efecto dopler, que es el movimiento de frecuencia que se origina
por la velocidad a la que se mueve el satélite. Algo similar como cuando
escuchamos una ambulancia o un auto a gran velocidad: el tono de la sirena o el
motor es distinto antes y después de que pasan frente a nosotros.
7. ¿Como se donde está el satélite?, ¿cuando pasará?
La predicción de las órbitas satelitales se hace por lo general con ayuda de
una computadora personal. No es la única opción pero hoy por hoy es la más fácil.
Hay diversos y entre ellos destacan el InstanTrack y el QuickTrack. El primero mi
favorito y lo vende AMSAT (ver pregunta # 18).
Los programas no solo indican y grafican cuando el satélite pasará sino que
dan otros datos importantes como la elevación o altitud sobre el horizonte y el
azimut o posición respecto a los cuatro puntos cardinales.
8. ¿Cual es la mejor elevación?
La elevación optima, que es de 90 grados, solo se da cuando el satélite
pasa exactamente sobre nosotros. Pero esto no quiere decir que con otras
69
elevaciones no se pueda trabajar, Praticamente cualquier elevación superior a 2 o
3 grados es suficiente si nuestro horizonte lo forman montañas lejanas o montes
cercanos pero no muy altos.
9. ¿Y en base a que información el programa hace estos cálculos?.
Los programas de computadora para seguimiento de satélite se actualizan
con una serie de datos sobre los satélites mejor conocidos como elementos
Keplerianos que por lo general uno consigue fácilmente de los BBSes de packet o
de alguna revista sobre el tema.
Existen dos tipos de formatos: NASA o de dos líneas y AMSAT que es mas fácil
de entender a los humanos y por lo mismo son mas largos. Para efectos de una
computadora da igual cual utilices.
10. ¿Cuantos satélites hay?
A la fecha hay más o menos 20 satélites de radioaficionados disponibles de
una u otra forma. Digo mas o menos ya que de vez en cuando alguno queda
apagado por falla o mantenimiento.
11. ¿Que tipo de actividad encuentro en los satélites?
Hay satélites para todos los gustos. Muchos de los modos de operación que
encontramos en las bandas tradicionales también están disponibles en los
satélites: banda lateral, telegrafía, teletipo, televisión de barrido lento, FM y packet
de diversos tipos.
En los satélites se hace DX tan bueno como en 20 metros, hay plie-ups y
DXpediciones que trabajan en split. Hay diplomas aunque no hay concursos.
Hay espacio para los que les gusta conversar y hacer nuevos amigos. Para
el experimentador y en constructor de equipos y antenas, este es un mundo muy
amplio. En pocas palabras: lo que hoy nos gusta del radio casi seguro lo
encontramos también vía satélite.
12. ¿Como puedo trabajar un satélite?
Dependiendo de las caracteristicas de los satélites será la manera de
trabajarlos. Para efectos didacticos podemos dividirlos en cuatro:
A) Satélites de órbita baja para voz o analógicos.
Son los mas fáciles de trabajar y casi todos nos iniciamos en ellos. El
sistema por el que operan es el de retransmitir entre 50 y 100 kHz de una banda,
en lugar de una sola frecuencia como lo hace un repetidora, a 50 o 100 kHz de
otra banda con todo lo que se encuentre en ella, sea CW o banda lateral. Esto se
conoce como "transponder".
Entre los satélites de este tipo destacan los rusos RS-10/11 y RS-12/13 y el
satélite japonés FUJI OSCAR 20 No se requiere de equipo sofisticado para
trabajarlos, quizá solo de un poco de paciencia
B) Satélites de órbita baja digitales.
70
Son satélites de órbita circular que operan principalmente packet en sus
distintas modalidades. Son el equivalentes a BBSes de packet voladores. A la
fecha hay más de 10 satélites digitales operando.
Los satélites tradicionales de este tipo, conocidos como pacsats, son el UO-
14, AMSAT OSCAR 16, el DOVE OSCAR 17, el Webersat o WO-18 y el satélite
argentino LUSAT o LO-19.
Los satélites UO-22 y KITSAT OSCAR 23 también son BBS voladores pero
trabajan a 9600 bps y tienen entre sus curiosidades cámaras que toman fotos de
la tierra y las retransmiten vía packet.
Una nueva generación de satélites digitales fue lanzada recientemente: el
ITAMSAT-A, KITSAT-B, EYESAT-A y POSAT-1. Algunos ya están disponibles
para todos, otros siguen en pruebas. El UNAMSAT. primer satélite mexinaco de
este tipo muy pronto estará en órbita.
C) Satélites de órbita elíptica.
Son como ya dijimos en donde se llevan a cabo las comunicaciones
intercontinentales y algunos modos como SSTV y RTTY, así como otro tipo de
experimentos propios del mundo de los satélites.
Entre ellos destacan el OSCAR 10, OSCAR 13 y el ARSENE. El primero ya
está cumpliendo su ciclo de vida y el último no funciono. Muy pronto habrá nuevos
satélites de este tipo: la llamada FASE 3-D.
D) Satélites tripulados.
Por último las naves espaciales: el MIR ruso y el Space Shuttle
norteamericano que como ustedes bien saben traen equipos de dos metros y
hacen contacto con radioaficionados en la tierra tanto en voz como en packet. El
MIR es relativamente fácil de trabajar en packet dado que los cosmonautas
permanecen en el espacio por mucho tiempo.
13 ¿Que equipo necesito para trabajar un satélite?
Cual es el equipo necesario para trabajar satélites es siempre una difícil
pregunta. A continuación se presenta una tabla con los equipos MINIMOS
necesarios para que con un poco de paciencia y tenacidad se pueda trabajar
algún satélite.
EQUIPO MINIMO NECESARIO PARA TRABAJAR SATELITES
EQUIPO PARA EL
SATELITE MODO UPLINK DOWNLINK ANTENAS AMP/PREAMP TNC TIPO
----------------------------------------------------------------------------
RS-10/11 A 2m/SSB 10m/SBB omni no/no no Analógico
DO-17 2m/FM omni no/no 1200 AFSK Digital
AO-16 JD 2m/FM 70cms/SSB omni no/no 1200 PSK Digital
KO-23 JD 2m/FM 70cms/SSB omni no/no 9600 FSK Digital
71
AO-13 B 70cms/SSB 2m/SSB yagis si/si no Elíptico
MIR/STS 2m/FM 2m/FM omni no/no 1200 AFSK Tripul
----------------------------------------------------------------------------
14. ¿Que es el "modo" en los satélites?
El término modo de los satélites es uno de los que hacen parecer
complicada esta área de la radioexperimentación. En HF el modo es el tipo de
emisión en el que trabajamos: SSB, FM, CW, etc. En satélite el modo significa las
bandas que estoy utilizando para trabajar al satélite: que banda uso en el uplink,
esto es para transmitir o subir al satélite y el downlink o la banda en la que el
satélite transmite de regreso o baja y en la que nosotros recibimos.
Modo Uplink Downlink
----------------------------------------------------
A 2 metros (145 MHz) 10 metros (29 MHz)
B 70 cm. (435 MHz) 2 metros (145 MHz)
J 2 metros (145 MHz) 70 cm. (435 MHz)
K 15 metros (21.2 MHz) 10 metros (29 MHz)
72
• Satélites miniaturizados, también denominados como minisatélites,
microsatélites, nanosatélites o picosatélites, son característicos por sus
dimensiones y pesos reducidos.
• Satélites de navegación, utilizan señales para conocer la posición exacta
del receptor en la tierra.
• Satélites de reconocimiento, denominados popularmente como satélites
espías, son satélites de observación o comunicaciones utilizados por
militares u organizaciones de inteligencia. La mayoría de los gobiernos
mantienen la información de sus satélites como secreta.
• Satélites de observación terrestre, son utilizados para la observación del
medio ambiente, meteorología, cartografía sin fines militares.
• Satélites de energía solar, son una propuesta para satélites en órbita
excéntrica que envíen la energía solar recogida hasta antenas en la Tierra
como una fuente de alimentación.
• Estaciones espaciales, son estructuras diseñadas para que los seres
humanos puedan vivir en el espacio exterior. Una estación espacial se
distingue de otras naves espaciales tripuladas en que no dispone de
propulsión o capacidad de aterrizar, utilizando otros vehículos como
transporte hacia y desde la estación.
• Satélites meteorológicos, son satélites utilizados principalmente para
registrar el tiempo atmosférico y el clima de la Tierra.
73
• Órbita areocéntrica: una órbita alrededor de Marte.
74
o Órbita de escape: una órbita parabólica de velocidad alta donde el
objeto se aleja del planeta.
o Órbita de captura: una órbita parabólica de velocidad alta donde el
objeto se acerca del planeta.
• Órbita síncrona: una órbita donde el satélite tiene un periodo orbital igual al
periodo de rotación del objeto principal y en la misma dirección. Desde el
suelo, un satélite trazaría una analema en el cielo.
• Órbita semisíncrona: una órbita a una altitud de 12.544 km
aproximadamente y un periodo orbital de unas 12 horas.
• Órbita geosíncrona: una órbita a una altitud de 35.768 km. Estos satélites
trazarían una analema en el cielo.
o Órbita geoestacionaria: una órbita geosíncrona con inclinación cero.
Para un observador en el suelo, el satélite parecería un punto fijo en
el cielo.
o Órbita cementerio: una órbita a unos cientos de kilómetros por
encima de la geosíncrona donde se trasladan los satélites cuando
acaba su vida útil.
• Órbita areosíncrona: una órbita síncrona alrededor del planeta Marte con un
periodo orbital igual al día sideral de Marte, 24,6229 horas.
• Órbita areoestacionaria: una órbita areosíncrona circular sobre el plano
ecuatorial a unos 17.000 km de altitud. Similar a la órbita geoestacionaria
pero en Marte.
• Órbita heliosíncrona: una órbita heliocéntrica sobre el Sol donde el periodo
orbital del satélite es igual al periodo de rotación del Sol. Se sitúa a
aproximadamente 0,1628 UA.
Otras órbitas
75
• Pico satélite: cuyo peso sea entre 0,1 y 1 kg
• Femto satélite: cuyo peso sea menor a 100 g
Satélites multispot
76
puede variar entre 64 y 2,048 Kbps (kilo bites por segundo) con
Su velocidad
todas las ventajas de acceso a Internet que ofrecen otros medios de conexión y
aunque representa un costo muy elevado para usos domésticos, es una alternativa
muy rentable para aplicaciones comerciales y de investigación.
77
• Un equipo IDU Indoor unit, que en terminos
sencillos es como una computadora (pero sin
teclado ni mouse) que cuenta con: dos puertos
que están conectados a la antena (uno es para
el canal de recepción y otro para el de
transmisión), un puerto Ethernet 10/100 base T
que se conecta a un hub, que permite la
conexión de varias computadoras y, un módem
especial para enlace satelital.
La conexión de este servicio es principalmente asimétrica, es decir que
utiliza el mayor ancho de banda para la recepción de datos y menor para el envío,
pero también hay del tipo simétrico (mismo ancho de banda para transmisión y
recepción).
78
El costo dependerá de los requerimientos del usuario, en cuanto a
velocidad y servicio y va desde los 386 a los 4,367 dólares mensuales, más la
inversión en el equipo.
CONCLUCIONES
79
Exploración del Espacio
“El Espacio, la última frontera…” como dijo el Capitán Kirk. Y resulta que tenía
razón porque el hombre siempre se ha esforzado por explorar lo que reposa más
allá de su horizonte.
Una vez que descubrimos cada rincón de nuestro mundo, pusimos la mira en las
estrellas, pero no fue sino hasta hace 50 años que estuvo disponible la tecnología
para hacer de este sueño una realidad.
Pioneros
80
Después de los primeros viajes exitosos en satélites
pequeños no tripulados, los rusos y los americanos enviaron
perros y primates al espacio para investigar el efecto de la
ausencia de peso en seres vivos.
Las misiones a la luna planeadas por los Estados Unidos se completaron con el
vuelo del Apolo 17 en Diciembre de 1972. Los astronautas Cernan y Harrison
H.Schmitt estuvieron 22 horas en la luna y manejaron 35 km. en su camioneta
lunar.
Pero este éxito tuvo un precio: 21 astronautas han muerto desde el inicio de los
vuelos espaciales tripulados el 12 de Abril de 1961.
Transbordadores
81
Enterprise – El Prototipo
El transbordador prototipo fue bautizado con ese nombre por la nave Enterprise,
de la popular serie televisiva Viaje a las Estrellas. En 1977, dos pilotos efectuaron
el primero de cuatro vuelos de prueba a 7000 metros. En 1979 el Enterprise fue
unido a un tanque de combustible y a propulsores, en el Centro Espacial
Kennedy. Pero el transbordador nunca llegó a despegar debido a que ya se
habían completado los trabajos en el Columbia y éste hizo su vuelo inaugural el
12 de Abril de 1981.
82
Gamma Arthur Holley Compton en 1991.
Propulsores
Los propulsores son los enormes cohetes que impulsan a la nave espacial o
vehículo de carga hacia la órbita.
83
Los Estados Unidos en el Espacio
La Administración Nacional de Espacio y Aeronáutica (NASA) es la agencia
espacial más grande y conocida del mundo.
Actualmente tiene una “Visión para la Exploración del Espacio” que planea incluir
una serie de misiones, tripuladas y con robots. Esto incluirá una misión a la luna
con robots a más tardar el 2008, lo que sentará las bases para la futura
exploración de Marte.
84
partir de los cálculos realizados por J. Leverrier e independientemente
por J. C. Adams.
Misiones Voyaguer I y II
En 1977 son lanzadas las naves espaciales Voyaguer I y II, por EE.UU. para
explorar nuestro sistema solar, sus trayectorias finales las llevarán luego a un viaje
sin fin por el universo, serán los primeros ingenios humanos en hacerlo.
Durante este mismo año mediante el telescopio Kuiper se descubren los
primeros nueve anillos del planeta Urano, los que serán fotografiados y medidos
durante las visitas de las naves Voyager.
Exploración de Venus
En 1989 EE.UU. lanza la sonda espacial Magallanes con destino a Venus; en 1994
concretará el mapeo completo del planeta por radar.
85
futuro respecto a descubrimientos dentro de nuestro sistema solar y en sus
vecindades.
Materia oscura
Primeras evidencias de materia oscura
Desde los años treinta se sabe que las velocidades peculiares de las galaxias
en cúmulos corresponden a una masa total del cúmulo de aproximadamente un
orden de magnitud mayor que el total de toda la materia luminosa observada
dentro de las propias galaxias. ¿Cómo se sabe esto?. Hay una maneras simple de
hacer una estimación de la masa del cúmulo. La única fuerza apreciable entre las
galaxias de un cúmulo es la gravedad. Cuanto mayor sea la masa de un cúmulo,
las galaxias exteriores estarán sometidas a una mayor fuerza graviatoria total y
por tanto a una mayor aceleración, alcanzando mayores velocidades. Por tanto, la
velocidad media de las galaxias de un cúmulo es una medida de su masa – El
lector puede visualizar este hecho utilizando esta simulación java–. Este mismo
argumento nos permite calcular la masa utilizando medidas de las mayores
86
velocidades que se observan en el cúmulo. Éstas no pueden ser mucho mayores
que la velocidad de escape, o en caso contrario las galaxias se habrían alejado del
cúmulo.
Siempre por supuesto, una idea simple en astronomía suele estar acompañada
de dificultades observacionales. En este caso, desde luego que no podemos
observar las galaxias moviéndose realmente. Sólo podemos obtener una
instantánea del cúmulo junto con una medida, a través del desplazamiento
doppler, de las velocidades peculiares de cada galaxia. Pero podría pasar que las
galaxias con velocidades más elevadas estuvieran realmente escapando del
cúmulo, o que no pertenezcan realmente a éste, o que simplemente sean galaxias
de fondo atravesando la franja del cielo donde está el cúmulo.
87
sin motivos suficientes una teoría consistente de tal éxito observacional como la
Relatividad General tenemos que probar con la alternativa más simple.
Neutrinos
La primera partícula que se pensó podía formar parte de esta materia oscura fue
el neutrino. El neutrino es una partícula emitida en la desintegración beta donde un
protón (p) reacciona con un antineutrino (n-)convirtiéndose en un neutrón (n) y un
positrón (e+) [reaction#1] ó un protón (p) interacciona con un electrón (e-) para
producir un neutrón (n) y un neutrino (n).
88
observaciones o los experimentos los que decidan cuál es el caso. Al ser el
neutrino una partícula sin masa o tremendamente ligera se mueve a la velocidad
de la luz o a velocidades muy cercanas, lo que los convierte en lo que se
denominan partículas relativistas. Actualmente se denomina a cualquier tipo de
partículas relativistas en cosmología materia oscura caliente (del inglés Hot Dark
Matter o abreviado HDM)
89
Las observaciones de la supernova 1987A también son compatibles con la
existencia de tres tipos de neutrinos y con un límite superior de la masa del
neutrino electrónico de unos 25 eV.
Pero hay un problema más grave que todo esto. Cuando ponemos tanta masa de
neutrinos en el universo, las grandes estructuras galácticas como los
supercúmulos tienden a formarse primero que las pequeñas estructuras como los
cúmulos de galaxias (que se suele denominar formación de arriba a abajo), lo que
contradice las observaciones que indican una formación relativamente reciente de
las grandes estructuras (más compatible con una formación de estructuras
jerarquizada de abajo a arriba). Además las concentraciones de materia en los
grandes supercúmulos sería considerablemente mayor de lo observado (ver
modelos de formación galáctica para más detalles).
Comparación entre la distribución de galaxias observada (c), y una simulación
numérica de las estructuras galácticas resultantes en un modelo de universo con
neutrinos (b) y un modelo de universo con partículas más masivas y lentas (a)
Materia oscura fría.
Se denomina materia oscura fría (del inglés Cold Dark Matter, abreviada CDM) a
cualquier tipo de partículas relativamente masivas que se mueven a velocidades
mucho menores que la velocidad de la luz. La búsqueda de este tipo de partículas
como parte de la materia oscura tienes dos motivaciones básicas:
1. Su existencia es una característica general de las teorías de gran unificación
que intentan unificar todas las interacciones a excepción de la gravedad.
2. Su inserción en las simulaciones de la formación de las estructuras galácticas
consigue mejorar la semejanza con los observado (ver comparación en la figura
anterior)
Las partículas que podrían formar la materia oscura fría podrían tener masas que
rondan el Gigaelectrónvoltio e interactuarían sólo a través de la interacción débil y
de la gravedad. Por ello se les suele llamar WIMPs (de Weak Interacting Massive
Particles o partículas masivas débilmente interactuantes). Algunos de estos tipos
de partículas han sido propuestas desde la teoría pero nunca observadas hasta la
fecha.
Energía Oscura
Tanto la Relatividad General como la mismísima gravitación Newtoniana
permiten la existencia de un término que puede producir una repulsión gravitatoria
a gran escala, implicando un universo que podría estar incluso acelerando su
expansión. Lo intrigante del caso es que existe evidencia de que ésta podría ser
de hecho la situación, procedente de tres observaciones independientes:
90
1. De la relación desplazamiento al rojo-distancia aplicada al brillo de supernovas
tipo Ia.
2. De las anisotropías de la radiación de fondo cósmico (ver noticia del 10 de
Mayo de 2000)
3. Del estudio estadístico de lentes gravitatorias.
Todos estos estudios indican que esta componente de energía oscura contribuye
con unos 2/3 de la masa del universo, implicando un universo muy cercano o justo
con la densidad crítica, y por tanto de geometría espacial plana (ver noticia del 11
de febrero de 2003)
¿Qué podría constituir esta energía oscura?. Se están explorando actualmente
dos posibilidades:
1. Constante Cosmológica.
2. Quintaesencia
Detección directa de materia oscura
1. Detectando MACHOS (Objetos Compactos del Halo Galáctico)
Cuando un objeto compacto del Halo Galáctico como un planeta gigante, enana
marrón, enana blanca, etc. pasa por delante de una estrella distante (por ejemplo
situada en las Nubes de Magallanes), se produce un fenómeno que denominamos
microlente gravitatoria, similar a las lentes gravitatorias producidas por la
interposición de una galaxia ó un cúmulo de galaxias en nuestra línea de visión a
un cuásar.
El efecto de interposición de un MACHO produce una concentración de la luz de la
estrella distante que se manificesta como un aumento de brillo. Teóricamente, si el
MACHO y la estrella están prácticamente alineados en la línea de visión desde la
Tierra se forma un anillo luminoso alrededor del objeto formado por todos los
rayos de luz que convergen en el observador. Este anillo de denomina de Einstein
91
x = [distancia la Macho] / [distancia a la estrella] = l / L
El factor de amplificación A viene dado por A = ( u2 + 2 ) / (u (u2+4)½)
con u = [parámetro de impacto] / [radio del anillo de Einstein] = r / RE
y es típicamente del orden de 1 a 1,5 magnitudes para estrellas de la Gran Nube
de Magallanes.
El tiempo que dura el evento está relacionado con la masa del MACHO implicado;
Para estrellas de la Gran Nube de Magallanes es del orden de media hora si el
MACHO interpuesto se trata de un cuerpo de masa planetaria, unas 3 semanas si
se trata de un enana marrón y de 5 a 8 semanas si se tratara de una enana
blanca.
Existen varios proyectos de observación que buscan eventos de este tipo, entre
ellos el proyecto MACHO, el proyecto EROS, y el proyecto OGLE.
92
1. Varios eventos correspondientes a microlentes gravitatorias han sido
observados. La independencia de las curvas con el color demuestran que la
interpretación de microlente gravitatoria de las curvas de luz es perfectamente
factible.
Uno de los eventos detectados por el proyecto MACHO. Las curvas de luz con
filtro azul (blue) y con filtro rojo (red). Fuente: The MACHO project.
93
e+ + e- ® X + X+
94
De vuelta a la Luna
“Sólo hemos explorado la Luna 27 días. Si creemos que es suficiente, las futuras
generaciones pensarán que somos estúpidos”.
Michael Griffin, ex-director de la NASA
Por su parte, los rusos trabajan también en una nueva nave espacial que sustituirá
a la mítica cápsula Soyuz tras 40 años en servicio de reconocida efectividad. Con
capacidad para seis cosmonautas, la prometedora nave podría entrar en servicio
en 2018. A partir de su nuevo diseño, se desarrollará otra cápsula gemela que
orbite alrededor de la Luna con cuatro cosmonautas a bordo, pudiendo
95
permanecer 200 días en el Espacio adosada a una eventual estación espacial. En
contra de lo que se podía prever, Rusia sigue luchando en primera línea por el
Cosmos.
La meta a medio plazo de todas las agencias es asentarse en la Luna con bases
permanentes para luego abordar la exploración de Marte. Y en esta carrera hacia
el satélite, los gigantes asiáticos parecen haber tomado la delantera con el ímpetu
de los primerizos. La Agencia de Exploración Aeroespacial de Japón (JAXA) ha
hecho revivir la época del Apolo con imágenes en alta resolución de la Luna y la
Tierra a lo lejos, suspendida en la negrura del Universo. Gracias a su sonda
Kayuga, los japoneses estudiaron además las diferencias entre las dos caras de la
Luna para intentar comprender cómo se formó y cómo ha evolucionado hasta su
estado actual.
China, unos pasos por delante, tiene planes espaciales bastante ambiciosos. Tras
haber lanzado su primer taikonauta en 2003, poner en órbita lunar la sonda
Chang’e (diosa china de la Luna) y haber efectuado ya un paseo espacial, los
chinos presentan credenciales de peso para adelantarse incluso a los planes de
estadounidenses y rusos. El gobierno de Pekín no oculta que sus objetivos son
96
variados: analizar la existencia de recursos minerales, elevar el prestigio
internacional del país y explotar las posibilidades militares del programa.
La ambición roja
Marte, nuestro vecino celeste, ha despertado la imaginación del ser humano como
ningún otro planeta. Poco después del amanecer de la Era Espacial, Estados
Unidos y la Unión Soviética pusieron en marcha sondas robóticas para explorarlo.
Las sondas espaciales estadounidenses Mariner y Viking, que tuvieron más éxito
97
que sus malogradas homólogas soviéticas, revelaron un planeta con colosales
volcanes inactivos, profundos cañones y valles, cráteres de impacto, extensas
llanuras, feroces tormentas de polvo, una fina atmósfera de dióxido de carbono y
bajísimas temperaturas.
98
El audaz ingeniero alemán de la NASA, Wernher von Braun, defendió durante toda
su carrera la idea de un viaje tripulado a Marte a gran escala. Previó que el asalto
humano a la ambición roja debía hacerse con una decena de naves y con al
menos 70 astronautas. Von Braun llegó a la conclusión de que nadie sería capaz
saber lo que los seres humanos encontrarían al aterrizar en Marte. “Todo los que
se puede decir con certeza es lo siguiente: el viaje se puede hacer y se hará algún
día”.
99
El Fax
La utilización del FAX, como una herramienta en la comunicación es de gran
importancia, ya que se usa par enviar - recibir imágenes y textos de todo tipo.
Definición
Se denomina fax, por abreviación de facsímil, a un sistema que permite transmitir
a distancia por la línea telefónica escritos o gráficos (telecopia).
Historia
La historia del fax inicia poco después de la invención del telégrafo, cuando en la
exposición Universal de Londres (1851) se mostró un sistema capaz de enviar y
recibir imágenes de una máquina a otra; una enviaba la imagen mientras la otra la
recibía y la reproducía. La primera máquina comercial apareció en 1863, y a
comienzos del siglo XX se empezó a utilizar en los periódicos para enviar y recibir
imágializar los faxes de forma masiva, añadiendo multitud de novedades
tecnológicas en el transcurso del siglo XX.
Partes de un fax
Un fax es esencialmente un escaner de imágenes, un módem y una impresora combinados
en un aparato especializado. El escáner convierte el documento original en una
imagen digital; el módem envía la imagen por la línea telefónica; al otro lado, el
100
módem lo recibe y lo envía a la impresora, que hace una copia del documento
original.
101
• Los documentos enviados y/o recibidos pueden almacenarse en el disco
duro.
• Los documentos pueden exportarse a formatos gráficos standar y enviarse
por correo electrónico.
• Ahorro de papel: los documentos recibidos solo se imprimen si es
necesario. Los documentos salientes se imprimen directamente desde un
editor de texto.
Grupos de fax
El fax se convirtió en una parte esencial de la micro o hiper empresa, pero la duda
era cuál sería la eficiencia del envío y el problema de enviar entre América y
Europa, y el tiempo que tardaría en llegar a su destino. Para corregir esta
deficiencia el Sector de Normalización de las Telecomunicaciones de la UIT (Unión Internacional de
Telecomunicaciones, ITU en sus siglas en inglés) estableció en 1974 una norma
mundial, mejor conocida como grupo 1 de fax. Desde entonces se han creado 4
normas o grupos :
•
o Horizontal: 100 líneas por pulgada
Vertical: 100 líneas por pulgada
o Horizontal: 200 o 204 líneas por pulgada
102
Vertical: 100 o 98 líneas por pulgada (Standard)
Vertical: 200 o 196 líneas por pulgada (Fine)
Vertical: 400 o 391 (no 392) líneas por pulgada (Superfine)
o Horizontal: 300 líneas por pulgada
Vertical: 300 líneas por pulgada
Horizontal: 400 o 408 líneas por pulgada
Vertical: 400 o 391 líneas por pulgada
Para obviar los costes en las comunicaciones a larga distancia, se emplea también
internet para transmitir los datos. Si el receptor no dispone de conexión a internet,
suele ser una máquina conectada a la red telefónica correspondiente (analógica o
RDSI) la que se encargue de transmitir el último tramo.
Utilidad
Inicialmente, el fax se usaba exclusivamente en el periodismo; pero su eficiencia y
el afán de modernización hicieron que se integrase posteriormente a los negocios.
El fax se utiliza para enviar y recibir imágenes de todo tipo. Se le han integrado
luego tecnologías nuevas como un disco duro y un reproductor de semitonos, y
tempranamente se anexó a un teléfono regular. Japón fue el mayor usuario de
esta tecnología, implantando tecnologías de punta a este aparato. El fax ha
logrado ampliarse a todas las tecnologías de comunicaciones actuales, pero
muchos culpan al fax de que la tecnología digital no haya avanzado demasiado
como para empezar a adoptarla. A pesar del éxito del fax, está muy lejos de
formar parte de la denominada "oficina sin papeles".
103
partes amistosos de accidentes, facturas, notas a mano de inspectores y peritos...)
entre otras.
Al fax se le concede valor legal. En España, 'Correos' ofrece servicios de fax y además
el servicio burofax, por lo que es usado en la formalización y cancelación de contratos,
y presenta la ventaja de no ser crackeable.
Evolución
El sistema de envío y recepción de fax también ha ido adaptándose a la evolución
y desarrollo de las nuevas tecnologías de la comunicación. Internet, que ha
supuesto una revolución en diferentes ámbitos, desde configurarse como una
fuente de intercambio de conocimiento, ideas e información, hasta convertirse en
un importante canal de venta, también ha hecho evolucionar el sistema de fax, sin
lograr sustituirlo por otros medios de comunicación.
Este tipo de soluciones de fax virtual tienen enormes ventajas con respecto a los
sistemas tradicionales; Primero porque son ecológicas al reducir
considerablemente el consumo de papel o tinta y la necesidad de una máquina
específica, segundo porque son eficientes al permitir la gestión de archivos
electrónicos, tercero porque son móviles al poder gestionar el servicio de fax
desde cualquier lugar donde tengas acceso a tu correo electrónico incluido tu
teléfono móvil y por cuarto porque son económicas ya que reducen los costes del
servicio de fax en un 90% al incluir todo en un pequeño coste mensual, la cuota
del número y el servicio de fax.
Telemática:
104
Las TELECOMUNICACIONES hacen referencia a la transmisión de datos a distancia. El
TELEPROCESAMIENTO permite que un sistema de computación utilice algún tipo de
telecomunicación para procesar datos.
Sistema Teleinformático:
Respecto del computador al cual esta conectado, recibe e interpreta comandos de este
(discar, colgar, etc.)
Cuando un módem transmite, debe ajustar su velocidad de transmisión de datos, tipo de
modulación, corrección de errores y de compresión. Ambos modems deben operar con el
mismo estándar de comunicación.
Dos modems pueden intercambiar información en forma "full dúplex". Esto es, mientras el
primero transmite y el segundo recibe, este ultimo también puede transmitir y el primero
recibir. Así se gana tiempo, dado que un módem no debe esperar al otro a que termine,
para poder transmitir, como sucede en "half dúplex".
El módem que llama, o sea que origina la comunicación se designa "originate" o "local", y
el módem que contesta, responde, es el "answer" o "remoto".
Cuando un módem transmite tonos se dice que modula o convierte la señal digital binaria
proveniente de un computador en dichos tonos que representan o portan bits.
105
Del mismo modo que el oído de la persona que en el extremo de la línea puede reconocer la
diferencia de frecuencia entre los tonos del 0 y 1, otro módem en su lugar también detecta
cual de las dos frecuencias esta generando el otro módem, y las convierte en los niveles
de tensión correspondiente al 0 y al 1.
Esta acción del módem de convertir tonos en señales digitales, o sea en detectar los ceros
y unos que cada tono representa, se llama demodulacion.
El tipo de modulación ejemplificada, con una frecuencia para el uno y otra para el cero,
solo permite transmitir hasta 600 bits por segundo.
Denominación de Modem:
La palabra módem deriva de su operación como MOdulador o DEModulador.
Los tonos de la figura de arriba, pueden considerarse como pertenecientes a una única
onda que por la línea telefónica viaja de un módem a otro, la cual cambia de frecuencia
según se envíen ceros o unos, denominada PORTADORA (carrier), por "portar" los unos
y los ceros que se transmiten.
Para que dos modems puedan comunicarse, entre otras cosas deben usar la misma
técnica de modulación. Conforme a la Electronic Industries Association (EIA) en cada
extremo de la línea, el computador se designa "equipo terminal de datos" (DTE), y el
módem, equipo para comunicaciones de datos" (DCE).
Interfaz RS-232C:
106
especifica características mecánicas, funcionales y eléctricas que debe cumplir la
interconexión entre un computador y un módem.
Protocolo de comunicaciones:
2: El módem remoto lleva a cabo una acción equivalente a levantar el tubo y emite un
tono o serie de tonos particulares que indican que ha respondió el llamado, y que se
puede comunicar a una velocidad (bps) y modulación (ambas normalizadas).
3: El módem local responde a la serie de tonos, y negocia con el módem remoto la mayor
velocidad de transmisión posible.
En general, un conjunto de procedimientos a cumplir, para llevar a cabo las etapas de una
comunicación, constituye un protocolo.
Un módem debe ajustarse a dos protocolos:
• El protocolo rs232c
• Protocolo estándar, como los serie V de la ccitt.
Los datos que maneja un módem están organizados en bytes separables, al igual que
cuando se almacenan en una memoria principal.
En la transmisión asincrónica los datos se envían como bytes independientes, separados,
pudiendo mediar un tiempo cualquiera t entre un byte y el siguiente. Es el modo de
transmisión corriente vía módem usado en las PC, siendo en general el empleado por su
sencillez para bajas velocidades de transmisión de datos.
Supongamos que se envía X dato de 8 bits, los 8 bits se envían en orden inverso a
indicado. Aparecen los bit de control "start" (siempre 0) que indica comienzo de carácter, y
"stop"(siempre 1) de final de byte enviado. En total son pues 10 bits (rendimiento del
80%). Para poder distinguir un bit del siguiente cada bit debe durar igual tiempo T.
Para tal fin sirve el bit de start, que permite sensar en momentos adecuados (en
sincronismo) el valor de los bits siguientes hasta el "stop".
107
En la transmisión sincrónica se envía un paquete de bytes sin separación entre ellos, ni
bits de start y stop (aunque existen bytes de comienzo y final). Así es factible enviar mas
bytes por segundo.
Bit de paridad:
Supongamos que la PC que transmite envía A=01000001, pero por un ruido en la línea
telefónica mientras el módem transmitía, se recibe 01000010, el código recibido será el de
la letra C, sin que se pueda notar el error. Dado que ASCII básicamente se codifica en 7
bits, se puede usar el bit restante para detectar si se ha producido un solo error por inversión
como el ejemplificado. Entre dos computadores que se comunican, se adopta la
convención de que en cada carácter emitido o recibido debe haber un número par de
unos. El computador que esta enviando, da valor al bit restante citado, de modo que se
cumpla dicha paridad. El computador que recibe debe verificar que cada carácter que le
llega tenga la paridad convenida. Caso contrario pedirá su retransmisión pues implica que
un bit llego errado
La paridad sirve para detectar si uno de los bits recibidos cambio de valor, que es la mayor
probabilidad de errores en transmisión telefónica. Si los bits errados son dos, la paridad par
seguirá, y no hay forma de detectar un carácter mal recibido, pues este método supone solo
un bit errado. Cuando se usa 8 bits sin paridad ("null parity"), con un bit de stop, se indica
8N1, que es la forma usual de comunicación entre dos PC.
Si como en el ejemplo dado, son 7 bits, con paridad par ("even parity") y un bit de stop, se
indica 7E1.
Para el control del envío de archivos de programas existen los protocolos de archivo en los
programas Xmodem, Zmodem y otros.
Estos programas dividen al archivo a enviar en bloques de igual tamaño, que se envían
(byte a byte con paridad nula) con el agregado de un numero que es el resultado de un
calculo polinomial sobre los bits de cada bloque. En el receptor sobre cada bloque
recibido se realiza al mismo calculo. Si se obtiene el mismo número agregado se envía un
simple OK. De no recibirlo, se vuelve a transmitir el bloque.
La figura 1 ilustra una onda senoidal cuya amplitud puede saltar de valor entre cuatro
niveles distintos. En cada segundo pueden ocurrir 2400 de estos cambios de amplitud,
esta onda presenta una velocidad de señalización de 2400 baudios. Cada uno de estos
saltos de amplitud en dicho segundo, es un baudio. Puesto que se puede cambiar entre
cuatro amplitudes diferentes, se puede convenir que cada una representa dos bits
108
determinados, con lo cual se tiene una velocidad de transmisión de 2400x2= 4800 bits por
segundo.
La detección de cada amplitud (baud) puede hacerse cada 1/2400 de segundo= 0,4
milisegundos. Este tiempo es suficiente para que el módem pueda detectar un baud, e
interpretar los dos bits que codifica.
En pocos años, la velocidad de transmisión por las líneas telefónicas comunes fue
aumentando 100 veces: de 300 a 33.600 bps. Esto se logro, codificando 12 bits por
baudio.
Una onda que cambia entre dos frecuencias para codificar uno y cero, esta modulada en
frecuencia (FSK= Frecuency-Shift-Keying= Codificación por cambio de frecuencia)
En la figura se ejemplifico una onda portadora con modulación en amplitud, siendo que en
el presente este tipo de variación de la forma de una onda se usa en combinación con
cambios en la fase de la misma. Cada cambio de fase es como si la porción de onda que
sigue a dicho cambio, se adelantara (o atrasara) con relación a lo que debiera ser una
forma senoidal continua, pura. Esta forma de cambiar la señal portadora para representar
combinaciones binarias, se denomina modulación en fase (PSK=Phase-Shift-
Keying=Codificacion por cambio de fase). Resulta ser la más eficaz para transmitir datos
binarios en líneas con ruido, siendo que requiere que el emisor y el receptor sean muy
complejos.
En un módem actual, los cambios en la portadora pueden ser tanto de amplitud como de
fase. La primer técnica conocida como QAM (Quadrature Amplitude Modulation), se
concreto en las normas V.22 bis, para portadora modulada a 600 baudios, y con 4 bits por
cambio (baudio), con lo cual se podía transmitir hasta 600x4= 2400 bps.
Para superar los 600 baudios, la norma V.32 (QAM) elevo la frecuencia de la portadora,
existiendo una sola frecuencia para la transmisión como para la recepción.
Con este método, una portadora se pudo modular a 2400 baudios, y con 4 bits por baudio
se llego a 2400x4= 9600 bps. Con la denominada "codificación entramada" o Trellis-TC,
que permite al módem receptor corregir errores a medida que recibe datos, agregando un
bit extra cada cuatro (norma V.32- TCQAM), se codifican 6 bits por baudio, con lo cual
para 2400 baudios se alcanzaron 2400x6= 14400 bps.
109
Para 3429 baudios, y con 8,4 bits por cambio de la señal se logra el máximo de 28800
bps. Cuando el módem se comunica con otro, sondea unos 15 segundos la línea,
enviando una sucesión de tonos, buscando el mayor ancho de banda utilizable compatible
con la taza de error permitida (1 bit errado por cada millón)
Posteriormente, para 3429 baudios se lograron 9,8 bits por cambio, con lo cual se alcanzo
una velocidad de 33600 bps.
Un módem que transmite 4800 bps, si transmite un carácter en ASCII con 10 bits,
teóricamente seria posible enviar 4800/10= 480 caracteres por segundo. Dado que de
esos 10 bits son 8 de datos y 2 de para control start stop, en realidad se transmiten
480x8= 3840 bps de información.
Se empezó a enviar y recibir los caracteres sin los bits de startstop, formando bloques de
caracteres (transmisión sincrónica). Esto supone modems igualmente inteligentes,
operando bajo una misma norma.
Luego se hizo que la longitud de estos bloques este en función del ruido presente en la
línea telefónica.
A mayores velocidades, aumenta el numero de bits errados, por lo cual los modems
empezaron a contener circuitos para detectar y corregir errores.
Un módem que incorpora estas técnicas (V.42 LAPM &MNP 2,3,4), puede negociar con el
módem al que se conecto (si es inteligente), el mejor método de corrección.
Si también cumple con la norma V.42.bis/MNP5, significa que a las mejoras anteriores se
agrega la compresión de datos, con lo cual la velocidad de transmisión se mejora
notablemente (se recibe cuatro veces más rápido).
Un módem que puede transmitir hasta 28800 bps, con compresión de datos se pueden
lograr velocidades de transmisión equivalentes a 28800x4= 115200 bps.
Un módem rápido es mas caro, pero tarda menos tiempo en la transferencia de archivos
(si el módem con el que se conecta es igualmente repudio e inteligente), ahorrando
tiempo y costo de servicio telefónico.
110
Software necesario para operar un modem:
Al ser inicializado un programa de este tipo, preguntara por la marca o tipo de módem
conectado. El usuario tiene a su disposición en el modo comando un conjunto de órdenes
para definir los contenidos de los registros S0, S1.... de un módem antes citados. De esta
forma se establece como operara un módem.
Para que se le pueda emitir un comando desde el teclado, un módem debe estar en "modo
comando". Los comandos se tipean precedidos por la sigla AT (ATtention), y modifican los
contenidos binarios de los registros del módem.
111
Diferencias entre los modems internos y externos:
Un módem interno esta contenido en una plaqueta similar a las que se enchufan en el
interior del gabinete de una PC. Ocupa un zócalo disponible y no necesita usar un port
serie.
El módem externo esta contenido en una caja propia, requiere un cable para conectarse a
la PC, y otro para obtener energía.
Dentro de esta clasede módem debemos incluir los PCMCIA para notebooks.
Las líneas telefónicas para señales analógicas, tienen un ancho de banda comprendido
entre 300 y 3300 baudios Hz. Estas no fueron pensadas para transmitir datos. La
velocidad de 33600 bps de los módem actuales, constituye un techo dificil de superar. Los
3000 Hz citados, limitan la velocidad de transmisión.
Dada una hoja con texto, el servicio de fax o facsímil permite obtener una copia de la
misma en un lugar distante, a través de una línea telefónica establecida entre dos
maquinas de fax.
Dos aparatos de fax comunicados telefónicamente son como dos fotocopiadoras tales que
una de ellas lee la hoja a copiar, barriéndola mediante sensores fotoeléctricos, para convertir
la imagen en un conjunto de puntos de valor 0 (blancos) y 1 (negros), que son transmitidos
como señales eléctricas binarias hacia la otra fotocopiadora. El módem se encarga de
convertir las señales binarias digitales en analógicas.
Esta recibe dichas señales y genera una reproducciónde la hoja original usando su sistema
de impresión. Cada maquina de fax contiene un teléfono, un sistema de barrido de
imagen, un sistema de impresión y un módem, amen de un procesadory memoria.
Típicamente las maquinas de fax para establecer una comunicación envían información
de control a 300 baudios, y luego transmiten los datos a 2400, 4800, o 9600 baudios.
112
La resolución se refiere a la densidadde puntos usada para reproducir un fax; puede tenerse
en cada pulgada cuadrada, 98 líneas verticales y 203 horizontales. Estas ultimas se
duplican para una resolución fina.
Algunas maquinas de fax permiten la transmisión diferida, para enviar automáticamente
fax a partir de determinados horarios en que son mas baratas las tarifas telefónicas.
Otra opción es el selector automático de voz/datos que identifica si un llamado es para fax
o si se trata de una persona, en cuyo caso debe sonar la campanilla telefónica.
Modem fax:
Si se necesita enviar un texto o un dibujo que esta solo en papel, o sea que no han sido
originados por un computador, se necesita un escáner para convertir (digitalizar) dicho
escrito o dibujo en un archivo que maneje el computador.
La operatoria para transmitir o recibir con un fax-modem es más compleja que apretar un
simple botón como en la maquina de fax común.
Códigos de barra:
En general los códigos de barra no son descifrables por las personas. Las lectoras son las
encargadas de convertirlos en unos y ceros que irán al computador.
Representan caracteres de información mediante barras negras y blancas dispuestas
verticalmente. El ancho de las barras y espacios puede ser variable, siendo la más ancha
un múltiplo de la mas angosta. En binario las barras significaran unos y los espacios
ceros.
113
Uno de los códigos de barras mas corrientes es el UPC (Universal Product Code). Cada
codificación representa 12 dígitos que permiten identificar un producto mediante barras
negras y espacios de distintos grosores.
Cada dígito se compone de 7 módulos, separados entre 2 barras y 2 espacios, siendo que
la barra más delgada corresponde a un modulo.
Los dígitos tienen distinto significado según su posición relativa. El primer dígito indica la
categoría del producto y lo que los dígitos siguientes representaran. Si es un 0 implica que
los dígitos siguientes codificaran al fabricante, y a un tipo de producto concreto. Sean los
siguientes 12 dígitos 0 43607 47433 9. El grupo 43607 representa al fabricante X, y 47433
al producto Y.
El dígito extremo derecho sirve para verificación. Primero se suman los dígitos de las
posiciones impares: 0+3+0+4+4+3= 14, y luego de las posiciones pares sin considerar el
9 de verificación: 4+6+7+7+3= 27. Después se suman 14+27= 41; y se resta 41 al múltiplo
de 10 siguiente: 50-41= 9, debiendo ser este resultado igual al dígito extremo derecho.
Emparentado con el UPC, existe el código ISBN, usado en la cubierta de libros y revistas,
también de 12 dígitos.
El código 39 codifica números y letras para usos generales, siendo muy popular. Este
código se usa mucho en la industria y para inventarios.
El código entrelazado 2 de 5 (ITF), puede ser de cualquier longitud, pero con un numero
par de dígitos, siendo que codifica dos dígitos por vez.
Este es uno de los pocos códigos en que los espacios en blanco tienen significado. Es un
código muy compacto, útil para espacios pequeños.
Existen dos clases de lectoras: De haz fijo y de haz móvil. En ambos casos una fuente
luminosa ilumina la superficie del código. Siendo las barras oscuras y los espacios claros,
estos reflejaran mas luz que las barras. La luz reflejada es detectada por un elemento
fotosensor, produciendo los espacios claros una mayor corriente electrica en el elemento
fotosensor. Para que la lectura progrese debe existir un movimiento relativo del código
respecto a la lectora o a la inversa, o bien debe existir un haz láserque se desplaza para
explorar el código. Esto hace a la diferencia entre las dos clases de lectoras citadas.
La corriente eléctrica que circula por el fotosensor es proporcional a la intensidad del haz
reflejado (que es la magnitud censada), que como el caso del escáner es una señal
analógica. Por lo tanto, deberá convertirse en digital (unos y ceros) para ser procesada.
114
Diferentes tipos de lectoras:
• Lectora manual:
Tienen forma de una lapicera, se debe desplazar de toda la longitud del código, para que
un haz fijo pueda ser reflejado y censado.
El operador debe desplazar el código a través de una ranura de la lectora. Es de haz fijo.
Un rayo láser rojo anaranjado barre en un sentido a otro el código de barras decenas de
veces por segundo. Un rayo láser es dirigido por un espejo móvil, que a su vez dirige el
haz hacia otros espejos. Por la ventana de salida parece como si se generan muchos
haces láser. Esto permite leer un código de barras que este en distintas ubicaciones
espaciales respecto a la ventana citada. Estas lectoras son más exactas que las
anteriores.
Conclusión:
115
Fibra Óptica I
El objetivo de este trabajo es conocer mejor los aspectos de un medio de
transmisión de datos que causo una revolución en las comunicaciones: la fibra
óptica.
Ella es la responsable de la difusión de servicios interactivos, internet, e incluso
operaciones remotas, y en salud.
Aquí se explicará que es, para que sirve, ventajas y desventajas, transmisión por
fibra óptica, conversores, proceso de fabricación, entre otros temas.
La abundancia de información en este tema, nos ha obligado a sintetizar algunos
temas, quizá interesantes de explicar, pero harán muy largo y complicado de
entender la clase.
Se adjuntara un video acerca de la fabricación de las fibras, el cual es costoso y
presenta dificultades.
116
convencional de cables de cobre donde la atenuación de sus señales (decremento
o
reducción de la onda o frecuencia) es de tal magnitud que requieren de
repetidores cada
dos kilómetros para regenerar la transmisión, en el sistema de fibra óptica se
pueden
instalar tramos de hasta 70 km. Sin que halla necesidad de recurrir a repetidores
lo que
también hace más económico y de fácil mantenimiento este material.
Originalmente, la
fibra óptica fue propuesta como medio de transmisión debido a su enorme ancho
de
banda; sin embargo, con el tiempo se ha planteado para un amplio rango de
aplicaciones
además de la telefonía, automatización industrial, computación, sistemas de
televisión por
cable y transmisión de información de imágenes astronómicas de alta resolución
entre
otros.
Concepto de transmisión.
117
mediante fibra óptica, debido a que su salida se puede controlar rápidamente por
medio
de una corriente de polarización. Además su pequeño tamaño, su luminosidad,
longitud
de onda y el bajo voltaje necesario para manejarlos son características atractivas.
Sistemas de comunicación de fibra óptica.
118
Forma
119
plásticos no son conductores de electricidad, se pueden usar cerca de líquidos y
gases volátiles.
A pesar de las ventajas antes enumeradas, la fibra óptica presenta una serie de
desventajas frente a otros medios de transmisión, siendo las más relevantes las
siguientes:
La alta fragilidad de las fibras.
Necesidad de usar transmisores y receptores más caros
Los empalmes entre fibras son difíciles de realizar, especialmente en el campo,
lo
que dificulta las reparaciones en caso de ruptura del cable
No puede transmitir electricidad para alimentar repetidores intermedios
La necesidad de efectuar, en muchos casos, procesos de conversión
eléctricaóptica
La fibra óptica convencional no puede transmitir potencias elevadas.1
No existen memorias ópticas
Cables Ópticos.
120
Para poder utilizar fibras ópticas en forma practica, estas deben ser protegidas
contra
esfuerzos mecánicos, humedad y otros factores que afecten su desempeño. Para
ello se
les proporciona una estructura protectora, formando así, lo que conocemos como
cable
óptico. Dicha estructura de cables ópticos variará dependiendo de sí el cable será
instalado en ductos subterráneos, enterrando directamente, suspendido en postes,
sumergido en agua etc.
El propósito básico de la construcción del cable de fibra óptica es el mismo;
Mantener
estables la transmisión y las propiedades de rigidez mecánica durante el proceso
de
manufactura, instalación y operación. Las propiedades esenciales en el diseño del
cable
son la flexibilidad, identificación de fibras, peso, torsión, vibración, límite de
tensión,
facilidad de pelado, facilidad de cortado, facilidad de alineación del cable y la fibra,
resistencia al fuego, atenuación estable, etc. Los parámetros para formar un cable
especial
son:
1. Esfuerzo máximo permitido en la fibra durante su fabricación, instalación y
servicio; determina la fuerza mínima de ruptura de la fibra y la fuerza requerida
para el miembro de tensión.
2. Fuerza lateral dinámica y estática máxima ejercida sobre la fibra, para
determinar
la configuración del cable y el límite de tolerancia de micro curvaturas.
3. Flexibilidad
4. Rango de temperatura y medio ambiente en donde el cable va a operar,
paralela
elección del tipo de materiales a utilizar tomando en cuenta su coeficiente de
expansión térmica y su cambio de dimensiones en presencia de agua.
Para cumplir estos requerimientos se observan las siguientes recomendaciones:
1. Evitar cargas o esfuerzos mecánicos sobre las fibras.
2. Aislar la fibra de los demás componentes del cable.
3. Mantener las fibras cerca del eje central y proporcionar espacio a las fibras para
su
mantenimiento.
4. Escoger los materiales de los elementos del cable con mínimas diferencias en
sus
coeficientes de expansión térmica.
121
estructurales y de transmisión que establecen las condiciones en las que se puede
realizar
la transmisión de información.
Entre los parámetros estructurales se encuentra:
El perfil de índice de refracción.
El diámetro del núcleo.
La apertura numérica.
Longitud de onda de corte.
En cuanto a los parámetros de transmisión se tiene:
Atenuación.
Ancho de banda.
Inmunidad a las Interferencias:
El uso de medios transparentes para la propagación de ondas electromagnéticas
en forma
de luz hace que la fibra óptica no necesite voltajes ni de corrientes, esto lo
convierte en un
medio de comunicación 100% inmune a todo tipo de interferencias
electromagnéticas a
su alrededor y, por lo tanto, es un medio de comunicación altamente confiable y
seguro.
Este es uno de los principales factores que motivaron su uso militar ya que para
poder
obtener información de ella hay que provocarle un daño, daño que podría
detectarse
fácilmente con equipo especializado. Esto no sucede con el cobre, donde basta
con dejar
el conductor al descubierto.
El hecho de no necesitar corrientes ni voltaje hace que la fibra óptica sea idónea
para
aplicaciones en donde se requiere de una probabilidad nula de provocar chispas,
como el
caso de pozos petroleros y las industrias químicas, en donde existe la necesidad
de
transportar la información a través de medios explosivos.
Micro curvatura...
122
del revestimiento. Es evidente que las micro curvaturas incrementan las pérdidas
ópticas.
Curvado...
El curvado de una fibra óptica es causado en la manufactura del cable, así como
también
por dobleces durante la instalación y variación en los materiales del cable debidos
a
cambio de temperatura. Los esfuerzos que provoca la torcedura de las fibras son
básicamente una fuerza transversal y un esfuerzo longitudinal. El es fuerzo
longitudinal no
provoca torcedura cuando trabaja para alargar la fibra, no hay cambio en las
perdidas
ópticas. Sin embargo, cuando trabaja para contraer a la fibra, este esfuerzo
provoca que la
fibra forme bucles y se curve, de tal manera que la perdida óptica se incrementa.
Por lo
tanto, al evaluar los diseños de los cables se debe poner especial atención en:
La carga transversal trabajando en la fibra durante el cableado, instalación y
utilización.
El esfuerzo de contracción que ocurre a bajas temperaturas debido al
encogimiento de los elementos del cable.
Dadas las razones anteriores, el eje de la fibra puede curvarse severamente
causando
grandes incrementos en las perdidas ópticas. Para prevenir esta situación se toma
en
cuenta las siguientes consideraciones:
Mantener un radio de curvatura determinada, seleccionando el radio y la
longitud
del cableado.
Reducir variaciones técnicas de las fibras protegidas con pequeños coeficientes
de
expansión térmica disponiéndolas alrededor de un elemento con buenas
propiedades térmicas.
Multimodales
Multimodales con índice graduado
Monomodales
123
Fibra multimodal
En este tipo de fibra viajan varios rayos ópticos reflejándose a diferentes ángulos
como se
muestra en la figura.
En este tipo de fibra óptica el núcleo esta hecho de varias capas concéntricas de
material
óptico con diferentes índices de refracción. La propagación de los rayos en este
sigue un
patrón similar mostrado en la figura.
124
En estas fibras él numero de rayos ópticos diferentes que viajan es menor y, por lo
tanto,
sufren menos el severo problema de las multimodales.
Fibra monomodal
Esta fibra óptica es la de menor diámetro y solamente permite viajar al rayo óptico
central. No sufre del efecto de las otras dos pero es más difícil de construir y
manipular. Es
también más costosa pero permite distancias de transmisión mayores.
La fibra óptica ha venido a revolucionar la comunicación de datos ya que tiene las
siguientes ventajas:
Gran ancho de banda (alrededor de 14Hz)
Muy pequeña y ligera
Muy baja atenuación
Inmunidad al ruido electromagnético
Para transmitir señales por fibra óptica se utiliza modulación de amplitud sobre un
rayo
óptico, la ausencia de señal indica un cero y la presencia un uno. La transmisión
de fibra
óptica es unidireccional. Actualmente se utilizan velocidades de transmisión de 50,
100 y
200 Mbps, pero experimentalmente se han transmitido hasta Gbps sobre una
distancia de
110 Kms.
Construcción.
Núcleo, cubierta, tubo protector, búferes, miembros de fuerza, y una o más capas
protectoras. Las principales variantes son:
125
1. Tubo suelto. Cada fibra está envuelta en un tubo protector.
126
Conversores Luz- Corriente eléctrica
Este tipo de conversores convierten las señales ópticas que proceden de la fibra
en señales
eléctricas. Se limitan a obtener una corriente a partir de la luz modulada incidente,
esta corriente
es proporcional a la potencia recibida, y por tanto, a la forma de onda de la señal
moduladora.
Se fundamenta en el fenómeno opuesto a la recombinación, es decir, en la
generación de pares
electrón-hueco a partir de los fotones. El tipo más sencillo de detector corresponde
a una unión
semiconductora P-N.
Las condiciones que debe cumplir un fotodetector para su utilización en el campo
de las
comunicaciones, son las siguientes:
La corriente inversa (en ausencia de luz) debe de ser muy pequeña, para así
poder
detectar señales ópticas muy débiles (alta sensibilidad).
Rapidez de respuesta (gran ancho de banda).
El nivel de ruido generado por el propio dispositivo ha de ser mínimo.
Hay dos tipos de detectores los fotodiodos PIN y los de avalancha APD.
Detectores PIN: Su nombre viene de que se componen de una unión P-N y
entre esa unión
se intercala una nueva zona de material intrínseco (I), la cual mejora la eficacia del
detector.
Se utiliza principalmente en sistemas que permiten una fácil discriminación entre
posibles niveles
de luz y en distancias cortas.
Detectores APD: El mecanismo de estos detectores consiste en lanzar un
electrón a gran
velocidad (con la energía suficiente), contra un átomo para que sea capaz de
arrancarle
otro electrón.
Estos detectores se pueden clasificar en tres tipos:
de silicio: presentan un bajo nivel de ruido y un rendimiento de hasta el 90%
trabajando
en primera ventana. Requieren alta tensión de alimentación (200-300V).
de germanio: aptos para trabajar con longitudes de onda comprendidas entre
1000 y 1300
nm y con un rendimiento del 70%.
127
de compuestos de los grupos III y V.
Amplificador óptico
El amplificador de fibra dopada más común es el EDFA (del inglés, Erbium Doped
Fiber
Amplifier) que se basa en el dopaje con Erbio de una fibra óptica.
Algunas características típicas de los EDFAs comerciales son:
Baja figura de ruido (típicamente entre 3-6 dB)
Ganancia entre 15-40 dB
Baja sensibilidad al estado de polarización de la luz de entrada
Máxima potencia de salida: 14 - 25 dBm
Ganancia interna: 25 - 50 dB
Variación de la ganancia: +/- 0,5 dB
Número de láseres de bombeo: 1 - 6
Longitud de onda de bombeo: 980 nm o 1480 nm2
Ruido predominante: ASE (Amplified Spontaneous Emission)
128
Fabry-Perot salvo por la presencia de un anti reflectante en los extremos. El anti
reflectante incluye un antireflection coating y una guía de onda cortada en ángulo
para
evitar que la estructura se comporte como un láser.
El amplificador óptico de semiconductor suele ser de pequeño tamaño y el
bombeo se
implementa de forma eléctrica. Podría ser menos caro que un EDFA y puede ser
integrado
con otros dispositivos (láseres, moduladores...).
Sin embargo, en la actualidad, las prestaciones no son tan buenas como las que
presentan
los EDFAs. Los SOAs presentan mayor factor de ruido, menos ganancia, son
sensibles a la
polarización, son muy no lineales cuando se operan a elevadas velocidades...
Su elevada no-linealidad hacen atractivos los SOAs para aplicaciones de
procesado como
la conmutación toda óptica o la conversión de longitud de onda. También se está
estudiando su uso para implementar puertas lógicas.
Amplificadores Raman
129
Normalmente se emplean más de dos diodos de bombeo. El nivel de ruido que se
obtiene
es bajo especialmente cuando se usa junto con EDFAs .
APLICACIONES.
APLICACIONES DE LA FIBRA ÓPTICA EN LA MEDICINA:
En este campo son evidentes las ventajas que puede aportar el uso de la fibra
óptica como ayuda a las técnicas endoscópicas clásicas y, de hecho, están siendo
sustituidos los sistemas tradicionales por los modernos fibroscopios. Diversos
aparatos como laringoscopios, rectoscopios, broncoscopios, vaginoscopios
gastroscopios y laparoscopios, incluyen ya esta tecnología, la cual nos permite con
gran precisión la exploración de cavidades internas del cuerpo humano.
Gracias a la exactitud que nos proporciona este medio, los sensores son un punto
bastante importante en el que se aplica la tecnología de la fibra óptica.
Hay sensores de muchos tipos que incluyen esta tecnología, tales como:
130
• Sensores acústicos,
• Sensores de rotación,
• Sensores de aceleración,
• Sensores de presión
• Sensores de temperatura.
131
El comportamiento de los conductores ópticos frente a las radiaciones nucleares
es de alta seguridad, porque éstas no se transmiten hasta los equipos terminales.
Además, en el caso de las actuales fibras monomodo ha mejorado notablemente
su factor de ennegrecimiento ante una radiación nuclear frente al comportamiento
de las fibras multimodo anteriores; la capacidad de transmisión, por otra parte, se
recupera en pocos minutos tras una explosión.
Es obvio que, ante todo, lo que la fibra óptica transporta es luz. Al margen de la
información que esta pueda enviar, esta aplicación es bastante importante, ya que,
debido a sus particulares características nombradas anteriormente, nos permite
con suma facilidad iluminar zonas especiales sometidas a toxicidades, riesgos de
incendio,... tales como industrias petrolíferas, explotaciones mineras, industrias de
altos componentes inflamables,...
132
radiación electromagnética. Es por ello que pueden usarse, al igual que se usan
las ondas de radio para la transmisión de información. Esta idea surgió hace más
de un siglo, pero no se pudo aplicar ya que no había fuentes de luz ni medios para
transportarla adecuados. Hoy en día , en cambio, ya se sabe que la forma más
eficiente de que la luz viaje desde un punto hasta otro es mediante la fibra óptica.
En un principio fueron los militares los que idearon este sistema debido a las
grandes ventajas que esto le reportaría:
En fibra óptica la atenuación es bajísima, por los que las pérdidas de información
sueles ser inapreciables.
Nos permite trabajar con gran rapidez en entornos multimedia, tales como videos,
sonidos, ... Pero las líneas telefónicas no son la única vía hacia el ciberespacio.
Recientemente un servicio permite conectarse a Internet a través de la fibra óptica.
La fibra óptica hace posible navegar por Internet a una velocidad de dos millones
de bps , impensable en el sistema convencional, en el que la mayoría de usuarios
se conecta a 28.000 0 33.600 bps.
133
La fibra óptica ha ganado gran importancias en el campo de las redes de área
local. Al contrario que las comunicaciones de larga distancia, estos sistemas
conectan a una serie de abonados locales con equipos centralizados como
ordenadores (computadoras) o impresoras. Este sistema aumenta el rendimiento
de los equipos y permite fácilmente la incorporación a la red de nuevos usuarios.
El desarrollo de nuevos componentes electroópticos y de óptica integrada
aumentará aún más la capacidad de los sistemas de fibra.
Las computadoras de una red de área local están separadas por distancias de
hasta unos pocos kilómetros, y suelen usarse en oficinas o campus universitarios.
Una LAN permite la transferencia rápida y eficaz de información en el seno de un
grupo de usuarios y reduce los costes de explotación.
Otros recursos informáticos conectados son las redes de área amplia (WAN, Wide
Area Network) o las centralitas particulares (PBX). Las WAN son similares a las
LAN, pero conectan entre sí ordenadores separados por distancias mayores,
situados en distintos lugares de un país o en diferentes países; emplean equipo
físico especializado y costoso y arriendan los servicios de comunicaciones.
En las redes de semáforos, en las que la precisión ha de ser casi exacta, para que
no se produzcan accidentes, también toma un papel importante la fibra óptica.
134
sería posible en una línea de teléfono convencional debido a lo reducido de su
ancho de banda para transmitir información.
Telecompra: Tendrá acceso directo a anuncios por palabras con opción a compra,
hasta navegar por un centro comercial con la posibilidad de adquirir el objeto que
más desee.
Web TV. Será uno de los mejores ejemplos de la interactividad que permite la fibra
óptica. Facilitará el acceso a información sobre restaurantes, comercios, eventos,
espectáculos...
Radio Digital. Canales temáticos para todos los gustos musicales, pero con la
mejor calidad de sonido.
Fibra Óptica II
En mi punto de vista creo que deberíamos de analizar y hablar sobre el tema de la
fibra óptica; como también el uso que se le da, ya que hace más de una década
que se emplea como conductor. Analizándolo mencionaremos la importancia y las
ventajas que existen, sus costos, su accesibilidad y principalmente su historia.
135
En primer lugar existe una gran importancia, pues así nos vamos limitando a usar
cable común (cobre, aluminio, etc.) en las instalaciones como por ejemplo: la
iluminación de un automóvil, la conexión telefónica, y varias cosas que ya se
pueden utilizar hoy en día.
Mantener e instalar una conexión de fibra óptica es una de las ventajas que
existen asimismo sus costos, ya que una instalación de cobre para uso telefónico
nos sale más costosa que si la hiciéramos en fibra óptica; otra ventaja seria que
son muy confiables por su resistencia a las interferencias electromagnéticas que
afectan a las ondas de radio.
Mientras que su accesibilidad y sus aplicaciones en México; existen empresas que
ya mantienen una segura conexión de fibra óptica actualmente, además de
telefonía, automatización industrial, computación, sistemas de televisión por cable,
etc. Se encuentra una línea de cable submarino de fibra óptica que conecta con
las ciudades más importantes de América del norte y América latina junto con
Europa; para el interés de un ingeniero es de suma importancia hacer un breve
análisis de lo que enseguida mencionare.
DESARROLLO
Creo que uno de los puntos mas importantes de la fibra óptica es como la luz que
viaja a través del cable, que seria información codificada en forma digital como
una secuencia de 1 y 0.En el caso de los unos están representados por pulsos de
luz y los ceros por espacios entre cada pulso .Lo importante es que el volumen de
información esto es los ceros y unos que se puede transmitir en la fibra óptica es
miles de veces mayor que el de una línea telefónica, para mi esto es la
superioridad de este nuevo medio de transmisión.
El primer intento de utilizar la luz como soporte para una transmisión fue realizado
por Alexander Graham Bell, en el año 1880. Utilizó un haz de luz para llevar
información, pero se evidenció que la transmisión de las ondas de luz por la
atmósfera de la tierra no es práctica debido a que el vapor de agua, oxigeno y
partículas en el aire absorben y atenúan las señales en las frecuencias de luz.
La fibra óptica puede decirse que fue obtenida en 1951, con una atenuación de
1000 dB/Km. (al incrementar la distancia 3 metros la potencia de luz disminuía ½),
estas perdidas restringía, las transmisiones ópticas a distancias cortas. En 1970, la
compañía de CORNING GLASS de Estados Unidos fabricó un prototipo de fibra
óptica de baja perdida, con 20 dB/Km. Luego se consiguieron fibras de 7 dB/Km.
(1972), 2.5 dB/Km. (1973), 0.47 dB/Km. (1976), 0.2 dB/Km. (1979). Por tanto a
finales de los años 70 y a principios de los 80, el avance tecnológico en la
136
fabricación de cables ópticos y el desarrollo de fuentes de luz y detectores,
abrieron la puerta al desarrollo de sistemas de comunicación de fibra óptica de alta
calidad, alta capacidad y eficiencia. Este desarrollo se vio apoyado por diodos
emisores de luz LEDs, Fotodiodos y LASER (amplificación de luz por emisión
estimulada de radiación).
Portadora de información
137
casi en su totalidad los ruidos y las interferencias hasta multiplicar las formas de
envío en comunicaciones y recepción por vía telefónica.
Con un cable de seis fibras se puede transportar la señal de más de cinco mil
canales o líneas principales, mientras que se requiere de 10,000 pares de cable de
cobre convencional para brindar servicio a ese mismo número de usuarios, con la
desventaja que este último medio ocupa un gran espacio en los ductos y requiere
de grandes volúmenes de material, lo que también eleva los costos.
Concepto de transmisión
138
transmitida la señal luminosa por las minúsculas fibras, en otro extremo del circuito
se encuentra un tercer componente al que se le denomina detector óptico o
receptor, cuya misión consiste en transformar la señal luminosa en energía
electromagnética, similar a la señal original. El sistema básico de transmisión se
compone en este orden, de señal de entrada, amplificador, fuente de luz, corrector
óptico, línea de fibra óptica (primer tramo) empalme, línea de fibra óptica (segundo
tramo), corrector óptico, receptor, amplificador y señal de salida.
Los diodos emisores de luz y los diodos láser son fuentes adecuadas para la
transmisión mediante fibra óptica, debido a que su salida se puede controlar
rápidamente por medio de una corriente de polarización. Además su pequeño
tamaño, su luminosidad, longitud de onda y el bajo voltaje necesario para
manejarlos son características atractivas.
139
Capacidad de transmisión: La idea de que la velocidad de transmisión depende
principalmente del medio utilizado, se conservo hasta el advenimiento de las fibras
ópticas, ya que ellas pueden transmitir a velocidades mucho más altas de lo que
los emisores y transmisores actuales lo permiten, por lo tanto, son estos dos
elementos los que limitan la velocidad de transmisión.
Existe una menor pérdida de potencia, lo que implica una menor necesidad de
colocar repetidores cada cierta distancia abaratando así los costos del sistema, de
su instalación y mantenimiento. La comunicación se realiza a través de un rayo de
luz, por lo cual no puede sufrir interferencia de tipo electromagnético. De la misma
forma, la señal que viaja en fibra óptica no puede ser detectada. Existe un
aislamiento eléctrico entre el emisor y el receptor al ser la fibra óptica dieléctrica
(no conductora de electricidad).*la fibra óptica 3(2010).
140
Aislamiento eléctrico entre terminales
Costos y mantenimiento
En cuanto a sus costos y mantenimiento hare mención a ello dando como prueba
una pequeña investigación. TOKIO, JAPÓN, el 1997 de ENERO 21 (NOTA) --
Fujitsu Ltd. [TOKYO:6702] ha ganado el contrato para proveer la sección de Asia-
Pacific del cable óptico de la fibra submarina más larga del mundo. Las llamadas
del contrato US$84 millón para que la compañía instale un estiramiento de 4.500
kilómetros (kilómetro) del cable de SEA-ME-WE 3 entre Singapur, Indonesia, y
Australia.
El cable se planea para ser terminado antes del de enero 31 de 1999. **time-out**
cuando él introducir servicio, contraer sistema tener mínimo capacidad 20 Gb/s
que poder acomodar aproximado 240.000 simultáneo teléfono circuito, decir
Fujitsu.
141
Sin embargo si se requiere una capacidad de información baja, la fibra óptica
puede implicar un mayor coste. A través de la fibra óptica se pueden transmitir
señales a zonas eléctricamente ruidosas con un bajo índice de error y sin
interferencias. La transmisión es prácticamente inalterable debido a los cambios
de temperatura, por lo que se hace necesario simplificar la ecualización y
compensación de las variaciones en dichas propiedades. *RTFO grupo 18 4(2008).
Dimensiones Y Peso
Atenuación
Es el factor que indica con que frecuencia deben colocarse los repetidores de la
señal que se conduce o propaga por el medio, puede variar debido a un gran
número de factores tales como la humedad, las curvaturas que sufre el cable, etc.
142
Distancia Umbral
Conforme la señal avanza por el medio va perdiendo fuerza hasta llegar al punto
en que si desea transmitirse a mayor distancia debe colocarse un repetidor, un
dispositivo que le vuelva a dar potencia para seguir avanzando. Un repetidor de
fibra es aquel que toma una señal de luz, la convierte a señal eléctrica, la regenera
y la coloca en un dispositivo de emisión de luz para que se siga propagando.
Comparadas con el cobre, las fibras ópticas permiten que las distancias entre
repetidores sean más grandes. Por ejemplo, en un enlace para dispositivos RS-
232 (puerto serial) la distancia máxima entre dos nodos es de 15.2 mts.
Transmitiendo a un a velocidad de 19200 Bps. , Una línea de fibra óptica puede
transmitir a esa velocidad hasta una distancia de 2.5 Km. esto significa que la
distancia lograda con la fibra es 164 veces mayor que la de su equivalente el
cobre.
Al igual que en la atenuación, la distancia máxima que puede alcanzarse esta muy
relacionada con el tipo de fibra. En las versiones sencillas se logran distancias
típicas de dos Km entre el transmisor y en receptor, con fibras y equipos mas
sofisticado las distancias pueden ir hasta los 2.5km. Sin repetidor. Aplicaciones de
laboratorio han permitido alcanzar distancias de 111km. a 5 Gbps. sin la necesidad
de los repetidores.
Aplicaciones
Definitivamente el cable de cobre es más barato que la fibra óptica, sin embargo si
se trata de obtener un mayor ancho de banda y de fidelidad, así como acortar
distancias, y contar con un medio de transmisión amplio y más seguro, realmente
la fibra óptica justifica sus precios por los beneficios que ofrece frente a los del
cable de cobre.
143
Las aplicaciones de la fibra óptica hoy en día son múltiples. Además, esta en un
continuo proceso de expansión, sin conocer exactamente límites sobre ello.
Partiendo de que la fibra óptica transmite luz, todas las aplicaciones que se basan
en la luminosidad (bien sea por falta de esta, por difícil acceso, con fines
decorativos o búsqueda de precisión) tiene cabida este campo.
Medicina
En este campo son evidentes las ventajas que puede aportar el uso de la fibra
óptica como ayuda a las técnicas endoscópicas clásicas y, de hecho, están siendo
sustituidos los sistemas tradicionales por los modernos fibroscopios. Diversos
aparatos como laringoscopios, rectoscopios, broncoscopios, vaginoscopios
gastroscopios y laparoscopios, incluyen ya esta tecnología, la cual nos permite
con gran precisión la exploración de cavidades internas del cuerpo humano.
Arqueología
144
En este campo, la fibra óptica se usa habitualmente con el fin de poseer un acceso
visual a zonas que son inaccesibles mediante otros sistemas. Como en medicina
también se usa un endoscopio.
Sensores
Gracias a la exactitud que nos proporciona este medio, los sensores son un punto
bastante importante en el que se aplica la tecnología de la fibra óptica.
Hay sensores de muchos tipos que incluyen esta tecnología, tales como:
• Sensores acústicos
• Sensores eléctricos y magnéticos
• Sensores de rotación
• Sensores de aceleración
• Sensores de presión
• Sensores de temperatura.
Aplicaciones Militares
145
El comportamiento de los conductores ópticos frente a las radiaciones nucleares
es de alta seguridad, porque éstas no se transmiten hasta los equipos terminales.
Además, en el caso de las actuales fibras monomodo ha mejorado notablemente
su factor de ennegrecimiento ante una radiación nuclear frente al comportamiento
de las fibras multimodal anteriores; la capacidad de transmisión, por otra parte, se
recupera en pocos minutos tras una explosión.
Iluminación
Es obvio que, ante todo, lo que la fibra óptica transporta es luz. Al margen de la
información que esta pueda enviar, esta aplicación es bastante importante, ya que,
debido a sus particulares características nombradas anteriormente, nos permite
con suma facilidad iluminar zonas especiales sometidas a toxicidades, riesgos de
incendio, etc. tales como industrias petrolíferas, explotaciones mineras, industrias
de altos componentes inflamables y muchas otras.
146
En cuanto a ocio, y para mayor seguridad en cuanto a la no necesidad de uso de
la electricidad, la fibra a tomado gran relevancia en lo que a iluminaciones de
fuentes y piscinas se refiere, evitando así el riesgo de electrocutarse como puede
suceder en piscinas que son iluminadas mediante sistemas convencionales.
Telecomunicaciones
Internet
147
El servicio de conexión a Internet por fibra óptica, derriba la mayor limitación de
este medio: La lentitud del trato de la información. La conexión de Internet
mediante fibra a parte de ser mucho mas rápida, no nos plantea un gran problema
que sucede con el método convencional: caerse de la red continuamente. La fibra
también nos resuelve en gran medida los problemas de masificación de
interlocutores, aunque esto todavía no está totalmente resuelto.
Nos permite trabajar con gran rapidez en entornos multimedia, tales como videos,
sonidos, etc. Por ello las líneas telefónicas no son la única vía hacia el
ciberespacio. Recientemente un servicio permite conectarse a Internet a través de
la fibra óptica.
Redes
Las computadoras de una red de área local están separadas por distancias de
hasta unos pocos kilómetros, y suelen usarse en oficinas o campus universitarios.
Una LAN (redes locales de información) permite la transferencia rápida y eficaz de
información en el seno de un grupo de usuarios y reduce los costes de
explotación.
Otros recursos informáticos conectados son las redes de área amplia (WAN, Wide
Area Network) o las centralitas particulares (PBX). Las WAN son similares a las
LAN, pero conectan entre sí ordenadores separados por distancias mayores,
situados en distintos lugares de un país o en diferentes países; emplean equipo
físico especializado y costoso y arriendan los servicios de comunicaciones.
Telefonía
148
Otra ventaja del teléfono mediante fibra óptica es la posibilidad de establecer
conexión de Internet y teléfono al mismo tiempo y con tan solo una línea. Esto no
sería posible en una línea de teléfono convencional debido a lo reducido de su
ancho de banda para transmitir información.
Otras Aplicaciones
Transportes
149
Pueden encontrarse otras aplicaciones interesantes de la fibra óptica a bordo de
vehículos, especialmente en el sector del automóvil, donde hace años que existen
usos especiales. Esta aplicación en particular, ha encontrado una difusión tan
amplia que en la actualidad cada vehículo tiene en promedio dos metros de haz de
fibras ópticas.
Además, también han adquirido una severa importancia en los transportes aéreos,
debido a su ligereza y a su resistencia a condiciones climáticas adversas.
Conclusiones:
En otro campo como en la medicina me parece que es muy importante que cada
instrumento, aparato que se utiliza se fabrique con fibra óptica, lo que hace que
una cirugía sea más segura y practica.
Y así es de importante hoy en día la fibra óptica sin ella creo que muchas de las
nuevas empresas de telefonía y de televisión por cable no existirían.
Por otra parte el cable de cobre ¿donde quedaría? y las fabricas que lo hacen
¿también dejaría de existir? Creo que no porque todas las plantas de energía
eléctrica necesitan de mucho cable también conexiones a aparatos domésticos,
industriales, etc. Necesitan de electricidad de mucha corriente eléctrica, por eso
tanto el cable común de cobre, aluminio, etc. Es demasiado importante como el
conductor de fibra óptica.
150
Fibra Óptica III
En este pequeña recopilación de información sobre el tema a desarrollar se
hablara sobre la
151
su funcionamiento y de sus variados usos en que se emplea este tipo de
material.
ANTECEDENTES
152
abriéndonos las puertas al descubrimiento de un nuevo mundo: el mundo de la
información sin límite de ancho de banda.
La posibilidad de controlar un rayo de luz, dirigiéndolo en una trayectoria recta, se
conoce desde hace mucho tiempo. En 1820, Augustin-Jean Fresnel ya conocía las
ecuaciones por las que rige la captura de la luz dentro de una placa de cristal lisa.
Su ampliación a lo que entonces se conocía como cables de vidrio fue obra de D.
Hondros y Peter Debye en 1910. El físico irlandés John Tyndall descubrió que la
luz podía viajar dentro de un material (agua), curvándose por reflexión interna, y
en 1870 presentó sus estudios ante los miembros de la Real Sociedad. A partir de
este principio se llevaron a cabo una serie de estudios, en los que demostraron el
potencial del cristal como medio eficaz de transmisión a larga distancia.
El gran problema, sin embargo, es que las técnicas y los materiales usados no
permitían la trasmisión de luz con buen rendimiento. Las pérdidas eran tan
grandes y no había dispositivos de acoplamiento óptico.
Solamente en 1950 las fibras ópticas comenzaron a interesar a los investigadores,
con muchas aplicaciones prácticas que estaban siendo desarrolladas. En 1952, el
físico Narinder Singh Kapany, apoyándose en los estudios de John Tyndall, realizó
experimentos que condujeron a la invención de la fibra óptica.Uno de los primeros
usos de la fibra óptica fue emplear un haz de fibras para la transmisión de
imágenes, que se usó en el endoscopio médico.
En este invento se usaron unas nuevas fibras forradas con un material de bajo
índice de refracción, en esta misma época, se empezaron a utilizar filamentos
delgados como el pelo que transportaban luz a distancias cortas, el único
problema era que esta luz perdía hasta el 99% de su intensidad al atravesar
distancias de hasta de 9 metros de fibra.
Charles K. Kao, en su tesis doctoral de 1956, estimó que las máximas pérdidas
que debería tener la fibra óptica, para que resultara práctica en enlaces de
comunicaciones, eran de 20 dB/km.
En 1966,los investigadores Charles K. Kao y G. A. Hockham, de los laboratorios
de Standard Telecommunications, en Inglaterra, afirmaron que se podía disponer
de fibras de una transparencia mayor y propusieron el uso de fibras de vidrio y luz,
en lugar de electricidad y conductores metálicos, en la trasmisión de mensajes
telefónicos.
153
El amplificador que marcó un antes y un después en el uso de la fibra óptica en
conexiones interurbanas, reduciendo el coste de ellas, fue el amplificador óptico
inventado por David Payne, de la Universidad de Southampton, y por Emmanuel
Desurvire en los Laboratorios Bell. A ambos se les concedió la medalla Benjamin
Franklin en 1988. En 1980, las mejores fibras eran tan transparente que una señal
podía atravesar 240 kilómetros de fibra antes de debilitarse hasta ser indetectable.
Pero las fibras ópticas con este grado de transparencia no se podían fabricar
usando métodos tradicionales. El gran avance se produjo cuando se dieron cuenta
de que el cristal de sílice puro, sin ninguna impureza de metal que absorbiese luz,
solamente se podía fabricar directamente a partir de componentes de vapor,
evitando de esta forma la contaminación que inevitablemnte resultaba del uso
convencional de los crisoles de fundición.
También en 1980, AT&T presentó a la Comisión Federal de Comunicaciones de
los Estados Unidos un proyecto de un sistema de 978 kilómetros que conectaría
las principales ciudades del corredor que iba de Boston a Washington. Cuatro
años después, cuando el sistema comenzó a funcionar, su cable, de menos de 25
centímetros de diámetro, proporcionaba 80.000 canales de voz para
conversaciones telefónicas simultáneas. Para entonces, la longitud total de los
cables de fibra únicamente en los Estados Unidos alcanzaba 400.000 kilómetros.
Pronto, cables similares atravesaron los océanos del mundo. El primer enlace
transoceánico con fibra óptica fue el TAT-8 que comenzó a operar en 1988.
Tres años después, otro cable transatlántico duplicó la capacidad del primero. Los
cables que cruzan el Pacífico también han entrado en funcionamiento. Desde
entonces, se ha empleado fibra óptica en multitud de enlaces transoceánicos o
entre ciudades, y paulatinamente se va extendiendo su uso desde las redes
troncales de las operadoras hacia los usuarios finales.
Hoy en día, debido a sus mínimas pérdidas de señal y a sus óptimas propiedades
de ancho de banda, la fibra óptica puede ser usada a distancias más largas que el
cable de cobre. Además, la fibras por su peso y tamaño reducido, hace que sea
muy útil en entornos donde el cable de cobre sería impracticable.
154
• M.C.V.D Modifield Chemical Vapor Deposition
Entre sus ventajas, comparado con el método anterior (M.C.V.D) permite obtener
preformas con mayor diámetro y mayor longitud a la vez que precisa un menor
aporte energético.Como inconveniente se destaca como uno el de mayor
155
cognotación, la sofisticación que requiere en equipo necesarios para su
realización.
Entre las Ventajas, es de citar que las tasas de deposición que se alcanzan son
del orden de 4.3g / min, lo que representa una tasa de fabricación de FO de 5km /
h, habiendo sido eliminadas las pérdidas iniciales en el paso de estirado de la
preforma. También es posible la fabricación de fibras de muy baja atenuación y de
gran calidad mediante la optimización en el proceso de secado, porque los perfiles
así obtenidos son lisos y sin estructura anular reconocible.
ESTIRADO DE LA PREFORMA
156
sobre la fibra totalmente libre de burbujas e impurezas. Posteriormente se pasa al
endurecimiento de la protección antes descrita quedando así la capa definitiva de
polímero elástico. Esto se realiza habitualmente mediante procesos térmicos o a
través de procesos de reacciones químicas mediante el empleo de radiaciones
ultravioletas.
FUNCIONAMIENTO Y CARACTERISTICAS
Características:
La fibra óptica es una guía de ondas dieléctrica que opera a frecuencias ópticas.
Ventajas:
157
Fibre Channel, una norma ANSI de gran alcance, económica y prácticamente se
reúne el desafío con las siguientes ventajas:
158
• Baja Atenuación. La fibra óptica alcanza atenuaciones del orden de 0.15
dB/Km.
Desventajas:
A pesar de las ventajas antes enumeradas, la fibra óptica presenta una serie de
desventajas frente a otros medios de transmisión, siendo las más relevantes las
siguientes:
Así mismo, el costo de la fibra sólo se justifica cuando su gran capacidad de ancho
de banda y baja atenuación son requeridos. Para bajo ancho de banda puede ser
una solución mucho más costosa que el conductor de cobre.
Funcionamiento:
159
TIPOS DE FIBRA OPTICA
Las diferentes trayectorias que puede seguir un haz de luz en el interior de una
fibra se denominan modos de propagación. Y según el modo de propagación
tendremos dos tipos de fibra óptica: multimodo y monomodo.
Multimodo:
Una fibra multimodo es aquella en la que los haces de luz pueden circular por más
de un modo o camino. Esto supone que no llegan todos a la vez. Una fibra
multimodo puede tener más de mil modos de propagación de luz. Las fibras
multimodo se usan comúnmente en aplicaciones de corta distancia, menores a 1
km; es simple de diseñar y económico.
El núcleo de una fibra multimodo tiene un índice de refracción superior, pero del
mismo orden de magnitud, que el revestimiento.
Dependiendo el tipo de índice de refracción del núcleo, tenemos dos tipos de fibra
multimodo:
Además, según el sistema ISO 11801 para clasificación de fibras multimodo según
su ancho de banda las fibras pueden ser OM1, OM2 u OM3.
• OM1: Fibra 62.5/125 µm, soporta hasta Gigabit Ethernet (1 Gbit/s), usan
LED como emisores
• OM2: Fibra 50/125 µm, soporta hasta Gigabit Ethernet (1 Gbit/s), usan LED
como emisores
• OM3: Fibra 50/125 µm, soporta hasta 10 Gigabit Ethernet(300 m), usan
láser como emisores.
Monomodo:
Una fibra monomodo es una fibra óptica en la que sólo se propaga un modo de
luz. Se logra reduciendo el diámetro del núcleo de la fibra hasta un tamaño (8,3 a
10 micrones) que sólo permite un modo de propagación. Su transmisión es
160
paralela al eje de la fibra. A diferencia de las fibras multimodo, las fibras
monomodo permiten alcanzar grandes distancias (hasta 300 km máximo,
mediante un láser de alta intensidad) y transmitir elevadas tasas de información
(decenas de Gb/s)
Por su diseño:
Es un cable empleado tanto para exteriores como para interiores que consta de
varios tubos de fibra rodeando un miembro central de refuerzo y provisto de una
cubierta protectora. Cada tubo de fibra, de dos a tres milímetros de diámetro, lleva
varias fibras ópticas que descansan holgadamente en él. Los tubos pueden ser
huecos o estar llenos de un gel hidrófugo que actúa como protector antihumedad
impidiendo que el agua entre en la fibra. El tubo holgado aísla la fibra de las
fuerzas mecánicas exteriores que se ejerzan sobre el cable.
Contiene varias fibras con protección secundaria que rodean un miembro central
de tracción, todo ello cubierto de una protección exterior. Cada fibra tiene una
protección plástica extrusionada directamente sobre ella, hasta alcanzar un
diámetro de 900 µm rodeando al recubrimiento de 250 µm de la fibra óptica. Esta
protección plástica además de servir como protección adicional frente al entorno,
también provee un soporte físico que serviría para reducir su coste de instalación
al permitir reducir las bandejas de empalmes.
Dentro de los componentes que se usan en la fibra óptica caben destacar los
siguientes: los conectores, el tipo de emisor del haz de luz, los conversores de luz,
etc
Conectores:
161
• SC y SC-Dúplex se utilizan para la transmisión de datos.
• ST o BFOC se usa en redes de edificios y en sistemas de seguridad.
Hay dos tipos de detectores: los fotodiodos PIN y los de avalancha APD.
162
• de germanio: aptos para trabajar con longitudes de onda comprendidas
entre 1000 y 1300 nm y con un rendimiento del 70%.
• de compuestos de los grupos III y V.
Costo y mantenimiento
Internet:
El servicio de conexión a Internet por fibra óptica, derriba la mayor limitación del
ciberespacio: su exasperante lentitud. El propósito del siguiente artículo es
describir el mecanismo de acción, las ventajas y sus desventajas.
Para navegar por la red mundial de redes, Internet, no sólo se necesitan un
computador, un módem y algunos programas, sino también una gran dosis de
paciencia. El ciberespacio es un mundo lento hasta el desespero. Un usuario
puede pasar varios minutos esperando a que se cargue una página o varias horas
tratando de bajar un programa de la Red a su PC.
Esto se debe a que las líneas telefónicas, el medio que utiliza la mayoría de los 50
millones de usuarios para conectarse a Internet, no fueron creadas para
transportar videos, gráficas, textos y todos los demás elementos que viajan de un
lado a otro en la Red.
Pero las líneas telefónicas no son la única vía hacia el ciberespacio.
Recientemente un servicio permite conectarse a Internet a través de la fibra óptica.
163
La fibra óptica hace posible navegar por Internet a una velocidad de dos millones
de bps, impensable en el sistema convencional, en el que la mayoría de usuarios
se conecta a 28.000 0 33.600 bps.
Redes:
La fibra óptica se emplea cada vez más en la comunicación, debido a que las
ondas de luz tienen una frecuencia alta y la capacidad de una señal para
transportar información aumenta con la frecuencia. En las redes de
comunicaciones se emplean sistemas de láser con fibra óptica. Hoy funcionan
muchas redes de fibra para comunicación a larga distancia, que proporcionan
conexiones transcontinentales y transoceánicas. Una ventaja de los sistemas de
fibra óptica es la gran distancia que puede recorrer una señal antes de necesitar
un repetidor para recuperar su intensidad. En la actualidad, los repetidores de fibra
óptica están separados entre sí unos 100 km, frente a aproximadamente 1,5 km
en los sistemas eléctricos. Los amplificadores de fibra óptica recientemente
desarrollados pueden aumentar todavía más esta distancia.
Otra aplicación cada vez más extendida de la fibra óptica son las redes de área
local. Al contrario que las comunicaciones de larga distancia, estos sistemas
conectan a una serie de abonados locales con equipos centralizados como
ordenadores (computadoras) o impresoras. Este sistema aumenta el rendimiento
de los equipos y permite fácilmente la incorporación a la red de nuevos usuarios.
El desarrollo de nuevos componentes electroópticos y de óptica integrada
aumentará aún más la capacidad de los sistemas de fibra.
Red de área local o LAN, conjunto de ordenadores que pueden compartir datos,
aplicaciones y recursos (por ejemplo impresoras). Las computadoras de una red
de área local (LAN, Local Area Network) están separadas por distancias de hasta
unos pocos kilómetros, y suelen usarse en oficinas o campus universitarios. Una
LAN permite la transferencia rápida y eficaz de información en el seno de un grupo
de usuarios y reduce los costes de explotación.
Otros recursos informáticos conectados son las redes de área amplia (WAN, Wide
Area Network) o las centralitas particulares (PBX). Las WAN son similares a las
LAN, pero conectan entre sí ordenadores separados por distancias mayores,
situados en distintos lugares de un país o en diferentes países; emplean equipo
físico especializado y costoso y arriendan los servicios de comunicaciones. Las
PBX proporcionan conexiones informáticas continuas para la transferencia de
datos especializados como transmisiones telefónicas, pero no resultan adecuadas
para emitir y recibir los picos de datos de corta duración empleados por la mayoría
de las aplicaciones informáticas.
Las redes de comunicación públicas están divididas en diferentes niveles;
conforme al funcionamiento, a la capacidad de transmisión, así como al alcance
164
que definen. Por ejemplo, si está aproximándose desde el exterior hacia el interior
de una gran ciudad, se tiene primeramente la red interurbana y red provisional, a
continuación las líneas prolongadas aportadoras de tráfico de más baja capacidad
procedente de áreas alejadas (red rural), hacia el centro la red urbana y finalmente
las líneas de abonado. Los parámetros dictados por la práctica son el tramo de
transmisión que es posible cubrir y la velocidad binaria específica así como el tipo
de fibra óptica apropiado, es decir, cables con fibras monomodo ó multimodo.
Telefonía:
Con motivo de la normalización de interfaces existentes, se dispone de los
sistemas de transmisión por fibra óptica para los niveles de la red de
telecomunicaciones públicas en una amplia aplicación, contrariamente para
sistemas de la red de abonado (línea de abonado), hay ante todo una serie de
consideraciones.
Para la conexión de un teléfono es completamente suficiente con los conductores
de cobre existentes. Precisamente con la implantación de los servicios en banda
ancha como la videoconferencia, la videotelefonía, etc, la fibra óptica se hará
imprescindible para el abonado. Con el BIGFON (red urbana integrada de
telecomunicaciones en banda ancha por fibra óptica) se han recopilado amplias
experiencias en este aspecto. Según la estrategia elaborada, los servicios de
banda ancha posteriormente se ampliarán con los servicios de distribución de
radio y de televisión en una red de telecomunicaciones integrada en banda ancha
(IBFN).
Otras aplicaciones
Las fibras ópticas también se emplean en una amplia variedad de sensores, que
van desde termómetros hasta giroscopios. Su potencial de aplicación en este
campo casi no tiene límites, porque la luz transmitida a través de las fibras es
sensible a numerosos cambios ambientales, entre ellos la presión, las ondas de
sonido y la deformación, además del calor y el movimiento. Las fibras pueden
resultar especialmente útiles cuando los efectos eléctricos podrían hacer que un
cable convencional resultara inútil, impreciso o incluso peligroso. También se han
desarrollado fibras que transmiten rayos láser de alta potencia para cortar y
taladrar materiales.
La aplicación más sencilla de las fibras ópticas es la transmisión de luz a lugares
que serían difíciles de iluminar de otro modo, como la cavidad perforada por la
turbina de un dentista. También pueden emplearse para transmitir imágenes; en
este caso se utilizan haces de varios miles de fibras muy finas, situadas
exactamente una al lado de la otra y ópticamente pulidas en sus extremos. Cada
punto de la imagen proyectada sobre un extremo del haz se reproduce en el otro
extremo, con lo que se reconstruye la imagen, que puede ser observada a través
de una lupa. La transmisión de imágenes se utiliza mucho en instrumentos
médicos para examinar el interior del cuerpo humano y para efectuar cirugía con
165
láser, en sistemas de reproducción mediante facsímil y fotocomposición, en
gráficos de ordenador o computadora y en muchas otras aplicaciones.
IMAGENES
Fibra
Características Coaxial
Óptica
Diámetro (mm) 14 58
166
Un ramo de fibras ópticas.
167
Tipos de fibra óptica.
Núcleo y revestimiento de
la fibra óptica
168
Tipos de
conectores de la fibra óptica.
CONCLUSIÓN
169
Con el tiempo esta técnica se ha ido mejorando y entre más pasa el tiempo
esto irá mejorando.
Fibra Óptica IV
Para navegar por la red mundial de redes, Internet, no sólo se necesitan un
computador, un módem y algunos programas, sino también una gran dosis de
170
paciencia. El ciberespacio es un mundo lento hasta el desespero. Un usuario
puede pasar varios minutos esperando a que se cargue una página o varias horas
tratando de bajar un programa de la Red a su PC.
Esto se debe a que las líneas telefónicas, el medio que utiliza la mayoría de los 50
millones de usuarios para conectarse a Internet, no fueron creadas para
transportar vídeos, gráficas, textos y todos los demás elementos que viajan de un
lado a otro en la Red.
Pero las líneas telefónicas no son la única vía hacia el ciberespacio.
Recientemente un servicio permite conectarse a Internet a través de la fibra óptica.
ORIGEN Y EVOLUCION
171
naturaleza que las ondas de radio, con la única diferencia que la longitud de las
ondas es del orden de micrómetros en lugar de metros o centímetros.
El concepto de las comunicaciones por ondas luminosas ha sido conocido por
muchos años. Sin embargo, no fue hasta mediados de los años setenta que se
publicaron los resultados del trabajoteórico. Estos indicaban que era posible
confiar un haz luminoso en una fibra transparente flexible y proveer así un análogo
óptico de la señalización por alambres electrónicamente.
El problema técnico que se había de resolver para el avance de la fibra óptica
residía en las fibras mismas, que absorbían luz que dificultaba el proceso. Para la
comunicación práctica, la fibra óptica debe transmitir señales luminosas
detestables por muchos kilómetros. El vidrio ordinario tiene un haz luminoso de
pocos metros. Se han desarrollado nuevos vidrios muy puros con transparencias
mucho mayores que la del vidrio ordinario. Estos vidrios empezaron a producirse
a principios de los setenta. Este gran avance dio ímpetu a la industria de fibras
ópticas. Se usaron láseres o diodos emisores de luz como fuente luminosa en los
cables de fibras ópticas. Ambos han de ser miniaturizados para componentes de
sistemas fibro-ópticos, lo que ha exigido considerable labor de investigación y
desarrollo. Los láseres generan luz "coherente" intensa que permanece en un
camino sumamente estrecho. Los diodos emiten luz "incoherente" que ni es fuerte
ni concentrada. Lo que se debe usar depende de los requisitos técnicos para
diseñar el circuito de fibras ópticas dado.
173
micrones). Llevan mensajes en forma de haces de luz que realmente pasan a
través de ellos de un extremo a otro, donde quiera que el filamento vaya
(incluyendo curvas y esquinas) sin interrupción.
Las fibras ópticas pueden ahora usarse como los alambres de cobre
convencionales, tanto en pequeños ambientes autónomos (tales como sistemas
de procesamiento de datosde aviones), como en grandes redes geográficas (como
los sistemas de largas líneas urbanas mantenidos por compañías telefónicas).
El principio en que se basa la transmisión de luz por la fibra es la reflexión interna
total; la luz que viaja por el centro o núcleo de la fibra incide sobre la superficie
externa con un ángulo mayor que el ángulo crítico, de forma que toda la luz se
refleja sin pérdidas hacia el interior de la fibra. Así, la luz puede transmitirse a
larga distancia reflejándose miles de veces. Para evitar pérdidas por dispersión de
luz debida a impurezas de la superficie de la fibra, el núcleo de la fibra óptica está
recubierto por una capa de vidrio con un índice de refracción mucho menor; las
reflexiones se producen en la superficie que separa la fibra de vidrio y el
recubrimiento.
Concluyo pues diciendo que, la Fibra Óptica consiste en una guía de luz con
materiales mucho mejores que lo anterior en varios aspectos. A esto le podemos
añadir que en la fibra óptica la señal no se atenúa tanto como en el cobre, ya que
en las fibras no se pierde información por refracción o dispersión de luz
consiguiéndose así buenos rendimientos, en el cobre, sin embargo, las señales se
ven atenuadas por la resistenciadel material a la propagación de las ondas
electromagnéticas de forma mayor. Además, se pueden emitir a la vez por el cable
varias señales diferentes con distintas frecuencias para distinguirlas, lo que en
telefonía se llama unir o multiplexar diferentes conversaciones eléctricas. También
se puede usar la fibra óptica para transmitir luz directamente y otro tipo de
ventajas en las que no entraré en detalle.
174
La primera etapa consiste en el ensamblado de un tubo y de una barra de vidrio
cilíndrico montados concéntricamente. Se calienta el todo para asegurar la
homogeneidad de la barra de vidrio.
175
tamaño, su luminosidad, longitud de onda y el bajo voltaje necesario para
manejarlos son características atractivas.
¿Cuáles son los dispositivos implícitos en este proceso?
Los bloques principales de un enlace de comunicaciones de fibra óptica son:
transmisor, receptor y guía de fibra. El transmisor consiste de una interfase
analógica o digital, un conversor de voltaje a corriente, una fuente de luz y un
adaptador de fuente de luz a fibra. La guía de fibra es un vidrio ultra puro o un
cable plástico. El receptor incluye un dispositivo conector detector de fibra a luz,
un foto detector, un conversor de corriente a voltaje un amplificador de voltaje y
una interfase analógica o digital En un transmisor de fibra óptica la fuente de luz
se puede modular por una señal análoga o digital.
Acoplando impedancias y limitando la amplitud de la señal o en pulsos digitales. El
conversor de voltaje a corriente sirve como interfase eléctrica entre los circuitos de
entrada y la fuente de luz.
La fuente de luz puede ser un diodo emisor de luz LED o un diodo de inyección
láser ILD, la cantidad de luz emitida es proporcional a la corriente de excitación,
por lo tanto el conversor voltaje a corriente convierte el voltaje de la señal de
entrada en una corriente que se usa para dirigir la fuente de luz. La conexión de
fuente a fibra es una interfase mecánica cuya función es acoplar la fuente de luz al
cable.
La fibra óptica consiste de un núcleo de fibra de vidrio o plástico, una cubierta y
una capa protectora. El dispositivo de acoplamiento del detector de fibra a luz
también es un acoplador mecánico.
El detector de luz generalmente es un diodo PIN o un APD (fotodiodo de
avalancha). Ambos convierten la energía de luz en corriente. En consecuencia, se
requiere un conversor corriente a voltaje que transforme los cambios en la
corriente del detector a cambios de voltaje en la señal de salida.
176
El Núcleo: En sílice, cuarzo fundido o plástico - en el cual se propagan las ondas
ópticas. Diámetro: 50 o 62,5 um para la fibra multimodo y 9um para la fibra
monomodo.
La Funda Óptica: Generalmente de los mismos materiales que el núcleo pero con
aditivos que confinan las ondas ópticas en el núcleo.
El revestimiento de protección: por lo general esta fabricado en plástico y
asegura la protección mecánica de la fibra.
Fibra Monomodo
Potencialmente, esta es la fibra que ofrece la mayor capacidad de transportede
información. Tiene una banda de paso del orden de los 100 GHz/km. Los mayores
flujos se consiguen con esta fibra, pero también es la más compleja de implantar.
El dibujo muestraque sólo pueden ser transmitidos los rayos que tienen una
trayectoria que sigue el eje de la fibra, por lo que se ha ganado el nombre de
"monomodo" (modo de propagación, o camino del haz luminoso, único). Son fibras
que tienen el diámetro del núcleo en el mismo orden de magnitud que la longitud
de onda de las señales ópticas que transmiten, es decir, de unos 5 a 8 m m. Si el
núcleo está constituido de un material cuyo índice de refracción es muy diferente
al de la cubierta, entonces se habla de fibras monomodo de índice escalonado.
Los elevados flujos que se pueden alcanzar constituyen la principal ventaja de las
fibras monomodo, ya que sus pequeñas dimensiones implican un manejo delicado
y entrañan dificultades de conexión que aún se dominan mal.
177
Las fibras multimodo de índice escalonado están fabricadas a base de vidrio, con
una atenuación de 30 dB/km, o plástico, con una atenuación de 100 dB/km.
Tienen una banda de paso que llega hasta los 40 MHz por kilómetro. En estas
fibras, el núcleo está constituido por un material uniforme cuyo índice de refracción
es claramente superior al de la cubierta que lo rodea. El paso desde el núcleo
hasta la cubierta conlleva por tanto una variación brutal del índice, de ahí su
nombre de índice escalonado.
Acopladores:
Conectores:
178
FC conector de Fibra Óptica para Monomodo o Multimodo con uso habitual en
telefonía y CATV en formato Monomodo y Monomodo Angular.-
Para ver el gráfico seleccione la opción "Descargar" del menú superior
SC conector de Fibra óptica para Monomodo y Multimodo con uso habitual en
telefonía en formato monomodo.
Características Generales:
Coberturas más resistentes:
179
Los nuevos avances en protección anti-inflamable hace que disminuya el riesgo
que suponen las instalaciones antiguas de Fibra Óptica que contenían cubiertas
de material inflamable y relleno de gel que también es inflamable.
Estos materiales no pueden cumplir con los requerimientos de las normasde
instalación, presentan un riesgo adicional, y pueden además crear un reto costoso
y difícil en la restauración después de un incendio. Con los nuevos avances en
este campo y en el diseño de estos cables se eliminan estos riesgos y se cumple
con las normas de instalación.
Empaquetado de alta densidad:
Con el máximo número de fibras en el menor diámetro posible se consigue una
más rápida y más fácil instalación, donde el cable debe enfrentar dobleces agudos
y espacios estrechos. Se ha llegado a conseguir un cable con 72 fibras de
construcción súper densa cuyo diámetro es un 50% menor al de los cables
convencionales.
Características Técnicas:
180
Características Mecánicas:
181
VENTAJAS
La fibra óptica hace posible navegar por Internet a una velocidad de dos millones
de bps.
Acceso ilimitado y continuo las 24 horas del día, sin congestiones.
Video y sonido en tiempo real.
Fácil de instalar.
Es inmune al ruido y las interferencias, como ocurre cuando un alambre telefónico
pierde parte de su señal a otra.
Las fibras no pierden luz, por lo que la transmisión es también segura y no puede
ser perturbada.
Carencia de señales eléctricas en la fibra, por lo que no pueden dar sacudidas ni
otros peligros. Son convenientes para trabajar en ambientes explosivos.
Presenta dimensiones más reducidas que los medios preexistentes.
El peso del cable de fibras ópticas es muy inferior al de los cables metálicos,
capaz de llevar un gran número de señales.
La materia prima para fabricarla es abundante en la naturaleza.
Compatibilidad con la tecnología digital.
DESVENTAJAS
Sólo pueden suscribirse las personas que viven en las zonas de la ciudad por las
cuales ya esté instalada la red de fibra óptica.
El costo es alto en la conexión de fibra óptica, las empresas no cobran por tiempo
de utilización sino por cantidad de información transferida al computador, que se
mide en megabytes.
El costo de instalación es elevado.
Fragilidad de las fibras.
Disponibilidad limitada de conectores.
Dificultad de reparar un cable de fibras roto en el campo.
APLICACIONES
Internet
182
El servicio de conexión a Internet por fibra óptica, derriba la mayor limitación del
ciberespacio: su exasperante lentitud. El propósito del siguiente artículo es
describir el mecanismo de acción, las ventajas y sus desventajas.
Para navegar por la red mundial de redes, Internet, no sólo se necesitan un
computador, un módem y algunos programas, sino también una gran dosis de
paciencia. El ciberespacio es un mundo lento hasta el desespero. Un usuario
puede pasar varios minutos esperando a que se cargue una página o varias horas
tratando de bajar un programa de la Red a su PC.
Esto se debe a que las líneas telefónicas, el medio que utiliza la mayoría de los 50
millones de usuarios para conectarse a Internet, no fueron creadas para
transportar videos, gráficas, textos y todos los demás elementos que viajan de un
lado a otro en la Red.
Pero las líneas telefónicas no son la única vía hacia el ciberespacio.
Recientemente un servicio permite conectarse a Internet a través de la fibra óptica.
La fibra óptica hace posible navegar por Internet a una velocidad de dos millones
de bps, impensable en el sistema convencional, en el que la mayoría de usuarios
se conecta a 28.000 0 33.600 bps.
Redes
La fibra óptica se emplea cada vez más en la comunicación, debido a que las
ondas de luz tienen una frecuencia alta y la capacidad de una señal para
transportar información aumenta con la frecuencia. En las redes de
comunicaciones se emplean sistemas de láser con fibra óptica. Hoy funcionan
muchas redes de fibra para comunicación a larga distancia, que proporcionan
conexiones transcontinentales y transoceánicas. Una ventaja de los sistemas de
fibra óptica es la gran distancia que puede recorrer una señal antes de necesitar
un repetidor para recuperar su intensidad. En la actualidad, los repetidores de fibra
óptica están separados entre sí unos 100 km, frente a aproximadamente 1,5 km
en los sistemas eléctricos. Los amplificadores de fibra óptica recientemente
desarrollados pueden aumentar todavía más esta distancia.
Otra aplicación cada vez más extendida de la fibra óptica son las redes de área
local. Al contrario que las comunicaciones de larga distancia, estos sistemas
conectan a una serie de abonados locales con equipos centralizados como
ordenadores (computadoras) o impresoras. Este sistema aumenta el rendimiento
de los equipos y permite fácilmente la incorporación a la red de nuevos usuarios.
El desarrollo de nuevos componentes electroópticos y de óptica integrada
aumentará aún más la capacidad de los sistemas de fibra.
Red de área local o LAN, conjunto de ordenadores que pueden compartir datos,
aplicaciones y recursos (por ejemplo impresoras). Las computadoras de una red
de área local (LAN, Local Area Network) están separadas por distancias de hasta
unos pocos kilómetros, y suelen usarse en oficinas o campus universitarios. Una
183
LAN permite la transferencia rápida y eficaz de información en el seno de un grupo
de usuarios y reduce los costes de explotación.
Otros recursos informáticos conectados son las redes de área amplia (WAN, Wide
Area Network) o las centralitas particulares (PBX). Las WAN son similares a las
LAN, pero conectan entre sí ordenadores separados por distancias mayores,
situados en distintos lugares de un país o en diferentes países; emplean equipo
físico especializado y costoso y arriendan los servicios de comunicaciones. Las
PBX proporcionan conexiones informáticas continuas para la transferencia de
datos especializados como transmisiones telefónicas, pero no resultan adecuadas
para emitir y recibir los picos de datos de corta duración empleados por la mayoría
de las aplicaciones informáticas.
Las redes de comunicación públicas están divididas en diferentes niveles;
conforme al funcionamiento, a la capacidad de transmisión, así como al alcance
que definen. Por ejemplo, si está aproximándose desde el exterior hacia el interior
de una gran ciudad, se tiene primeramente la red interurbana y red provicional, a
continuación las líneas prolongadas aportadoras de tráfico de más baja capacidad
procedente de áreas alejadas (red rural), hacia el centro la red urbana y finalmente
las líneas de abonado. Los parámetros dictados por la práctica son el tramo de
transmisión que es posible cubrir y la velocidad binaria específica así como el tipo
de fibra óptica apropiado, es decir, cables con fibras monomodo ó multimodo.
Telefonía
Con motivo de la normalización de interfaces existentes, se dispone de los
sistemas de transmisión por fibra óptica para los niveles de la red de
telecomunicaciones públicas en una amplia aplicación, contrariamente para
sistemas de la red de abonado (línea de abonado), hay ante todo una serie de
consideraciones.
Para la conexión de un teléfono es completamente suficiente con los conductores
de cobre existentes. Precisamente con la implantación de los servicios en banda
ancha como la videoconferencia, la videotelefonía, etc, la fibra óptica se hará
imprescindible para el abonado. Con el BIGFON (red urbana integrada de
telecomunicaciones en banda ancha por fibra óptica) se han recopilado amplias
experiencias en este aspecto. Según la estrategia elaborada, los servicios de
banda ancha posteriormente se ampliarán con los servicios de distribuciónde radio
y de televisión en una red de telecomunicaciones integrada en banda ancha
(IBFN).
Otras aplicaciones
Las fibras ópticas también se emplean en una amplia variedad de sensores, que
van desde termómetros hasta giroscopios. Su potencial de aplicación en este
campo casi no tiene límites, porque la luz transmitida a través de las fibras es
184
sensible a numerosos cambios ambientales, entre ellos la presión, las ondas de
sonido y la deformación, además del calor y el movimiento. Las fibras pueden
resultar especialmente útiles cuando los efectos eléctricos podrían hacer que un
cable convencional resultara inútil, impreciso o incluso peligroso. También se han
desarrollado fibras que transmiten rayos láser de alta potencia para cortar y
taladrar materiales.
La aplicación más sencilla de las fibras ópticas es la transmisión de luz a lugares
que serían difíciles de iluminar de otro modo, como la cavidad perforada por la
turbina de un dentista. También pueden emplearse para transmitir imágenes; en
este caso se utilizan haces de varios miles de fibras muy finas, situadas
exactamente una al lado de la otra y ópticamente pulidas en sus extremos. Cada
punto de la imagen proyectada sobre un extremo del haz se reproduce en el otro
extremo, con lo que se reconstruye la imagen, que puede ser observada a través
de una lupa. La transmisión de imágenes se utiliza mucho en instrumentos
médicos para examinar el interior del cuerpo humano y para efectuar cirugía con
láser, en sistemas de reproducción mediante facsímil y fotocomposición, en
gráficos de ordenador o computadora y en muchas otras aplicaciones.
SuperCable : es una empresa transnacional de servicios de telecomunicaciones
en voz, video y data que ha ofrecido televisión por cable en Venezuela desde
comienzo de los años 90. Con su tecnología de transmisión de datos en fibra
óptica, comunicaciones digitales y compresión de datos, se encuentra en
capacidad de incursionar en el vasto mercado de las telecomunicaciones.
Son los únicos capaces de brindar tecnología de punta, la cobertura geográfica
más amplia, la mayor eficiencia de la inversión publicitaria, y servicio
personalizado.
La totalidad de la red de SuperCable es de fibra óptica que permite la transmisión
de banda ancha. El sector de Banda ancha de Motorola, empresa líder a nivel
global en soluciones integrales de comunicaciones y soluciones embebidas, es el
socio tecnológico de Supercable en el desarrollo de su sistema de televisión por
cable, el que será transformado en un paquete de servicios interactivos en los
próximos años. El acuerdo incluye la implementación de una plataforma de cable
digital interactivo en Bogotá y en Caracas.
Motorola socio tecnológico de Supercable
El anuncio ha despertado el interés del sector de negocios de la televisión paga en
la región. Supercable inició operaciones en Ecuador, luego se instaló en
Venezuela y el año pasado los accionistas de la empresas tomaron la
determinación de participar a nivel panregional. El primer paso es el lanzamiento
en el mercado colombiano con planes de añadir otro país este año. Instalaron su
casa matrizen el sur de La Florida, en Estados Unidos.
¿De cuánto es la inversión que están haciendo en Colombia?
La primera etapa del proyecto que estamos contemplando, es de 120 millones de
dólares. Nuestros estudios de mercadeo en Bogotá revelaron que hay deficiencias
en casi todas las plataformas de televisión por cable: en calidad de señal y
185
servicios. Necesidades en aspectos de Internet y sus precios. Supercable tomó
esto como una gran oportunidad y por eso partimos en redes avanzadas, fibra
óptica y realización de la convergencia de servicios. Estamos partiendo de cero
para atender a un mercado de gran magnitud y de grandes carencias. ¿Cómo
afrontaran la piratería y los problemas de tarifas?
Supercable está haciendo en Colombia una de las inversionesmás importantes en
televisión de pago y la reacción incluso de sus competidores ha sido muy positiva,
ya que es un paso adelante que el país dará, justamente en uno de sus peores
momentos. Esa es la esperanza de empresarios y ejecutivos de esta industria y,
principalmente, la de los usuarios.
El también académico del ITAM señaló que era de esperarse que ante la ausencia
de más competidores en este proceso, la adjudicación se hará al precio mínimo,
es decir, 884 millones de pesos, monto que incluye el 3% por licitar las tres rutas
conjuntamente de CFE. “A una paridad de 13 pesos por dólar, da 68 millones de
dólares, y ese es el precio que van a pagar por tener una red troncal nacional de
más de 20 mil kilómetros de fibra. Nada despreciable”.
Esta inversión le dará al consorcio una capacidad similar de transporte para igual
distancia a la de la red de Telmex, dijo el experto.
Tovar Landa mencionó que el hecho de que Televisa y Telefónica sean también
los participantes más importantes en la licitación de espectro, hace que, tanto
estas frecuencias, como la fibra óptica, sean utilizados en forma complementaria.
186
transporte interurbano de servicios convergentes (voz, video, internet,
aplicaciones) y la fibra les dará la complementariedad de incorporar el servicio
móvil a la oferta triple play que ofrecen actualmente las empresas Televisa y
Megacable, lo cual hace posible que tales grupos ofrezcan en exclusiva servicios
hasta de cuádruple play.
Los argumentos oficiales fueron que la empresa estatal era ineficiente, que manejaba
números rojos, que representaba una carga para el país y que no había otra solución.
También se adujeron problemas técnicos. Sin embargo quien en verdad era el objetivo a
destruir era el Sindicato Mexicano de Electricistas quien siempre se opuso las políticas
187
neoliberales y privatizadoras de los gobiernos en turno.
Al SME, que tiene más de noventa años de vida, se le acusa de corrupto, ineficiente,
parasitario y de haberse colmado de privilegios.
Una enorme campaña de prensa se ha encargado de satanizar a los electricistas y de
azuzar a la opinión pública en contra de ellos. Las viejas afrentas a los usuarios están a
flor de piel y les pasan la factura no solo a Luz y Fuerza sino a todos los trabajadores,
aunque ellos no hayan establecido las tarifas ni sean responsables de muchas de las
corruptelas que se dieron en la paraestatal.
MOTIVACION
Cuando un operador de telecomunicaciones despliega su red de fibra óptica tiene
que hacer una gran inversión para construir las canalizaciones y tender los cables
de fibra óptica. Si en un futuro fuese necesario ampliar la capacidad de una red ya
existente, sería necesario reabrir las zanjas y tender cables adicionales. Dado lo
costoso de esta operación, resulta más atractivo sobredimensionar la red inicial
instalando más cables de fibra óptica de los que son necesarios.
188
Los cables de fibra pueden contener diferentes números de fibras:
8,16,32,64,128,256 etc. Debido al sobredimensionamiento, no todas las fibras se
emplean. Los que quedan sin uso reciben el nombre de fibra oscura.
En último término, algunos de estos cables nunca llegan a ser utilizados, es decir,
nunca se transmite luz a través de ellos. De ahí la denominación de fibra oscura
INTERES COMERCIAL
Existen grandes compañías que disponen de diversas sedes alejadas entre sí por
distancias considerables, y que tienen necesidad de grandes anchos de banda
para intercomunicar dichas sedes. Las operadoras de telecomunicaciones pueden
cubrir estas necesidades concretas alquilando sus circuitos de fibra oscura a estas
compañías.
VENTAJA
La fibra oscura sirve para que los operadores ahorren ante previsibles ampliaciones de la
capacidad de conexión, ya que no tendrían que abrir zanjas de nuevo. Pero si bien pudo
ser una medida economizadora, se ha convertido en un negocio. El motivo es que sus
dueños pueden vender esa fibra sobrante a otras empresas, con una particularidad: éstas
deben instalar sus propios equipos para operar a través de la fibra y gestionar la
comunicación de datos.
La emplean para conectar sedes de empresas, algo que se puede realizar con mucha
agilidad gracias los grandes anchos de banda que garantiza esta tecnología, o enlazar
con centros de datos para realizar copias de seguridad constantes de toda la información.
También se utilizan para crear redes auxiliares que se ofrecen a los competidores para
evitar colapsos cuando las redes de estos van sobrecargadas.
Es un intercambio denominao "peering", que implica que un operador deja sus redes a
otro que tenga sobrecarga, a cambio de que éste le devuelva el favor cuando se estime
oportuno. Este tipo de negocio reduce la necesidad de realizar nuevas inversiones en
zonas donde un operador todavía no ha llegado o tiene poca estructura de red, y abarata
la extensión a zonas rurales.
La fibra oscura puede ser uno de los factores que haga posible la extensión de Internet
como derecho universal, que prometió el Ministerio de Industria para 2011. Esto supondrá
que todos los ciudadanos tendrán cerca una conexión de banda ancha, de al menos un
megabit por segundo, aunque vivan en zonas rurales de difícil acceso para los
operadores.
GOOGLE LA UTILIZA
189
Google es una de las empresas que más datos transfiere en Internet, tanto para rastrear
sin descanso los millones de sitios web que pueblan la Red como para proporcionar
información a sus usuarios y promover sus diferentes aplicaciones on line. Por este
motivo, se ha dedicado a comprar fibra oscura para interconectar sus centros de datos,
realizar copias de seguridad de los resultados que proporciona su buscador y, de paso,
ahorrar costes.
También utiliza esta red de fibra oscura para enviar con un menor coste la ingente
cantidad de vídeos que se reproducen a diario a través de YouTube, epicentro audiovisual
en Internet, gracias a intercambios de tráfico que realiza con los proveedores de acceso.
En un estudio sobre el tráfico de datos en Internet, se ha constatado que unas decenas de
sitios, como Google (incluido YouTube), Facebook y Microsoft, entre otros, monopolizan
hasta un 30% del intercambio de datos global. Por esta razón, cuanta más infraestructura
de red tengan estos sitios, mayores ahorros de costes conseguirán.
LAS ADMINISTRACIONES
El propósito es llevar la fibra a todos los municipios que tengan más de 1.000 habitantes.
Por otra parte, en Cataluña se han unido redes de fibra oscura independientes con el
objetivo de crear redes locales públicas que permitan usos avanzados, desde televisión
por IP hasta los más diversos trámites con las administraciones públicas.
La fibra, tanto oscura como convencional, tiene tal caudal de ancho de banda, que
aplicaciones como la videoconferencia o la televisión en alta definición se pueden producir
con una calidad inédita para la mayor parte de los usuarios de Internet en España. Se
pasaría de la asimetría actual de las conexiones ADSL, que penalizan la carga de datos, a
una simetría con anchos de banda a años luz de los actuales, como un gigabit por
segundo, que ya se comercializa en Portugal.
190
CONCLUSIONES
Después de efectuada la presente investigación se obtienen las siguientes
conclusiones:
1.- La historia de la comunicación a través de la Fibra Óptica revolucionó el mundo
de la información, con aplicaciones, en todos los órdenes de la vida moderna, lo
que constituyó un adelanto tecnológico altamente efectivo.
2.- El funcionamiento de la Fibra Óptica es un complejo proceso con diversas
operaciones interconectadas que logran que la Fibra Óptica funcione como medio
de transportación de la señal luminosa, generando todo ello por el transmisor
LED’S y láser.
3.- Los dispositivos implícitos en este complejo proceso son: transmisor, receptor y
guía de fibra, los cuales realizan una importante función técnica, integrados como
un todo a la eficaz realización del proceso.
4.- La Fibra Óptica tiene como ventajas indiscutibles, la alta velocidad al navegar
por internet, así como su inmunidad al ruido e interferencia, reducidas
dimensiones y peso, y sobre todo su compatibilidad con la tecnología digital.
191
Grandes Científicos
Leonardo da Vinci.
Nació en 1452 en la villa toscana de Vinci, hijo natural de una campesina, Caterina
(que se casó poco después con un artesano de la región), y de Ser Piero, un rico
notario florentino. Italia era entonces un mosaico de ciudades-estados como
Florencia, pequeñas repúblicas como Venecia y feudos bajo el poder de los
príncipes o el papa. El Imperio romano de Oriente cayó en 1453 ante los turcos y
apenas sobrevivía aún, muy reducido, el Sacro Imperio Romano Germánico; era
una época violenta en la que, sin embargo, el esplendor de las cortes no tenía
límites.
A pesar de que su padre se casó cuatro veces, sólo tuvo hijos (once en total, con
los que Leonardo acabó teniendo pleitos por la herencia paterna) en sus dos
últimos matrimonios, por lo que Leonardo se crió como hijo único. Su enorme
curiosidad se manifestó tempranamente, dibujando animales mitológicos de su
propia invención, inspirados en una profunda observación del entorno natural en el
que creció. Giorgio Vasari, su primer biógrafo, relata cómo el genio de Leonardo,
siendo aún un niño, creó un escudo de Medusa con dragones que aterrorizó a su
padre cuando se topó con él por sorpresa.
Era un joven agraciado y vigoroso que había heredado la fuerza física de la estirpe
de su padre; es muy probable que fuera el modelo para la cabeza de San Miguel
en el cuadro de Verrocchio Tobías y el ángel, de finos y bellos rasgos. Por lo
demás, su gran imaginación creativa y la temprana maestría de su pincel, no
tardaron en superar a las de su maestro: en el Bautismo de Cristo, por ejemplo,
donde un dinámico e inspirado ángel pintado por Leonardo contrasta con la
brusquedad del Bautista hecho por Verrocchio.
El joven discípulo utilizaba allí por vez primera una novedosa técnica recién
llegada de los Países Bajos: la pintura al óleo, que permitía una mayor blandura
en el trazo y una más profunda penetración en la tela. Además de los
extraordinarios dibujos y de la participación virtuosa en otras obras de su maestro,
sus grandes obras de este período son un San Jerónimo y el gran panel La
adoración de los Magos (ambos inconclusos), notables por el innovador
dinamismo otorgado por la maestría en los contrastes de rasgos, en la
composición geométrica de la escena y en el extraordinario manejo de la técnica
del claroscuro.
192
ingenierius ducalis». Aunque su ocupación principal era la de ingeniero militar, sus
proyectos (casi todos irrealizados) abarcaron la hidráulica, la mecánica (con
innovadores sistemas de palancas para multiplicar la fuerza humana), la
arquitectura, además de la pintura y la escultura. Fue su período de pleno
desarrollo; siguiendo las bases matemáticas fijadas por León Bautista Alberti y
Piero della Francesca, Leonardo comenzó sus apuntes para la formulación de una
ciencia de la pintura, al tiempo que se ejercitaba en la ejecución y fabricación de
laúdes.
El regreso a Florencia
César Borgia, hijo del papa Alejandro VI, hombre ambicioso y temido, descrito por
el propio Maquiavelo como «modelo insuperable» de intrigador político y déspota,
dominaba Florencia y se preparaba para lanzarse a la conquista de nuevos
territorios. Leonardo, nuevamente como ingeniero militar, recorrió los terrenos del
norte, trazando mapas, calculando distancias precisas, proyectando puentes y
nuevas armas de artillería. Pero poco después el condottiero cayó en desgracia:
sus capitanes se sublevaron, su padre fue envenenado y él mismo cayó
gravemente enfermo. En 1503 Leonardo volvió a la ciudad, que por entonces se
encontraba en guerra con Pisa y concibió allí su genial proyecto de desviar el río
Arno por detrás de la ciudad enemiga cercándola y contemplando la construcción
de un canal como vía navegable que comunicase Florencia con el mar: el proyecto
sólo se concretó en los extraordinarios mapas de su autor.
El interés de Leonardo por los estudios científicos era cada vez más intenso:
asistía a disecciones de cadáveres, sobre los que confeccionaba dibujos para
describir la estructura y funcionamiento del cuerpo humano. Al mismo tiempo
hacía sistemáticas observaciones del vuelo de los pájaros (sobre los que planeaba
193
escribir un tratado), en la convicción de que también el hombre podría volar si
llegaba a conocer las leyes de la resistencia del aire (algunos apuntes de este
período se han visto como claros precursores del moderno helicóptero).
El nuevo hombre fuerte de Milán era entonces Gian Giacomo Tivulzio, quien
pretendía retomar para sí el monumental proyecto del «gran caballo»,
convirtiéndolo en una estatua funeraria para su propia tumba en la capilla de San
Nazaro Magiore; pero tampoco esta vez el monumento ecuestre pasó de los
bocetos, lo que supuso para Leonardo su segunda frustración como escultor. En
1513 una nueva situación de inestabilidad política lo empujó a abandonar Milán;
junto a Melzi y Salai marchó a Roma, donde se albergó en el belvedere de Giulano
de Médicis, hermano del nuevo papa León X.
En el Vaticano vivió una etapa de tranquilidad, con un sueldo digno y sin grandes
obligaciones: dibujó mapas, estudió antiguos monumentos romanos, proyectó una
gran residencia para los Médicis en Florencia y, además, trabó una estrecha
amistad con el gran arquitecto Bramante, hasta la muerte de éste en 1514. Pero
en 1516, muerto su protector Giulano de Médicis, Leonardo dejó Italia
definitivamente, para pasar los tres últimos años de su vida en el palacio de Cloux
como «primer pintor, arquitecto y mecánico del rey».
194
Los descubrimientos de Leonardo no se difundieron en su época debido a
que suponían un avance tan grande que los hacía indescifrables, hasta tal
punto que, de haberse publicado, hubieran revolucionado la ciencia del siglo
XVI.
Mecánica
Una constante en su obra fueron los engranajes. Puede decirse que toda
la mecánica actual, desde la relojería hasta las modernas cajas de
cambios, está basada en los estudios de Leonardo sobre las ruedas
dentadas.
Hidráulica
195
En los tres años de su residencia en Roma estudió el saneamiento de
los pantanos. Su programa para la canalización de los ríos todavía
posee valor práctico.
Biología
Los estudios anatómicos de Leonardo le permitieron llegar a importantes
conclusiones e introducir el concepto de homología, o similitud de diferentes
partes del hombre con la de otros animales, sugiriendo un origen común.
Esto lo dedujo al observar que la disposición de las articulaciones y de los
huesos de las patas de los caballos era similar a la de las piernas humanas.
196
parte.
Estudió los fenómenos de la luz y logró comprender por qué la luz proyecta
las imágenes invertidas en la "cámara oscura".
También investigó los efectos de las lentes esféricas y emitió una teoría de
la visión (asignando equivocadamente ésta al cristalino en vez de a la
retina),
Matemáticas
En el campo de las matemáticas se ocupó de problemas susceptibles de
admitir una solución geométrica obtenida por métodos empíricos.
Isaac newton
Biografia
197
enero de 1643, según el calendario gregoriano), en la pequeña aldea de
Woolsthorpe, en el Lincolnshire. Su padre, un pequeño terrateniente,
acababa de fallecer a comienzos de octubre, tras haber contraído
matrimonio en abril del mismo año con Hannah Ayscough, procedente de
una familia en otro tiempo acomodada. Cuando el pequeño Isaac acababa
de cumplir tres años, su madre contrajo de nuevo matrimonio con el
reverendo Barnabas Smith, rector de North Witham, lo que tuvo como
consecuencia un hecho que influiría decisivamente en el desarrollo del
carácter de Newton: Hannah se trasladó a la casa de su nuevo marido y su
hijo quedó en Woolsthorpe al cuidado de su abuela materna.
Del odio que ello le hizo concebir a Newton contra su madre y el reverendo
Smith da buena cuenta el que en una lista de «pecados» de los que se
autoinculpó a los diecinueve años, el número trece fuera el haber deseado
incendiarles su casa con ellos dentro. Cuando Newton contaba doce años,
su madre, otra vez viuda, regresó a Woolsthorpe, trayendo consigo una
sustanciosa herencia que le había legado su segundo marido (y de la que
Newton se beneficiaría a la muerte de ella en 1679), además de tres
hermanastros para Isaac, dos niñas y un niño.
La manzana de Newton
Cumplidos los dieciséis años, su madre lo hizo regresar a casa para que
empezara a ocuparse de los asuntos de la heredad. Sin embargo, el joven
Isaac no se mostró en absoluto interesado por asumir sus responsabilidades
como terrateniente; su madre, aconsejada por el maestro de Newton y por su
propio hermano, accedió a que regresara a la escuela para preparar su
198
ingreso en la universidad.
La óptica
Retirado con su familia durante los años 1665-1666, conoció un período muy
intenso de descubrimientos, entre los que destaca la ley del inverso del
cuadrado de la gravitación, su desarrollo de las bases de la mecánica
clásica, la formalización del método de fluxiones y la generalización del
teorema del binomio, poniendo además de manifiesto la naturaleza física de
los colores. Sin embargo, guardaría silencio durante mucho tiempo sobre sus
descubrimientos ante el temor a las críticas y el robo de sus ideas. En 1667
reanudó sus estudios en Cambridge.
199
Las leyes del movimiento tienen un interés especial aquí; tanto el movimiento
orbital como la ley del movimiento de los cohetes se basan en ellas. Newton
planteó que todos los movimientos se atienen a tres leyes principales
formuladas en términos matemáticos y que implican conceptos que es
necesario primero definir con rigor. Un concepto es la fuerza, causa del
movimiento; otro es la masa, la medición de la cantidad de materia puesta en
movimiento; los dos son denominados habitualmente por las letras F y m.
"Las tres leyes del movimiento de Newton" se enuncian abajo en palabras
modernas: como hemos visto todas necesitan un poco de explicación.
a = k(F/m)
donde k es algún número, dependiendo de las unidades en que se
midan F, m y a. Con unidades correctas (volveremos a ver esto), k = 1
dando
a = F/m
ó en la forma en que se encuentra normalmente en los libros de texto
F=ma
De forma más precisa, deberíamos escribir
F = ma
siendo F y a vectores en la misma dirección (indicados aquí en
negrita, aunque esta convención no se sigue siempre en este sitio
web). No obstante, cuando se sobreentiende una dirección única, se
puede usar la forma simple.
3. "La ley de la reacción" enunciada algunas veces como que "para cada
acción existe una reacción igual y opuesta". En términos más
explícitos: "Las fuerzas son siempre producidas en pares, con
direcciones opuestas y magnitudes iguales. Si el cuerpo nº 1 actúa
con una fuerza F sobre el cuerpo nº 2, entonces el cuerpo nº 2 actúa
sobre el cuerpo nº 1 con una fuerza de igual intensidad y dirección
opuesta."
Newton no publicó nunca el teorema del binomio. Lo hizo Wallis por primera
vez en 1685 en su Algebra, atribuyendo a Newton este descubrimiento.
201
las ecuaciones. Evidentemente nos referimos a su Aritmetica universalis,
compuesta al parecer entre 1673 y 1683 a partir de los cursos que impartió
en Cambridge. Entre las contribuciones importantes de esta obra,
mencionemos las «identidades de Newton» para la suma de las potencias
de las raíces de una ecuación polinómica, un teorema que generaliza la
regla de los signos de Descartes para la determinación del número de raíces
imaginarias de un polinomio, un teorema sobre la cota superior de las raíces
de una ecuación polinómica, y el descubrimiento de la relación entre las
raíces y el discriminante de una ecuación. Señalemos que las cuestiones
geométricas ocupan una parte importante en esta obra, porque Newton
parece pensar que es muy útil construir geométricamente la ecuación con el
fin de estimar más fácilmente las raíces buscadas.
Biografia
A los doce años, sin olvidar su pasión por los experimentos, consideró que
estaba en su mano ganar dinero contante y sonante materializando alguna
de sus buenas ocurrencias. Su primera iniciativa fue vender periódicos y
chucherías en el tren que hacía el trayecto de Port Huron a Detroit. Había
estallado la Guerra de Secesión y los viajeros estaban ávidos de noticias.
Edison convenció a los telegrafistas de la línea férrea para que expusieran
en los tablones de anuncios de las estaciones breves titulares sobre el
desarrollo de la contienda, sin olvidar añadir al pie que los detalles completos
aparecían en los periódicos; esos periódicos los vendía el propio Edison en
el tren y no hay que decir que se los quitaban de las manos. Al mismo
tiempo, compraba sin cesar revistas científicas, libros y aparatos, y llegó a
convertir el vagón de equipajes del convoy en un nuevo laboratorio. Aprendió
a telegrafiar y, tras conseguir a bajo precio y de segunda mano una prensa
de imprimir, comenzó a publicar un periódico por su cuenta, el Weekly
Herald.
202
consideraron que el invento era tan perfecto que no cabía otra posibilidad
que rechazarlo. Ese mismo día, Edison tomó dos decisiones. En primer
lugar, se juró que jamás inventaría nada que no fuera, además de novedoso,
práctico y rentable. En segundo lugar, abandonó su carrera de telegrafista.
Acto seguido formó una sociedad y se puso a trabajar.
203
elementos con resultados negativos, Edison encontró por fin el filamento de
bambú carbonizado. Inmediatamente adquirió grandes cantidades de bambú
y, haciendo gala de su pragmatismo, instaló un taller para fabricar él mismo
las bombillas. Luego, para demostrar que el alumbrado eléctrico era más
económico que el de gas, empezó a vender sus lámparas a cuarenta
centavos, aunque a él fabricarlas le costase más de un dólar; su objetivo era
hacer que aumentase la demanda para poder producirlas en grandes
cantidades y rebajar los costes por unidad. En poco tiempo consiguió que
cada bombilla le costase treinta y siete centavos: el negocio empezó a
marchar como la seda.
El inicio de su carrera
Tras salvar de morir a un niño en las vías del tren en Port Huron, el agradecido
padre de la criatura J. U. Mackenzie (telegrafista de la estación) le enseñó
telegrafía. A los dieciséis años obtuvo su primer puesto como telegrafista en
Port Huron cuando J. U. Mackenzie le deja el puesto al unirse este al Cuerpo
Militar de Telegrafistas.
204
como consecuencia, estuvo a punto de tener una colisión de frente. Huyó a
Sarnia, en la frontera canadiense y tomó la barcaza hacia Port Huron.
La Western Union
Pasó un tiempo en Fort Wayne, y después de dos meses sin conseguir
empleo, se marchó a Indianápolis, donde obtuvo empleo en la Western Union,
empresa con la que vincularía estrechamente su destino.
En febrero de 1865, Edison se trasladó a Cincinnati, donde una vez más, obtuvo
empleo en la Western Union, donde por su habilidad lo graduaron de
operador de segunda a operador de primera clase.
205
inerte, ya que de lo contrario al calentarse reaccionaría químicamente con el
entorno circundante. El uso de gas inerte en lugar de vacío en las lámparas
incandescentes tiene como ventaja una evaporación más lenta del filamento,
lo que prolonga la vida útil de la lámpara. La mayoría de las lámparas
incandescentes modernas se rellenan con una mezcla de gases de argón y
halógenos, o bien con una pequeña cantidad de nitrógeno o de criptón. La
sustitución de las ampollas de vidrio por compactos tubos de vidrio de cuarzo
fundido han permitido cambios radicales en el diseño de las lámparas
incandescentes.
Tipos de lámparas
Albert Einstein
Durante 1905, publicó cinco trabajos en los Annalen der Physik: el primero
de ellos le valió el grado de doctor por la Universidad de Zurich, y los cuatro
restantes acabaron por imponer un cambio radical en la imagen que la
ciencia ofrece del universo. De éstos, el primero proporcionaba una
explicación teórica, en términos estadísticos, del movimiento browniano, y el
segundo daba una interpretación del efecto fotoeléctrico basada en la
hipótesis de que la luz está integrada por cuantos individuales, más tarde
denominados fotones; los dos trabajos restantes sentaban las bases de la
teoría restringida de la relatividad, estableciendo la equivalencia entre la
energía E de una cierta cantidad de materia y su masa m, en términos de la
famosa ecuación E = mc², donde c es la velocidad de la luz, que se supone
constante.
Einstein dijo una vez que la política poseía un valor pasajero, mientras que
una ecuación valía para toda la eternidad. En los últimos años de su vida, la
amargura por no hallar la fórmula que revelase el secreto de la unidad del
mundo hubo de acentuarse por la necesidad en que se sintió de intervenir
dramáticamente en la esfera de lo político. En 1939, a instancias de los
físicos Leo Szilard y Paul Wigner, y convencido de la posibilidad de que los
alemanes estuvieran en condiciones de fabricar una bomba atómica, se
dirigió al presidente Roosevelt instándole a emprender un programa de
investigación sobre la energía atómica.
209
teoría aún discutida en esa época.[12]
Movimiento browniano
Efecto fotoeléctrico
210
"quanto" de luz (ahora llamados fotones) y mostraba cómo se podía utilizar
este concepto para explicar el efecto fotoeléctrico.
Relatividad especial
211
revolucionario, va más allá de las consecuencias previstas por Lorentz o
Poincaré que simplemente relataban un mecanismo para explicar el
acortamiento de uno de los brazos del experimento de Michelson y Morley.
Este postulado implica que si un destello de luz se lanza al cruzarse dos
observadores en movimiento relativo, ambos verán alejarse la luz
produciendo un círculo perfecto con cada uno de ellos en el centro. Si a
ambos lados de los observadores se pusiera un detector, ninguno de los
observadores se pondría de acuerdo en qué detector se activó primero (se
pierden los conceptos de tiempo absoluto y simultaneidad).
Equivalencia masa-energía
El cuarto artículo de aquel año se titulaba Ist die Trägheit eines Körpers von
seinem Energieinhalt abhängig y mostraba una deducción de la ecuación de
la relatividad que relaciona masa y energía. En este artículo se exponía que
"la variación de masa de un objeto que emite una energía L, es:
Muestra cómo una partícula con masa posee un tipo de energía, "energía en
reposo", distinta de las clásicas energía cinética y energía potencial. La
relación masa-energía se utiliza comúnmente para explicar cómo se produce
la energía nuclear; midiendo la masa de núcleos atómicos y dividiendo por el
número atómico se puede calcular la energía de enlace atrapada en los
núcleos atómicos. Paralelamente, la cantidad de energía producida en la
fisión de un núcleo atómico se calcula como la diferencia de masa entre el
núcleo inicial y los productos de su desintegración, multiplicada por la
velocidad de la luz al cuadrado.
Relatividad general
212
teoría todos los observadores son considerados equivalentes y no
únicamente aquellos que se mueven con una velocidad uniforme. La
gravedad no es ya una fuerza o acción a distancia, como era en la gravedad
newtoniana, sino una consecuencia de la curvatura del espacio-tiempo. La
teoría proporcionaba las bases para el estudio de la cosmología y permitía
comprender las características esenciales del Universo, muchas de las
cuales no serían descubiertas sino con posterioridad a la muerte de Einstein.
Estadísticas de Bose-Einstein
En 1924 Einstein recibió un artículo de un joven físico indio, Satyendra Nath Bose,
describiendo a la luz como un gas de fotones y pidiendo la ayuda de Einstein
para su publicación. Einstein se dio cuenta de que el mismo tipo de
estadísticas podían aplicarse a grupos de átomos y publicó el artículo,
conjuntamente con Bose, en alemán, la lengua más importante en física en
la época. Las estadísticas de Bose-Einstein explican el comportamiento de
los tipos básicos de partículas elementales denominadas bosones.
Aunque Albert Einstein fue mundialmente célebre por sus trabajos en física
teórica, paulitinamente fue aislándose en su investigación, y sus intentos no
tuvieron éxito. Persiguiendo la unificación de las fuerzas fundamentales,
213
Albert ignoró algunos importantes desarrollos en la física, siendo
notablemente visible en el tema de las fuerzas nuclear fuerte y nuclear débil, las
cuales no se entendieron bien sino después de quince años de la muerte de
Einstein (cerca del año 1970) mediante numerosos experimentos en física de
altas energías. Los intentos propuestos por la Teoría de cuerdas o la Teoría M,
muestran que aún perdura su ímpetu de alcanzar demostrar la gran teoría
de la unificación de las leyes de la física.
Leonardo Da Vinci I
214
Este trabajo está hecho con el fin de conocer un poco de la vida de Leonardo Da
Vinci, una de las mentes más brillantes que han existido y la mejor del
Renacimiento.
Algunos de sus inventos fueron utilizados con fines bélicos, pero la mayoría
fueron inventados con el fin de disminuir el esfuerzo y el trabajo humano.
215
En el terreno de la invención, Leonardo se adelantó más de cuatro siglos a su
época. Estaba obsesionado por diseñar máquinas capaces de multiplicar varias
veces la fuerza del hombre.
Da Vinci registraba en papel todas sus ideas, haciéndose famosas sus
anotaciones por su singular forma de escribir (escritura especular).
En base a sus numerosos planes ha sido posible reconstruir todas las
invenciones de un talento único en la historia del ser humano.
A través de los años, la mayoría de las notas se perdieron o fueron robadas,
pero algunas de ellas fueron encontradas siglos más tarde y fueron la base para el
desarrollo de cientos de maquinarias que hoy son usadas hasta en la tecnología
especial.
Una muestra itinerante exhibe por Europa los dibujos de las máquinas ideadas
por Leonardo más las maquetas que los recrean.
Era un típico hombre del Renacimiento, que jamás quiso quedar encasillado por
alguna de sus actividades y siempre estaba dispuesto a aprender algo nuevo.
Dicen que el ultimo día de su vida, con el último aliento, se le escucho susurrar:
“Ditemi che qualcosa e stata fatta” (decidme que alguna cosa se hizo).
BIOGRAFIA
A pesar de que su padre se casó cuatro veces, sólo tuvo hijos (once en total,
con los que Leonardo acabó teniendo pleitos por la herencia paterna) en sus dos
últimos matrimonios, por lo que Leonardo se crió como hijo único. Su enorme
curiosidad se manifestó tempranamente, dibujando animales mitológicos de su
propia invención, inspirados en una profunda observación del entorno natural en el
que creció. Giorgio Vasari, su primer biógrafo, relata cómo el genio de Leonardo,
siendo aún un niño, creó un escudo de Medusa con dragones que aterrorizó a su
padre cuando se topó con él por sorpresa.
216
Recreación del autorretrato de
Leonardo
217
El joven discípulo utilizaba allí por vez primera una novedosa técnica recién
llegada de los Países Bajos: la pintura al óleo, que permitía una mayor blandura
en el trazo y una más profunda penetración en la tela. Además de los
extraordinarios dibujos y de la participación virtuosa en otras obras de su maestro,
sus grandes obras de este período son un San Jerónimo y el gran panel La
adoración de los Magos (ambos inconclusos), notables por el innovador
dinamismo otorgado por la maestría en los contrastes de rasgos, en la
composición geométrica de la escena y en el extraordinario manejo de la técnica
del claroscuro.
Florencia era entonces una de las ciudades más ricas de Europa; sus talleres de
manufacturas de sedas y brocados de oriente y de lanas de occidente, y sus
numerosas tejedurías la convertían en el gran centro comercial de la península
itálica; allí los Médicis habían establecido una corte cuyo esplendor debía no poco
a los artistas con que contaba. Pero cuando el joven Leonardo comprobó que no
conseguía de Lorenzo el Magnífico más que alabanzas a sus virtudes de buen
cortesano, a sus treinta años decidió buscar un horizonte más prospero.
Estimulado por la dramática peste que asoló Milán y cuya causa veía Leonardo
en el hacinamiento y suciedad de la ciudad, proyectó espaciosas villas, hizo
planos para canalizaciones de ríos e ingeniosos sistemas de defensa ante la
artillería enemiga. Habiendo recibido de Ludovico el encargo de crear una
monumental estatua ecuestre en honor de Francesco, el fundador de la dinastía
Sforza, Leonardo trabajó durante dieciséis años en el proyecto del «gran caballo»,
que no se concretaría más que en una maqueta, destruida poco después durante
una batalla.
218
El hombre de Vitruvio, canon del
cuerpo humano
Resultó sobre todo fecunda su amistad con el matemático Luca Pacioli, fraile
franciscano que en 1494 publicó su tratado de la Divina proportione, ilustrada por
Leonardo. Ponderando la vista como el instrumento de conocimiento más certero
con que cuenta el ser humano, Leonardo sostuvo que a través de una atenta
observación debían reconocerse los objetos en su forma y estructura para
describirlos en la pintura de la manera más exacta. De este modo el dibujo se
convertía en el instrumento fundamental de su método didáctico, al punto que
podía decirse que en sus apuntes el texto estaba para explicar el dibujo, y no éste
para ilustrar a aquél, por lo que Da Vinci ha sido reconocido como el creador de la
moderna ilustración científica.
El ideal del saper vedere guió todos sus estudios, que en la década de 1490
comenzaron a perfilarse como una serie de tratados (inconclusos, que fueron
recopilados luego en el Codex Atlanticus, así llamado por su gran tamaño). Incluye
trabajos sobre pintura, arquitectura, mecánica, anatomía, geografía, botánica,
hidráulica, aerodinámica, fundiendo arte y ciencia en una cosmología individual
que da, además, una vía de salida para un debate estético que se encontraba
anclado en un más bien estéril neoplatonismo.
219
el retrato de Lucrezia Crivelli. Contratado en 1483 por la hermandad de la
Inmaculada Concepción para realizar una pintura para la iglesia de San Francisco,
Leonardo emprendió la realización de lo que sería la celebérrima Virgen de las
Rocas, cuyo resultado final, en dos versiones, no estaría listo a los ocho meses
que marcaba el contrato, sino veinte años más tarde. La estructura triangular de la
composición, la gracia de las figuras, el brillante uso del famoso sfumato para
realzar el sentido visionario de la escena, convierten a ambas obras en una nueva
revolución estética para sus contemporáneos.
El regreso a Florencia
César Borgia, hijo del papa Alejandro VI, hombre ambicioso y temido, descrito
por el propio Maquiavelo como «modelo insuperable» de intrigador político y
déspota, dominaba Florencia y se preparaba para lanzarse a la conquista de
nuevos territorios. Leonardo, nuevamente como ingeniero militar, recorrió los
terrenos del norte, trazando mapas, calculando distancias precisas, proyectando
220
puentes y nuevas armas de artillería. Pero poco después el condottiero cayó en
desgracia: sus capitanes se sublevaron, su padre fue envenenado y él mismo
cayó gravemente enfermo. En 1503 Leonardo volvió a la ciudad, que por entonces
se encontraba en guerra con Pisa y concibió allí su genial proyecto de desviar el
río Arno por detrás de la ciudad enemiga cercándola y contemplando la
construcción de un canal como vía navegable que comunicase Florencia con el
mar: el proyecto sólo se concretó en los extraordinarios mapas de su autor.
Pero Leonardo ya era reconocido como uno de los mayores maestros de Italia.
En 1501 había causado admiración con su Santa Ana, la Virgen y el Niño; en 1503
recibió el encargo de pintar un gran mural (el doble del tamaño de La última cena)
en el palacio Viejo: la nobleza florentina quería inmortalizar algunas escenas
históricas de su gloria. Leonardo trabajó tres años en La batalla de Angheri, que
quedaría inconclusa y sería luego desprendida por su deterioro. Importante por los
bocetos y copias, éstas admirarían a Rafael e inspirarían, un siglo más tarde, una
célebre de Peter Paul Rubens.
También sólo en copias sobrevivió otra gran obra de este periodo: Leda y el
cisne. Sin embargo, la cumbre de esta etapa florentina (y una de las pocas obras
acabadas por Leonardo) fue el retrato de Mona Lisa. Obra famosa desde el
momento de su creación, se convirtió en modelo de retrato y casi nadie escaparía
a su influjo en el mundo de la pintura. La mítica Gioconda ha inspirado infinidad de
libros y leyendas, y hasta una ópera; pero poco se sabe de su vida. Ni siquiera se
conoce quién encargó el cuadro, que Leonardo se llevó consigo a Francia, donde
lo vendió al rey Francisco I por cuatro mil piezas de oro. Perfeccionando su propio
hallazgo del sfumato, llevándolo a una concreción casi milagrosa, Leonardo logró
plasmar un gesto entre lo fugaz y lo perenne: la «enigmática sonrisa» de la
Gioconda es uno de los capítulos más admirados, comentados e imitados de la
historia del arte y su misterio sigue aún hoy fascinando. Existe la leyenda de que
Leonardo promovía ese gesto en su modelo haciendo sonar laúdes mientras ella
posaba; el cuadro, que ha atravesado no pocas vicisitudes, ha sido considerado
como cumbre y resumen del talento y la «ciencia pictórica» de su autor.
El interés de Leonardo por los estudios científicos era cada vez más intenso:
asistía a disecciones de cadáveres, sobre los que confeccionaba dibujos para
describir la estructura y funcionamiento del cuerpo humano. Al mismo tiempo
hacía sistemáticas observaciones del vuelo de los pájaros (sobre los que planeaba
escribir un tratado), en la convicción de que también el hombre podría volar si
llegaba a conocer las leyes de la resistencia del aire (algunos apuntes de este
período se han visto como claros precursores del moderno helicóptero).
El nuevo hombre fuerte de Milán era entonces Gian Giacomo Tivulzio, quien
pretendía retomar para sí el monumental proyecto del «gran caballo»,
convirtiéndolo en una estatua funeraria para su propia tumba en la capilla de San
Nazaro Magiore; pero tampoco esta vez el monumento ecuestre pasó de los
bocetos, lo que supuso para Leonardo su segunda frustración como escultor. En
1513 una nueva situación de inestabilidad política lo empujó a abandonar Milán;
junto a Melzi y Salai marchó a Roma, donde se albergó en el belvedere de Giulano
de Médicis, hermano del nuevo papa León X.
El gran respeto que Francisco I le dispensó hizo que Leonardo pasase esta
última etapa de su vida más bien como un miembro de la nobleza que como un
empleado de la casa real. Fatigado y concentrado en la redacción de sus últimas
páginas para su tratado sobre la pintura, pintó poco aunque todavía ejecutó
extraordinarios dibujos sobre temas bíblicos y apocalípticos. Alcanzó a completar
el ambiguo San Juan Bautista, un andrógino duende que desborda gracia,
222
sensualidad y misterio; de hecho, sus discípulos lo imitarían poco después
convirtiéndolo en un pagano Baco, que hoy puede verse en el Louvre de París.
INVENTOS Y DISEÑOS
Puede comprenderse la actitud de Ludovico del Moro, duque de Milán, quien
permanecía más bien incrédulo ante tanta maravilla. Quiso tener a su lado a aquel
inventor de apenas 30 años, y que ya suscitaba la fascinación de un mago; pero
titubeó siempre antes de consentir en la realización de sus proyectos, por
considerarlos irrealizables.
La mayoría de los inventos de Leonardo Da Vinci no fueron llevados a la práctica
por considerar que superaban las posibilidades de la técnica de la época, a pesar
de que Leonardo estudió la mayoría de sus proyectos cuidando los detalles y
resolviendo las dificultades de la construcción.
Muchos de los diseños tienen de puño y letra del inventor, detallados planos y
planes de trabajo para el taller que habría de encargarse de realizar el proyecto.
Fue el primero en estudiar científicamente la resistencia de los materiales
utilizados en las construcciones mecánicas, y de tales investigaciones se sirvió
para establecer las secciones de las estructuras de sus máquinas.
Se puede sacar la conclusión que la no realización de casi todos sus inventos se
debe más a la audacia del proyecto que a las dificultades prácticas de la
fabricación.
223
Los contemporáneos de Da Vinci no creían posible que máquinas semejantes
pudieran existir.
La profunda imaginación de Leonardo lo llevo a diseñar un gran número de
máquinas ingeniosas, desde bélicas hasta instrumentos científicos y máquinas
voladoras.
A pesar de que únicamente los inventos militares fueron los que llevaron a sus
patrocinadores a brindarle apoyo económico, él se las ingenió para desarrollar
paralelamente principios básicos de ingeniería general.
Toda su obra fue agrupada –por el mismo Leonardo- en los tres elementos: aire,
tierra y agua.
Entre sus inventos de aire encontramos, entre otros, la hélice aérea, precursora
del helicóptero, la máquina voladora vertical, o el paracaídas, casi del mismo
diseño que los actuales.
Su obra de tierra se divide entre lo militar, en especial con la capacidad de
multiplicar el poder del fuego: ametralladora, tanque militar o cureña de cañón y
los diseños generales como los de un carro automotor, una grúa o una bicicleta,
entre otros.
modelo de bicicleta
El agua ejerció en Da Vinci un especial atractivo.
Su imaginación dio origen al doble casco de las
embarcaciones, el puente giratorio o múltiples
aparatos basados en el “tornillo de Arquímedes”,
un mecanismo por el cual se podía movilizar el
agua en contra de la fuerza de gravedad.
Aire
Hélice Aérea
Leonardo estaba fascinado por la forma helicoidal, muy común en la naturaleza, e
involucrada en el principio de la hélice. Aplicando una variante del principio de
224
Arquímedes, su hélice aérea –un modelo a escala- antecede al helicóptero y a las
hélices de nuestros días.
Cuatro hombres apoyando los pies sobre la plataforma central debían hacer
fuerza sobre las barras sujetas al palo vertical.
De esta manera habrían hecho girar sobre sí mismo al inmenso y livianísimo
“tornillo” de diez metros de diámetro, que se elevaría luego “enroscándose” en el
aire.
225
Máquinas voladoras
Cautivado por la posibilidad de volar, Da Vinci diseñó varios dispositivos para ese
fin que, aunque sin aplicación práctica inmediata, establecieron algunos principios
de la aerodinámica.
Entre las que ideó y esbozó se encontraba un
“ornitóptero”, máquina diseñada para volar batiendo las
alas, simulando los movimientos de un ave en vuelo.
Los ornitópteros han despertado el interés de los
entusiastas por la aviación desde hace cientos de años, en
el transcurso de los cuales se han desarrollado distintos
diseños.
Paracaídas
Para Leonardo, el hombre podría dominar el vuelo. Pero
también debería estar preparado para atenuar caídas.
Concibió la idea del paracaídas, e indicó claramente sus
dimensiones.
Dejó escrito: “si un hombre dispone de un dosel de paño que
tenga 12 brazos de cara por 12 de alto, podrá arrojarse de
cualquier altura, sin hacerse daño.”
Es por eso que experimento una serie de modelos con ese
objetivo. Finalmente inventó este paracaídas, con un diseño
familiar a los actuales. Fue probado con éxito desde una
torre construida especialmente para ello.
Planeador
Leonardo fue quien afrontó por primera vez el problema del vuelo e inventó una
especie de aeroplano sin motor que sería capaz de volar sostenido por las
corrientes de aire.
Para ello se basó en un intensivo estudio sobre las alas de los murciélagos. Su
máquina de volar funcionaba como un planeador, por lo que era incapaz de
mantenerse mucho tiempo en el aire.
226
maqueta
Tierra
Automóvil
Usando varios bocetos que dejó en uno de sus códices, se ha
podido construir un automóvil ideado hace más de cinco siglos
por Leonardo da Vinci y capaz de recorrer varios metros.
Engranajes
227
Además, ha mantenido importancia a través de los años, teniendo muchas
aplicaciones en la tecnología moderna.
Gato
Como el levantar grandes pesos constituye uno de los problemas más comunes
de la ingeniería y mecánica, Leonardo Da Vinci dedicó mucho tiempo al diseño de
dispositivos en los que aplicó los principios de la polea.
El mismo diseño se utiliza hoy en día en los gatos para
elevar automotores.
Ametralladora
Leonardo estudió cómo aumentar la intensidad del fuego de las armas ligeras;
previó el empleo de numerosas bocas de fuego montadas sobre una única cureña
y de pequeños proyectiles o explosivos que, cargados en un solo cañón, se
esparcirán después del disparo.
Construida con diez cilindros que pueden dispararse
uno a uno o simultáneamente según la necesidad.
Cañones
228
Esta máquina bélica ideada por Leonardo es un cañón de bocas múltiples, dotado
de 33 tubos colocados sobre las tres caras de un prisma triangular giratorio, y con
capacidad de disparar tres cargas de once tiros consecutivos.
Cañón de vapor
Con esta idea Leonardo se introduce entre los precursores del empleo de la fuerza
de expansión del vapor de agua.
La recarga de los cañones por la parte posterior (retrocarga) fue otro de sus
geniales inventos, que tuvieron una aplicación práctica sólo unos siglos después.
Obsérvese en la ilustración, el ingenioso dispositivo para la abertura del obturador
en forma de tornillo cónico.
229
Otros inventos de Leonardo en el campo de las armas de fuego fueron los
proyectiles de punta ojival y el dispositivo para el encendido automático de la
mecha en los arcabuces y en las pistolas; este invento fue aplicado enseguida.
Tanque militar
“Carro de asalto” proyectado por Leonardo hace cuatrocientos años. Estaría
provista de un revestimiento cónico, a fin de que los proyectiles resbalasen por
encima.
Anticipo del tanque moderno. Este
carro (que según su creador
“remplazaría a los elefantes en las
batallas”) se movía con la fuerza
de hombres que, en el interior del
mismo, daban vuelta a manivelas
relacionadas con las ruedas
mediante engranajes.
Agua
Barco
Barco con propulsión de paletas proyectado por Leonardo. Este barco está dotado
con un mecanismo de ruedas con paletas, de unos 90 cm de largo.
Este mecanismo, al ser accionado con las manos, pondría en movimiento las
paletas y lo haría navegar a velocidad considerable.
Según sus cálculos, haciendo realizar
a la rueda dentada (movida mediante
una manivela) cincuenta vueltas por
minuto la embarcación avanzaría a la
velocidad de 50 millas por hora. Tal
tipo de propulsión encontraría
aplicación sólo tres siglos después con
la navegación a vapor.
230
Draga
También figura entre sus proyectos el de una draga lagunera. Una draga
excavadora que se podía usar
para la limpieza del fondo de los
canales.
Los cubos, o palas excavadoras,
actuaban uno tras otro.
Estos estaban dispuestos de tal
forma que permitían descargar
automáticamente en un depósito
especial, los flotadores de
almacenaje, el material recogido.
Este principio es idéntico al de las dragas modernas.
Sistema de Irrigación
Leonardo fue el primero en llevar a la práctica el Principio de Arquímedes, base
teórica del “tornillo sin fin”.
Haciendo girar esta pieza, el agua podía ser trasladada a un nivel más alto,
mediante una serie de giros helicoidales.
Es el mismo mecanismo que se utiliza en los actuales sistemas de irrigación.
Traje de Buzo
Traje de buzo y aleta para aplicar a las manos para la natación submarina. El
conjunto no es muy distinto de los que utilizan en la actualidad los hombres-rana.
231
traje
aleta
Las aletas son parecidas a las actuales “pata de rana”, sólo que se usan en los
pies y no en las manos.
Leonardo proyectó asimismo una escafandra y un sumergible de doble casco.
Conclusión Personal
Podemos concluir que Leonardo Da Vinci fue y será una de las mentes más
brillantes de todos los tiempos, ya que se adelanto por mucho a la manera de
pensar de su época.
Leonardo Da Vinci II
232
Este trabajo de investigación es muy importante a mi parecer para la historia de la
humanidad ya que Da Vinci no solo se distingue por ser uno de los mejores
pintores o escultores, si no que la verdad era un genio por sus grandes inventos a
nivel tecnológico que hoy en día se aplican en los más avanzadas técnicas
ingenieriles, ya que sus ideas eran muy avanzadas para su tiempo.
Por eso es que este tema resulta muy interesante solo por el simple o tal vez el
extraordinario hecho de que Leonardo Da Vinci era un maestro en las artes y la
ciencia, por lo tanto estuvo interesado en todos los aspectos del saber.
Pero por el momento abordaremos solo y especialmente el notable interés de
Leonardo Da Vinci hacia la ciencia y la tecnología, ya que a casi 500 años de su
muerte no deja de intrigarnos, así pues dando pie a nuestro desarrollo.
233
DESARROLLO.
234
Después de un año dedicado a la limpieza de los pinceles y otras pequeñas
actividades propias de un aprendiz, Verrocchio inició a Leonardo en las numerosas
técnicas que se practicaban en un taller tradicional. Así, en este contexto,
Leonardo tuvo la oportunidad de aprender las bases de la química, de la metalurgia, del
trabajo del cuero y del yeso, de la mecánica y de la carpintería, así como de diversas
técnicas artísticas como el dibujo, la pintura y la escultura sobre mármol y bronce.[]
[]Igualmente, recibió formación en habilidades como la preparación de los colores,
el grabado y la pintura de los frescos. Al darse cuenta del talento excepcional que
tenía Leonardo, Verrocchio decidió confiarle a su alumno terminar algunos de sus
trabajos.
En 1472, a la edad de veinte años, apareció registrado en el Libro rojo del gremio Sint-
Lucasgilde, el célebre gremio de los artistas y doctores en medicina, que en Florencia se
agrupaba con la denominación de la "Campagnia de pittori". De esta época deriva
uno de sus primeros trabajos conocidos, el Paisaje del valle del Arno o Paisaje de
Santa Maria della neve (1473), un dibujo hecho con pluma y tinta.[] Fue así como
comenzó su carrera de pintor con obras ya destacables como La Anunciación (1472-
1475), y mejoró la técnica del sfumato hasta un punto de refinamiento nunca
conseguido antes de él.
235
continuó colaborando con Verrocchio debido a que le profesaba un gran afecto.[]
Durante este período, recibió encargos personales y pintó su primer cuadro, La
Virgen del clavel (1476). El archivo judicial de este mismo año recoge el dato de que él
y tres hombres más fueron acusados en un caso de sodomía, práctica que en
aquella época en Florencia era ilegal, pero todos fueron absueltos.[] Este documento,
que partía de una acusación anónima, no permite afirmar categóricamente que
Leonardo fuera homosexual.[]
Pronto Leonardo también destacó como ingeniero. En 1478, se ofreció para levantar la
iglesia octagonal de San Juan de Florencia.[] En ese año Leonardo contaba con
26 años, y fue cuando se alejó de lado de su maestro después de haberlo
superado brillantemente en todas las disciplinas. De esta manera se convirtió en
un maestro pintor independiente.
Da Vinci aporto en Milán grandes ideas como: puentes móviles y barcos de asalto.
Se dio cuenta que la manera más fácil de derrotar al enemigo era atemorizándolo
mas no matándolo y varios de sus diseños partieron de este pensamiento: la
ballesta gigante por citar alguno es uno de los mas intimidantes de todos, media
75X27 metros, los arcos estaban fabricados con madera fina bastante flexible, el
eje era un bloque que se deslizaba hacia atrás jalándolo con unas cuerdas y
apoyado de un gran engranaje.
236
nuevo entorno estaba más en consonancia con su espíritu, que se basaba en un
desarrollo empírico de sus múltiples experimentos.
En 1499 cae el ducado de Milán tras el enfrentamiento con Luis XII de Francia.
Leonardo se traslada a Vaprio, Mantua, donde realiza el retrato de Isabel de Este
(1500, Museo del Louvre) y Venecia, bajo el servicio de César Borgia para quien
realiza trabajos de ingeniería militar.
En pocas palabras Leonardo creaba, pero esto no garantizaba que todos sus
inventos funcionaran, o tal vez si funcionaban pero el problema estaba en que esa
época no se contaba con el material adecuado para fabricarlos.
Leonardo sabia que creando armas múltiples y móviles ganaría tiempo en la
batalla así como el cariño y el respeto de su jefe y de sus contrincantes, fue el
primero que comenzó a crear armas de fuego pero ninguna tan maravillosa e
impresionante como el tanque blindado de Leonardo.
237
Puede comprenderse la actitud de Ludovico el Moro, duque de Milán, quien
permanecía más bien incrédulo ante tanta maravilla. Quiso tener a su lado a aquel
inventor de apenas treinta años, y que ya suscitaba la fascinación de un mago;
pero titubeó siempre antes de consentir en la realización de sus proyectos, por
considerarlos irrealizables.
Como ingeniero, son muchos los inventos atribuidos a Leonardo, desde un diseño
para la fabricación de un helicóptero (modelo dotado de alas giratorias equipado
con amortiguadores para conseguir un suave aterrizaje) o un vehículo automóvil
hasta el común rallador de pan, pasando por una práctica sierra para mármol, una
máquina para fabricar maromas, pechadoras de cardas para perchar el paño,
modernas puertas de batientes para las esclusas, máquinas para tallar tornillos y
limas; máquinas de guerra tales como el carro blindado, vehículo accionado
mediante una manivelas que utilizan la fuerza muscular, y dotado de una coraza
en forma de cono, las embarcaciones sumergibles (submarinos) o los trajes para
buzos de combate; una máquina para pulir espejos, fusiles de repetición y una
grúa móvil que facilitaría las labores de construcción, consiguiendo elevar pesadas
cargas; su excavadora flotante pretendía conseguir que los ríos fuesen
navegables; su molino de aire caliente, basado en el principio de la rueda de palas
y en el aprovechamiento del calor residual, que se hace funcionar mediante un
motor de palas que, instalado en una chimenea, gira a consecuencia de la
ascensión de gases de combustión caliente. El mismo sistema será utilizado en
otra de sus máquinas, pero haciendo que el motor sea movido por agua. Es un
precedente de los medidores de caudal inventados más tarde. Sin embargo,
ninguno de estos inventos pasó del estadio del diseño, ni fue utilizado, a pesar de
que Leonardo no solo diseñaba extraordinarias máquinas sino que también se
ocupaba de resolver todos y cada uno de los problemas relacionados con la
construcción de las mismas.
238
Muchos de los diseños de tienen de puño y letra del inventor detallados planos y
planes de trabajo para el taller que habría de encargarse de realizar el proyecto,
fue el primero en estudiar científicamente la resistencia de los materiales utilizados
en las construcciones mecánicas, y de tales investigaciones se sirvió para
establecer las secciones de las estructuras de sus maquinas.
Todas sus obra fueron agrupadas – por el mismo Leonardo- en lo tres elementos
que son el aire, agua y tierra.
Aire
239
Hélice
Diagrama de la hélice
240
hélices de nuestros días.
Maquinas voladoras
241
Diagrama de una maquina voladora
Cautivado por la posibilidad de volar, Da Vinci diseñó varios dispositivos para ese
fin que, aunque sin aplicación práctica inmediata, establecieron algunos principios
de la aerodinámica.
Entre la que ideo fue el ornitóptero maquina diseñada para volar batiendo las alas,
simulando los movimientos de un ave en vuelo, este invento a despertado el
interés de los entusiastas por la aviación desde hace cientos de años en el
transcurso de los cuales se han desarrollado distintos diseños.
Paracaídas
242
Para Leonardo el hombre podría dominar el vuelo, pero también debería estar
preparado atenuar una caída, concibió la idea del paracaídas, e indico claramente
sus dimensiones.
Dejo escrito en uno de sus bocetos: ¨si un hombre dispone de un dosel de de
puño que tenga 12 brazos de cara por 12 de alto, podrá arrojarse de cualquier
altura, sin hacerse daño¨.
Es por ello que experimento una serie de modelos con ese objetivo, finalmente
invento este para caídas, con un diseño similar a los actuales, fue probado con
éxito desde una torre construida especialmente para ello.
Bueno ahora damos paso a uno de los más grandes inventos de Da Vinci o el más
importante según de donde lo veas:
Planeador
243
Diagrama del planeador
Leonardo fue el primero en afrontar por primera vez el problema del vuelo e
invento una especie de aeroplano sin motor que seria capaz de volar sostenido
por las corrientes de aire.
Para ello se baso en un intenso estudio sobre las alas delos murciélagos, su
maquina de volar funcionaba como un planeador, por lo que era incapaz de
mantenerse mucho tiempo en el aire.
Tierra
Automóvil
244
Diagrama del automóvil
Usando varios bocetos que dejó en uno de sus códices, se ha podido construir un
automóvil ideado hace más de cinco siglos por Leonardo da Vinci y capaz de
recorrer varios metros.
Este invento esta formado por un carro de manera con varios muelles ballesta
para regular el movimiento, al tiempo que la propulsión proviene de dos muelles
de espiral colocados en la parte baja del prototipo y que le permiten recorre varios
metros de forma autónoma. La maquina esta dotada de un rudimentario
diferencial, que permite controlar la dirección.
Engranajes
245
DD
Diagrama de una maquina de engranaje
Grúa
246
Diagrama de una grúa
De este no hay mucho de que se baso pero si nos dice como era y como estaba
colocada, la grúa giratoria inventada por nuestro gran creador, montada sobre una
plataforma de rodillos, esta provista de una caja de contrapeso y de un cabestrante
dotado de un freno dentado, de esto mismo se basaron para crear la grúas modernas
pero con mas avance tecnológico.
Y pues ahora son los invento terrestres pero con sentido bélico ya que nuestro amigo
Da Vinci era un gran fan de esto pero como ya mencionado antes era mas apoyado
en esto que en lo demás.
247
Ametralladora
Diagrama de la ametralladora
Leonardo estudió cómo aumentar la intensidad del fuego de las armas ligeras; previó
el empleo de numerosas bocas de fuego montadas sobre una única cureña y de
pequeños proyectiles o explosivos que, cargados en un solo cañón, se esparcirán
después del disparo.
Esta construida con diez cilindros que pueden dispararse uno a una o
simultáneamente según la necesidad, este diseño se uso hasta bien avanzado el siglo
XVIII que fue evolucionando hasta la que podemos ver ahora.
248
Cañones
Diagrama original
Esta maquina bélica ideada por Leonardo es un cañón de bocas múltiples, dotado
de 33 tubos colocados sobre las tres caras de un prisma triangular giratorio y con
capacidad para disparar tres cargas de once tiros consecutivos. Dispara una serie,
mientras se dispara la segunda y se enfriaba la tercera, se podía recargar la
primera y así sucesivamente el poder de fuego.
Cañón de vapor
249
Figura
Con esta idea Leonardo se introduce entre los precursores del empleo de la fuerza
de expansión del vapor de agua. La carga de los cañones por la parte posterior
fue otro de sus geniales inventos, que tuvieron una aplicación práctica siglos
después.
Otros inventos de Leonardo en el campo de las armas de fuego fueron los
proyectiles de punta ojival y el dispositivo para el encendido automático de la
mecha en los arcabuces y en las pistolas
Tanque militar
Diagrama original
Carro de asalto proyectado por Leonardo hace 400 años. Estaría provista de un
revestimiento cónico, a fin de que los proyectiles resbalasen por encima, anticipo
del tanque moderno. Este carro según su creador ¨ reemplazaría a los elefantes
250
en las batallas¨, se movía con la fuerza de hombres que, en el interior, daban
vuelta alas manivelas relacionadas con las ruedas mediante engranajes.
Con esto damos fin a los inventos de que se basan en la tierra y ahora los
siguientes son lo del Agua.
Agua
Embarcación
Diagrama original
Draga
251
D
Diagrama original
También figura en sus inventos una draga lagunera. Una draga excavadora que se
podía usar para la limpieza del fondo de los canales.
Los cubos o Palas excavadoras, actuaba una tras otra, estas estaban dispuestas
de tal forma que permitían descargar automáticamente en un depósito especial,
los flotadores de almacenaje, el material recogido. Este principio es idéntico al de
las dragas modernas.
Sistema de irrigación
252
Leonardo fue el primero en llevar a la practica el principio de Arquímedes base
teórica del tornillo sin fin.
Haciendo girar esta pieza el agua podía ser trasladada a un nivel más alto,
mediante una serie de giros helicoidales.
Traje de buzo
253
Proyecto de escafandra llamado así por Leonardo Da Vinci
Traje de buzo y aleta para aplicar a las manos para la natación submarina. Las
aletas son parecidas a las actuales ¨pata de rana¨, solo que se usan en los pies
En lugar de las manos.
Estos son algunos de los inventos de nuestro amigo el inventor mas importantes
entre los elementos ya que con base ha esto se desarrollaron los inventos que en
nuestra actualidad son muy necesarios para la humanidad ya que algunos son
medios de transporte, sistemas para tener un control ya sea para el agua o ciertos
materiales par la existencia de la humanidad.
254
por sus propios medios, siendo ya un hombre maduro; y lo mismo le ocurrió con
las matemáticas, que estudió tarde, cuando las encontró necesarias para seguir
avanzando. Sólo admitía como verdaderos métodos científicos la observación de
la naturaleza y la experimentación. El conocimiento de los escritores antiguos
tenía su utilidad como base, pero no como objetivo final.
Este es uno delos tantos pensamientos que daba antes de empezar según el
inspirarse:
Pensaba que la mecánica era la más noble de las ciencias "puesto que vemos que
por medio de ella realizan sus acciones todos los cuerpos animados que poseen
movimiento". Previó el principio de inercia, que después Galileo demostró
experimentalmente, vio la imposibilidad experimental del "movimiento continuo
255
“como fuente de energía, adelantándose en esto a Steven de Brujas. Aprovechó el
conocimiento de esta imposibilidad para demostrar la ley de la palanca por el
método de las velocidades virtuales, un principio que ya enunciaba Aristóteles y
que utilizaron más tarde Bernardino Baldi y Galileo.
Leonardo da Vinci realiza una visión del hombre como centro del Universo al
quedar inscrito en un círculo y un cuadrado. El cuadrado es la base de lo clásico:
el módulo del cuadrado se emplea en toda la arquitectura clásica, el uso del
ángulo de 90º y la simetría son bases grecolatinas de la arquitectura. En él se
realiza un estudio anatómico buscando la proporcionalidad del cuerpo humano, el
canon clásico o ideal de belleza. Sigue los estudios del arquitecto Vitrubio (Marcus
Vitruvius Pollio) arquitecto romano del siglo I a.c. a quien Julio Cesar encarga la
construcción de máquinas de guerra. En época de Augusto escribió los diez tomos
de su obra De architectura, que trata de la construcción hidráulica, de cuadrantes
solares, de mecánica y de sus aplicaciones en arquitectura civil e ingeniería
militar. Vitrubio tuvo escasa influencia en su época pero no así en el renacimiento
ya que fue el punto de partida de sus intentos y la justificación de sus teorías. Su
obra fue publicada en Roma en 1486 realizándose numerosas ediciones como la
de Fra Giocondo en 1511, Venecia o la de Cesare Cesarino en 1521, Milán,
dedicada a Francisco I. Parece indudable que Leonardo se inspiró en el arquitecto
romano.
Internet
Los inicios de Internet nos remontan a los años 60. En plena guerra
fría, Estados Unidos crea una red exclusivamente militar, con el objetivo
de que, en el hipotético caso de un ataque ruso, se pudiera tener acceso a
la información militar desde cualquier punto del país.
Esta red se creó en 1969 y se llamó ARPANET. En principio, la red
contaba con 4 ordenadores distribuidos entre distintas universidades del
país. Dos años después, ya contaba con unos 40 ordenadores
conectados. Tanto fue el crecimiento de la red que su sistema de
comunicación se quedó obsoleto.
Entonces dos investigadores crearon el Protocolo TCP/IP, que se convirtió
en el estándar de comunicaciones dentro de las redes informáticas
(actualmente seguimos utilizando dicho protocolo).
257
acceso que más tarde se unen a NSFNET, formando el embrión de lo que
hoy conocemos como INTERNET.
Justificación.
258
Hoy en día utilizamos el internet para todo, de hecho se puede
trabaja r desde la comodidad de tu hogar vía internet, los comerciantes
difunden sus productos vía internet, lo cual hace a este tema muy
interesante
•
Internet Protocol (IP): protocolo que se utiliza para dirigir un
paquete de datos desde su fuente a su destino a través de Internet.
•
Transport Control Protocol (TCP): protocolo de control de
transmisión, que se utiliza para administrar accesos.
•
User Datagram Protocol (UDP): protocolo del data grama del
usuario, que permite enviar un mensaje desde un ordenador a una
aplicación que se ejecuta en otro ordenador.
•
Internet Archite curte Board, que supervisa tecnología y
estándares.
•
Internet Assigned Numbers Authority, que asigna los números
para los accesos, etc.
•
InterNIC, que asigna direcciones de Internet.
•
También: Internet Engineering and Planning Group, Internet
Engineering Steering Group, y la Internet Society.
259
Internet surgió de un proyecto desarrollado en Estados Unidos para
apoyar a sus fuerzas militares. Luego de su creación fue utilizado por el
gobierno, universidades y otros centros académicos.
Orígenes de Internet
La primera descripción documentada acerca de las interacciones
sociales que podrían ser propiciadas a través del networking (trabajo en
red) está contenida en una serie de memorándums escritos por J.C.R.
Licklider, del Massachussets Institute of Technology, en Agosto de 1962,
en los cuales Licklider discute sobre su concepto de Galactic Network
(Red Galáctica).
260
inadecuado para esta labor. La convicción de Kleinrock acerca de la
necesidad de la conmutación de paquetes quedó pues confirmada.
Ocurrió que los trabajos del MIT (1961-67), RAND (1962-65) y NPL
(1964-67) habían discurrido en paralelo sin que los investigadores
hubieran conocido el trabajo de los demás. La palabra packet (paquete)
fue adoptada a partir del trabajo del NPL y la velocidad de la línea
propuesta para ser usada en el diseño de ARPANET fue aumentada
desde 2,4 Kbps hasta 50 Kbps (5).
261
Center, liderado por Elizabeth (Jake) Feinler, que desarrolló funciones
tales como mantener tablas de nombres de host para la traducción de
direcciones así como un directorio de RFCs (Request For Comments).
262
entonces, la aplicación de correo electrónico se convirtió en la mayor de la
red durante más de una década. Fue precursora del tipo de actividad que
observamos hoy día en la World Wide Web , es decir, del enorme
crecimiento de todas las formas de tráfico persona a persona.
263
originalmente parte de su programa de paquetería por radio, pero más
tarde se convirtió por derecho propio en un programa separado.
Así, Kahn decidió desarrollar una nueva versión del protocolo que
pudiera satisfacer las necesidades de un entorno de red de arquitectura
abierta. El protocolo podría eventualmente ser denominado "Transmisson-
Control Protocol/Internet Protocol" (TCP/IP, protocolo de control de
transmisión /protocolo de Internet). Así como el NCP tendía a actuar como
un drive (manejador) de dispositivo, el nuevo protocolo sería más bien un
protocolo de comunicaciones.
Ideas a prueba
DARPA formalizó tres contratos con Stanford (Cerf), BBN (Ray
Tomlinson) y UCLA (Peter Kirstein) para implementar TCP/IP (en el
documento original de Cerf y Kahn se llamaba simplemente TCP pero
contenía ambos componentes). El equipo de Stanford, dirigido por Cerf,
produjo las especificaciones detalladas y al cabo de un año hubo tres
implementaciones independientes de TCP que podían ínter operar.
264
comunidad de investigación y desarrollo [REK78]. Cada expansión afrontó
nuevos desafíos.
En primer lugar, hubo que definir tres clases de redes (A, B y C) para
acomodar todas las existentes. La clase A representa a las redes grandes,
a escala nacional (pocas redes con muchos ordenadores); la clase B
representa redes regionales; por último, la clase C representa redes de
área local (muchas redes con relativamente pocos ordenadores).
265
El incremento del tamaño de Internet resultó también un desafío para los
routers. Originalmente había un sencillo algoritmo de enrutamiento que
estaba implementado uniformemente en todos los routers de Internet. A
medida que el número de redes en Internet se multiplicaba, el diseño
inicial no era ya capaz de expandirse, por lo que fue sustituido por un
modelo jerárquico de enrutamiento con un protocolo IGP (Interior Gate
way Protocol, protocolo interno de pasarela) usado dentro de cada región
de Internet y un protocolo EGP (Exterior Gateway Protocol, protocolo
externo de pasarela) usado para mantener unidas las regiones.
BSD empezó a ser utilizado en sus operaciones diarias por buena parte
de la comunidad investigadora en temas relacionados con informática.
Visto en perspectiva, la estrategia de incorporar los protocolos de Internet
en un sistema operativo utilizado por la comunidad investigadora fue uno
de los elementos clave en la exitosa y amplia aceptación de Internet.
Uno de los desafíos más interesantes fue la transición del protocolo para
host s de ARPANET desde NCP a TCP/IP el 1 de enero de 1983. Se
trataba de una ocasión muy importante que exigía que todos los host s se
convirtieran simultáneamente o que permanecieran comunicados
mediante mecanismos desarrollados para la ocasión.
266
ruedas (a pesar de dar la lugar a la distribución de insignias con la
inscripción "Yo sobreviví a la transición a TCP/IP").
267
correo electrónico como "postales". Con la excepción de BITNET y
USENET, todas las primeras redes (como ARPANET) se construyeron
para un propósito determinado.
268
El efecto del ecumenismo del programa NSFNET y su financiación (200
millones de dólares entre 1986 y 1995) y de la calidad de los protocolos
fue tal que en 1990, cuando la propia ARPANET se disolvió, TCP/IP había
sustituido o marginado a la mayor parte de los restantes protocolos de
grandes redes de ordenadores e IP estaba en camino de convertirse en el
servicio portador de la llamada Infraestructura Global de Información.
El papel de la documentación
Un aspecto clave del rápido crecimiento de Internet ha sido el acceso
libre y abierto a los documentos básicos, especialmente a las
especificaciones de los protocolos.
269
vistas ahora como los documentos de registro dentro de la comunidad de
estándares y de ingeniería en Internet.
El futuro: Internet 2
Internet2 es el futuro de la red de redes y está formado actualmente por
un consorcio dirigido por 206 universidades que junto a la industria de
comunicaciones y el gobierno están desarrollando nuevas técnicas de
conexión que acelerarán la capacidad de transferencia entre servidores.
270
tecnologías que abarcan desde la infraestructura de red, dispositivos e
interfaces, software y aplicaciones que compondrán lo que en unos años
conformará el panorama de las Tecnologías de Información y
Comunicaciones.
•
COIN (http://www.coin-ip.eu/): Colaboración e interoperabilidad
entre empresas, desde la tradicional cadena de proveedores al
ecosistema más avanzado.
•
SOA4ALL (http://www.soa4all.org/): Plataforma que integre
Arquitecturas Orientadas a Servicios (SOA), el uso de Contexto, la
Web Semántica o la llamada Web 2.0.
•
NEXOF-RA (http://www.nexof-ra.eu/): Arquitectura de referencia
para la comunidad de Software & Services en Europa, sobre la que
271
crear y distribuir aplicaciones basadas en servicios ( Internet de los
Servicios).
•
Master (http://www.master-fp7.eu/): Metodología y herramientas
necesarias para asegurar el cumplimiento de los requisitos de
seguridad, en el nuevo escenario que surge del creciente uso de
SOA por parte de las empresas en sus infraestructuras IT y
especialmente en el outsourcing de servicios.
•
My eDirector (http://www.myedirector2012.eu/): Usos de contexto
en tiempo real junto con contextos personalizados de provisión de
contenidos para aplicaciones audiovisuales a gran escala.
•
COCKPIT: Colaboración de los ciudadanos en la creación de
contenidos de servicio público.
•
NextMedia: Coordinar los esfuerzos europeos en Media hacia el
Internet del Futuro.
•
SARACEN: Definición de una plataforma colaborativa y social de
próxima generación para la codificación y distribución de contenidos
de media
•
Sanidad: aplicaciones TIC más interactivas, y enfocadas en la
prevención, así como herramientas para mejorar la eficacia de la
monitorización, seguimiento y tratamiento remoto (fuera del
hospital), principalmente de enfermos crónicos y pacientes mayores.
•
Multimedia: gestión y búsqueda de activos, gestión de derechos
digitales, infraestructura para Media Market (imágenes médicas,
fotos/videos de tráfico….), desarrollo de comunicaciones IP para la
transmisión de contenidos.
272
•
Industria: Desarrollo de aplicaciones TIC para facilitar y optimizar el
tráfico de vehículos en las ciudades y el transporte de materiales,
mejorar la gestión del consumo de luz, agua, limpieza y para
impulsar el turismo.
•
Finanzas: Seguridad en la transmisión de información bancaria
personal entre las distintas entidades o centros, con el objetivo
facilitar el desarrollo de Internet del Futuro a nivel transaccional
•
Administración Electrónica (eGov): Internet para el ciudadano
•
Internet en todas partes:: Apoyo al desarrollo rural y equilibrio
geográfico.
•
Internet para todos: Nuevos interfaces, Internet de las Cosas,
apoyo a minorías, sostenibilidad y medio ambiente
273
clara de esta separación, la red militar como tal continuó su evolución.
Considerando los presupuestos y la importancia de las mismas, no es
extraño creer (al menos) en la tan conocida cifra de 10 años de diferencia
en cuestión de tecnología civil y militar.
Sin embargo, parece que esta tecnología no fue, para nada, la definitiva.
Por ejemplo, en la red Echelon la NSA comenzó a probar un prototipo de
buscador temático para el que solicitó una patente a principios de la
década de los 90. La oficina de patentes norteamericana le otorgó el
número 5.418.951. Este programa informático, basado en un método
denominado “análisis de N-gramas” se define como independiente del
“idioma o tema de interés” y no “emplea diccionarios o palabras clave”.
274
La compañía Pew Internet and American Life publicó hace un par de días un
sobre el futuro de Internet para el año 2020. Dicho estudio se
extenso informe
basa en un cuestionario realizado por 742 expertos y éstas son alguna de
sus conclusiones:
•
La Red será un negocio próspero y de bajo costo
•
La dependencia de la tecnología podría convertirse en un problema.
Hasta el 42% de los encuestados se muestra pesimista acerca de
nuestra capacidad para controlarla.
•
Un gran número de trabajadores desempeñará sus funciones en
“mundos virtuales”. Esta desconexión del mundo real podría
acarrear numerosos problemas.
•
Emergerán grupos contrarios a la Red —“refuseniks”— que podrían
llegar a utilizar medios violentos para atacarla.
•
El impacto sobre las personas se considera positivo pero se alerta
sobre la posibilidad de perder buena parte de la privacidad.
•
El inglés seguirá dominando la Red.
(Clarín y otros) Físicos del Instituto Niels Bohr, en Dinamarca, crearon una
memoria atómica de la luz que en el futuro puede romper las fronteras de
la comunicación a través de Internet: consiguieron una red mucho más
rápida y segura que la actual. De esta forma, alumbran un nuevo tipo de
Internet, llamado Internet Cuántico.
275
luz tal y como lo predice la teoría cuántica, que establece que la luz puede
comportarse al mismo tiempo como una partícula u onda.
1.
La Web semántica, RDF, OWL, micro formatos, las cosas por su
nombre (semántico) y no por código que nadie entiende y a nadie le
interesa. Muerte a los nerds :-)
2.
Inteligencia artificial.
3.
Mundos virtuales, Second Life pero bien hecho.
4.
La Web móvil, ya es hora que muera el Internet de texto en
teléfonos móviles. El Internet como en el iPhone o nada.
5.
La economía de la atención, recibir servicios a cambio de atención,
desde búsquedas personalizadas hasta recomendaciones de
compra, pero bien hechas.
276
6.
Sitios Web como servicios Web.
7.
Video online / TV por internet.
8.
Rich Internet Apps, veremos más aplicaciones como iScrobbler,
Twitterrific o Plazer. Herramientas que funcionan a base de su
contraparte en el Web.
9.
Web internacional, diversificación, Estados Unidos perderá peso en
Internet. Europa ya está despuntando.
10.
Personalización al máximo.
277
•
Simplificación del desarrollo de aplicaciones multi-dispositivo (cada
vez más "multi")
•
Adaptación dinámica al contexto
•
Coordinación entre dispositivos
•
Seguridad
278
que simplificarán nuestra vida. "La Web semántica", explican los autores,
"no es una web aparte sino una extensión de la actual en la que la
información tiene un significado bien definido, posibilitando que los
ordenadores y las personas trabajen en cooperación".
Caso práctico
Para que esto sea una realidad no será necesario que nuestros
ordenadores posean la inteligencia artificial que tenía Hal en la novela de
Arthur C. Clarke "2001: una odisea en el espacio". Será suficiente con que
los contenidos se introduzcan en las páginas Web utilizando un programa
de escritura de Web semánticas.
Nuevas tecnologías
Pero para llegar a esa nueva World Wide Web hay que dar una serie de
pasos que no son sencillos. Uno de los retos principales que afronta la
Web semántica es el de proveer un lenguaje "que permita la exportación a
la Web de las reglas de cualquier sistema de representación del
conocimiento". Los grupos que trabajan en la creación de esta nueva Web
semántica deben solucionar, por tanto, la difícil papeleta de "añadir lógica
a la Web".
279
El desarrollo de la Web semántica pasa también por la adopción de
diferentes tecnologías, dos de las cuales ya están en marcha: el
extensible Markup Language (XML) y el Resource Description
Framework (RDF). El lenguaje XML "permite a los usuarios añadir una
estructura arbitraria a sus documentos, pero no dice nada acerca del
significado de dicha estructura". Esta es la tarea que se intenta resolver
con el lenguaje RDF, un marco en el que es posible describir la
información para que la procesen las máquinas. Otro elemento clave de la
Web semántica son las "ontologías", descritas por los autores como
documentos o ficheros "que formalmente definen las relaciones entre
términos".
Grupos de investigación
280
que puedan ser utilizados por máquinas no sólo con el fin de presentarlos
sino también para la automatización, integración y reutilización de la
información a través de varias aplicaciones".
Asimismo, también se afirma en esta página que "la Web sólo alcanzará
su pleno potencial si se convierte en un lugar donde la información puede
ser compartida y procesada tanto por herramientas automáticas como por
la gente".
Conclusión.
281
INTRODUCCION
Los científicos y antropólogos afirman que el hombre se diferencia de los animales
por su capacidad de evolucionar y de crear, esto puede verse claramente si
hacemos un paneo observando cómo el ser humano se desarrolló hasta el día de
hoy.
Cada invento o creación tiene un aporte tecnológico: la televisión, la radio, la
computadora, entre otros, fueron los primeros indicios que nos mostraban que la
evolución no sólo es inminente sino que continúa. Internet se asume como el gran
paso hacia el futuro, es que además de ser algo novedoso era al mismo tiempo
impensado; ni en nuestros más recónditos sueños podíamos imaginar que todos
los medios de comunicación eran capaces de fusionarse en un solo artefacto.
Pero ante de ahondar en la importancia de este instrumento virtual, debemos
acudir a la definición de Internet y así comprender un poco más sobre sus
utilidades.
Entendemos por Internet, una interconexión de redes informáticas que le permite
a las computadoras conectadas comunicarse directamente entre sí. Esta palabra
suele referirse a una interconexión en particular, abierta al público la cual es capaz
de conectar tanto a organismos oficiales como educativos y empresariales; la
definición de Internet admite que se la conoce vulgarmente con el nombre de
“autopista de la información” debido a que es una “ruta” en donde podemos
encontrar casi todo lo que buscamos en diferentes formatos.
El Internet es una red informática descentralizada, que para permitir la conexión
entre computadoras opera a través de un protocolo de comunicaciones. Para
referirnos a ella además se utiliza el término "web" en inglés, refiriéndose a una
"tela de araña" para representar esta red de conexiones. En palabras sencillas, la
Internet es un conjunto de computadoras conectadas entre si, compartiendo una
determinada cantidad de contenidos; por este motivo es que no se puede
responder a la pregunta de donde está la Internet físicamente - está en todas las
partes donde exista un ordenador con conectividad a esta red.
Digamos entonces que el Internet es la red de redes, por la cual, millones de
computadoras se pueden conectar entre sí. De esta, se puede extraer información
a una escala nunca antes vista. También es conocida como la World Wide Web
(www, prefijo bastante conocido por los que la navegan, ya que las direcciones o
URLs por lo general comienzan utilizándolo), y su estructura actual data de la
década de los 90`. Con su aparición, la revolución de la información terminó
definitivamente por despegar a escala masiva. Son millones las personas, las
cuales por medio de un módem y hoy en día, por medio de la banda ancha,
acceden a millones de páginas, que contienen información de la más diversa
índole. Existen páginas de carácter personal, educativas, y por supuesto
orientadas a los negocios; de hecho, toda empresa lo suficientemente
tecnologizada cuenta con una página en Internet.
282
Por medio de Internet, también podemos desarrollar conversaciones en línea,
como los ya famosos chat e IRC (Internet Relay chat). Asimismo, podemos
realizar transferencia de archivos , utilizando por supuesto un leguaje común para
esto (en este caso el protocolo FTP o File Transfer Protocol) o enviar correos
electrónicos (utilizando el protocolo SMTP o Simple Mail Transfer Protocol), los
cuales han revolucionado la manera de comunicarse, y han dejado como
prácticamente obsoleto el antiguo sistema de correo. Con ellos podemos
comunicarnos de manera casi inmediata, con cualquier persona del mundo,
independiente de donde se encuentre. De esta manera, muchas empresas, han
dejado, incluso, un tanto de lado el teléfono para sus actividades comerciales.
Asimismo, es que el correo electrónico es altamente utilizado, dentro de la
comunicación interna de las organizaciones estatales o privadas. Desde hace ya
bastante tiempo, existe una aplicación asociada e estos correos electrónicos
conocida como la mensajería instantánea, mediante la cual se puede mantener
una conversación por medio de texto en línea
Con respecto al desarrollo de el Internet, este se remonta a 1973, donde se
comenzó a estudiar la factibilidad técnica de desarrollar redes interconectadas, a
base de los protocolos TCP y el IP. Fue durante aquel proceso investigativo, que
se creo la palabra Internet, para apodar a estas redes.
Esta red informática a nivel mundial, el Internet, está conformada por un
gran número de computadores conectados entre sí, utilizando protocolos
especiales para poder comunicarse.
El Internet y su historia, se puede remontar, a unos años antes que surgiera
la misma como una popular red pública o mundial.
Y es que la carrera espacial, entre los Estados Unidos y la Unión Soviética,
en parte una pugna de poder, llevó a que lentamente se fuera fraguando la
Internet.
La definición de Internet suele ser mayormente técnica pero existen muchos
aspectos relevantes que ésta no abarca; entre ellos su evolución y el impacto
social que este medio de comunicación ha generado. Como mencionamos al
comienzo de esta redacción, el hombre es capaz de crear y evolucionar de formas
astronómicas, y lo ha demostrado cuando inventó este espacio virtual, aunque ya,
mucho antes, había dado indicios al construir los ordenadores.
Internet ha cambiado absolutamente la totalidad de los hábitos de los seres
humanos;el correo no se utiliza de la misma forma, las películas no se alquilan con
tanta frecuencia en los videos clubs; el diario y la radio se escuchan desde los
ordenadores, etc. Estos acontecimientos no son casuales; Internet se dispone a
apropiarse de casi todo el mercado y decimos esto porque son cada vez más las
personas que poseen conexiones a la web; años atrás, era probable encontrar
individuos sin cuentas de e-mail, actualmente eso es casi imposible. La definición
de Internet asegura que ésta ha sido revolucionaria, pero no brinda información
sobre su futura evolución, y esto se debe a que esta herramienta es
impredecible. Lo que sí podemos afirmar es que los costos para su conexión serán
cada vez más accesibles y por eso se convertirá en el principal medio masivo de
283
comunicación. Allí tendremos combinados todos los servicios necesarios y que,
hasta el día de hoy, debemos diferenciar; se estima que también serán más
baratos los dominios y que la mayor parte de la publicidad se transmitirá hacia los
blogs, comunidades y sites que estén mejor optimizados.
284
Sin embargo, a medida que el mundo avanza hacia una sociedad en la que
personas, dispositivos, aplicaciones y servicios están permanentemente
conectados, resulta útil echar la vista atrás y repasar los pioneros y las
fuerzas motrices que hicieron posible que hoy disfrutemos de estos
maravillosos avances. Con demasiada frecuencia olvidamos que muchas
de las tecnologías de las que disfrutamos hoy en día fueron concebidas,
desarrolladas e implantadas hace ya muchos años por auténticos
visionarios. Volvamos al pasado y exploremos la herencia tecnológica que
hemos recibido antes de lanzarnos a una visión de hacia dónde nos
dirigimos.
DEFINICION PRECISA DE INTERNET
Es difícil dar una definición que refleje de forma precisa una realidad tan
compleja. La abordamos desde el punto de vista de las comunicaciones como
una red de ordenadores (servidores) permanentemente conectados y a la
espera de solicitudes de servicios de otras máquinas (clientes) a través de las
redes de comunicación. Para comprender el funcionamiento de internet es
necesario entender lo que significa ordenador servidor y ordenador cliente.
EL PARADIGMA CLIENTE/SERVIDOR:
Este paradigma sitúa a los ordenadores que establecen una comunicación, en
dos niveles distintos. En general el que inicia una comunicación actúa como
cliente y el que está a la espera actúa como servidor. Cuando el usuario inicia
una aplicación cliente (por ejemplo navegador Explorer), ésta contacta con un
servidor y le envía una petición de servicio quedando a la espera de la
respuesta. La aplicación cliente es la encargada de interactuar con el usuario y
de mostrar los resultados de la petición. El servidor siempre está a la espera
de peticiones de servicio. Recibe las peticiones de servicio y retorna los
resultados a la aplicación cliente. El servidor no interacciona con el usuario,
esa es función del programa cliente.
285
• Breve historia de las comunicaciones inalámbricas.
Las comunicaciones inalámbricas cuentan con una larga historia. La
primera referencia que tenemos son los documentos que investigan la
relación entre electricidad y magnetismo (especialmente el célebre
experimento realizado en 1820 por Hans Christian Orsted en el que se
demostró que un cable conductor de corriente podía desviar la aguja
magnetizada de una brújula). No pretendemos entrar con profundidad en
este tema, sino que nos limitaremos a repasar someramente el desarrollo
de la radio, que supuso el primer paso hacia la radiotransmisión de
paquetes y la creación de la red de telefonía móvil actual, que es uno de los
componentes importantes de Internet.
Un hecho determinante fue la predicción matemática de la existencia de las
ondas de radio que realizó James Clerk Maxwell en 1864. En un trabajo
asombroso, Maxwell fue capaz de anticipar matemáticamente la radiación
de las ondas electromagnéticas (esto es, que los campos
electromagnéticos se expanden a la velocidad de la luz en forma de ondas
polarizadas). En referencia al trabajo de Maxwell, Einstein exclamó: "La
especial teoría de la relatividad debe sus orígenes a las ecuaciones de
Maxwell sobre los campos electromagnéticos". Desgraciadamente, Maxwell
falleció en 1879, antes de que su predicción pudiera demostrarse
experimentalmente.
La demostración experimental llegó poco después de la muerte de Maxwell.
En 1878, David E. Hughes logró enviar y recibir mensajes en código Morse,
dando a las ondas de radio su primera aplicación práctica. Más adelante, en
1888, Heinrich Hertz demostró la existencia de las ondas de radio utilizando
un transmisor y un receptor primitivos.
No fue hasta 1893 cuando el siempre
innovador Nikola Tesla realizó los primeros
experimentos de "telegrafía inalámbrica". Un
año más tarde, en Rusia, Alexander Popov
construyó en Rusia el primer receptor de radio,
que se presentó públicamente en 1895, y más
adelante desarrolló el primer servicio de radio
fuera del laboratorio. En 1894, Oliver Lodge
logró transmitir señales de radio en la
Universidad de Oxford mediante un aparato
conocido como "coherer", que a su vez se
basaba en el descubrimiento realizado en
1890 por el físico francés Édouard Branly; no
obstante, Tesla había llevado a cabo el mismo
expermiento el año anterior y Marconi lo realizaría al año siguiente.
También en 1894, Jagadish Chandra Bose realizó una transmisión
radiofónica de corto alcance en Calcuta, India, utilizando microondas con
una longitud de onda milimétrica. Su investigación sobre las señales
inalámbricas remotas fue la primera en la que se empleó una conexión con
286
un semiconductor para detectar las ondas de radio, adelantando así la
existencia de los semiconductores de tipo P y de tipo N.
En 1895, Guglielmo Marconi logró transmitir señales inalámbricas a una
distancia de más de un kilómetro y medio del laboratorio que tenía
instalado en su casa en las afueras de Bolonia, Italia. Éste fue el pistoletazo
de salida para una serie de experimentos para transmitir ondas de radio a
distancias cada vez mayores. En 1896, Tesla consiguió transmitir señales
inalámbricas a una distancia de 48 kilómetros; en 1898, Popov estableció
una comunicación desde un barco hasta la estación costera que se
encontraba a una distancia de más de 9 kilómetros, y en 1899, a más de 48
kilómetros, en 1897 Marconi realizó una serie de experimentos de
transmisión por radio a través de una conexión entre la isla de Wight y
Bournemouth, Inglaterra, a unos 21 kilómetros, una conexión entre las dos
orillas del Canal de la Mancha (utilizando un oscilador de Tesla) en 1899 y,
finalmente, en 1901, la transmisión de la primera señal radiofónica
trasatlántica, a una distancia de más 3.500 kilómetros.
En 1897 Marconi obtuvo una patente británica
(presentada en 1896) para el telégrafo
inalámbrico, y fundó la primera emisora de
radio del mundo, que se convertiría más
adelante en la empresa Marconi Wireless
Telegraph Company. En 1900 Nikola Tesla
obtuvo las patentes estadounidenses
(presentadas en 1897) para las técnicas básicas que mejorarían
sustancialmente las transmisiones radiofónicas. A Marconi se le denegó la
patente estadounidense en 1900, y de nuevo en los tres años siguientes.
Sin embargo, en 1904, la Oficina de Patentes estadounidense cambió de
opinión y le concedió la patente. Mucho más adelante, en 1943, el Tribunal
Supremo de los Estados Unidos revocó esta decisión, confirmando la
patente de Tesla.
En 1900, Reginald Fessenden realizó la primera transmisión de voz a
través de la radio. En 1906, Lee de Forest inventó el "audión", que ahora se
conoce como la válvula amplificadora de triodo, un componente esencial de
los sistemas de radio. En 1909, Marconi obtuvo el premio Nobel de Física
por sus contribuciones a la radio.
Resulta interesante que los pioneros de la radio se influyeron mutuamente
en el descubrimiento de ideas y la adopción de líneas de investigación.
Aunque trabajaban y pensaban de forma independiente, sus
descubrimientos se sincronizaron desde varios continentes.
Gracias a estos progresos, la radio llegó a todos los rincones del planeta.
Sin embargo, hasta la era digital, en las últimas décadas del siglo XX, la
tecnología inalámbrica no se empezó a desarrollar en importantes
direcciones, entre las que se cuentan la telefonía móvil digital, las redes
móviles ad hoc la radiotransmisión de paquetes de datos, las redes de
acceso inalámbricas, las plataformas inalámbricas portátiles, etc. Todas
287
ellas han contribuido a que Internet exista tal y como la conocemos hoy. A
continuación emprenderemos un viaje por la historia de Internet.
Internet surgió de un proyecto desarrollado en Estados Unidos para apoyar
a sus fuerzas militares. Luego de su creación fue utilizado por el gobierno,
universidades y otros centros académicos.
Internet ha supuesto una revolución sin precedentes en el mundo de la
informática y de las comunicaciones. Los inventos del telégrafo, teléfono,
radio y ordenador sentaron las bases para esta integración de capacidades
nunca antes vivida. Internet es a la vez una oportunidad de difusión
mundial, un mecanismo de propagación de la información y un medio de
colaboración e interacción entre los individuos y sus ordenadores
independientemente de su localización geográfica.
Orígenes de Internet
288
labor. La convicción de Kleinrock acerca de la necesidad de la conmutación
de paquetes quedó pues confirmada.
A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto
de red de ordenadores y rápidamente confeccionó su plan para ARPANET,
publicándolo en 1967. En la conferencia en la que presentó el documento
se exponía también un trabajo sobre el concepto de red de paquetes a
cargo de Donald Davies y Roger Scantlebury del NPL. Scantlebury le habló
a Roberts sobre su trabajo en el NPL así como sobre el de Paul Baran y
otros en RAND. El grupo RAND había escrito un documento sobre redes de
conmutación de paquetes para comunicación vocal segura en el ámbito
militar, en 1964.
Ocurrió que los trabajos del MIT (1961-67), RAND (1962-65) y NPL (1964-
67) habían discurrido en paralelo sin que los investigadores hubieran
conocido el trabajo de los demás. La palabra packet (paquete) fue adoptada
a partir del trabajo del NPL y la velocidad de la línea propuesta para ser
usada en el diseño de ARPANET fue aumentada desde 2,4 Kbps hasta 50
Kbps (5).
En Agosto de 1968, después de que Roberts y la comunidad de la DARPA
hubieran refinado la estructura global y las especificaciones de ARPANET,
DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave:
los conmutadores de paquetes llamados interface message processors
(IMPs, procesadores de mensajes de interfaz).
El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por
Frank Heart, de Bolt Beranek y Newman (BBN). Así como el equipo de BBN
trabajó en IMPs con Bob Kahn tomando un papel principal en el diseño de
la arquitectura de la ARPANET global, la topología de red y el aspecto
económico fueron diseñados y optimizados por Roberts trabajando con
Howard Frank y su equipo en la Network Analysis Corporation, y el sistema
de medida de la red fue preparado por el equipo de Kleinrock de la
Universidad de California, en Los Angeles (6).
A causa del temprano desarrollo de la teoría de conmutación de paquetes
de Kleinrock y su énfasis en el análisis, diseño y medición, su Network
Measurement Center (Centro de Medidas de Red) en la UCLA fue
seleccionado para ser el primer nodo de ARPANET. Todo ello ocurrió en
Septiembre de 1969, cuando BBN instaló el primer IMP en la UCLA y quedó
conectado el primer ordenador host .
El proyecto de Doug Engelbart denominado Augmentation of Human
Intelect (Aumento del Intelecto Humano) que incluía NLS, un primitivo
sistema hipertexto en el Instituto de Investigación de Standford (SRI)
proporcionó un segundo nodo. El SRI patrocinó el Network Information
Center , liderado por Elizabeth (Jake) Feinler, que desarrolló funciones tales
289
como mantener tablas de nombres de host para la traducción de
direcciones así como un directorio de RFCs ( Request For Comments ).
Un mes más tarde, cuando el SRI fue conectado a ARPANET, el primer
mensaje de host a host fue enviado desde el laboratorio de Leinrock al SRI.
Se añadieron dos nodos en la Universidad de California, Santa Bárbara, y
en la Universidad de Utah. Estos dos últimos nodos incorporaron proyectos
de visualización de aplicaciones, con Glen Culler y Burton Fried en la UCSB
investigando métodos para mostrar funciones matemáticas mediante el uso
de "storage displays" ( N. del T. : mecanismos que incorporan buffers de
monitorización distribuidos en red para facilitar el refresco de la
visualización) para tratar con el problema de refrescar sobre la red, y Robert
Taylor y Ivan Sutherland en Utah investigando métodos de representación
en 3-D a través de la red.
Así, a finales de 1969, cuatro ordenadores host fueron conectados
cojuntamente a la ARPANET inicial y se hizo realidad una embrionaria
Internet. Incluso en esta primitiva etapa, hay que reseñar que la
investigación incorporó tanto el trabajo mediante la red ya existente como la
mejora de la utilización de dicha red. Esta tradición continúa hasta el día de
hoy.
Se siguieron conectando ordenadores rápidamente a la ARPANET durante
los años siguientes y el trabajo continuó para completar un protocolo host a
host funcionalmente completo, así como software adicional de red. En
Diciembre de 1970, el Network Working Group (NWG) liderado por
S.Crocker acabó el protocolo host a host inicial para ARPANET, llamado
Network Control Protocol (NCP, protocolo de control de red). Cuando en los
nodos de ARPANET se completó la implementación del NCP durante el
periodo 1971-72, los usuarios de la red pudieron finalmente comenzar a
desarrollar aplicaciones.
En Octubre de 1972, Kahn organizó una gran y muy exitosa demostración
de ARPANET en la International Computer Communication Conference .
Esta fue la primera demostración pública de la nueva tecnología de red.
Fue también en 1972 cuando se introdujo la primera aplicación "estrella": el
correo electrónico.
En Marzo, Ray Tomlinson, de BBN, escribió el software básico de envío-
recepción de mensajes de correo electrónico, impulsado por la necesidad
que tenían los desarrolladores de ARPANET de un mecanismo sencillo de
coordinación.
En Julio, Roberts expandió su valor añadido escribiendo el primer programa
de utilidad de correo electrónico para relacionar, leer selectivamente,
almacenar, reenviar y responder a mensajes. Desde entonces, la aplicación
de correo electrónico se convirtió en la mayor de la red durante más de una
década. Fue precursora del tipo de actividad que observamos hoy día en la
290
World Wide Web , es decir, del enorme crecimiento de todas las formas de
tráfico persona a persona.
291
extremo seguro que pudiera mantener la comunicación efectiva frente a los
cortes e interferencias de radio y que pudiera manejar las pérdidas
intermitentes como las causadas por el paso a través de un túnel o el
bloqueo a nivel local. Kahn pensó primero en desarrollar un protocolo local
sólo para la red de paquetería por radio porque ello le hubiera evitado tratar
con la multitud de sistemas operativos distintos y continuar usando NCP.
Sin embargo, NCP no tenía capacidad para direccionar redes y máquinas
más allá de un destino IMP en ARPANET y de esta manera se requerían
ciertos cambios en el NCP. La premisa era que ARPANET no podía ser
cambiado en este aspecto. El NCP se basaba en ARPANET para
proporcionar seguridad extremo a extremo. Si alguno de los paquetes se
perdía, el protocolo y presumiblemente cualquier aplicación soportada
sufriría una grave interrupción. En este modelo, el NCP no tenía control de
errores en el host porque ARPANET había de ser la única red existente y
era tan fiable que no requería ningún control de errores en la parte de los
host s.
Así, Kahn decidió desarrollar una nueva versión del protocolo que pudiera
satisfacer las necesidades de un entorno de red de arquitectura abierta. El
protocolo podría eventualmente ser denominado "Transmisson-Control
Protocol/Internet Protocol" (TCP/IP, protocolo de control de transmisión
/protocolo de Internet). Así como el NCP tendía a actuar como un driver
(manejador) de dispositivo, el nuevo protocolo sería más bien un protocolo
de comunicaciones.
Ideas a prueba
DARPA formalizó tres contratos con Stanford (Cerf), BBN (Ray Tomlinson)
y UCLA (Peter Kirstein) para implementar TCP/IP (en el documento original
de Cerf y Kahn se llamaba simplemente TCP pero contenía ambos
componentes). El equipo de Stanford, dirigido por Cerf, produjo las
especificaciones detalladas y al cabo de un año hubo tres
implementaciones independientes de TCP que podían interoperar.
Este fue el principio de un largo periodo de experimentación y desarrollo
para evolucionar y madurar el concepto y tecnología de Internet. Partiendo
de las tres primeras redes ARPANET, radio y satélite y de sus comunidades
de investigación iniciales, el entorno experimental creció hasta incorporar
esencialmente cualquier forma de red y una amplia comunidad de
investigación y desarrollo [REK78]. Cada expansión afrontó nuevos
desafíos.
Las primeras implementaciones de TCP se hicieron para grandes sistemas
en tiempo compartido como Tenex y TOPS 20. Cuando aparecieron los
ordenadores de sobremesa (desktop), TCP era demasiado grande y
complejo como para funcionar en ordenadores personales. David Clark y su
292
equipo de investigación del MIT empezaron a buscar la implementación de
TCP más sencilla y compacta posible.
La desarrollaron, primero para el Alto de Xerox (la primera estación de
trabajo personal desarrollada en el PARC de Xerox), y luego para el PC de
IBM. Esta implementación operaba con otras de TCP, pero estaba
adaptada al conjunto de aplicaciones y a las prestaciones de un ordenador
personal, y demostraba que las estaciones de trabajo, al igual que los
grandes sistemas, podían ser parte de Internet.
En los años 80, el desarrollo de LAN, PC y estaciones de trabajo permitió
que la naciente Internet floreciera. La tecnología Ethernet, desarrollada por
Bob Metcalfe en el PARC de Xerox en 1973, es la dominante en Internet, y
los PCs y las estaciones de trabajo los modelos de ordenador dominantes.
El cambio que supone pasar de unas pocas redes con un modesto número
de hosts (el modelo original de ARPANET)) a tener muchas redes dio lugar
a nuevos conceptos y a cambios en la tecnología.
En primer lugar, hubo que definir tres clases de redes (A, B y C) para
acomodar todas las existentes. La clase A representa a las redes grandes,
a escala nacional (pocas redes con muchos ordenadores); la clase B
representa redes regionales; por último, la clase C representa redes de
área local (muchas redes con relativamente pocos ordenadores).
Como resultado del crecimiento de Internet, se produjo un cambio de gran
importancia para la red y su gestión. Para facilitar el uso de Internet por sus
usuarios se asignaron nombres a los host s de forma que resultara
innecesario recordar sus direcciones numéricas. Originalmente había un
número muy limitado de máquinas, por lo que bastaba con una simple tabla
con todos los ordenadores y sus direcciones asociadas.
El cambio hacia un gran número de redes gestionadas independientemente
(por ejemplo, las LAN) significó que no resultara ya fiable tener una
pequeña tabla con todos los host s. Esto llevó a la invención del DNS (
Domain Name System , sistema de nombres de dominio) por Paul
Mockapetris de USC/ISI. El DNS permitía un mecanismo escalable y
distribuido para resolver jerárquicamente los nombres de los host s (por
ejemplo, www.acm.org o www.ati.es ) en direcciones de Internet.
El incremento del tamaño de Internet resultó también un desafío para los
routers . Originalmente había un sencillo algoritmo de enrutamiento que
estaba implementado uniformemente en todos los routers de Internet. A
medida que el número de redes en Internet se multiplicaba, el diseño inicial
no era ya capaz de expandirse, por lo que fue sustituido por un modelo
jerárquico de enrutamiento con un protocolo IGP ( Interior Gateway Protocol
, protocolo interno de pasarela) usado dentro de cada región de Internet y
un protocolo EGP ( Exterior Gateway Protocol , protocolo externo de
pasarela) usado para mantener unidas las regiones.
293
El diseño permitía que distintas regiones utilizaran IGP distintos, por lo que
los requisitos de coste, velocidad de configuración, robustez y escalabilidad,
podían ajustarse a cada situación. Los algoritmos de enrutamiento no eran
los únicos en poner en dificultades la capacidad de los routers , también lo
hacía el tamaño de la tablas de direccionamiento. Se presentaron nuevas
aproximaciones a la agregación de direcciones (en particular CIDR,
Classless Interdomain Routing , enrutamiento entre dominios sin clase)
para controlar el tamaño de las tablas de enrutamiento.
A medida que evolucionaba Internet, la propagación de los cambios en el
software, especialmente el de los host s, se fue convirtiendo en uno de sus
mayores desafíos. DARPA financió a la Universidad de California en
Berkeley en una investigación sobre modificaciones en el sistema operativo
Unix, incorporando el TCP/IP desarrollado en BBN. Aunque posteriormente
Berkeley modificó esta implementación del BBN para que operara de forma
más eficiente con el sistema y el kernel de Unix, la incorporación de TCP/IP
en el sistema Unix BSD demostró ser un elemento crítico en la difusión de
los protocolos entre la comunidad investigadora.
BSD empezó a ser utilizado en sus operaciones diarias por buena parte de
la comunidad investigadora en temas relacionados con informática. Visto en
perspectiva, la estrategia de incorporar los protocolos de Internet en un
sistema operativo utilizado por la comunidad investigadora fue uno de los
elementos clave en la exitosa y amplia aceptación de Internet.
Uno de los desafíos más interesantes fue la transición del protocolo para
host s de ARPANET desde NCP a TCP/IP el 1 de enero de 1983. Se
trataba de una ocasión muy importante que exigía que todos los host s se
convirtieran simultáneamente o que permanecieran comunicados mediante
mecanismos desarrollados para la ocasión.
La transición fue cuidadosamente planificada dentro de la comunidad con
varios años de antelación a la fecha, pero fue sorprendentemente sobre
ruedas (a pesar de dar la lugar a la distribución de insignias con la
inscripción "Yo sobreviví a la transición a TCP/IP").
TCP/IP había sido adoptado como un estándar por el ejército
norteamericano tres años antes, en 1980. Esto permitió al ejército empezar
a compartir la tecnología DARPA basada en Internet y llevó a la separación
final entre las comunidades militares y no militares. En 1983 ARPANET
estaba siendo usada por un número significativo de organizaciones
operativas y de investigación y desarrollo en el área de la defensa. La
transición desde NCP a TCP/IP en ARPANET permitió la división en una
MILNET para dar soporte a requisitos operativos y una ARPANET para las
necesidades de investigación.
Así, en 1985, Internet estaba firmemente establecida como una tecnología
que ayudaba a una amplia comunidad de investigadores y desarrolladores,
294
y empezaba a ser empleada por otros grupos en sus comunicaciones
diarias entre ordenadores. El correo electrónico se empleaba ampliamente
entre varias comunidades, a menudo entre distintos sistemas. La
interconexión entre los diversos sistemas de correo demostraba la utilidad
de las comunicaciones electrónicas entre personas.
295
En 1985 Dennins Jenning acudió desde Irlanda para pasar un año en NFS
dirigiendo el programa NSFNET. Trabajó con el resto de la comunidad para
ayudar a la NSF a tomar una decisión crítica: si TCP/IP debería ser
obligatorio en el programa NSFNET. Cuando Steve Wolff llegó al programa
NFSNET en 1986 reconoció la necesidad de una infraestructura de red
amplia que pudiera ser de ayuda a la comunidad investigadora y a la
académica en general, junto a la necesidad de desarrollar una estrategia
para establecer esta infraestructura sobre bases independientes de la
financiación pública directa. Se adoptaron varias políticas y estrategias para
alcanzar estos fines.
La NSF optó también por mantener la infraestructura organizativa de
Internet existente (DARPA) dispuesta jerárquicamente bajo el IAB ( Internet
Activities Board , Comité de Actividades de Internet). La declaración pública
de esta decisión firmada por todos sus autores (por los grupos de
Arquitectura e Ingeniería de la IAB, y por el NTAG de la NSF) apareció
como la RFC 985 ("Requisitos para pasarelas de Internet") que
formalmente aseguraba la interoperatividad entre las partes de Internet
dependientes de DARPA y de NSF.
El backbone había hecho la transición desde una red construida con routers
de la comunidad investigadora (los routers Fuzzball de David Mills) a
equipos comerciales. En su vida de ocho años y medio, el backbone había
crecido desde seis nodos con enlaces de 56Kb a 21 nodos con enlaces
múltiples de 45Mb.Había visto crecer Internet hasta alcanzar más de 50.000
redes en los cinco continentes y en el espacio exterior, con
aproximadamente 29.000 redes en los Estados Unidos.
El efecto del ecumenismo del programa NSFNET y su financiación (200
millones de dólares entre 1986 y 1995) y de la calidad de los protocolos fue
tal que en 1990, cuando la propia ARPANET se disolvió, TCP/IP había
sustituido o marginado a la mayor parte de los restantes protocolos de
grandes redes de ordenadores e IP estaba en camino de convertirse en el
servicio portador de la llamada Infraestructura Global de Información.
El papel de la documentación
296
En 1969 S.Crocker, entonces en UCLA, dio un paso clave al establecer la
serie de notas RFC ( Request For Comments , petición de comentarios).
Estos memorándums pretendieron ser una vía informal y de distribución
rápida para compartir ideas con otros investigadores en redes. Al principio,
las RFC fueron impresas en papel y distribuidas vía correo "lento". Pero
cuando el FTP ( File Transfer Protocol , protocolo de transferencia de
ficheros) empezó a usarse, las RFC se convirtieron en ficheros difundidos
online a los que se accedía vía FTP.
Hoy en día, desde luego, están disponibles en el World Wide Web en
decenas de emplazamientos en todo el mundo. SRI, en su papel como
Centro de Información en la Red, mantenía los directorios online . Jon
Postel actuaba como editor de RFC y como gestor de la administración
centralizada de la asignación de los números de protocolo requeridos,
tareas en las que continúa hoy en día.
El efecto de las RFC era crear un bucle positivo de realimentación, con
ideas o propuestas presentadas a base de que una RFC impulsara otra
RFC con ideas adicionales y así sucesivamente. Una vez se hubiera
obtenido un consenso se prepararía un documento de especificación. Tal
especificación seria entonces usada como la base para las
implementaciones por parte de los equipos de investigación.
Con el paso del tiempo, las RFC se han enfocado a estándares de
protocolo –las especificaciones oficiales- aunque hay todavía RFC
informativas que describen enfoques alternativos o proporcionan
información de soporte en temas de protocolos e ingeniería. Las RFC son
vistas ahora como los documentos de registro dentro de la comunidad de
estándares y de ingeniería en Internet.
El acceso abierto a las RFC –libre si se dispone de cualquier clase de
conexión a Internet- promueve el crecimiento de Internet porque permite
que las especificaciones sean usadas a modo de ejemplo en las aulas
universitarias o por emprendedores al desarrollar nuevos sistemas.
El e-mail o correo electrónico ha supuesto un factor determinante en todas
las áreas de Internet, lo que es particularmente cierto en el desarrollo de las
especificaciones de protocolos, estándares técnicos e ingeniería en
Internet. Las primitivas RFC a menudo presentaban al resto de la
comunidad un conjunto de ideas desarrolladas por investigadores de un
solo lugar. Después de empezar a usarse el correo electrónico, el modelo
de autoría cambió: las RFC pasaron a ser presentadas por coautores con
visiones en común, independientemente de su localización.
Las listas de correo especializadas ha sido usadas ampliamente en el
desarrollo de la especificación de protocolos, y continúan siendo una
herramienta importante. El IETF tiene ahora más de 75 grupos de trabajo,
cada uno dedicado a un aspecto distinto de la ingeniería en Internet. Cada
297
uno de estos grupos de trabajo dispone de una lista de correo para discutir
uno o más borradores bajo desarrollo. Cuando se alcanza el consenso en el
documento, éste puede ser distribuido como una RFC.
Debido a que la rápida expansión actual de Internet se alimenta por el
aprovechamiento de su capacidad de promover la compartición de
información, deberíamos entender que el primer papel en esta tarea
consistió en compartir la información acerca de su propio diseño y
operación a través de los documentos RFC. Este método único de producir
nuevas capacidades en la red continuará siendo crítico para la futura
evolución de Internet.
El futuro: Internet 2
Internet2 es el futuro de la red de redes y está formado actualmente por un
consorcio dirigido por 206 universidades que junto a la industria de
comunicaciones y el gobierno están desarrollando nuevas técnicas de
conexión que acelerarán la capacidad de transferencia entre servidores.
Sus objetivos están enfocados a la educación y la investigación académica.
Además buscan aprovechar aplicaciones de audio y video que demandan
más capacidad de transferencia de ancho de banda.
298
Lenguajes de Programación
Los ordenadores no hablan nuestro idioma, son maquinas y como tales,
necesitan un lenguaje especifico pensado por el hombre para ellas.
Además, necesitan constantemente interpretar todas las instrucciones que
reciben. Dada la dificultad de comunicación entre el computador y el
programador, de formaron los lenguajes de programación que hacen
posible la comunicación con el microprocesador, utilizando términos y
símbolos relacionados con el tipo de problema que se debe resolver,
mediante el empleo de herramientas que brinda la informática.
Estos lenguajes permiten, por un lado, escribir las operaciones que son
necesarias realizar para resolver el problema de un modo parecido a como
se escribiría. En la actualidad hay muchos tipos de lenguajes de
programación, cada uno de ellos con su propia gramática, su terminología
especial y una sintaxis particular. Por ejemplo, existen algunos creados
especialmente para aplicaciones científicas o matemáticas generales
(BASIC, FORTRAN, PASCAL, etc. ); otros, en cambio, se orientan al campo
empresarial y al manejo de textos y ficheros, es decir, son en realidad
fundamentalmente gestores de información (COBOL, PL/1, etc. ), o muy
relacionados con el lenguaje máquina del ordenador (como el C y el
ASSEMBLER).
Los ordenadores se programaban en lenguaje máquina pero las dificultades
que esto llevaba, junto con la enorme facilidad de cometer errores, cuya
localización era larga y difícil, hicieron que, en la década de los 40, la
posibilidad de usar lenguajes simbólicos. Los primeros en aparecer fueron
los ensambladores, fundamentalmente consistía en dar un nombre a cada
tipo de instrucción y cada dirección. Al principio sé hacia el programa sobre
papel y, después se traducía a mano con la ayuda de unas tablas, y se
introducían en la máquina en forma numérica, pero pronto aparecieron
programas que se ensamblaban automáticamente.
DEFINICIONES
Un lenguaje de programación es una notación para escribir programas, a
través de los cuales podemos comunicarnos con el hardware y dar así las
ordenes adecuadas para la realización de un determinado proceso. Un
lenguaje esta definido por una gramática o conjunto de reglas que se
aplican a un alfabeto constituido por el conjunto de símbolos utilizados. Los
distintos niveles de programación existentes nos permiten acceder al
299
hardware, de tal forma que según utilicemos un nivel u otro, así tendremos
que utilizar un determinado lenguaje ligado a sus correspondientes
traductores.
. Es un conjunto de palabras y símbolos que permiten al usuario generar
comandos e instrucciones para que la computadora los ejecute. Los
lenguajes de programación deben tener instrucciones que pertenecen a las
categorías ya familiares de entrada/salida, calculo/manipulación, de textos,
logica/comparación, y almacenamiento/recuperación.
HISTORIA
Los primeros lenguajes de programación surgieron de la idea de Charles
Babagge, la cual se le ocurrió a este hombre a mediados del siglo XIX. Era
un profesor matemático de la universidad de Cambridge e inventor ingles,
que la principio del siglo XIX predijo muchas de las teorías en que se basan
los actuales ordenadores. Consistía en lo que él denominaba la maquina
analítica, pero que por motivos técnicos no pudo construirse hasta
mediados del siglo XX. Con él colaboro Ada Lovedby, la cual es
considerada como la primera programadora de la historia, pues realizo
programas para aquélla supuesta maquina de Babagge, en tarjetas
perforadas. Como la maquina no llego nunca a construirse, los programas
de Ada, lógicamente, tampoco llegaron a ejecutarse, pero si suponen un
punto de partida de la programación, sobre todo si observamos que en
cuanto se empezó a programar, los programadores utilizaron las técnicas
diseñadas por Charles Babagge, y Ada, que consistían entre otras, en la
programación mediante tarjetas perforadas. A pesar de ello, Ada ha
permanecido como la primera programadora de la historia. Se dice por
tanto que estos dos genios de antaño, se adelantaron un siglo a su época,
lo cual describe la inteligencia de la que se hallaban dotados.
En 1823 el gobierno Británico lo apoyo para crear el proyecto de una
máquina de diferencias, un dispositivo mecánico para efectuar sumas
repetidas. Pero Babagge se dedico al proyecto de la máquina analítica,
abandonando la maquina de diferencias, que se pudiera programar con
tarjetas perforadas, gracias a la creación de Charles Jacquard (francés).
Este hombre era un fabricante de tejidos y había creado un telar que podía
reproducir automáticamente patrones de tejidos, leyendo la información
codificada en patrones de agujeros perforados en tarjetas de papel rígido.
Entonces Babagge intento crear la máquina que se pudiera programar con
tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20
dígitos. Pero la tecnología de la época no bastaba para hacer realidad sus
ideas. Si bien las ideas de Babagge no llegaron a materializarse de forma
definitiva, su contribución es decisiva, ya que los ordenadores actuales
responden a un esquema análogo al de la máquina analítica. En su diseño,
la máquina constaba de cinco unidades básicas: 1) Unidad de entrada, para
introducir datos e instrucciones; 2) Memoria, donde se almacenaban datos
y resultados intermedios; 3) Unidad de control, para regular la secuencia de
300
ejecución de las operaciones; 4) Unidad Aritmético-Lógica, que efectúa las
operaciones; 5) Unidad de salida, encargada de comunicar al exterior los
resultados. Charles Babbage, conocido como el "padre de la informática" no
pudo completar en aquella época la construcción del computador que había
soñado, dado que faltaba algo fundamental: la electrónica. El camino
señalado de Babbage, no fue nunca abandonado y siguiéndolo, se
construyeron los primeros computadores.
Cuando surgió el primer ordenador, el famoso ENIAC (Electronic Numerical
Integrator And Calculator), su programación se basaba en componentes
físicos, o sea, que se programaba, cambiando directamente el Hardware de
la maquina, exactamente lo que sé hacia era cambiar cables de sitio para
conseguir así la programación de la maquina. La entrada y salida de datos
se realizaba mediante tarjetas perforadas.
LAS TENDENCIAS DE LOS LENGUAJES DE PROGRAMACIÓN
El estudio de los lenguajes de programación agrupa tres intereses
diferentes; el del programador profesional, el del diseñador del lenguaje y
del Implementador del lenguaje.
Además, estos tres trabajos han de realizarse dentro de las ligaduras y
capacidades de la organización de una computadora y de las limitaciones
fundamentales de la propia "calculabilidad". El termino "el programador" es
un tanto amorfo, en el sentido de que camufla importantes diferencias entre
distintos niveles y aplicaciones de la programación. Claramente el
programador que ha realizado un curso de doce semanas en COBOL y
luego entra en el campo del procesamiento de datos es diferente del
programador que escribe un compilador en Pascal, o del programador que
diseña un experimento de inteligencia artificial en LISP, o del programador
que combina sus rutinas de FORTRAN para resolver un problema de
ingeniería complejo, o del programador que desarrolla un sistema operativo
multiprocesador en ADA.
En este trabajo, intentare clarificar estas distinciones tratando diferentes
lenguajes de programación en el contexto de cada área de aplicación
diferente. El "diseñador del lenguaje" es también un termino algo nebuloso.
Algunos lenguajes (como APL y LISP) fueron diseñados por una sola
persona con un concepto único, mientras que otros (FORTRAN y COBOL)
son el producto de desarrollo de varios años realizados por comités de
diseño de lenguajes.
El "Implementador del lenguaje" es la persona o grupo que desarrolla un
compilador o interprete para un lenguaje sobre una maquina particular o
tipos de maquinas. Mas frecuentemente, el primer compilador para el
lenguaje Y sobre la maquina X es desarrollada por la corporación que
manufactura la maquina X . Por ejemplo, hay varios compiladores de
Fortran en uso; uno desarrollado por IBM para una maquina IBM, otro
301
desarrollado por DEC para una maquina DEC, otro por CDC, y así
sucesivamente. Las compañías de software también desarrollan
compiladores y también lo hacen los grupos de investigación de las
universidades. Por ejemplo, la universidad de Waterloo desarrolla
compiladores para FORTRAN Y PASCAL, los cuales son útiles en un
entorno de programación de estudiantes debido a su superior capacidad de
diagnostico y velocidad de compilación.
Hay también muchos aspectos compartidos entre los programadores,
diseñadores de un lenguaje implementadores del mismo. Cada uno debe
comprender las necesidades y ligaduras que gobiernan las actividades de
los otros dos.
Hay, al menos, dos formas fundamentales desde las que pueden verse o
clasificarse los lenguajes de programación: por su nivel y por principales
aplicaciones. Además, estas visiones están condicionadas por la visión
histórica por la que ha transcurrido el lenguaje. Además, hay cuatro niveles
distintos de lenguaje de programación.
Los "Lenguajes Declarativos" son los mas parecidos al castellano o ingles
en su potencia expresiva y funcionalidad están en el nivel mas alto respecto
a los otros. Son fundamentalmente lenguajes de ordenes, dominados por
sentencias que expresan "Lo que hay que hacer" en ves de "Como
hacerlo". Ejemplos de estos lenguajes son los lenguajes estadísticos como
SAS y SPSS y los lenguajes de búsqueda en base de datos, como
NATURAL e IMS. Estos lenguajes se desarrollaron con la idea de que los
profesionales pudieran asimilar mas rápidamente el lenguaje y usarlo en su
trabajo, sin necesidad de programadores o practicas de programación.
Los lenguajes de " Alto Nivel" son los más utilizados como lenguaje de
programación. Aunque no son fundamentalmente declarativos, estos
lenguajes permiten que los algoritmos se expresen en un nivel y estilo de
escritura fácilmente legible y comprensible por otros programadores.
Además, los lenguajes de alto nivel tienen normalmente las características
de " Transportabilidad". Es decir, están implementadas sobre varias
maquinas de forma que un programa puede ser fácilmente " Transportado "
(Transferido) de una maquina a otra sin una revisión sustancial. En ese
sentido se llama "Independientes de la maquina". Ejemplos de estos
lenguajes de alto nivel son PASCAL, APL y FORTRAN (para aplicaciones
científicas), COBOL (para aplicaciones de procesamiento de datos),
SNOBOL( para aplicaciones de procesamiento de textos), LISP y PROLOG
(para aplicaciones de inteligencia artificial), C y ADA (para aplicaciones de
programación de sistemas) y PL/I (para aplicaciones de propósitos
generales).
Los "Lenguajes Ensambladores" y los "Lenguajes Maquina" son
dependientes de la maquina. Cada tipo de maquina, tal como VAX de
digital, tiene su propio lenguaje maquina distinto y su lenguaje ensamblador
302
asociado. El lenguaje Ensamblador es simplemente una representación
simbólica del lenguaje maquina asociado, lo cual permite una programación
menos tediosa que con el anterior. Sin embargo, es necesario un
conocimiento de la arquitectura mecánica subyacente para realizar una
programación efectiva en cualquiera de estos niveles lenguajes.
Los siguientes tres segmentos del programa equivalentes exponen las
distinciones básicas entre lenguajes maquina, ensambladores de alto nivel:
Como muestra este ejemplo, a mas bajo nivel de lenguaje mas cerca esta
de las características de un tipo e maquina particular y más alejado de ser
comprendido por un humano ordinario. Hay también una estrecha relación (
correspondencia 1:1) entre las sentencias en lenguaje ensamblador y sus
formas en lenguaje maquina codificada. La principal diferencia aquí es que
los lenguajes ensambladores se utilizan símbolos (X, Y, Z, A para " sumar",
M para "multiplicar"), mientras que se requieren códigos numéricos
(OC1A4, etc.) para que lo comprenda la maquina.
La programación de un lenguaje de alto nivel o en un lenguaje ensamblador
requiere, por tanto, algún tipo de interfaz con el lenguaje maquina para que
el programa pueda ejecutarse. Las tres interfaces más comunes: un
"ensamblador”, un "compilador" y un "interprete". El ensamblador y el
compilador traducen el programa a otro equivalente en el lenguaje X de la
maquina "residente" como un paso separado antes de la ejecución. Por otra
parte, el interprete ejecuta directamente las instrucciones en un lenguaje Y
de alto nivel, sin un paso de procesamiento previo.
La compilación es, en general, un proceso más eficiente que la
interpretación para la mayoría de los tipos de maquina. Esto se debe
principalmente a que las sentencias dentro de un "bucle" deben ser
reinterpretadas cada vez que se ejecutan por un interprete. Con un
compilador. Cada sentencia es interpretada y luego traducida a lenguaje
maquina solo una vez.
Algunos lenguajes son lenguajes principalmente interpretados, como APL,
PROLOG y LISP. El resto de los lenguajes -- Pascal, FORTRAN, COBOL,
PL/I, SNOBOL, C, Ada y Modula-2 - son normalmente lenguajes
compilados. En algunos casos, un compilador estará utilizable
alternativamente para un lenguaje interpretado (tal como LISP) e
inversamente (tal como el interprete SNOBOL4 de los laboratorios Bell). 1
Frecuentemente la interpretación es preferible a la compilación en un
entorno de programación experimental o de educación, donde cada nueva
ejecución de un programa implicado un cambio en el propio texto del
programa. La calidad de diagnosis y depuración que soportan los lenguajes
interpretados es generalmente mejor que la de los lenguajes compilados,
puesto que los mensajes de error se refieren directamente a sentencias del
texto del programa original. Además, la ventaja de la eficiencia que se
303
adjudica tradicionalmente a los lenguajes compilados frente a los
interpretados puede pronto ser eliminado, debido a la evolución de las
maquinas cuyos lenguajes son ellos mismos1lenguajes de alto nivel. Como
ejemplo de estos están las nuevas maquinas LISP, las cuales han sido
diseñadas recientemente por Symbolics y Xerox Corporations.
Los lenguajes de Programación son tomados de diferentes perspectivas. Es
importante para un programador decidir cuales conceptos emitir o cuales
incluir en la programación. Con frecuencia el programador es osado a usar
combinaciones de conceptos que hacen al lenguaje "DURO" de usar, de
entender e implementar. Cada programador tiene en mente un estilo
particular de programación, la decisión de incluir u omitir ciertos tipos de
datos que pueden tener una significativa influencia en la forma en que el
Lenguaje es usado, la decisión de usar u omitir conceptos de programación
o modelos.
Existen cinco estilos de programación y son los siguientes:
Orientados a Objetos.
Imperativa : Entrada, procesamiento y salidas de Datos.
Funcional : "Funciones", los datos son funciones, los resultados pueden ser
un valor o una función.
Lógico : {T, F} + operaciones lógicas (Inteligencia Artificial).
Concurrente : Aún esta en proceso de investigación.
El programador, diseñador e implementador de un lenguaje de
programación deben comprender la evolución histórica de los lenguajes
para poder apreciar por que presentan características diferentes. Por
ejemplo, los lenguajes "mas jóvenes" desaconsejan (o prohíben) el uso de
las sentencias GOTO como mecanismo de control inferior, y esto es
correcto en el contexto de las filosofías actuales de ingeniería del software y
programación estructurada. Pero hubo un tiempo en que la GOTO,
combinada con la IF, era la única estructura de control disponible; el
programador no dispone de algo como la construcción WHILE o un IF-
THEN-ELSE para elegir. Por tanto, cuando se ve un lenguaje como
FORTRAN, el cual tiene sus raíces en los comienzos de la historia de los
lenguajes de programación, uno no debe sorprenderse de ver la antigua
sentencia GOTO dentro de su repertorio.
Lo más importante es que la historia nos permite ver la evolución de
familias de lenguajes de programación, ver la influencia que ejercer las
arquitecturas y aplicaciones de las computadoras sobre el diseño de
lenguajes y evitar futuros defectos de diseño aprendido las lecciones del
pasado. Los que estudian se han elegido debido a su mayor influencia y
amplio uso entre los programadores, así como por sus distintas
304
características de diseño e implementación. Colectivamente cubren los
aspectos más importantes con los que ha de enfrentarse el diseñado de
lenguajes y la mayoría de las aplicaciones con las que se enfrenta el
programador. Para los lectores que estén interesados en conocer con mas
detalle la historia de los lenguajes de programación recomendamos las
actas de una recién conferencia (1981) sobre este tema, editadas por
Richard Wexelblat. Vemos que FORTRAN I es un ascendente directo de
FORTRAN II, mientras que FORTRAN, COBOL, ALGO 60, LISP, SNOBOL
y los lenguajes ensambladores, influyeron en el diseño de PL/I.
También varios lenguajes están prefijados por las letras ANS. Esto significa
que el American National Standards Institute ha adoptado esa versión del
lenguaje como el estándar nacional. Una vez que un lenguaje esta
estandarizado, las maquinas que implementan este lenguaje deben cumplir
todas las especificaciones estándares, reforzando así el máximo de
transportabilidad de programas de una maquina a otra. La policía federal de
no comprar maquinas que no cumplan la versión estándar de cualquier
lenguaje que soporte tiende a "fortalecer" el proceso de estandarización,
puesto que el gobierno es, con mucho, el mayor comprador de
computadoras de la nación.
Finalmente, la notación algebraica ordinaria, por ejemplo, influyo
fuertemente en el diseño de FORTRAN y ALGOL. Por otra parte, el ingles
influyo en el desarrollo del COBOL. El lambda calculo de Church dio los
fundamentos de la notación funcional de LISP, mientras que el algoritmo de
Markov motivo el estilo de reconocimiento de formas de SNOBOL. La
arquitectura de computadoras de Von Neumann, la cual fue una evolución
de la maquina más antigua de Turing, es el modelo básico de la mayoría de
los diseños de computadoras de las ultimas tres décadas. Esta maquina no
solo influyeron en los primeros lenguajes sino que también suministraron el
esqueleto operacional sobre el que evoluciono la mayoría de la
programación de sistemas.
Una discusión más directa de todos estos primeros modelos no están entre
los objetivos de este texto. Sin embargo, es importante apuntar aquí debido
a su fundamental influencia en la evolución de los primeros lenguajes de
programación, por una parte, y por su estado en el núcleo de la teoría de la
computadora, por otra. Mas sobre este punto, cualquier algoritmo que
pueda describirse en ingles o castellano puede escribirse igualmente como
una maquina de Turing (maquina de Von Neumann), un algoritmo de
Markov o una función recursiva. Esta sección, conocida ampliamente como
"tesis de Church", nos permite escribir algoritmos en distintos estilos de
programación (lenguajes) sin sacrificar ninguna medida de generalidad, o
potencia de programación, en la transición.
CLASIFICACION DE LOS LENGUAJES DE PROGRAMACIÓN
LENGUAJE MÁQUINA:
305
El lenguaje máquina es el único que entiende directamente la computadora,
ya que esta escrito en lenguajes directamente inteligibles por la máquina
(computadora), utiliza el alfabeto binario, que consta de los dos únicos
símbolos 0 y 1, denominados bits (abreviatura inglesa de dígitos binarios).
Sus instrucciones son cadenas binarias (cadenas o series de caracteres de
dígitos 0 y 1) que especifican una operación y, las posiciones (dirección) de
memoria implicadas en la operación se denominan instrucciones de
máquina o código maquina. Fue el primer lenguaje utilizado en la
programación de computadoras, pero dejo de utilizarse por su dificultad y
complicación, siendo sustituido por otros lenguajes más fáciles de aprender
y utilizar, que además reducen la posibilidad de cometer errores. El
lenguaje máquina es el conocido código binario. Generalmente, en la
codificación de los programas se empleaba el sistema hexadecimal para
simplificar el trabajo de escritura. Todas las instrucciones preparadas en
cualquier lenguaje máquina tienen por lo menos dos partes. La primera es
el comando u operación, que dice a las computadoras cual es la función
que va a realizar. Todas las computadoras tienen un código de operación
para cada una de las funciones. La segunda parte de la instrucción es el
operando, que indica a la computadora donde hallar o almacenar los datos
y otras instrucciones que se van a manipular, el número de operándoos de
una instrucción varia en distintas computadoras.
Ventajas del lenguaje máquina: posibilidad de cargar (transferir un
programa a la memoria) sin necesidad de traducción posterior, lo que
supone una velocidad de ejecución superior a cualquier otro lenguaje de
programación.
Desventajas del lenguaje máquina: dificultad y lentitud en la codificación.
Poca fiabilidad. Gran dificultad para verificar y poner a punto los programas.
Los programas solo son ejecutables en el mismo procesador (CPU). En la
actualidad, las desventajas superan a las ventajas, lo que hace
prácticamente no recomendables a los lenguajes máquina.
LENGUAJES DE BAJO NIVEL (ensamblador):
Son más fáciles de utilizar que los lenguajes máquina, pero al igual que
ellos, dependen de la máquina en particular. El lenguaje de bajo nivel por
excelencia es el ensamblador. El lenguaje ensamblador es el primer intento
de sustituir el lenguaje maquina por otro más similar a los utilizados por las
personas. Este intenta desflexibilizar la representación de los diferentes
campos. Esa flexibilidad se consigue no escribiendo los campos en binario
y aproximando la escritura al lenguaje. A principios de la década de los 50 y
con el fin de facilitar la labor de los programadores, se desarrollaron
códigos mnemotécnicos para las operaciones y direcciones simbólicas. Los
códigos mnemotécnicas son los símbolos alfabéticos del lenguaje maquina.
La computadora sigue utilizando el lenguaje maquina para procesar los
datos, pero los programas ensambladores traducen antes los símbolos de
código de operación especificados a sus equivalentes en el lenguaje
306
maquina. En la actualidad los programadores no asignan números de
dirección reales a los datos simbólicos, simplemente especifican donde
quieren que se coloque la primera localidad del programa y el programa
ensamblador se encarga de lo demás, asigna localidades tanto para las
instrucciones como los datos. Estos programas de ensamble o
ensambladores también permiten a la computadora convertir las
instrucciones en lenguaje ensamblador del programador en su propio
código maquina. Un programa de instrucciones escrito en lenguaje
ensamblador por un programador se llama programa fuente. Después de
que el ensamblador convierte el programa fuente en código maquina a este
se le denomina programa objeto. Para los programadores es más fácil
escribir instrucciones en un lenguaje ensamblador que en código de
lenguaje maquina pero es posible que se requieran dos corridas de
computadora antes de que se puedan utilizar las instrucciones del
programa fuente para producir las salidas deseadas.
El lenguaje de bajo nivel es el lenguaje de programación que el ordenador
puede entender a la hora de ejecutar programas, lo que aumenta su
velocidad de ejecución, pues no necesita un intérprete que traduzca cada
línea de instrucciones.
Visto a muy bajo nivel, los microprocesadores procesan exclusivamente
señales electrónicas binarias. Dar una instrucción a un microprocesador
supone en realidad enviar series de unos y ceros espaciadas en el tiempo
de una forma determinada. Esta secuencia de señales se denomina código
máquina. El código representa normalmente datos y números e
instrucciones para manipularlos. Un modo más fácil de comprender el
código máquina es dando a cada instrucción un mnemónico, como por
ejemplo STORE, ADD o JUMP. Esta abstracción da como resultado el
ensamblador, un lenguaje de muy bajo nivel que es específico de cada
microprocesador.
Los lenguajes de bajo nivel permiten crear programas muy rápidos, pero
que son, a menudo, difíciles de aprender. Más importante es el hecho de
que los programas escritos en un bajo nivel sean altamente específicos de
cada procesador. Si se lleva el programa a otra maquina se debe reescribir
el programa desde el principio.
Ventajas del lenguaje ensamblador frente al lenguaje máquina: mayor
facilidad de codificación y, en general, su velocidad de calculo, ahorran
tiempo y requieren menos atención a detalles. Se incurren en menos
errores y los que se cometen son más fáciles de localizar. Tanto el lenguaje
maquina como el ensamblador gozan de la ventaja de mínima ocupación de
memoria y mínimo tiempo de ejecución en comparación con el resultado de
la compilación del programa equivalente escrito en otros lenguajes. Los
programas en lenguaje ensamblador son más fáciles de modificar que los
programas en lenguaje máquina.
307
Desventajas del lenguaje ensamblador: dependencia total de la maquina lo que
impide la transportabilidad de los programas (posibilidad de ejecutar un programa
en diferentes máquinas). El lenguaje ensamblador del PC es distinto del lenguaje
ensamblador del Apple Machintosh. La formación de los programadores es más
compleja que la correspondiente a los programadores de alto nivel, ya que exige
no solo las técnicas de programación, sino también el conocimiento del interior de
la maquina El programador ha de conocer perfectamente el hardware del equipo,
ya que maneja directamente las posiciones de memoria, registros del procesador y
demás elementos físicos. Todas las instrucciones son elementales, es decir, en el
programa se deben describir con el máximo detalle todas las operaciones que se
han de efectuar en la maquina para la realización de cualquier proceso.
Estos lenguajes son los mas utilizado por los programadores. Están diseñados
para que las personas escriban y entiendan los programas de un modo mucho
mas fácil que los lenguajes máquina y ensamblador. Un programa escrito en
lenguaje de alto nivel es independiente de la máquina (las instrucciones no
dependen del diseño del hardware o de una computadora en particular), por lo que
estos programas son portables o transportables. Los programas escritos en
lenguaje de alto nivel pueden ser ejecutados con poca o ninguna modificación en
diferentes tipos de computadoras. Son lenguajes de programación en los que las
instrucciones enviadas para que el ordenador ejecute ciertas órdenes son
similares al lenguaje humano. Dado que el ordenador no es capaz de reconocer
estas ordenes, es necesario el uso de un intérprete que traduzca el lenguaje de
alto nivel a un lenguaje de bajo nivel que el sistema pueda entender.
Por lo general se piensa que los ordenadores son máquinas que realizan tareas
de cálculos o procesamiento de texto. La descripción anterior es sólo una forma
muy esquemática de ver una computadora. Hay un alto nivel de abstracción entre
lo que se pide a la computadora y lo que realmente comprende. Existe también
una relación compleja entre los lenguajes de alto nivel y el código máquina.
Los lenguajes de alto nivel son normalmente fáciles de aprender porque están
formados por elementos de lenguajes naturales, como el inglés. En BASIC, el
lenguaje de alto nivel más conocido, los comandos como “IF CONTADOR=10
THEN STOP” pueden utilizarse para pedir a la computadora que pare si
CONTADOR es igual a diez. Por desgracia para muchas personas esta forma de
trabajar es un poco frustrante, dado que a pesar de que las computadoras parecen
comprender un lenguaje natural, lo hacen en realidad de una forma rígida y
sistemática.
308
Los lenguajes de alto nivel, también denominados lenguajes evolucionados,
surgen con posterioridad a los anteriores (lenguaje máquina, lenguajes de bajo
nivel o ensamblador) con los siguientes objetivos, entre otros:
Se puede decir que el principal problema que presentan los lenguajes de alto nivel
es la gran cantidad de ellos que existen actualmente en uso, además de las
diferentes versiones o dialectos que se han desarrollado de algunos de ellos. Es
difícil establecer una clasificación general de los mismos, ya que en cualquiera
que se realice habrá lenguajes que pertenezcan a mas de uno de los grupos
establecidos. Una clasificación muy extendida, atendiendo a la forma de trabajar
de los programas y a la filosofía con que fueron concebidos, es la siguiente:
309
• Lenguajes orientados a objetos. El diseño de los programas se basa mas
en los datos y su estructura. La unidad de proceso es el objeto y en el se
incluyen los datos (variables) y las operaciones que actúan sobre ellos
(Smalltalk, C++).
Código fuente: esta creado en algún lenguaje de alto nivel, por lo que es entendido
100% por el ser humano. Este debe estar complementado por su documentación o
manuales donde se indica el desarrollo lógico del mismo.
Código objeto: es creado por los compiladores y nos sirve como enlace entre el
programa fuente y el ejecutable.
310
ALGUNOS LEGUAJES DE PROGRAMACIÓN DE ALTO NIVEL
FORTRAN
COBOL
PL/I
Fue creado a comienzos de los años sesenta por IBM para ser usado en sus
equipos del sistema 360. Inspirándose en los lenguajes ALGOL, COBOL y
FORTRAN se desarrollo el PL/I (Programming Language/I) tomando las mejores
características de los anteriores y añadiendo algunas nuevas, con el objetivo de
obtener un lenguaje lo mas general posible en cuanto a su implementación, útil
para aplicaciones técnico-científicas, comerciales, de proceso de textos, de bases
312
de datos y de programación de sistemas. Se trata de un lenguaje de programación
complejo. Compilado y estructurado, es capaz de gestionar errores y de procesar
multitareas, y se emplea en entornos académicos y de investigación.
BASIC
El lenguaje BASIC fue diseñado por los profesores John G. Kemeny y Thomas E.
Kurtz del Dartmouth College (Estados Unidos) en 1965, con el objetivo principal de
proporcionar a los principiantes un lenguaje fácil de aprender, como se indica en
su nombre Beginner's All-purpose Symbolic Instruction Code (Código de
instrucciones simbólico de propósito general para principiantes). Es un lenguaje
interactivo muy popular que tiene una aceptación debido a la facilidad de su uso,
es un idioma simple para aprender y fácil de traducir. Que sé interactivo, permite la
comunicación directa entre el usuario y el sistema de computo durante la
preparación y uso de los programas.
PASCAL
Este lenguaje fue creado en 1972 por Dennis Ritchie a partir del trabajo elaborado
por su colega de los laboratorios Bell Telephone, Ken Thompson. Estos habían
diseñado con anterioridad el sistema operativo UNIX, y su intención al desarrollar
el lenguaje C fue la de conseguir un lenguaje idóneo para la programación de
sistemas que fuese independiente de la maquina, con el cual escribir su sistema
UNIX.
MODULA-2
ADA
LISP
LOGO
315
importante de Logo son los gráficos de tortuga, que permiten al programador
hacer dibujos simples dirigiendo los movimientos de la tortuga en la pantalla hacia
adelante, hacia la derecha o la izquierda. Una vez que dominan el entorno sencillo
del dibujo, el programador (normalmente un niño o una niña) empieza a descubrir
las características más sofisticadas del lenguaje, que están basadas
fundamentalmente en el lenguaje de programación LISP. Logo está considerado
como un lenguaje para la formación, a pesar de que algunas empresas intentaron
que tuviera una mayor aceptación en los círculos profesionales de programación.
RPG
Report Program Operator fue introducido en 1960 como un lenguaje para duplicar
rápidamente el enfoque de proceso utilizado con un equipo de tarjeta perforada.
Este lenguaje fue desarrollado por IBM en 1964. Su uso esta aun limitado sobre
todo para las aplicaciones de negocios que son procesadas en pequeñas
computadoras, generar informes comerciales o de negocios. Como su nombre lo
sugiere, el RPG esta diseñado para generar los reportes de salida que resultan del
proceso de aplicaciones de negocios.
Una ventaja del RPG es la relativa facilidad para aprenderlo y usarlo. Dado que la
lógica de la programación es fija, existen menos reglas formales que en otros
lenguajes.
ALGOL
APL
316
por su capacidad de generación de matrices y se utiliza en el desarrollo de
modelos matemáticos.
PILOT
SMALLTALK
317
FORTH
LENGUAJE C++
Se pronuncia “ce plus plus”. Fue desarrollada por Bjarme Stroustrup en los Bell
Laboratories a principios de la década de los 80. C++ introduce la programación
orientada al objeto en C. Es un lenguaje extremadamente poderoso y eficiente. C+
+ es un super conjunto de C, para aprender C++ significa aprender todo de C,
luego aprender programación orientada al objeto y el uso de éstas con C++.
DELPHI
Delphi es la versión de Delphi para 32 bits (delphi 3), es decir son casi los mismos,
con la única diferencia que Delphi 3 es mucho más mejorado, por ejemplo
contiene un TeeChart, que sirve para los gráficos de negocio.
JAVA
318
JAVASCRIPT
Primera Generación
Segunda Generación
319
En esta generación las computadoras se reducen de tamaño y son de menor
costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas
para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de
Manchester.
Tercera generación
La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90,
195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve
canales, paquetes de discos magnéticos y otras características que ahora son
estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido
por aplicaciones).
Cuarta Generación
Quinta Generación
320
capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no
a través de códigos o lenguajes de control especializados.
Luz Neón
El neón (del griego neos, nuevo) fue descubierto por William Ramsay y Morris
Travers en 1898 por la destilación fraccionada del aire líquido.
El neón es un elemento químico de numero atómico 10 y símbolo Ne. Es un gas
noble, incoloro, prácticamente inerte, presente en trazas en el aire, pero muy
abundante en el universo, que proporciona un tono rojizo característico a la luz de
las lámparas fluorescentes en las que se emplea.
Sus principales características son:
Es el segundo gas noble más ligero, y presenta un poder de refrigeración, por
unidad de volumen, 40 veces mayor que el del helio líquido y tres veces mayor
321
que el del hidrógeno líquido. En la mayoría de las aplicaciones el uso de neón
líquido es más económico que el del helio.
322
Cuando la corriente que circula por la lámpara es menor que corriente del circuito
de descarga de corriente más alto, la descarga luminosa puede volverse inestable
y no cubrir toda la superficie de los electrodos. Esto puede indicar envejecimiento
de la lámpara, y se aprovecha para las lámparas de neón decorativas que simulan
una llama. Sin embargo, mientras una corriente demasiado baja provoca
parpadeo, una corriente demasiado alta incrementa el desgaste de los electrodos
estimulando la pulverización catódica, que recubre de metal la superficie interna
de la lámpara y provoca que se oscurezca.
El efecto de parpadeo está provocado por las diferencias en el potencial de
ionización del gas, que depende del espacio entre los electrodos, la temperatura y
la presión del gas. El potencial necesario para disparar la descarga es mayor que
el necesario para sostenerla. Cuando no hay corriente suficiente para ionizar todo
el volumen de gas en torno a los electrodos, sólo ocurre una ionización parcial y el
brillo aparece sólo en torno a parte de la superficie de los electrodos. Las
corrientes convectivas hacen que las zonas brillantes asciendan, de forma no muy
diferente a las descarga en una escalera de Jacob. Un efecto
de fotoionización puede observarse aquí, a media que la zona del electrodo
cubierta con la descarga puede incrementarse por la luz brillando en la lámpara.
APLICACIONES DE LAS LAMPARAS DE NEON.
La mayoría de las lámpara de neón pequeñas, como las comunes NE-2, tienen
una tensión disruptiva de entre 90 y 110 voltios. Esta característica permite su uso
como reguladores de voltaje o dispositivos de protección de sobretensión simples.
En los años 1960 General Electric, Signalite y otras marcas hicieron pequeñas
lámparas de neón extra-estables para usos electrónicos. Idearon incluso circuitos
lógicos digitales, memorias binarias y divisores de frecuencia usando neones.
Estos circuitos aparecieron en órganos electrónicos de los años 1950, así como en
alguna instrumentación.
323
Las lámparas de neón pequeñas se usan como indicadores en equipos
electrónicos. Las mayores se usan en rótulos de neón, ya que debido a su bajo
consumo eléctrico son buenas luces nocturnas. Debido a su relativamente rápido
tiempo de respuesta, en los primeros desarrollos de la televisión las lámparas de
neón fueron usadas como fuente de luz en muchas pantallas de televisión
mecánica. También se usaron para muchos otros fines: dado que una lámpara de
neón puede actuar como oscilador de relajación con la adición de una resistor y
un capacitor, puede ser usada como una lámpara destellante simple
u oscilador de sonido. Las lámparas de neón con electrodos de diversas formas
llamadas tubos Nixie también se usan como displays alfanuméricos.
En las lámparas excitadas con corriente alterna, ambos electrodos producen luz,
pero en las excitadas con corriente continua sólo brilla el electrodo negativo, por lo
que puede usarse para distinguir entre fuentes de corriente alterna y continua, así
como para asegurar la polaridad de las fuentes de continua.
Las lámparas de tamaño pequeño también pueden rellenarse
con argón o xenón en lugar de neón, o mezclado con ése. Aunque la mayoría de
las características operativas permanecen iguales, las lámparas emiten una luz
azulada (incluyendo alguna ultravioleta) en lugar del característico brillo rojo
324
anaranjado del neón. La radiación ultravioleta puede también usarse para excitar
un recubrimiento de fósforo del interior de la bombilla y proporcionar así una
amplia gama de diversos colores, incluyendo el blanco. Una mezcla de neón
y kriptón puede usarse para obtener luz verde.
También se utilizan en el arte, en anuncios publicitarios, en anuncios luminosos, y
en tubos que se instalan debajo de los coches para que sean llamativos
Neón para vitrinas y paredes
En los últimos años se ha desarrollado un nuevo nicho en el que se emplea,
profusamente, el NEON.
Hay pocas cosas en el mercado que funcionen tan bien como los anuncios de
NEON.
La mercadotecnia moderna emplea el NEON para la realización de pequeños
anuncios para las llamadas vitrinas, vidrieras, ventanas (según cada país) y
también para paredes; es decir, ambos para interiores de comercios, locales o
establecimientos.
325
Para todo esto nada mejor que el NEON para lograr óptimos resultados;
inalcanzables con otros sistemas publicitarios que aspiran, sin fortuna por
supuesto, sustituir al NEON.
Así, una infinidad de marcas de aguas minerales, gaseosas, cervezas, ropa, etc.,
se promocionan con esta sencilla, económica e impactante manera moderna de
empleo del NEON; nos referimos a los pequeños anuncios colgantes, con
transformadores de reducidas dimensiones, construidos sólo con tubos de NEON
soportados sobre sencillas parrillas metálicas casi invisibles.
LASER NEON
El láser de Helio-Neón fue el primer láser de gas construido y actualmente sigue
siendo uno de los láseres más útil y frecuentemente utilizado. Esto a pesar del
constante empuje de los láseres de semiconductores, que realizan cada vez más
funciones que antes eran hechas con láseres de He-Ne. Los centros activos de
este láser son los átomos neutros de neón, pero el bombeo de estos se realiza
preferentemente a través de los átomos de helio.
326
En el diagrama de energía del sistema He-Ne se muestran las tres transiciones
láser más importantes, las cuales ocurren 3.39 μm, 1.15μm y 0.638μm. Puede
notarse que los niveles 21S y 23S del Helio prácticamente coincide con los niveles
3s y 2s del Ne. Como enseguida veremos, este hecho es fundamental para el
bombeo de los átomos de neón.
Los niveles 3s y 2s del neón poseen una vida media del orden de 10-7 segundos y
pueden realizar transiciones radiactivas a los niveles 3p y 2p. Estos últimos
niveles poseen una vida media del orden de 10-8 segundos y por tanto se puede
establecer una inversión de población entre estos y los niveles 3s y 2s.
Aunque cada uno de los niveles 3s, 2s y 1s se compone de hecho de cuatro
subniveles y cada uno de los 3p y 2p de diez subniveles, las longitudes de onda
327
de emisión predominante son para la transición 3s -> 3p , λ =3.39 μm, para
3s-> 2s , λ=0.6328 y para 2s -> 2p, λ=1.15mm.
El vaciado de los niveles inferiores de la transición láser se realiza por medio de
las transiciones espontáneas de los niveles 3p y 2p al nivel 1s. Este último nivel
es meta-estable y, por tanto, a menos que por algún mecanismo sea
constantemente vaciado al nivel base del neón 1p, el nivel 1s podrá saturarse e
interrumpir la oscilación láser (emisión láser).
LINEAS ESPECTRALES
Las líneas espectrales son el resultado de transiciones espontáneas de electrones
en los átomos del material desde el nivel de energía más alto al más bajo. El láser
Helio-Neón depende de la transición de los niveles de energía del gas neón. En
este caso hay varias posibles líneas de longitudes de onda en el espectro.
Algunas de mas fuerte intensidad están muy cerca de la línea 0.6328 μm línea
común del láser He-Ne rojo, pero esta no es la más fuerte. Hay también muchas
líneas en el infrarrojo y algunas en la región del amarillo y en el anaranjado.
Hay muchas posibles transiciones en el neón del estado excitado al estado de
más baja energía que puede resultar en una emisión láser, donde las más
importantes se mencionan en esta tabla.
El bombeo del láser de He-Ne se realiza por medio de las colisiones que una
descarga de electrones producida dentro del gas tiene fundamentalmente con los
átomos de helio. Como resultado de estas colisiones, los átomos de helio son
excitados a los niveles superiores 21S y 23S.
La inversión de población en el neón ocurre debido a colisiones con átomos
328
excitados de helio. Como resultado de estas colisiones, los átomos de helio pasan
a su estado base y los átomos de neón pasan a los estados 3s y 2s, creando una
inversión de población entre estos estados y los estados 3p y2p. Entre estos
niveles es donde la oscilación láser (emisión láser) puede ocurrir.
La realización de una transferencia de energía entre átomos de helio y neón
ocurre debido a:
a) La proximidad de los niveles excitados de energía del helio y del neón,
b) El hecho de que los estados 21S y 23S del helio son meta-estables, lo cual
garantiza un tiempo suficientemente largo para colisionar con átomos de neón
antes de que el helio decaiga espontáneamente;
c) La más elevada presión del helio en la mezcla He-Ne, lo cual también reduce la
probabilidad de que la excitación ocurra en la dirección opuesta, es decir Ne ->
He.
El vaciado de los átomos de neón del estado meta-estable 1s a su estado base
ocurre fundamentalmente debido a colisiones con las paredes del tubo láser. Esto
causa que al aumentar el diámetro del tubo la potencia de salida no aumenta, si
no que disminuye.
329
ABSORCION Y AMPLIFICACION EN EL LASER He-Ne
Mientras la luz se mueve a través del medio activo, tienen lugar dos procesos
diferentes sobre la radiación: absorción y amplificación. En un láser de He-Ne
estándar, la amplificación producida por el medio activo es del orden del 2%.
Durante un paso a través del medio activo (desde un espejo al otro) la cantidad de
radiación dentro, aumenta en un factor de 1.02.
Por lo tanto, para conseguir amplificación de luz, todas las pérdidas, incluyendo
las colisiones de los átomos excitados con las paredes del tubo de gas, absorción
por parte de otras moléculas, etc. deben ser menores del 2%.
El láser de He-Ne es un láser de 4 niveles, por lo que el tiempo de vida del nivel
láser inferior debe ser muy corto. En el gas Ne, que es el gas activo del láser, la
transición (decaimiento) desde el nivel láser inferior no es suficientemente rápida,
pero se acelera por las colisiones con las paredes del tubo. Debido a que el
número de colisiones con las paredes del tubo aumenta a medida que el tubo de
hace más estrecho, la ganancia del láser es inversamente proporcional al radio del
tubo. Por lo tanto, el diámetro del tubo de un láser de He-Ne debe ser lo más
pequeño posible.
La baja ganancia del medio activo en un láser de He-Ne limita la potencia de
salida a potencia baja. En prototipos de laboratorio se consiguen potencias de
salida del orden de 100 [mW], pero los láseres comerciales están disponibles sólo
en un rango de salida del orden de 0.5-50 miliwatios [mW].
El acoplador de salida del láser de He-Ne es un espejo con un recubrimiento que
transmite alrededor del 1 % de la radiación de la salida. Esto significa que la
potencia dentro de la cavidad óptica es unas 100 veces mayor que la potencia
emitida.
330
ESTRUCTURA DEL LASER HELIO-NEON
El láser de Helio Neón tiene tres estructuras principales:
331
La presión del gas es 0.01 atmósferas (» 10 [torr]). En los extremos del tubo, los
electrodos están conectados a una fuente de potencia de alto voltaje (AC o DC).
332
c) Fuente de Potencia del Láser de He-Ne:
Los láseres de He-Ne que producen una potencia de 1 [mW] (el tipo estándar que
usan los estudiantes para experimentos de laboratorio), habitualmente utilizan una
fuente de potencia de Alto Voltaje DC (Corriente directa) de 2,000 [Voltios].
El láser necesita una corriente constante (suministro constante de electrones), de
forma que se emplea un suministro de corriente estable.
Para iniciar la acción láser, se necesita ionizar el gas dentro del tubo. Esto se
produce por un pulso de máximo voltaje de la fuente de potencia. Este voltaje se
conoce como Voltaje de Ignición del láser. En el momento del comienzo de la
descarga, la resistencia eléctrica del tubo cae de repente a un valor bajo. Esto
333
significa que el voltaje disminuye repentinamente, mientras la corriente aumenta.
Por lo tanto, según la ley de Ohm esto es una resistencia eléctrica negativa
(Disminuye el voltaje con aumento de la corriente).
Para superar este problema, se conecta una Resistencia lastre muy cerca del
ánodo, en serie con la fuente de potencia. El papel del resistencia lastre es limitar
la corriente a través del tubo cuando la resistencia cae.
334
13. Porque es frágil, pero su efecto es fuerte.
14. Porque es reparable.
15. Por su brillo particular.
16. Porque es fácil de vender… Todo el mundo la conoce.
17. Porque identificó esquinas céntricas.
18. Porque brilla bajo la lluvia.
19. Porque el haz de luz que genera, es de 360º.
20. Porque es agradable a la vista.
21. Por la calidez de sus reflejos.
22. Porque es luz de Cátodo Frío.
23. Porque no le afecta el sol.
24. Porque identificó ciudades.
25. Porque un cartel con Neón, es una obra de arte.
26. Porque su vida útil, es de 30.000 horas.
27. Porque es decorativa.
28. Por la artística que la identifica.
29. Porque es insinuante.
30. Porque brilla de noche.
31. Porque hay misterios en su elaboración.
32. Porque dibuja y dibujó con luz brillante.
33. Porque inauguró la fluorescencia.
34. Porque no le afecta el viento.
35. Porque no funciona con 110 volts.
36. Por ser varilla de vidrio con pintura interior fluorescente.
37. Porque fue testigo de infinidad de acontecimientos nocturnos alrededor del
planeta.
38. Porque inventó la luz difusa.
39. Porque inauguró las gargantas de iluminación.
335
40. Porque estrenó variedad de colores en luz brillante.
41. Porque estando encendida, se puede tocar.
42. Porque realza contornos.
43. Porque todos sus nuevos vecinos nacieron pensando en ella.
44. Por ser la publicidad más económica. Un Siglo lo avala.
45. Porque no contamina la atmósfera en su elaboración.
46. Porque iluminó noches gloriosas.
47. Porque da movimiento y volumen en la carteleria actual.
48. Porque a la gente le gusta.
49. Porque, a quien le guste, puede aprender a hacerlo.
50. Por su variedad de colores.
51. Porque supo convivir con sus “nuevos vecinos”, sabiendo que hay lugar para
todos.
52. Porque identificó esquinas barriales.
53. Porque el frío no le hace mal.
54. Por su variedad de intensidades.
55. Porque emociona cuando se enciende.
56. Porque identifica marcas.
57. Porque brilla en los caminos…
58. Porque los artistas la quieren mucho.
59. Porque su vida útil se verifica en los 100 años que está cumpliendo.
60. Porque no funciona con 220 volts.
61. Porque ver hacerla parece fácil, pero no lo es.
62. Porque siempre fue humilde… No habla mal de sus jóvenes vecinos.
63. Porque no le hace mal el calor.
64. Porque es fácil de instalar.
65. Por ser tan fiel que mal instalado, también funciona pero dura poco…
66. Porque hay obras de arte con luz de Neón.
336
67. Porque es seductora.
68. Porque viene en varillas de vidrio de color (vitre- aux).
69. Porque su proceso de elaboración, no se modificó en el tiempo.
70. Porque es reconfortante participar en un proyecto, y verla brillar.
71. Porque hacen referencia a ella en distintas composiciones musicales.
72. Porque la nieve, no le hace mal.
73. Porque a un artista, le permite crear.
74. Porque funciona entre 1 y 15 Kv. a bajísimo amperaje.
75. Porque ilumina noches gloriosas…
76. Porque no hay que tenerle miedo, solo hay que animarse…
77. Porque quiere ser reglamentada para que no la maltraten.
78. Porque en la actualidad, todos los habitantes del planeta la conocen.
79. Por su glamour en sensaciones.
80. Porque no genera calor cuando funciona.
81. Porque viene en distintos diámetros.
82. Porque al diseñador le permite expresar.
83. Porque sus nuevos vecinos, le hacen mala prensa para tratar de ubicarse.
84. Porque no contamina la atmósfera en su funcionamiento.
85. Porque es de los pocos oficios no reemplazado por la tecnología.
86. Porque es dimerizable.
87. Porque la gente lo pide.
88. Porque es la, o es él...
89. Porque es de estar siempre allí, y también de acá para allá…
90. Porque está instalada en las memorias…
91. Porque está aggiornada.
92. Porque sabe brillar de día.
93. Porque es buena, de las de antes…
337
94. Porque luce en corpóreos con frentes de acrílico.
95. Porque en corpóreas con luz interior, no acepta tipografías de bastón fino.
96. Porque su reflejo es constante, sin sombras en su recorrido.
97. Porque quiere nuevos diseños.
98. Porque al arquitecto le permite diseñar.
99. Porque participa en el diseño Slow.
100. Porque es inigualable.
338
Medios de Transporte
Definición
Historia
Ya en el periodo precolombino los incas poseían un rudimentario pero
eficiente sistema de caminos interconectados a lo largo y ancho de su Imperio, por
el cual trasladaban distintos tipos de mercaderías. A pie o a lomo de llamas, sus
mercaderías lograban llegar a su destino. A veces a través de puentes de cuerdas
entre las montañas. Otros pueblos utilizaron canoas o botes como medio
de comunicación.
Transporte Acuático
Historia
La llegada de los europeos —españoles y portugueses— a lo largo de casi
toda América produjo grandes cambios en los medios de transporte. El principal
modo de comunicación era el marítimo, dado que era más eficiente y rápido
para puertos naturales y para los lugares en los que se construyeron puertos,
tanto de mar como de los caudalosos ríos americanos.
Canales.
Medio creado para el fácil el transporte acuático. La apertura de esta vía fluvial se
339
creó para una reducción considerable del tiempo de viaje en el tráfico de
mercancías por via marítima a escala mundial.
Al igual que sucedía durante la edad antigua en el Mediterráneo y otras zonas del
mundo, el hecho de que los asentamientos coloniales en América estuviesen
establecidos por lo general en las costas, los ríos o los lagos, fue a causa y
consecuencia de que las primeras rutas de transporte en las colonias fueran las
vías fluviales naturales, y los modos más eficientes de viaje se realizaran por
barco.
La Balsa
Tomando en cuenta que nuestro planeta está cubierto por agua, las dos terceras
partes, el hombre ha buscado la manera de viajar sobre el agua.
El primer navío sin duda fue un tronco flotante el cual conduciría con pies y
manos. Después pensaron que uniendo varios troncos con ataduras podrían
construir una plataforma firme o balsa (como le llamaron)
.
En Egipto se construyeron balsas con haces de caña, en otros lugares se
ahuecaron los troncos para ser piraguas o canoas.
Primeros barcos
Hace 1200 años antes de Cristo, los fenicios fueron los primeros marinos que
utilizaron la madera del Cedro para construir grandes y fuertes embarcaciones
para aventurarse más allá de sus límites marinos.
Los Vikingos, construyeron sobre una estructura de madera sólida que semejaba
nuestra columna vertebral. Los Vikingos eran altos, fuertes y robustos, esto,
permitía que empuñaran enormes remos e izaban las velas cuadradas, provenían
de las costas del Noreste de Europa y se encargaban de asaltar las costas de todo
Europa.
Barcos de vapor
340
Durante el siglo XIX se produjeron grandes avances gracias
la tecnología producto de la energía a vapor. El Clermont, primer barco de vapor
eficiente, fue construido por el inventor estadounidense Robert Fulton. Hizo su
viaje inaugural en 1807 por el río Hudson desde la ciudad de Nueva York hasta
Albania, que realizó la distancia del viaje de ida y vuelta de casi 483 Km. en 62
horas.
El primer barco en emplear propulsión a vapor en una travesía transatlántica fue el
barco estadounidense Savannah en 1819, aunque se usaron las velas durante
parte de los 29 días de viaje. Hacia 1840, mientras que un barco de vapor podía
hacer seis viajes entre América y Europa, en el mismo tiempo un velero podía
hacer sólo tres.
Durante la década de 1870 llegó a las costas del Río de la Plata el barco francés
Le Frigidaire, que incluía unas cámaras frigoríficas. Esto produjo un gran avance
en el modo de producción del sector de las carnes, las cuales ya no debían
salarse para su exportación. Otros productos perecederos se vieron beneficiados
con la refrigeración.
Embarcaciones modernas
Yates
Dentro de los últimos adelantos del hombre en medios de transporte acuáticos,
nos encontramos con los yates que son pequeñas embarcaciones destinadas al
uso de un pequeño grupo de personas, se encuentran equipadas con los
adelantos tecnológicos más actuales y pueden navegar en altamar.
Moto ski
Otro invento importante es la moto ski, que es el resultado de la búsqueda del
ser humano de crear aparatos para su diversión, también es utilizada como medio
de salvamento a personas con un accidente acuático ya que son rápidas y cada
vez un poco más grandes (para estas utilizaciones).
Transporte Terrestre
Historia
El hombre empieza inmediatamente a desplazarse, sea para comer, para luchar o
por mera curiosidad, por lo que se ve obligadamente a valerse de algún medio de
locomoción.
341
Los primeros vehículos eran trineos de madera, y deben haber sido utilizados por
tribus de todo el mundo. Para transportar cargas pesadas se usaban troncos a
modo de rodillos; finalmente lo construyeron de una sola pieza, al unir los troncos
con maderas transversales y atar todo el conjunto con tiras de cuero.
Posteriormente se produjo el invento de la rueda, uno de los más maravillosos de
la historia. A partir de este invento, se desarrollaron todo tipo de transportes
terrestres.
Se desarrollan en este sitio algunos de los más aceptados y usados por la gente,
aunque se han inventado numerosos elementos de diferentes formas y de acuerdo
con las ideas de sus constructores, del estilo de los monociclos, bíciclos, triciclos y
cuatriciclos.
342
Ya en el siglo XVIII existían carreteras que unían las actuales ciudades argentinas
de Tucumán y Buenos Aires, la ciudad de México con sus vecinas Guadalajara y
Jalapa, así como las andinas Lima (Perú) y Paita. También en Brasil se
construyeron carreteras costeras.
El arrastre y la rueda
La rueda, invento importante que el hombre desarrolló hace 5,500 años y con esto
inicio un cambio en el medio de transporte ya que así logro trasladar de un lado a
otro sus alimentos más fácil y rápido.
El perro fue el primer animal que domestico el hombre, después utilizo animales
más grandes y fuertes para transportar cosas sumamente pesadas junto con el
mismo hombre. Y así también ideo la forma de que solo transportaran cosas, sino
que también aprovecharía el hombre como alimento, ya alimentándose de lo que
los animales producían o matándolos para aprovechar así la carne y piel para
diferentes usos.
Primeras diligencias
343
Ferrocarril
Las vías
Si hablamos del ferrocarril, inmediatamente pensamos en las vías. Sin embargo,
las vías tienen dos mil años más que la locomotora.
El hombre descubrió tempranamente que era más fácil tirar de un carro o trineo si
preparaba dos surcos de piedras lisas o de tablas de madera paralelos entre sí, o
los cavaba en un camino rocoso. Este último tipo de vía era utilizado por los
griegos para llevar sus carros adornados a los templos durante las festividades
religiosas. Habían construido también un tipo de remolque con vías de madera
para transportar naves a través del istmo de Corinto. Los griegos habían
descubierto que un hombre o un caballo podían arrastrar una carga ocho veces
más pesadas si lo hacían sobre una vía en lugar de hacerlo sobre un camino
irregular. También los romanos cavaron surcos en muchos de sus caminos.
Como otras tantas técnicas de la antigüedad, esta también se perdió durante la
Edad Media. En el siglo XV o XVI vuelven a aparecer las vías: posiblemente
aparecieron por primera vez en las minas alemanas, que eran las mejor instaladas
en toda Europa, en las cuales las cargas se transportaban en pequeños vagones.
Hacia fines del siglo XVI, los alemanes llevaron a Inglaterra el "Tramway", como lo
llamaban en este país, para modernizar sus minas, y así fue como llegaron las
vías al país que luego sería la cuna del ferrocarril.
Las vías de estas minas estaban formadas por dos maderos separados entre sí
por pocos centímetros; del eje de la vagoneta sobresalía un perno de hierro que
entraba en ese espacio y evitaba que las ruedas se deslizasen de los maderos.
Alrededor de 1630 se le ocurrió a un tal Beaumont unir ambos maderos con
durmientes y aumentar también la distancia que los separaba. Al desgastarse
estas vías de madera por los pesados vagones, Beaumont colocó sobre ellas
hierro plano; luego, por el mismo motivo, también las ruedas se fabricaron de este
material.
Hacia fines del siglo XVIII se le ocurrió a un ingeniero inglés colocar en las ruedas
la protuberancia que antes estaba en las vías, lo que resultó mucho más práctico
para el deslizamiento del vagón.
La primera locomotora
En todas partes había mercaderías que tenían que ser transportadas rápidamente
y con seguridad de un lugar a otro, así como había personas que querían viajar
cómodamente y con rapidez.
Para obtener a bajo precio fuerzas motrices considerables, varios inventores
pensaron en la unión del vapor y la rueda. Los primeros frutos de esa asociación
fueron verdaderos monstruos. En 1769, el francés Nicolas Cugnot construyó un
coche de vapor, su pesado "fardier" (carromato), que consistía en una máquina de
vapor montada sobre un carro de tres ruedas. El técnico norteamericano Oliver
Evans, construyó años después un coche de vapor que no logró imponerse.
William Murdock, en Inglaterra, hacía experimentos con una máquina de Watt.
Todos estos ensayos fueron fracasos.
Richard Trevithick, un joven ingeniero de minas de Cornwall, en la década del 90
del siglo XVIII se entusiasmó con la idea del vehículo de vapor y preparó en su
taller un par de pequeños modelos de locomotoras. Trevithick, entre 1801 y 1804
terminó su primer coche grande de vapor: una enorme caja de hierro sobre ruedas
344
con una chimenea en el centro, alrededor de la cual se habían instalado varios
asientos para los viajeros. Colocó sobre los raíles su máquina de vapor, y recorrió
nueve millas y media en cuatro horas y cinco minutos. He aquí la primera
locomotora. Años después presentó la segunda, pero no tuvo demasiado éxito. La
gente estaba convencida de que las ruedas patinarían sobre la superficie lisa a
medida que se aumente su peso.
George Stephenson, llamado por muchos el "padre del ferrocarril" no compartía
esa opinión generalizada, y tras haber reparado muchas locomotoras y haber
construido otras, realizó al fin, en 1825, la primera línea destinada no sólo a las
vagonetas de carbón, sino también a los viajeros. El 27 de septiembre de ese año,
laLocomotion Nº 1 arrastró un tren cargado con 600 pasajeros a lo largo de los 35
kilómetros que separan Stockton de Darlington, y se convirtió así en el primer viaje
en ferrocarril. El mismo Stephenson guió la máquina, que arrastraba seis vagones
con carbón y harina, un vagón para los invitados especiales, veintiuno más para
pasajeros comunes y finalmente cinco vagones carboneros; en total treinta y tres.
En 1829 se proyecta una línea Liverpool-Manchester. Los señores sesudos dudan
entre los caballos y las locomotoras. Finalmente se deciden por las últimas. En
este tramo ferroviario tuvo lugar una competición entre varias locomotoras
presentadas por sus propios constructores, y que fue ganada por la Rocket de
Stephenson.
A partir de 1830 surgen en Inglaterra múltiples líneas de ferrocarril. Después
vienen las grandes líneas. La Londres-Birmingham se inaugura en 1838; la siguen
las líneas de Londres-Newcastle, Londres-Edimburgo y Londres-Bristol.
Robert Stephenson no sólo perfecciona cada vez más las locomotoras de su
padre George, sino que estudia metódicamente el problema de la infraestructura:
desmontes, balasto y colocación de los raíles. Traza la mayor parte de las vías en
Inglaterra y en el extranjero. Posteriormente, también debió construir puentes, los
hizo metálicos, para realizar sus obras.
El progreso de Gran Bretaña en este terreno sirve de disparador a otras naciones,
y así es como cada una comienza a proyectar su propio sistema ferroviario.
Para los americanos, empeñados en reconocer todo su inmenso territorio, era vital
llegar cada vez más lejos y con mayor rapidez, buscando también la comodidad. A
partir de 1870, George Pullman hace del tren un palacio. En las grandes líneas
hay bar, fumador, tapices, artesonados, etc.
Hacia mediados de siglo, el tren ha conseguido su mayoría de edad: alcanza
velocidades del orden de los 100 kilómetros por hora. Para conseguirse tal grado
de perfección muchas cosas mejoraron: por ejemplo, se aumentó el volumen de la
caldera y el diámetro de las ruedas.
La moderna locomotora nace de tres nuevos perfeccionamientos. Primero, el
acoplamiento del cilindro de alta presión con el cilindro de baja, para reducir la
pérdida de energía; luego el aumento de la temperatura de los 200º C a los 300º
C; por último, en 1868 George Westinghouse inventa el freno de aire comprimido
que reemplaza a los guardafrenos y sus incómodos frenos de mano.
Con el tiempo, el ferrocarril se ha diversificado, dando paso a variados tipos de
trenes, tales como:
El tren de cremallera: En 1862 el suizo Niklaus Riggenbach inventó el ferrocarril
de cremallera, destinado a rodar por vías con una pendiente superior al 6%. Para
345
construirlo se inspiró en el sistema del inglés John Blekinsop. La Blekinsop de
1812, máquina de caldera común, no tubular, es una locomotora para trenes de
mercancías, que marcha a una velocidad muy reducida y además, circula por vías
de cremallera.
El tren de cremallera que sube la pendiente más pronunciada (47%) es el del
monte Pilatus, en Suiza.
El monorraíl. El primer monorraíl o monocarril se construyó en Irlanda en 1889.
Se trata de un transporte compuesto de vehículos que circulan por una plataforma
de rieles o vigas, por lo general elevada sobre la superficie. Hay dos tipos básicos
de monocarriles: el monocarril suspendido, donde los vehículos cuelgan bajo la
estructura, y el monocarril sustentado, en el cual los vehículos apoyan sus ruedas
sobre los rebordes interiores de los rieles.
Trenes de alta velocidad. Son los trenes de finales del siglo XX que recorren
largos trechos a muy alta velocidad, compitiendo prácticamente con el avión. Los
más conocidos son el TGV (Train à Grande Vitesse) francés y el tren bala
japonés.
Los Japanese National Railways inauguraron su primera línea de gran velocidad
Tokio-Osaka (515 km) el 1 de octubre de 1964. La velocidad máxima de estos
trenes-bala es de 210 km/h.
346
El subterráneo
En el año 1879 nació el tren eléctrico. El precursor de la técnica de la corriente de
alta tensión fue Werner von Siemens, quien para una exposición industrial en
Berlín construyó una pequeña locomotora eléctrica que arrastraba tres vagones
con seis pasajeros en cada uno. La corriente era conducida por las vías, pero
pronto se comprobó que el sistema era muy peligroso y Siemens introdujo la
conducción aérea. Con este sencillo modelo empezó el desarrollo del tranvía
eléctrico, del trolebús, así como también el de los metros o subterráneos.
El subterráneo es un transporte rápido de tecnología subterránea que utiliza trenes
de pasajeros que van por rieles a alta velocidad y funciona en túneles, en
estructuras elevadas o en carriles de uso exclusivo. Las estaciones tienen
andenes altos para permitir la entrada y salida rápida de los viajeros al mismo
nivel. La distancia entre estaciones varía entre 1200 y 4500 metros.
El primer ferrocarril urbano subterráneo fue inaugurado el 10 de enero de 1863, en
Londres. Tenía locomotoras de vapor. Llevaba unas calderas especiales que
nunca funcionaban correctamente, por lo que las estaciones y los túneles estaban
siempre llenos de humo. La línea que recorría cubría una distancia de 6,4 km.
El primer ferrocarril subterráneo sin conductor, utilizado para el transporte de
correspondencia, se inauguró en Londres en 1927.
347
generalmente respondiendo a las necesidades comerciales de sus propietarios y
países de origen y no atendiendo a las necesidades de los países
latinoamericanos. En Argentina, las líneas férreas tenían sus terminales en las
ciudades portuarias: Buenos Aires y Bahía Blanca, en el litoral, y Rosario, en el río
Paraná. Lo mismo ocurrió en la ciudad uruguaya de Montevideo. En Brasil, la red
ferroviaria se extendía a través de la meseta de São Paulo, dado que allí se
concentraba la producción del preciado café. El caso mexicano es paradójico,
dado que los mismos ferrocarriles utilizados para el transporte de productos
terminaron siendo, a principios de siglo, la base fundamental del transporte de los
revolucionarios de Emiliano Zapata.
Fue por 1945 cuando los ferrocarriles comenzaron a ser deficitarios, dando paso al
transporte por carretera, tanto de pasajeros como —y sobre todo— de
mercancías. De este modo, y ya no resultándoles beneficiosos a sus dueños, casi
todo el sistema ferroviario de Latinoamérica fue estatizado, muchas veces bajo un
falso discurso nacionalista.
Bicicleta
348
otro. Drais von Sauerbronn logró crear este sencillo vehículo que le permitió al
hombre evitar ese trabajo.
Esta máquina, denominada "draisiana" en honor a su inventor, evolucionó
rápidamente.
Veinte años más tarde, el escocés Kilkpatrick Mac Millan retomó la idea de Drais
von Sauerbronn. Agregó una manivela a la izquierda y a la derecha del eje de la
rueda trasera, que movía con los pies, ayudándose con largas barras.
Diez años después, el alemán Philipp Heinrich Fischer colocó pedales en la rueda
delantera, transformando el movimiento abrupto de golpes de los pies en uno
giratorio continuo que daba al vehículo un movimiento mucho más sereno. Otra
teoría dice que el inventor de los pedales fue Pierre Michaux. Esta innovación
merece un nuevo bautismo, y la "draisiana" se convierte en "velocípedo".
El francés Ernest Michaux creó la primera fábrica de bicicletas, basándose en el
modelo de Fischer. En Inglaterra varias fábricas iniciaron a su vez la construcción
de bicicletas con propulsión en la rueda delantera; la rueda posterior era un poco
más pequeña. Este tipo de bicicleta fue llamado "bonashaker" (sacudidor de
huesos) debido a sus ruedas de madera, sin elásticos.
Posteriormente, los deportistas aumentaron enormemente la circunferencia de la
rueda delantera y disminuyeron la de la rueda posterior. Este modelo, llamado
"Penny Farthing", implicaban para el conductor pruebas casi acrobáticas, y el
vehículo alcanzaba altas velocidades.
El inglés H. J. Lawson solucionó el problema del tamaño, disminuyéndolo y
haciéndolo al mismo tiempo más veloz. Llevó la manivela y los pedales al centro,
entre las ruedas delantera y trasera. El suizo Hans Renold inventó la cadena, que
posibilita transmitir la fuerza generada por las piernas del ciclista de la rueda
dentada del centro (plato) a una más pequeña ubicada en el eje posterior (piñón).
Otros inventores agregaron los rayos de alambres, el asiento con suspensión, el
cojinete de bolas, el freno de contrapedal, el cambio de velocidades y la rueda
libre, y con esto la bicicleta alcanzó su diseño actual.
El desarrollo de una buena llanta, se debió al escocés John Boyd Dunlop, quien
las construyó para que su hijo pudiese ganar una carrera a sus compañeros. El
niño se quejó de los duros golpes que recibía al andar en ese vehículo. Dunlop
sacó entonces dos trozos de goma de jardinero, los unió n forma de anillo,
bombeó aire en su interior y luego los sujetó en las ruedas posterior. Así, su hijo
ganó la carrera.
Posteriormente Dunlop patentó su invento, y así la bicicleta terminó de
conformarse, siendo uno de los transportes más populares del mundo.
A lo largo del tiempo fueron apareciendo otros diversos modelos de bicicletas
como:
Humber: La bicicleta Humber para señoras salió al mercado en 1905. En vez del
cuadro romboidal de las bicicletas para hombres, las de señoras tenían una
estructura abierta acorde con los vestidos largos de la época.
Bicicleta plegable: Diseñada en 1965 por Alex Moulton, esta bicicleta se destaca
por lo sencillo que resulta transportarla y guardarla. La innovadora suspensión en
sus dos ruedas contribuyó a que fuera fácil de manejar además de cómoda.
Bicicleta de carreras: Este tipo de bicicletas tiene como principal característica su
diseño aerodinámico para el ciclismo de competición. Con su evolución se
349
introdujo el manillar en caída, que reduce la resistencia al aire del cuerpo. La
posición aerodinámica aumenta al subir el sillín, cosa que suelen hacer los
ciclistas profesionales.
Mountain bike: La bicicleta de montaña o todo terreno fue desarrollada durante la
década de los setenta, y se caracteriza por ser más liviana y tener cambios
adaptados, muy útil para usar en terrenos escabrosos, como los de las montañas.
Bicicross: Es una pequeña bicicleta con ruedas de 20 pulgadas, sin suspensión y
muy maniobrable, que nació en los Estados Unidos en 1972. El bicicross se ha
convertido en la actualidad en una disciplina deportiva completamente
diferenciada.
Tándem: La bicicleta tándem es una bicicleta de dos plazas. Las dos personas
que se suben a la misma deben pedalear para avanzar. Un tándem es una
bicicleta normal y corriente, a la que se une un sillín, un manillar y unos pedales.
La persona que va en la parte delantera es la que pone los cambios, frena y
maniobra. La transmisión entre la parte delantera y trasera está sincronizada; esto
significa que la cadencia es la misma para los dos.
Motocicleta
El 5 de abril de 1818 se presentó en París una draisiana equipada con una caldera
de vapor en la parte trasera, denominada velocipedraisidevapor. Esta máquina no
tuvo mayor éxito.
La primera motocicleta nace de la combinación de la bicicleta de pedales y del
automóvil. Los historiadores se disputan todavía cuál es el padre de esta primera
máquina. Si nos atenemos a la estricta noción del dos ruedas, este honor le
corresponde a los alemanes Wilhelm Maybach y Gottlieb Daimler, que
construyeron en 1885 una moto de cuadro y ruedas de madera, y motor de
combustión interna de acuerdo con el ciclo de 4 tiempos. Este motor desarrollaba
0,5 caballos y permitía una velocidad de 18 km/h. Por su parte, los ingleses le
atribuyen la paternidad a Edouard Butter, quien, con un año de anterioridad, había
presentado la patente de un triciclo de motor a petróleo, en cuya realización
intervino tres años más tarde. Estos inventos al principio no tienen ninguna
aceptación.
Recién en 1897 se toma en serio la motocicleta, al aparecer en el mercado la
máquina de los hermanos Eugène y Michel Werner. Estos dos periodistas de
origen ruso montaron un pequeño motor en una bicicleta. Al principio lo colocaron
en forma horizontal encima de la rueda trasera, luego delante del manillar, con una
correa de cuero que lo unía a la rueda delantera. El éxito no se hizo esperar y ya
en 1898 se comenzó a fabricar. Lamotocicleta, marca presentada por los
hermanos Werner, entró muy pronto en el lenguaje corriente para referirse a todos
los biciclos equipados con motor.
En 1902 apareció en Francia el scooter o ciclomotor con el nombre de Autosillón.
Se trata de una moto munida de un salpicadero de protección, de pequeñas
ruedas y con un cuadro abierto que permite al piloto viajar sentado. Fue inventado
por Georges Gauthier y fabricado en 1914. Este tipo de vehículo se desarrolló a
partir de 1919 y tuvo un gran éxito con la Vespa italiana, a partir de 1946. La
Vespa ("avispa" en italiano, denominación que adquirió debido al zumbido que
emite su tubo de escape) es el scooter más conocido, y fue diseñado por
350
Corradino d´Ascanio. La Lambretta, también de Italia, fue la rival más importante
de Vespa.
El scooter tuvo gran popularidad entre los jóvenes. Desde su creación ha
aparecido una gama amplísima de estos vehículos baratos, ligeros y de fácil
manejo, cuyas características principales son las ruedas pequeñas y el cuadro
abierto.
En 1910 apareció el sidecar, un carrito con una rueda lateral que se incorpora al
costado de la moto (aunque ya había aparecido años antes pero en las
bicicletas).
El automóvil
El intento de obtener una fuerza motriz que sustituyera a los caballos se remonta
al siglo XVII.
La historia del automóvil recorre las tres fases de los grandes medios de
propulsión: vapor, electricidad y gasolina.
El primer vehículo a vapor es el "carromato" de Nicolás Gugnot, demasiado
pesado, ruidoso y temible. El segundo es el triciclo de William Murdock, movido
por una máquina de Watt, que data del año 1784; con sus delgadas ruedas y su
pequeña chimenea en la parte posterior, parece mucho más delicado que el
anterior. El tercer vehículo a vapor fue presentado en 1804 por Oliver Evans; era
un enorme barco anfibio que había sido construido para dragar el río Schuykill y
estaba provisto por una parte, de cuatro ruedas para caminar por tierra, y por otra,
de una rueda de paletas que le impulsaba por el agua. Animados por estas
creaciones, muchos otros inventores construyeron diversos vehículos impulsados
con vapor.
Durante la segunda mitad del siglo XIX se manifestó la necesidad cada vez mayor
de un vehículo mecánico que pudiese transitar por las calles. La invención del
coche de vapor fracasó por ser una máquina muy pesada y de difícil conducción.
El nacimiento del automóvil llegó gracias al invento de Dunlop, las llantas
neumáticas, pero también se necesitaba de un motor. Esta exigencia se cumplió
con la aparición del motor eléctrico, una vez solucionados los problemas de la
generación de corriente y su distribución.
Otros inventores, en cambio, investigaron en otra dirección: el motor de gas.
Etienne Lenoir, un ingeniero francés, construyó en 1883 una máquina que era
impulsada con gas de carbón común: llegó a colocarla sobre ruedas y viajaba en
ella. Siegred Marcus, un inventor vienés, utilizó por primera vez en 1875 gas de
petróleo para mover un pequeño coche por las calles de Viena.
En 1884, el inglés Edward Butler equipó en Londres un pequeño triciclo con un
motor de nafta de dos cilindros, gasificador y encendido eléctrico. Era uno de los
inventos más adelantados para esa época, pero no tuvo demasiado éxito por la
"ley de la bandera roja", que prohibía a los vehículos sin caballos transitar a más
de 6 1/2 kilómetros por hora en los caminos libres y 3,2 kilómetros por hora en
lugares poblados.
En Alemania, entre tanto, se produjo un progreso permanente. Empezó en 1872
con el motor de gas de Nikolaus Otto. Si bien esta máquina dependía del gas de la
cañería común, significó un gran adelanto. Otto utilizó el sistema de émbolo-
cilíndrico de la máquina de vapor; pero en su motor -y desde entonces en todos
351
los motores de explosión- la combustión tenía lugar en el interior y no en una
caldera especial, como en las máquinas de vapor.
Gottlieb Daimler ingresó en las fábricas de Otto y contribuyó en gran escala a
mejorar el motor de gas. Estaba convencido de que allí se encontraba la máquina
ideal para el tránsito por las calles. Otto, en cambio, opinaba que su motor sólo
servía para una máquina fija.
Daimler abandonó finalmente la fábrica de Otto y construyó su primer vehículo
alimentado por gasolina: una motocicleta. La probó en 1885, mientras Karl Benz
ya había construido unos meses antes un vehículo impulsado por gasolina.
El conocimiento de Benz de una bicicleta del tipo "sacudidor de huesos" lo indujo a
pensar en la posibilidad de mecanizar el tránsito en las calles. Luego vio el motor
de gas de Lenoir, y sus ideas se orientaron en la misma dirección que las de
Daimler. También él llegó a la conclusión de que uno de los productos derivados
del petróleo se adecuaría para la combustión en un motor de gas. Ese combustible
no sería costoso.
El primer vehículo de Karl Benz alimentado con gasolina fue un triciclo con motor
de cuatro tiempos, basado en el principio de Otto. Benz inventó su propio sistema
de encendido eléctrico y rodeó al motor de una envoltura por la cual circulaba
agua fría como medio refrigerante. La fuerza del motor era transmitida a las
ruedas posteriores por dos cadenas y un simple embrague intercalado en ellas.
Para superar las dificultades de las curvas -la rueda exterior tenía que moverse
más rápidamente que la interior-, Benz adoptó un invento inglés, el diferencial,
patentado por J. K. Starley en 1877.
El vehículo se conducía con ayuda de un pequeño volante, ubicado sobre una
delgada barra dispuesta delante de un banquito que servía de asiento al
conductor.
En 1882, con el descubrimiento del petróleo, Gottlielo Damler descubrió que
utilizando petróleo, podía impulsar un pistón más rápido, poco a poco fueron
surgiendo más inventos con la aplicación del petróleo y buen acero barato que fue
el que utilizo en su producción Henry Ford, con lo que se creó el automóvil.
Las guerras desarrollaron nuevas clases de automóviles, tales como los tanques
y autobuses.
Después surgieron variedades de autos y hoy en día la industria automotriz es una
de las grandes e importantes del mundo, se consideraban como un lujo y ahora se
puede considerar que hoy en día el tener un auto no es un lujo, si no que es una
necesidad.
Todos los detalles de este coche fueron construidos personalmente por karl Benz,
y se convirtió así, en 1885 en el primer automóvil.
Gottlieb Daimler construyó en 1886 su primer vehículo de cuatro ruedas; tenía el
aspecto de un carruaje al cual se habían olvidado de atarle los caballos.
Desde 1887 hasta 1889 trabajó en colaboración con su jefe de ingenieros, Wilhelm
Maybach, tratando de perfeccionar sus modelos. El coche que finalmente
expusieron en la Exposición Mundial de París de 1889 -un vehículo para cuatro
personas con motor refrigerado por agua y con una caja de cuatro velocidades-,
ya no era un carruaje sin caballos, sino un medio de transporte de forma propia.
Una firma francesa constructora de coches adquirió la licencia para la fabricación
de automóviles Daimler, y esto dio origen al enorme progreso de esta industria en
352
Francia, que la llevó a ocupar el primer lugar entre todos los países europeos, sitio
que retuvo hasta la Primera Guerra Mundial. En 1894 tuvo lugar en Francia la
primera carrera de automóviles (París-Ruán-París), que fue ganada por un
Daimler con una velocidad promedio de 32 kilómetros. También Karl Benz vendió
una gran cantidad de automóviles a Francia.
Un modelo perfeccionado, de lujo, fue el Mercedes, nombre de la hija de un socio
de la firma francesa que había adquirido la patente a Daimler.
Los Estados Unidos tuvieron que esperar varios años antes de fabricar su primer
auto. En 1893, un mecánico de ese país, Charles E. Duryea, consiguió construir
un vehículo con motor de gasolina, pero no pudo regular su velocidad. Con su
segundo modelo alcanzó una mayor perfección.
En 1896 circuló por Detroit el primer coche con motor de gasolina conducido por
su constructor, Henry Ford. Él estaba convencido de que América necesitaría, con
sus enormes distancias y su riqueza rápidamente creciente, cantidades ilimitadas
de automóviles.
Ford, más que inventor, era organizador y perfeccionador. Él conocía los defectos
principales de los autos europeos: estaban destinados, ante todo, a los deportistas
y a la gente de dinero, pero no al hombre común ni a satisfacer su necesidad
diaria. Los Estados Unidos de América necesitaban un medio de transporte
popular, barato y que consumiese poco. Henry Ford logró este objetivo y su coche
se vendió con éxito, convirtiéndolo en uno de los hombres más ricos del mundo.
Se trató de su "modelo T".
Ford levantó una fábrica propia para la construcción en serie de este coche. Sobre
una cinta transportadora de 300 metros de largo se construían los coches uniendo
sus diversas partes, en una época en que la mayoría de los coches europeos eran
construidos uno por vez por los mecánicos.
Transportes urbanos
Ya a que en la actualidad hay demasiada población, las autoridades se vieron en
la necesidad de crear el transporte urbano para el alto número de habitantes y
también por la necesidad en que se ven obligados a recorrer distancias largas. Ya
sea un autobús o una combi.
El origen de los transportes urbanos
El célebre matemático y pensador francés Blaise Pascal fue quien propuso, en
1661, un sistema de carrozas que circularan en trayectos determinados de París,
a intervalos regulares, por un módico precio.
El 19 de enero de 1662 el Consejo del Rey les otorgó a los financieros del
proyecto la autorización de establecer la circulación de carrozas públicas en la
ciudad de París y alrededores.
Tranvía
El tranvía fue inventado en 1775 por el inglés John Outram. Este vehículo
destinado al transporte colectivo circulaba sobre rieles de fundición y era tirado por
dos caballos; no fue explotado en ciudad. En 1832, John Stephenson construyó el
primer tranvía urbano, en Nueva York, entre Manhattan y Harlem. En 1852, Èmile
Loubat tuvo la idea de encastrar los rieles en la calzada, invento con el cual se
construyó la línea de la Sexta Avenida de Nueva York en ese mismo año.
353
La primera línea de tranvía eléctrico operativo fue construida en 1888 por el
norteamericano Frank Spague. Este vehículo fue precedido por algunos prototipos
de demostración: el de Siemens y Halske en Berlín en 1879, y el de Edison, en
Menlo Park, en 1880.
Ómnibus
En 1825, un antiguo coronel del ejército imperial francés, Stanislas Baudry, tuvo la
idea de poner en servicio unos vehículos derivados de las diligencias, que podían
transportar unos quince pasajeros, incluido el cobrador.
El coronel puso estos transportes colectivos a disposición de sus clientes entre el
centro de Nantes y los baños que él poseía en los suburbios. Observó que más
habitantes de las afueras que bañistas utilizaban el servicio y decidió ampliarlo. La
terminal del centro de la ciudad estaba situada delante del negocio de un tal
Omnes, donde había un letrero en el que se leía: Omnes omnibus. A Baudry le
pareció muy atractivo que omnibussignificara "para todo el mundo", por lo que
decidió darle ese nombre a su línea.
Autobús
En 1831, el inglés Walter Hancock proveyó a su país del primer autobús de motor.
Provisto de un motor de vapor, podía transportar diez pasajeros. Fue puesto en
servicio, de forma experimental, entre Stratford y la ciudad de Londres el mismo
año de su construcción y se lo bautizó Infant.
Fue reemplazado por el autobús de motor de gasolina, construido por la firma
alemana Benz y puesto en servicio el 18 de marzo de 1895 en una línea de 15
kilómetros, al norte de Renania. Podía transportar de seis a ocho pasajeros, en
tanto que los dos conductores iban afuera.
Taxi
En 1640, el cochero francés Nicolás Sauvage abrió la primera empresa de taxis en
la calle Saint-Martin en París. Debutó con veinte carrozas. En la casa de Sauvage
se exhibía una imagen de San Simón, por lo cual en Francia fue común
llamar simones a los primeros coches-taxis.
En 1703 la policía reglamentó su circulación y les atribuyó a cada uno su número.
El metro
El tren bala
Transporte Aéreo
Historia
El transporte aéreo es la forma de transporte moderno que más rápidamente se
desarrolló. Aunque los pioneros de la aviación en Estados Unidos, Orville y Wilbur
Wright hicieron el primer vuelo en el aparato más pesado que el aire
354
en Kitty Hawk, Carolina del Norte, el año 1903, no fue hasta después de la
I Guerra Mundial cuando el transporte aéreo alcanzó un lugar destacado en todos
los países.
Primeros Aviones
Uno de los sueños más viejos del hombre ha sido el de volar y es así como inicia
una búsqueda constante para inventar aparatos que le permitan surcar los aires.
Lilienthal, inspirándose en los pájaros, creo un planeador con línea aerodinámica
que se utilizan en la actualidad para los mismos aviones.
Globos Aerostáticos
En 1700 fue cuando se experimento utilizando globos más ligeros que el aire y así
se invento el globo aerostático. Fue tanto el auge de los globos elevados
355
por Hidrogeno que se creó un globo de pasajeros, pero debido a lo inseguro de
este medio de transporte en la actualidad se utiliza como medio de diversión.
Aeronaves modernas
Así en la actualidad el hombre busca inventar naves que lo transporten más allá
de nuestro planeta.
A Futuro.
En la actualidad se siguen diseñando formas más eficaces de desplazamiento, ya
sea para llegar más lejos, más rápido, o para reducir costes.
Algunos de ellos (aéreos), quieren ir más allá de la atmosfera para así gastar
menos combustible.
Otros piensan en el desarrollo de trenes intercontinentales subacuáticos.
En la cuestión espacial, aun nos quedan muchos impedimentos por superar, por
lo que alguno sugieren la creación de colonias enteras, llevando a varias
generaciones a lo largo de un viaje de décadas, o siglos, de duración.
Sean cuales sean los medios de transporte que se usen en los próximos años,
décadas, o siglos, su objetivo esencial será el mismo, facilitar nuestras vidas al
llevarnos de un lugar a otro de manera que nosotros realicemos un trabajo mínimo
en ese desplazamiento que realicemos, ya sea por necesidad, curiosidad o
diversión.
356
LOS VEINTE INVENTOS MÁS GRANDES DEL SIGLO XX
Electrificación.
La electrificación es un sistema de alimentación de tracción por el cual la energía
eléctrica procedente de una línea exterior de alta tensión pasa por la subestación,
circula por el elemento conductor instalado a lo largo de la línea y llega a los
puntos de distribución tales como casas, escuelas, fábricas, hospitales, etc.
Electrificación en México
La generación de energía eléctrica se inició en México a fines del siglo XIX. La
primera planta generadora que se instaló (1879) en el país estuvo en León,
Guanajuato, y era utilizada por la fábrica textil “La Americana”. Casi
inmediatamente se extendió esta forma de generar electricidad dentro de la
producción minera y, marginalmente, para la iluminación residencial y pública.
Para 1889 operaba la primera planta hidroeléctrica en Batopilas, Chihuahua; la
cual extendió sus redes de distribución hacia mercados urbanos y comerciales
donde la población era de mayor capacidad económica.
No obstante, en el régimen de Porfirio Díaz se otorgó al sector eléctrico el carácter
de servicio público, colocándose las primeras 40 lámparas "de arco" en la Plaza
de la Constitución, cien más en la Alameda Central y se comenzó la iluminación
de la entonces calle de Reforma y de algunas otras vías capitalinas. A partir de
entonces, algunas compañías internacionales con gran capacidad vinieron a crear
filiales: The Mexican Light and Power Company, de origen canadiense (en el
centro del país), el consorcio The American and Foreign Power Company (con tres
sistemas interconectados en el norte de México) y la Compañía Eléctrica de
Chapala (en el occidente).
Al iniciarse el siglo XX, México contaba con una capacidad de 31.0 MW, propiedad
de empresas privadas. Para 1910 eran 50.0 MW, de los cuales 80% lo generaba
The Mexican Light and Power Company, con el primer gran proyecto
hidroeléctrico: la planta Necaxa, en Puebla. Las tres compañías eléctricas tenían
las concesiones e instalaciones de la mayor parte de las pequeñas plantas que
sólo funcionaban en sus regiones.
357
En ese período se comenzó el primer esfuerzo para ordenar la industria eléctrica
con la creación de la Comisión Nacional para el Fomento y Control de la Industria
de Generación y Fuerza, conocida posteriormente como Comisión Nacional de
Fuerza Motriz. Y fue hasta el 2 de diciembre de 1933, cuando se decretó integrar
la Comisión Federal de Electricidad, considerándose por vez primera a la
electricidad como una actividad nacional de utilidad pública. Cuatro años después,
el 14 de agosto de 1937, CFE entró en operación formal. En ese momento, la
capacidad instalada en el país era de 629.0 MW.
La electrificación nos ha servido mucho, ya que no se habrían desarrollado otros
inventos que incluiremos más adelante.
Automóvil.
El automóvil, fue inventado en Stuttgart (Alemania) en 1886 por Karl Benz. Poco
después otros pioneros, como Gottlieb Daimler y Wilhelm Maybach presentaron a
su vez sus modelos. El primer viaje largo en un automóvil lo realizó Bertha Benz
en 1888, al ir de Mannheim a Pforzheim, ciudades separadas entre sí por unos
105 km. Cabe destacar que fue un hito en la automovilística antigua, dado que un
automóvil de esta época tenía como velocidad máxima unos 20 km/h, gastaba
muchísimo más combustible de lo que gasta ahora un vehículo a esa misma
velocidad y la gasolina se compraba en farmacias, donde no estaba disponible en
grandes cantidades.
En 1910, Henry Ford comenzó a producir automóviles en una cadena de montaje,
sistema totalmente innovador que le permitió alcanzar cifras de fabricación hasta
entonces impensables.
Un automóvil se define como “vehículo de motor que sirve, normalmente, para el
transporte de personas o cosas, o de ambas a la vez, o para la tracción de otros
vehículos con aquel fin. Se excluyen de esta definición los vehículos especiales”.
El automóvil en México
En 1903, los primeros automóviles llegaron a la Ciudad de México, totalizando un
parque vehicular de 136 en aquel año, creciendo hasta los 800 tres años después.
Esto encaminó al Presidente Porfirio Díaz, para crear el primer Reglamento de
Tránsito en el país. Este permitía que los automovilistas alcanzaran una velocidad
máxima de 10 km/h en calles estrechas o muy transitadas, y hasta 40 km/h en las
demás. Sin embargo, él creó un impuesto para los propietarios de vehículos que
fue abolido en 1911 con la victoria de Francisco I. Madero sobre Díaz.
A principios de la década de los 1960 apareció un Decreto Automotriz cuyas
regulaciones dictaban que las empresas establecidas en México debían
ensamblar todos los automóviles comercializados en el país, regulando también el
358
porcentaje de integración nacional, así como el porcentaje de las autopartes
importadas. La idea era el desarrollar una industria automotriz nacional para
promover la creación de empleos e impulsar el implemento de avances
tecnológicos. Las empresas que no acataron este decreto tuvieron que abandonar
el país, entre éstas estaban Mercedes Benz, Fiat y Volvo. Las tres grandes
empresas americanas permanecieron en el país junto con American Motors (hoy
Chrysler), Renault, Volkswagen y Datsun.
El automóvil ha sido de gran utilidad, ya que con sus avances se van acortando
cada vez más las distancias entre ciudades y se facilita más el transporte de carga
que sólo era férreo.
Actualmente se estudian nuevas formas para movilizarse de manera más rápida y
eficiente lo que incluye mejores carreteras por las que moverse. La antigua visión
futura del automóvil volador está desechada en la actualidad, ya que la energía
necesaria para hacerlos sostenerse en el aire sería mucho mayor.
Un futuro posible del automóvil es su sustitución por medios de transporte público
más eficientes energéticamente. Esto puede suceder a causa de la escasez de
petróleo y su consecuente aumento de precio.
Otra línea futura será la de los automóviles autónomos, sin conductor. Ya ha
habido dos concursos, del Departamento de Defensa de Estados Unidos, en los
que varios coches autónomos han hecho un recorrido sin conductor; en el primer
caso por el desierto de Mohave y en el segundo por una ciudad.
Aeroplano
Hace ya 500 años atrás, Leonardo da Vinci se avocó a la tecnología del vuelo y
diseñó varios dispositivos voladores. El inglés Sir George Cayley comprendió que
esas máquinas voladoras, impulsadas por los músculos y basadas en el
movimiento del aleteo de las aves, no conducían a ningún lado, por lo que se
dedicó a la construcción de planeadores. Estableció los principales factores del
vuelo: el despegue, la propulsión y la dirección, los cuales tuvo en cuenta durante
sus intentos de construir aparatos voladores.
El 17 de diciembre de 1903, Orville Wright se elevó en el aire con el biplano “Flyer
I”, el cual había despegado del suelo utilizando la energía de un motor, y voló
alrededor de 36 metros en 12 segundos. Orville y su hermano Wilbur realizaron un
total de cuatro intentos de vuelo ese día -permaneciendo finalmente en el aire por
un total de 59 segundos. Durante esos intentos, su “Flyer”, que estaba equipado
con un motor a gasolina de 12 caballos de fuerza, así como con un elevador a
diapasón y un timón, voló distancias de entre 36 y 265 metros. Los primeros pasos
hacia el vuelo propulsado y controlado habían sido dados.
En 1904, los hermanos Wright fueron los primeros que tuvieron éxito en dirigir un
avión y volarlo, realizando un círculo completo.
359
La aviación en México
El 8 de enero de 1910 el deportista mexicano Alberto Braniff efectuó en un
aeroplano Voisin el primer vuelo de un aeroplano no sólo en México, si no en toda
Latinoamérica. El hecho tuvo lugar en los llanos de Balbuena, próximos a la capital
federal.
Braniff se fue a París y compró a los hermanos Voisin uno de sus aeroplanos con
el encargo de que se lo enviaran a México. Mientras tanto, en el mes de
septiembre, tomó un curso de vuelo en la escuela que los propios fabricantes
tenían en Yssy-Les-Moulineaux.
De regreso en México, Braniff buscó un lugar para sus prácticas de vuelo y
encontró que la hacienda de Balbuena, propiedad de su familia, tenía unos llanos
muy adecuados para la práctica del vuelo y se encontraba a unos 2 km de la
estación de San Lázaro, en la linea de ferrocarril que unía la Ciudad de México
con el puerto de Veracruz.
Allí mandó construir un hangar donde se armaría el aeroplano, una vez este llegó
a Veracruz y fue trasladado en tren. Entre Braniff, el mecánico llegado de la
fábrica apellidado Ploquin, un carpintero y el chofer de Braniff, armaron el avión.
El aeroplano es un gran medio de transporte tanto de carga como de personas,
sólo que no se tiene la misma accesibilidad para viajar en aeroplano que en
automóvil, o en su caso, autobús. El avión actual está diseñado para recorrer
grandes distancias a muy corto tiempo comparado con transportes anteriores,
tales como el ferrocarril o el barco.
360
Las condiciones bajo las cuales se han provisto los servicios de agua potable y
saneamiento en México han sido una mímica de las tensiones políticas entre las
autoridades municipales y federales. Cuando los servicios eran una
responsabilidad rentable, la federación ansiaba esa recaudación; una vez teniendo
la responsabilidad, decidió regresarla a los municipios, también por cuestiones
presupuestarias. A pesar de esos vaivenes, se cuenta con una cobertura
razonable de los servicios de agua potable y saneamiento, aunque la desigualdad
social se observa incluso dentro de una misma localidad. En ese aspecto, una
solución viable es la aplicación de subsidios cruzados en cada localidad: los
fondos requeridos para que los ciudadanos de escasos recursos paguen las tarifas
justas pueden provenir de los estratos pudientes de la sociedad.
El agua potable es un recurso indispensable para la vida, ya que con ella hacemos
todo, limpiar, lavar, consumo humano, etc. por lo tanto se debe crear conciencia
para cuidarla y en un futuro no muy lejano no falte.
Electrónica
La electrónica es la rama de la física y especialización de la ingeniería, que
estudia y emplea sistemas cuyo funcionamiento se basa en la conducción y el
control del flujo microscópico de los electrones u otras partículas cargadas
eléctricamente.
Con el transistor se permitió aún una mayor miniaturización de aparatos tales
como las radios. El transistor de unión apareció algo más tarde, en 1949. Este es
el dispositivo utilizado actualmente para la mayoría de las aplicaciones de la
electrónica. Sus ventajas respecto a las válvulas son entre otras: menor tamaño y
fragilidad, mayor rendimiento energético, menores tensiones de alimentación, etc.
El transistor no funciona en vacío como las válvulas, sino en un estado sólido
semiconductor (silicio), razón por la que no necesita centenares de voltios de
tensión para funcionar.
En 1958 se desarrolló el primer circuito integrado, que alojaba seis transistores en
un único chip. En 1970 se desarrolló el primer microprocesador, Intel 4004. En la
actualidad, los campos de desarrollo de la electrónica son tan vastos que se ha
dividido en varias disciplinas especializadas. La mayor división es la que distingue
la electrónica analógica de la electrónica digital.
La electrónica es, por tanto, una de las ramas de la ingeniería con mayor
proyección en el futuro.
La electrónica desarrolla en la actualidad una gran variedad de tareas. Los
principales usos de los circuitos electrónicos son el control, el procesado, la
distribución de información, la conversión y la distribución de la energía eléctrica.
Estos dos usos implican la creación o la detección de campos electromagnéticos y
corrientes eléctricas. Entonces se puede decir que la electrónica abarca en
361
general las siguientes áreas de aplicación: electrónica de control,
telecomunicaciones y electrónica de potencia.
La electrónica, al igual que la electricidad, ha contribuido para los grandes
desarrollos de tecnologías, es por eso que no nos extendimos tanto en este tema
debido a que tiene mucha relación con la mayoría de los inventos.
Radio / TV
El radio y la televisión fueron los mejores agentes sociales del siglo XX, abriendo
ventanas en áreas remotas del mundo. Del telégrafo inalámbrico a los sistemas de
satélite, los ingenieros han desarrollado tecnologías importantes que informan y
entretienen a millones de personas.
El receptor de radio es el dispositivo electrónico que permite la recuperación de las
señales vocales o de cualquier otro tipo, transmitidas por un emisor de radio
mediante ondas electromagnéticas.
La radio es un medio de difusión masivo que llega al radio-escucha de forma
personal, es el medio de mayor alcance, ya que llega a todas las clases sociales
por lo que establece un contacto más personal ya que ofrece al radio-escucha
cierto grado de participación en el acontecimiento o noticia que se está
transmitiendo.
Un receptor de radio consiste en un circuito eléctrico, diseñado de tal forma que
permite filtrar o separar una corriente pequeñísima, que se genera en la antena,
por efecto de las ondas electromagnéticas que llegan por el aire normalmente
(aunque viajan por cualquier medio, inclusive el vacío) y luego amplificarla
selectivamente, miles de veces, para enviarla hacia un elemento con un
electroimán, que es el altavoz (o parlante), donde se transforma la información
eléctrica en sonido.
Existen en el México más de 1332 emisoras de radio, 853 en Amplitud Modulada
(AM) y 479 en Frecuencia Modulada (FM).
En México todas las estaciones comerciales de radio requieren una concesión por
parte de la Secretaría de Comunicaciones y Transportes.
El 17 de Septiembre de 1902, Porfirio Díaz, entonces presidente de México,
anunció en el Congreso las primeras pruebas de telegrafía sin hilos en Veracruz.
Durante los siguientes cuatro años la dirección General de Telégrafos Nacionales
instalaría transmisores en diversas partes del país. Para 1911, la Red de Radio
Nacional contaba con nueve estaciones que aseguraban la comunicación con
otras naciones del Continente, número que iba a seguir creciendo en los próximos
años.
La noche del 27 de Septiembre de 1921 fue una fecha significativa para los inicios
de la radio en México. Pues fue cuando la cabina construida en la planta baja del
362
desaparecido Teatro ideal en la Ciudad de México, dio origen al primer programa
radiofónico. La estación era propiedad de los hermanos Pedro y Adolfo Gómez,
así como de Francisco Barra Villela.
363
El primer canal comercial de televisión en México y América Latina se inaugura el
31 de agosto de 1950, un día después, el 1 de septiembre, se transmite el primer
programa, con la lectura del IVº Informe de Gobierno del Presidente de México,
Lic. Miguel Alemán Valdés, a través de la señal de XHTV-TV Canal 4 de la familia
O'Farrill.
Como dato curioso agregamos que México es el tercer país en consumo
televisivo, sólo detrás de potencias económicas como China y los Estados Unidos
de Norteamérica. También en 1962, Canal 5 transmitió el primer programa en
color en la historia de la televisión de México: Paraíso infantil.
La televisión y la radio han sido fundamentales para la comunicación masiva y el
entretenimiento de la humanidad, ya que en estos medios se transmiten noticias
en tiempo real lo cual no era posible con los medios impresos como revistas o
periódicos.
Mecanización de la agricultura
Una máquina agrícola es aquella que tiene autonomía de funcionamiento y, por tanto,
está dotada de un motor de combustión y unos mecanismos de transmisión que la
permiten desplazarse por el campo cuando desarrolla el trabajo.
Tractor: es una máquina agrícola muy útil, con ruedas o cadenas diseñadas para moverse
con facilidad en el terreno y potencia de tracción que permite realizar grandes tareas
agrícolas, aun en terrenos encharcados. Tiene dos pedales de freno y está
364
acondicionando para halar rastras. Hay dos tipos de tractores: el de oruga, de gran
estabilidad y fuerza, y el de ruedas, capaz de desplazarse hasta por carreteras; posee
mayor velocidad que el de oruga.
Cosechadora: o segadora es una máquina agrícola de motor potente, peine cortador para
segar las plantas maduras de cereales y un largo rastrillo que va delante de la máquina y
gira sobre un eje horizontal.
Computadora
Primera Generación
Segunda Generación
Tercera generación
365
La tercera generación surge con la IBM 360 en abril de 1964. Las características de esta
generación fueron las siguientes:
Quinta generación
Teléfono
366
El teléfono es un dispositivo de telecomunicación diseñado para transmitir señales
acústicas por medio de señales eléctricas a distancia. Muy parecido al teletrófono.
Durante mucho tiempo Alexander Graham Bell fue considerado el inventor del teléfono,
junto con Elisha Gray. Sin embargo Bell no fue el inventor de este aparato, sino solamente
el primero en patentarlo. Esto ocurrió en 1876. El 11 de junio de 2002 el Congreso de
Estados Unidos aprobó la resolución 269, por la que se reconocía que el inventor del
teléfono había sido Antonio Meucci, que lo llamó teletrófono, y no Alexander Graham Bell.
En 1871 Meucci sólo pudo, por dificultades económicas, presentar una breve descripción
de su invento, pero no formalizar la patente ante la Oficina de Patentes de Estados
Unidos.
La historia del teléfono en México se remonta a la fecha 15 de diciembre del año 1878, al
establecerse oficialmente el servicio telefónico en México, la compañía seleccionada para
la construcción de una red telefónica que uniera a las comisarías de policía, la inspección
general, la oficina del gobernador de la ciudad y el ministerio de gobernación fue Alfred
Westrup & Co.
Con las ventajas ofrecidas el teléfono dejo de ser uso exclusivo de la policía y el ejército, y
paso a dar concesiones para instalar cableado público, iniciando la carrera por instalar
cableado a lo largo de la republica mexicana y por tal, el nacimiento de compañías
telefónicas, como es el caso de la Compañía Telefónica Mexicana (Mextelco) formada el
18 de julio de 1882.
Aire acondicionado
367
Como enfriar significa eliminar calor, otro término utilizado para decir refrigeración, el aire
acondicionado, obviamente este tema incluye a la refrigeración.
El acondicionador de aire o clima toma aire del interior de una recamara pasando por
tubos que están a baja temperatura estos están enfriados por medio de un liquido que a
su vez se enfría por medio del condensador, parte del aire se devuelve a una temperatura
menor y parte sale expulsada por el panel trasero del aparato, el termómetro esta en el
panel frontal para que cuando pase el aire calcule al temperatura a la que está el
ambiente dentro de la recamara, y así regulando que tan frío y que tanto debe trabajar el
compresor y el condensador.
En 1928, Willis Haviland Carrier desarrolló el primer equipo que enfriaba, calentaba,
limpiaba y hacía circular el aire para casas y departamentos, pero la Gran Depresión en
los Estados Unidos puso punto final al aire acondicionado en los hogares. Las ventas de
aparatos para uso residencial no empezaron hasta después de la Segunda Guerra
Mundial. A partir de entonces, el confort del aire acondicionado se extendió a todo el
mundo.
Carreteras
368
La construcción de carreteras requiere la creación de una superficie continua, que
atraviese obstáculos geográficos y tome una pendiente suficiente para permitir a los
vehículos o a los peatones circular y cuando la ley lo establezca deben cumplir una serie
de normativas y leyes o guías oficiales que no son de obligado cumplimiento. El proceso
comienza a veces con la retirada de vegetación (desbroce) y de tierra y roca por
excavación o voladura, la construcción de terraplenes, puentes y túneles, seguido por el
extendido del pavimento. Existe una variedad de equipo de movimiento de tierras que es
específico de la construcción de vías.
Las carreteras ayudan a disfrutar uno de los más preciados valores: la libertad de
movilidad personal. Miles de ingenieros construyen carreteras, puentes y túneles que
conectan a las poblaciones, permitiendo el abasto de enseres y servicios.
Exploración espacial
La exploración espacial designa los esfuerzos del hombre en estudiar el espacio y sus
astros desde el punto de vista científico y de su explotación económica.
Estos esfuerzos pueden involucrar tanto seres humanos viajando en naves espaciales
como satélites con recursos de telemetría o sondas teleguiadas enviadas a otros planetas
(orbitando o aterrizando en la superficie de estos cuerpos celestes).
La URSS comenzó su programa espacial con una gran ventaja sobre los EE. UU. Esto
ocurrió porque, debido a problemas técnicos para fabricar arcos nucleares más débiles,
los misiles lanzadores intercontinentales de la URSS eran inmensos y potentes
comparados con sus similares estadounidenses. Así, los cohetes para su programa
espacial ya estaban listos como resultado del esfuerzo militar soviético resultante de la
guerra fría.
Como consecuencia, los soviéticos fueron capaces de enviar el primer satélite artificial en
órbita (el Sputnik, de casi 84 kg) y el primer hombre, Yuri Gagarin.
369
El lanzamiento del Sputnik fue parte de un esfuerzo de preparación de la URSS para
enviar misiones tripuladas al espacio. Consistió en ocho vuelos no tripulados: Sputnik 1,
Sputnik 2, Sputnik 3, Sputnik 4, Sputnik 5, Korabl-Sputnik-3, Korabl-Sputnik-4 y Korabl-
Sputnik-5. Los dos últimos usando naves Vostok y ya con patrón compatible al envío de
humanos al espacio.
Su programa espacial incluía planos para llevar hombres a Luna (este programa se
llamaba Lunar L1). La prueba de esto es la existencia de un módulo lunar soviético,
llamado LK lander, pero cuya existencia era desconocida hasta hace poco en Occidente.
Mucho del atraso inicial del programa espacial de los EE. UU. se puede atribuir a un error
estratégico de invertir inicialmente en los lanzadores Vanguard, más complejos y menos
confiables que los lanzadores Redstone (basados en las antiguas V-2 alemanas). Esto
acarreó que la capacidad de lanzamiento estadounidense era de 5 kg en el momento en
que la Sputnik I, de 84 kg pero con capacidad de 500 kg, fue recién lanzada por la URSS.
Los EE. UU. lograron en su objetivo de alcanzar la Luna antes que la URSS, en 1969, con
el Proyecto Apollo. Este proyecto envolvió un extraordinario esfuerzo económico de 20
billones de dólares, 20 mil compañías que desarrollaron/fabricaron componentes y piezas,
y 300 mil trabajadores.
Internet
370
embargo, este no fue el único motivo. Si bien es cierto que ARPANET fue diseñada para
sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de
conmutación eran poco fiables.
Inicialmente Internet tenía un objetivo claro. Se navegaba en Internet para algo muy
concreto: búsquedas de información, generalmente.
Ahora quizás también, pero sin duda alguna hoy es más probable perderse en la red,
debido al inmenso abanico de posibilidades que brinda la red. Hoy en día, la sensación
que produce Internet es un ruido, una serie de interferencias, una explosión o cúmulo de
ideas distintas, de personas diferentes, de pensamientos distintos de tantas y tantas
posibilidades que, en ocasiones, puede resultar excesivo.
El crecimiento o más bien la incorporación de tantas personas a la red hace que las calles
de lo que en principio era una pequeña ciudad llamada Internet se conviertan en todo un
planeta extremadamente conectado entre sí entre todos sus miembros.
Durante los finales de los años ochenta se formaron las primeras compañías Internet
Service Provider (ISP). Compañías como PSINet, UUNET, Netcom, y Portal Software se
formaron para ofrecer servicios a las redes de investigación regional y dar un acceso
alternativo a la red, e-mail basado en UUCP y Noticias Usenet al público. El primer ISP de
marcaje telefónico, world.std.com, se inauguró en 1989.
Correo electrónico, o en inglés e-mail, es un servicio de red que permite a los usuarios
enviar y recibir mensajes rápidamente (también denominados mensajes electrónicos o
cartas electrónicas) mediante sistemas de comunicación electrónicos. Por medio de
mensajes de correo electrónico se puede enviar, no solamente texto, sino todo tipo de
documentos digitales. Su eficiencia, conveniencia y bajo costo, están logrando que el
correo electrónico desplace al correo ordinario para muchos usos habituales.
La historia del Internet en México empieza en el año de 1989 con la conexión del Instituto
Tecnológico y de Estudios Superiores de Monterrey, en el Campus Monterrey, ITESM
hacia la Universidad de Texas en San Antonio, específicamente a la escuela de Medicina.
Una Línea privada analógica de 4 hilos a 9600 bits por segundo fue el enlace.
371
El internet está cambiando las prácticas del comercio, la educación y las comunicaciones.
Con el acceso global a las noticias, negocios y gran cantidad de información, el internet
ha conectado más a las personas añadiendo convivencia y eficiencia en nuestras vidas.
Tecnologías de imágenes.
Los primeros en usar de esta nueva tecnología serían de la inteligencia americana y los
investigadores científicos quienes refinarían esta tecnología, resultando en la tomografía
computarizada. Otra tecnología seria la del ecocardiograma que haría posible el ver
movimientos cardíacos y el flujo cardíaco. Otro adelanto seria la introducción de la
resonancia magnética cuyas imágenes revelarían anomalías en tejidos humanos y flujo
sanguíneos. También se podría ver evidencia de daños en la espina dorsal y aun
procesos neuroquímicos cerebrales. En el presente los científicos están explorando el uso
de nuevas tecnologías que hagan uso de más sectores del espectro electromagnético
como las imágenes de rayos X.
372
Aparatos electrodomésticos.
• Televisor / Televisión
• Reproductor de audio
• Reproductor de vídeo
• Cadena de música
• Reproductor de DVD
• Home cinema
373
MOTOR ELECTRICO movimiento circular que se observa
en el rotor del motor.
Un motor eléctrico es una máquina
Partiendo del hecho de que cuando
eléctrica que transforma energía
pasa corriente por un conductor
eléctrica en energía mecánica por
produce un campo magnético,
medio de interacciones
además si lo ponemos dentro de la
electromagnéticas. Algunos de los
acción de un campo magnético
motores eléctricos son reversibles,
potente, el producto de la interacción
pueden transformar energía
de ambos campos magnéticos hace
mecánica en energía eléctrica
que el conductor tienda a desplazarse
funcionando como generadores. Los
produciendo así la energía mecánica.
motores eléctricos de tracción usados
Dicha energía es comunicada al
en locomotoras realizan a menudo
exterior mediante un dispositivo
ambas tareas, si se los equipa con
llamado flecha.
frenos regenerativos.
Ventajas
Son ampliamente utilizados en
instalaciones industriales,
En diversas circunstancias presenta
comerciales y particulares. Pueden
muchas ventajas respecto a los
funcionar conectados a una red de
motores de combustión:
suministro eléctrico o a baterías. Así,
en automóviles se están empezando
• A igual potencia, su tamaño y
a utilizar en vehículos híbridos para
peso son más reducidos.
aprovechar las ventajas de ambos.
• Se pueden construir de
cualquier tamaño.
Principio de funcionamiento
• Tiene un par de giro elevado y,
según el tipo de motor,
Los motores de corriente alterna y los
prácticamente constante.
de corriente continua se basan en el
• Su rendimiento es muy
mismo principio de funcionamiento, el
elevado (típicamente en torno
cual establece que si un conductor
al 75%, aumentando el mismo
por el que circula una corriente
a medida que se incrementa la
eléctrica se encuentra dentro de la
potencia de la máquina).
acción de un campo magnético, éste
• Este tipo de motores no emite
tiende a desplazarse
contaminantes, aunque en la
perpendicularmente a las líneas de
generación de energía
acción del campo magnético.
eléctrica de la mayoría de las
redes de suministro se emiten
El conductor tiende a funcionar como
contaminantes.
un electroimán debido a la corriente
eléctrica que circula por el mismo
adquiriendo de esta manera
propiedades magnéticas, que
provocan, debido a la interacción con
los polos ubicados en el estator, el
374
eléctrico de corriente continua cuya
excitación es originada por dos
Motores de corriente continua bobinados inductores independientes;
uno dispuesto en serie con el
Los motores de corriente continua se
bobinado inducido y otro conectado
clasifican según la forma como estén
en derivación con el circuito formado
conectados, en:
por los bobinados: inducido, inductor
Motor seria serie e inductor auxiliar.
Paso
+Vcc -Vcc
1
-Vcc +Vcc -Vcc +Vcc
378
Paso
-Vcc +Vcc
7
variación de la alimentación de
(Semi- corriente de la bobina A según los
)Paso +Vcc -Vcc -Vcc +Vcc transistores T1, T2, T3, T4
8
Velocidad de rotación
379
lo importante es que también reluctancia variable e imán
coloquen a disposición un simulador permanente. Este tipo de motor tiene
o circuito para probar estos motores una alta precisión y alto par y se
paso a paso para descartar fallas en puede configurar para suministrar un
ello. paso angular tan pequeño como 1.8°.
Regulación de velocidad
382
desarrollar su genialidad. El sufrió
una afección peculiar en la cual
haces de luz cegadores, podían
Nikola Tesla aparecer ante sus ojos, a menudo
acompañados de alucinaciones. La
El comienzo
mayor parte del tiempo las visiones
Nikola Tesla nació el 9 de julio de estaban asociadas a una palabra o
1856 en Smiljan, Croacia. Su padre, idea que podía haber captado. Por el
de nombre Milutin Tesla, era un solo hecho de escuchar el nombre de
clérigo ortodoxo que amaba una cosa, el podía verlo
profundamente a sus hijos y no involuntariamente en un detalle
obstante, mantenía una disciplina realista. Actualmente, la condición
dura con ellos. Su madre, de nombre llamada sinestesia presenta síntomas
Djuka, tenía una memoria pródiga a similares.
pesar de su analfabetismo. Se dice
Sus padres, al ser conscientes de su
que podía recitar largos poemas
precaria salud, querían que Nikola
clásicos que su marido le había
Tesla siguiera la carrera eclesiástica
enseñado. También, su madre era
de su padre, en un seminario
muy hábil en la construcción de
ortodoxo donde su delicada salud
"inventos" que ayudaran en el
sería atendida. Sin embargo, Nikola
quehacer doméstico, como por
Tesla hizo prometer a su padre que si
ejemplo un batidor de huevos
sobrevivía a los males que lo
mecánico; esto evidenciaba la fuente
aquejaban podría ingresar en
del carácter inventivo e ingenioso de
ingeniería.
Nikola Tesla.
Estudios académicos
Con tal herencia y circunstancias, era
más que de esperarse que el joven Nikola Tesla estudió ingeniería
Tesla desarrollara un hambre de eléctrica en la Universidad de Graz
conocimiento que lo llevaría muy en la ciudad del mismo nombre en
pronto a realizar pequeñas 1875. Algunas fuentes afirman que
invenciones como un motor recibió la licenciatura de la
impulsado con insectos o un molino Universidad de Graz. Sin embargo, la
de viento de palas lisas. universidad afirma que no recibió
ningún grado y que no continuó más
Desde los 12 años, Nikola Tesla
allá del segundo semestre del tercer
sorprendió a sus maestros con su
año, durante el cual suspendió sus
avanzada capacidad para las
estudios.
matemáticas. Tesla se ocupaba
leyendo muchas obras, memorizando En diciembre de 1878 dejo Graz y
libros completos, supuestamente rompió las relaciones con sus
tenía una memoria fotográfica. familiares. Sus amigos pensaban que
se había ahogado en el río Mura. Se
Sin embargo, el joven Nikola Tesla
dirigió a Maribor, (hoy Eslovenia),
era susceptible a los problemas de
donde obtuvo el primer empleo como
salud, los cuales desde muy corta
asistente de un ingeniero por un año.
edad le presentarían obstáculos para
383
Tesla fue posteriormente persuadido en un proyecto usando turbinas
por su padre para asistir a la gemelas para generar energía
Universidad Carolina en Praga, a la continua.
cual ingresó para el verano de 1880.
Aquí fue influenciado por Ernest Durate la apertura de la central
Mach. Sin embargo después que su telefónica en 1881 en Budapest,
padre falleció, dejó la Universidad, Tesla se había convertido en el
completando solamente un periodo. eléctrico en jefe de la compañía, y fue
más tarde ingeniero para el primer
Primeros estudios sobre la corriente sistema telefónico del país. También
alterna (AC) desarrolló un dispositivo que, de
acuerdo a algunos, era un repetidor
Mientras se encontraba en la telefónico o amplificador, pero según
Universidad de Gratz, Tesla otros pudo haber sido el primer
descubrió las limitaciones inherentes altavoz.
de los motores y generadores DC
debidas a la producción de chispas Tesla podía visualizar una invención
asociada con la acción colectora (la en su cerebro con precisión extrema,
interrupción de polaridad de corriente incluyendo todas las dimensiones,
en un motor para resguardar el antes de iniciar la etapa de
movimiento del arrollamiento construcción; una técnica algunas
inducido). Este descubrimiento veces conocida como pensamiento
convenció a Tesla de la necesidad de visual. Tesla acostumbraba a no
desarrollar motores y generadores de dibujar esquemas, en lugar de ello el
corriente alternante que no necesiten concebía todas las ideas con la
colectores. mente. También a menudo tenía
reminiscencias de eventos que le
En los años siguientes, Tesla se habían sucedido previamente en su
abocó a esta tarea. Rechazó la idea vida.
de su profesor, quien enseñaba a sus
alumnos que era imposible En 1882 Tesla se trasladó a París,
desarrollar motores y generadores Francia, para trabajar como ingeniero
AC. Su "instinto" le indicaba que el en la Continental Edison Company
profesor estaba equivocado. Tesla (una de las compañías de Thomas
jamás fallaba cuando se trataba de Alva Edison), diseñando mejoras para
resolver problemas científicos. Sin el equipo eléctrico, sacando a flote
embargo, tardó bastante en las ideas de Edison. En el mismo
desarrollar su teoría. año, Tesla concibió el motor de
inducción e inició el desarrollo de
Primeros empleos varios dispositivos que usaban el
campo magnético rotativo para el cual
En 1880, se trasladó a Budapest para
recibió la patente en 1888.
trabajar bajo las órdenes de Tivadar
Puskás en una compañía de Encuentro con Edison
telégrafos. Allá conoció a Nebojša
Petrović, un joven inventor serbio que En junio de 1884, Tesla llegó por
vivía en Austria. A pesar de que su primera vez a los Estados Unidos a la
encuentro fue breve, trabajaron juntos ciudad de Nueva York con pocos
384
haberes aparte de una carta de Tesla, necesitado de trabajo, se vio
recomendación de Charles Batchelor, abocado a cavar zanjas por un corto
un empleado antiguo. En la carta de periodo de tiempo para la compañía
recomendación a Tomas Edison, de Edison. El veía el trabajo manual
Batchelor escribió: “yo conozco a dos como una labor terrible, pero usó este
grandes hombres, usted es unos de tiempo para concentrarse en su
ellos; el otro es este joven”. Edison sistema polifásico de CA.
contrató a Tesla para trabajar en su
Edison Machine Works. Al no encontrar un puesto como
ingeniero, Tesla se vio forzado a
Empezó a trabajar para Edison como trabajar como obrero. A principios de
un simple ingeniero eléctrico y 1887, los comentarios sobre sus
progresó rápidamente, resolviendo proyectos con AC atrajeron a su
algunos de los problemas más capataz. El capataz también estaba
difíciles de la compañía. Se le ofreció obligado a realizar un trabajo por
entonces la tarea de rediseñar debajo de sus capacidades, y pronto
completamente los generadores de simpatizó con la situación de Tesla.
corriente directa de la compañía de Decidió recomendarlo a A. K. Brown
Edison. de la Western Union Telegraph
Company.
Tesla afirmaba que Edison le ofreció
50,000 dólares (1.1 millones de En abril, Brown y un amigo aportaron
dólares en 2007, ajustado por el dinero para crear la "Tesla Electric
inflación) si rediseñaba los motores y Light & Manufacturing". Casualmente,
generadores ineficientes de su el nuevo laboratorio de Tesla estaba
compañía, haciéndole mejoras tanto ubicado dentro de un edificio que
en servicio como en economía. Tesla pertenecía a Edison.
dijo que trabajó día y noche en el
proyecto y le dio a la compañía de Pronto Tesla construyó un generador
Edison algunas Patentes nuevas y AC de dos fases, el motor de
rentables durante el proceso. En inducción que había construido en
1885 cuando Tesla preguntó acerca Europa y otras máquinas que tenía
del pago por su trabajo, Edison en mente diseñar desde su
replicó, "Tesla, usted no entiende permanencia en Budapest. No sólo
nuestro humor americano," se concentró en sistemas de fase
rompiendo así su palabra. Ganando simple, bi-fásicos y tri-fásicos, sino
solo 18 dólares a la semana, Tesla que también experimentó con
tendría que haber trabajado por 53 dispositivos de 4 y hasta 6 fases.
años para devengar el monto que le También desarrolló la teoría
fue prometido. La oferta era igual al matemática necesaria para explicar la
capital inicial de la compañía. Tesla operación de sistemas AC, a fin de
entonces renunció de inmediato mostrar y hacer entender sus trabajos
cuando se rehusó a trabajar con un a otros científicos.
salario de 25 dólares a la semana.
Comprobada la eficiencia de sus
La compañía eléctrica Tesla sistemas AC, Tesla se dedicó a
desarrollar una serie de inventos
fundamentales. En 1888 los patentó.
385
Sus geniales creaciones y logros se una buena relación. Westinghouse le
difundieron rápidamente. El 16 de ofreció a Tesla un millón de dólares
mayo de este año fue invitado a por sus patentes AC. También lo
ofrecer una ponencia sobre "Un invitó a Pittsburgh por un año y le
nuevo sistema para motores y ofreció un alto salario como asesor
transformadores de Corriente técnico. Tesla aceptó la oferta. Le
Alternante" en la AIEE de Nueva cedió medio millón a A. K. Brown y el
York. Ya era entonces reconocido y socio que financiaron su trabajo.
aceptado como miembro de la Había accedido a una riqueza jamás
Asociación de Ingenieros Eléctricos. soñada.
Alianza con Westinghouse Surgieron problemas cuando los
ingenieros de Westinghouse
Para aquella época, George intentaron usar los diseños de Tesla
Westinghouse era un afamado para producir motores de fase-simple
inventor que había hecho una fortuna pequeños. Además, las prioridades y
en Pittsburgh fabricando frenos urgencias por fabricar sistemas de
neumáticos para trenes y una potencia AC de Westinghouse,
variedad de dispositivos eléctricos. dependientes de su venta exclusiva,
Reconoció las ventajas que ofrecían eran diferentes de los objetivos que
los sistemas de potencia AC respecto se proponía Tesla con sus
de los DC y divisó el gran potencial investigaciones. Tesla estaba seguro
comercial de los trabajos realizados de que sus máquinas AC operaban
por Tesla. de manera más eficiente a una
frecuencia de 60 Hz (entonces "ciclos
Los sistemas DC de Edison no
por segundo") mientras que los
podían distribuir potencia más allá de
ingenieros de Westinghouse usaban
media milla del generador debido a
frecuencias de 133 Hz.
las excesivas caídas de voltaje
producidas por la resistencia de las Insatisfecho con trabajar para
líneas de alto voltaje y la enorme terceros, Tesla retornó a su
corriente que fluía por las líneas. Los laboratorio de Nueva York. Ya había
voltajes AC, en cambio, se elevan en logrado solventarse por sí mismo y
el generador usando deseaba retornar a sus proyectos.
transformadores, reduciendo así la Rechazó una oferta muy lucrativa de
corriente y las pérdidas de la Westinghouse para permanecer en
transmisión. El resultado es un Pittsburgh. Después de abandonar
aumento sustancial del rango de esta ciudad, se le concedió la
distribución. Los transformadores ciudadanía norteamericana.
convierten los voltajes AC a niveles
seguros en el punto donde se utiliza Rayos x
la potencia.
En abril de 1887, Tesla empezó a
Luego de su presentación en la AIEE, investigar lo que después se llamó
Westinghouse se contactó con Tesla rayos X, usando su propio tubo de
para ver en persona su equipamiento vacío de una terminal (similar a su
AC. Ambos tenían intereses en patente USPTO nº 514170). Este
común e inmediatamente entablaron dispositivo difería de otros tubos de
386
rayos X por el hecho de no tener longitudinales, como las producidas
electrodo receptor. El término por las ondas en plasmas.
moderno para el fenómeno producido
por este artefacto es Bremsstrahlung Bobina de Tesla
(o radiación de frenado). Ahora se
Tesla demostró la transmisión
sabe que este dispositivo operaba
inalámbrica de energía" a principios
emitiendo electrones desde el único
de 1891. Propuso un sistema mundial
electrodo (carecía de electrodo
para la trasmisión de energía
receptor) mediante la combinación de
eléctrica sin cables basado en la
emisión de electrones por efecto de
conductividad eléctrica de la tierra, el
campo y emisión termoiónica. Una
cual funcionaría mediante la
vez liberados los electrones son
trasmisión de energía por varios
fuertemente repelidos por campo
medios naturales y el uso
eléctrico elevado cerca al electrodo
subsiguiente de la corriente trasmitida
durante los picos de voltaje negativo
entre los dos puntos para alimentar
de la salida oscilante de alto voltaje
dispositivos eléctricos. En la práctica
de la bobina de Tesla, generando
este principio de trasmisión de
rayos X al chocar con la envoltura de
energía, es posible mediante el uso
vidrio. Tesla también usó tubos de
de un rayo ultravioleta de alto poder
Geissler. Para 1892, se percató del
que produjera u canal ionizado en el
daño en la piel que Wilhelm Röntgen
aire, entre las estaciones de emisión
mas tarde identificó que era causada
y recepción. El mismo principio es
por los rayos X.
usado en pararrayos, en electro-láser,
En sus primeras investigaciones arma de electrochoque, y también se
Tesla diseñó algunos experimentos ha propuesto para inhabilitar
para producir rayos X. El afirmó que vehículos.
con estos circuitos, «el instrumento
En el mismo año, Tesla realizó
podría generar rayos de Roentgen de
demostraciones con varias máquinas
mayor potencia que la obtenida con
ante el Instituto Americano de
aparatos ordinarios».
Ingenieros Eléctricos en la
También mencionó los peligros de Universidad de Columbia. Demostró
trabajar con sus circuitos y con los de esta forma que todo tipo de
rayos X producidos por sus aparatos podían ser alimentados a
dispositivos de un solo nodo. De través de un único cable sin un
muchas de sus notas en las conductor de retorno. Este sistema de
investigaciones preliminares de este transmisión unifilar fue protegido en
fenómeno, atribuyó el daño de la piel 1897 por la patente U.S.0,593,138.
a varias causas. El creyó que
A finales del siglo XIX, Tesla
inicialmente que el daño en la piel no
demostró que usando una red
podría ser causado por los rayos de
eléctrica resonante y usando lo que
Roentgen, sino por el ozono
en aquél tiempo se conocía como
generado al contacto con la piel y en
"corriente alterna de alta frecuencia"
parte también al ácido nitroso. El
(hoy se considera de baja frecuencia)
pensaba que éstas eran ondas
sólo se necesitaba un conductor para
alimentar un sistema eléctrico, sin
387
necesidad de otro metal ni un que Harold P. Brown, un empleado
conductor de tierra. Tesla llamó a de Thomas Edison contratado para
este fenómeno la "transmisión de investigar la electrocución, desarrolló
energía eléctrica a través de un único la silla eléctrica.
cable sin retorno". Ideó y diseñó los
circuitos eléctricos resonantes En las cataratas del Niágara se
formados por una bobina y un construyó la primera central
condensador, claves de la emisión y hidroeléctrica gracias a los
recepción de ondas radioeléctricas desarrollos de Tesla en 1893,
con selectividad y potencia gracias al consiguiendo en 1896 transmitir
fenómeno de la resonancia. Lo que electricidad a la ciudad de Búfalo
de hecho creaba y transmitía eran (Nueva York). Con el apoyo
ondas electromagnéticas a partir de financiero de George Westinghouse,
alternadores de alta frecuencia sólo la corriente alterna sustituyó a la
que no lo aplicó a la trasmisión de continua. Tesla fue considerado
señales de radio como hizo Marconi desde entonces el fundador de la
sino a un intento de trasmitir energía industria eléctrica.
eléctrica a distancia sin usar cables.
La transmisión de energía y la
Tesla afirmó en 1901: "Hace unos utilización de las ondas de alta y baja
diez años, reconocí el hecho de que frecuencia
para transportar corrientes eléctricas
En 1899, Tesla se retira a las
a largas distancias no era en absoluto
montañas de Colorado Springs para
necesario emplear un cable de
experimentar con las ondas
retorno, sino que cualquier cantidad
electromagnéticas. Construye un
de energía podría ser transmitida
laboratorio de alta tensión, de gran
usando un único cable. Ilustré este
altura que rodea la más grande de las
principio mediante numerosos
bobinas Tesla del mundo. Sus
experimentos que, en su momento,
investigaciones sobrepasan a todas
generaron una atención considerable
las realizadas sobre
entre los hombres de ciencia".
electromagnetismo, sus experiencias
Guerra de corrientes presentan una sorprendente similitud
con los trabajos más tardíos en
Empeñado Tesla en mostrar la materia de comunicaciones a muy
superioridad de la CA sobre la CC de bajas frecuencias.
Edison se desarrolló lo que se conoce
como "guerra de las corrientes". En En el transcurso de sus múltiples
1893 se hizo en Chicago una estancias en su laboratorio, consigue
exhibición pública de la corriente concebir un sistema de transmisión
alterna, demostrando su superioridad de energía sin hilos, y descubre el
sobre la corriente continua de Edison. fenómeno de las ondas estacionarias.
Veremos a continuación cuáles son
No obstante, Edison aún trataba de las aplicaciones de las invenciones y
disuadir la teoría de Tesla mediante descubrimientos de Tesla.
una campaña para fomentar ante el
público el peligro que corrían al Transmisión de energía sin hilos
utilizar este tipo de corriente, por lo
388
Durante una conferencia, Tesla El 3 de julio de 1899 es el día que
anuncia que puede ver realizado su Tesla descubre el fenómeno de las
sueño más querido: la transmisión de ondas estacionarias. He aquí las
energía sin ningún cable de conexión. observaciones que le permitieron
deducir la existencia de este
Tesla no sólo cree que el globo es un fenómeno.
buen conductor, sino que las altas
capas de la atmósfera son En Colorado, se pueden observar
conductoras, y que están situadas a regularmente numerosas descargas
altitudes muy moderadas fácilmente naturales de relámpagos. Ese 3 de
accesibles, constituyendo una vía julio observó que a veces sus
conductora perfecta. Así pues, piensa aparatos reaccionaban más fuerte a
probar que se pueden transmitir las descargas muy lejanas que a las
grandes cantidades de energía más cercanas. Estalla una violenta
eléctrica hacia las capas superiores tormenta: las señales se
de la atmósfera, a no importa qué intensificaron, luego después de
distancia. haber pasado por un máximo,
decrecen para acabar cesando. Tesla
Además del proyecto de ha observado este fenómeno a
radiocomunicaciones, que pensaba intervalos regulares. Luego la
poner en marcha con la torre de tempestad se desplaza. El se
Wardenclyffe, quiere establecer un encuentra a 300 Km. y este
sistema de transmisión de energía sin fenómeno continúa manifestándose
hilos. Con ello se dispondría de con una fuerza constante.
energía eléctrica en cualquier punto
del planeta. Es precisamente con También llamada "onda Tesla", la
este proyecto que Morgan, el onda estacionaria, como su nombre
acreedor de Tesla por aquel indica, no se desplaza, al contrario de
entonces, no estaba de acuerdo. las ondas hertzianas. Es adicionando
Morgan decidió retirar su apoyo dos ondas hertzianas como se
financiero. obtiene una onda estacionaria. Si se
define un punto del espacio, y una
Algunos de sus experimentos en onda pasando por este punto, el
Colorado Springs son explicados por punto recorrerá toda la onda y por
periodistas. Según ellos, Tesla tanto, el punto y la onda tendrán un
consiguió encender 200 lámparas movimiento relativo. Si a ello se
incandescentes de 50 vatios a 42 Km. añaden dos ondas hertzianas de igual
de distancia. frecuencia, se obtiene una onda
estacionaria. El punto definido con
Si este procedimiento llega a
anterioridad, quedará fijo en relación
instalarse en el mundo un día, "
a la nueva onda así formada.
provocará una revolución industrial de
una amplitud inigualada. El Proyecto Wardenclyffe
Descubrimiento de la onda Tesla necesitaba obtener dinero con
estacionaria urgencia para lo que sería su
proyecto más ambicioso: una torre
gigante y un laboratorio en el cual
389
planeaba establecer una Para peor, el entusiasmo de Morgan
comunicación mundial inalámbrica. iba en disminución ante la falta de
También pensaba refinar sus planes resultados concretos para exhibir. La
para construir un sistema de gota que colmó el vaso fue la
distribución de potencia eléctrica. Ni conversación que tuvo una noche
Westinghouse ni Astor quisieron Tesla con el millonario; el inventor,
aportar el dinero necesario. J. quizás con algunas copas de más, le
Plerpont Morgan le proveyó $150.000 confesó que el plan de transmisión de
para construir la torre y los otros comunicaciones era en realidad un
dispositivos necesarios en proyecto para transmitir electricidad
Wardenclyffe, Long Island, a cambio sin costo a los hogares
de controlar las patentes que Tesla norteamericanos.
aún conservaba.
Al día siguiente Morgan cortó todo
Si bien Tesla aspiraba a una torre apoyo a Tesla y éste se vio obligado
más alta, las finanzas disponibles a buscar nuevos inversores. Ésta fue
alcanzaban para construir una de 187 la última oportunidad que tuvo para
pies de altura, con una cúpula demostrar que era capaz de hacer
hemisférica de 68 pies de diámetro. realidad el proyecto de electricidad
En diciembre de 1901 el proyecto gratuita y sin límites.
Wardenclyffe aún estaba en
construcción cuando Marconi logró Los inversores se negaron a apoyar a
enviar señales telegráficas Tesla debido a la mala prensa que
inalámbricas a través del océano venía teniendo desde hacía algunos
Atlántico usando un equipamiento años. Desde que comentó a un grupo
mucho más simple que el propuesto de periodistas que en su laboratorio
por Tesla, quien acusó a Marconi de de Colorado Springs había logrado
violar varias de sus patentes. De captar señales de radio provenientes
cualquier modo, el plan de Tesla se de un lugar en el espacio que
tornaba cada vez más extravagante. probablemente fuera el planeta
Marte, los reporteros comenzaron a
Pronto, una escalada de precios y su calificarlo como un científico
diseño demasiado ambicioso hicieron excéntrico y loco demasiado
que fuera imposible concretar el predispuesto a la fantasía.
proyecto Wardenclyffe según lo
planificado. Los acreedores lo En 1906 se detuvo por completo la
acosaban constantemente, y a pesar construcción en Wardenclyffe por la
de sus esfuerzos, no consiguió insolvencia de Tesla. El oscilador de
nuevos apoyos financieros. Rumores alto voltaje ya se había completado
negativos sobre el estado de sus pero la falta de fondos le impedía
patentes y el escepticismo con que probarlo. Cuando lo hizo, sin
fueron tomadas sus fantásticas embargo, todos los habitantes del
predicciones le retacearon ayuda. área que comprende de Long Island a
Tesla se derrumbó moralmente. Connecticut pudieron observar los
rayos en el cielo nocturno. De todos
Una serie de accidentes le dio fama modos, jamás realizó ninguna
de mala suerte al nuevo laboratorio. transmisión inalámbrica desde
390
Wardenclyffe, y tampoco pudo entonces los primeros años de la
desarrollar su sistema de distribución primera guerra mundial y Tesla vio
de energía eléctrica. entonces la oportunidad de sumarse
al esfuerzo de rearme de los Estados
Finalmente, en 1915 Tesla debió Unidos. También presentó una serie
entregar Wardenclyffe a sus de planos para construir lanchas
acreedores. Aquel mismo año se torpederas a control remoto,
dinamitó la torre por su valor en asegurando que de haber contado
chatarra. A pesar de este traspié, con ellas, durante la guerra contra
Tesla jamás abandonó sus ideas España, Estados Unidos hubiera
sobre la transmisión de potencia ganado la guerra en solo una tarde
inalámbrica para comunicaciones sin perder un solo hombre en la
globales. Coincidentemente, en el contienda.
año 1915 fue propuesto para el
premio Nobel, y en 1917 ganó la Las propuestas de Tesla fueron
medalla Edison, misma que rechazó. ignoradas y entonces el inventor
recibió un pedido de la Armada
El rayo de la muerte Alemana para desarrollar un nuevo
sistema de propulsión eléctrico, que
En otra oportunidad dijo poseer un
se supone fue la base para el
rayo capaz de crear ondas de
desarrollo de los motores que
frecuencia capaces de “partir a la
utilizaron luego los alemanes en sus
tierra en dos como si se tratase de
submarinos durante la segunda
una manzana”
guerra mundial.
Los dueños de las empresas que
Pero el ingreso de Estados Unidos en
siempre lo habían escuchado, vieron
la guerra y le peligro de ser acusado
en él un peligroso visionario capaz de
de traición hizo que Tesla cortar su
entregar energía gratuita a todos los
relación con los alemanes.
ciudadanos, poco a poco comenzaron
a darle también la espalda. Por medio de una carta, se dirigió al
entonces presidente Wilson
Otros, que tomaron partido a favor de
revelando poseer un rayo capaz de
Edison en su lucha contra el inventor
destruir grandes extensiones de
serbio, se sumaron a la larga fila de
tierra. Denominó a su invento “el rayo
personas dispuestas a opinar que se
de la muerte”. De acuerdo con su
trataba de un personaje cercano a la
carta, ya había logrado resultados
locura y el desvarío.
concretos que demostraban el
Pasó el tiempo y Tesla debió recurrir enorme poder destructivo de su arma
al gobierno para tratar de financiar y ponía como condición para su
sus ideas. Basándose en los entrega que fuera utilizado solamente
experimentos de la “bobina de Tesla”, con fines defensivos. Reveló,
presentó un proyecto para construir además, que durante 1908, mientras
un artefacto capaz de lanzar un rayo su amigo Robert Peary intentaba
electromagnético a miles de millas de llegar al Polo Norte, envió uno de sus
distancia “capaz de derribar aviones a rayos para que cayera al oeste de
400 kilómetros de distancia”. Corrían donde este se encontraba. De
391
acuerdo con los registros que obran aviones y submarinos a distancia,
en la Fundación Tesla, envió un pero su eterno competidor, Thomas
críptico telegrama a Peary en el que Edison, recomendó desechar la idea
le anunciaba que recibiría una por inviable. Años más tarde los
inequívoca señal de Tesla mientras británicos desarrollaron el sistema y
se encontraba de camino al Polo. lo denominaron radar, el que, luego,
fue adaptado para operar en las
Peary volvió sin haber percibido nada profundidades y sirvió para
anormal. Pero el mismo día que desarrollar los sonares modernos.
Peary conquistaba el Polo, una
devastadora y todavía inexplicada La turbina sin hélices
explosión sacudió a la zona de
Tunguska, en Siberia, Rusia. Cerca Si bien el fracaso de Wardenclyffe lo
de 3.000 kilómetros cuadrados de desalentó, Tesla continuó
bosque fueron barridos por una desarrollando ideas de largo alcance.
explosión que se calcula tuvo el Durante 1907-1908 diseñó una
poder equivalente a una bomba aeronave VTOL (despegue y
atómica de 50 megatones. Nunca se aterrizaje vertical). Una turbina
dio una explicación convincente al colocada en el centro de la nave tenía
suceso, ya que jamás se encontraron un propulsor montado encima, como
restos de algún meteorito, cráter u el de un helicóptero, para despegues
otro factor capaz de explicar y aterrizajes. En el aire, el piloto
semejante devastación. La explosión operaba una palanca que movía el
subsiguiente fue oída a 620 millas de propulsor hacia el frente de la nave,
distancia del lugar. como en un aeroplano convencional.
Tesla no construyó un prototipo de
En su carta al presidente, Tesla este VTOL, pero patentó su diseño.
sugería que su rayo había sido el En 1908 describió públicamente las
culpable de esa explosión y, debido a limitaciones de los aeroplanos
errores en sus cálculos, el estallido se conducidos con propulsores y predijo
había producido en una zona alejada el desarrollo de aeronaves con
de sus planes. Escribió que el motores de reacción (jets).
enterarse del peligro que encerraba
su invento, decidió desarmar la Tesla patentó en 1909 una poderosa
maquina hasta que estuviesen dadas y liviana "turbina sin hélices" que
las condiciones para que sea tenía el potencial para revolucionar el
debidamente comprendida, pero que, diseño de los primeros transportes en
debido al estado desbocado de la términos de caballos de fuerza
guerra, se ofrecía a rearmar para producidos por libra de peso. La
recuperar el equilibrio mundial. turbina de Tesla consistía en una
serie de discos apilados
La carta fue recibida por un secretario horizontalmente y espaciados a una
de la presidencia y nunca llegó a su mínima distancia, conectados a un
destino. Más tarde Tesla hizo un eje y cerrados en una cámara
nuevo intento y sobre el final de la sellada. Un fluido (líquido o gas)
guerra propuso un haz de ondas ingresaba bajo presión a la cámara
electromagnéticas para detectar sellada en la periferia de los discos.
392
La viscosidad causaba que los discos pedía exactamente 18 toallas; en el
girasen mientras el fluido se restaurante Delmonico's pedía 18
deslizaba en vías circulares hacia el servilletas y en el hotel Alta Vista
eje donde abandonaba la turbina. escogió la habitación 207, ya que era
divisible por 3, siempre buscaba
Se construyeron modelos pequeños cifras divisibles por 3. Nikola Tesla
exitosos de la turbina, pero los adoptó una dieta especial de
materiales inadecuados de la época, vegetales y leche con el objetivo de
y los serios problemas financieros de alcanzar los 100 años de edad. En
Tesla, impidieron que se invierno se encerraba en su
desarrollasen diseños más grandes. habitación a temperatura tropical
Varias compañías pagaron derechos sellando las rendijas con cinta.
por desarrollar el diseño de la turbina
de Tesla, pero sus esfuerzos Nikola Tesla tenía el hábito de
fracasaron. Aún hoy sus patentes de comenzar un proyecto, desarrollarlo y
turbinas de 1909 son estudiadas no descansar hasta terminarlo,
atentamente por ingenieros que siendo frecuente entre proyectos que
intentan construir su diseño de largo durmiera tan poco como 3 horas
alcance. diarias, lo cual eventualmente lo llevó
al agotamiento y a desarrollar las
Oscilador Vibracional Mecánico enfermedades psicosomáticas y
neurosis obsesivas. Sus nervios
Otro de sus inventos revolucionarios
estaban alterados sobremanera y era
fue el llamado "Oscilador Vibracional
hipersensible a los estímulos
Mecánico". Con este aparato
externos del mundo, particularmente
pretendía visualizar la dinámica de su
a los auditivos: cualquier sonido
sistema de electricidad sin hilos. En
podía impredeciblemente perturbarlo.
uno de sus experimentos llegó a
provocar un pequeño terremoto en su Tesla hablaba fluidamente varios
laboratorio de Manhattan. Si esto fue lenguajes. Junto con el serbio, él
así, no nos queda más remedio que hablaba otros siete lenguajes:
pensar que a estas alturas deben checoslovaco, inglés, francés,
existir sistemas tecnológicos ya alemán, húngaro, italiano y latín.
perfeccionados capaces de provocar
terremotos artificiales, entre otras Tesla sufría un desorden obsesivo-
cosas. compulsivo, y tenía varias manías y
fobias inusuales. Hacía las cosas
Excentricidades de Nikola Tesla basándose el número tres, y cuando
se hospedaba en hoteles se quedaba
Al igual que otras mentes brillantes
en habitaciones con un número
que tienden a realizar grandes
divisible por tres. Tesla también sufría
cálculos e invenciones en su cabeza,
una repulsión física hacia las joyas,
Nikola Tesla se vio presa de un
particularmente aretes de perlas. Era
desorden obsesivo-compulsivo en la
insistente con la limpieza y la higiene,
última parte de su vida. Vivió en
y era miso-fóbico (temor irracional
distintos hoteles durante la mayor
hacia los gérmenes). Detestaba tocar
parte de su vida y murió
relativamente pobre. Se dice que
393
cabello humano que no fuera el suyo era una figura complicada. Se
tanto como objetos esféricos. rehusaba a realizar convenciones sin
su bobina Tesla disparando
Tesla estaba obsesionado con las electricidad a través de la habitación,
palomas, ordenando semillas a menudo aterrorizando a la
especiales para las palomas que audiencia.
alimentaba en Central Park e incluso
trayendo algunas con él a su En 1926, Tesla comentó sobre la
habitación de hotel. Tesla amaba a igualdad de género para las mujeres,
los animales, y muy a menudo indicando que en el futuro la
reflexionaba sobre el gato de su humanidad sería dirigida por las
infancia, al cual llamaba "El Magnífico "Abejas reinas". El creía que las
Macak". mujeres se convertirían en el sexo
dominante en el futuro. En sus
Tesla nunca se casó. Era célibe y últimos años se convirtió en
afirmaba que su castidad era muy útil vegetariano, afirmando que la
para sus habilidades científicas. De matanza de animales era cruel y
todas maneras numerosas mujeres barbárica. Al mismo tiempo,
buscaron el afecto de Tesla, algunas desarrolló una extrema sensibilidad a
incluso enamorándose locamente de la luz, el sonido y otras influencias.
él.
Sus últimos años
A pesar de su tendencia a alejarse de
la gente, cuando se encontraba en Tesla aún tenía ideas a desarrollar en
situaciones sociales, muchos mente. Con la evolución del tiempo,
hablaban de él de manera positiva y algunas de ellas entraron en el reino
admirativa. El amigo de Tesla, el de la ciencia ficción mientras otras
escritor Hawthorne, escribió que era parecen violar las leyes de la
muy poco común "conocer a un naturaleza. Entre sus ideas más
científico o ingeniero que también era fantásticas se incluyen una máquina
un poeta, un filósofo, un apreciador para capturar y utilizar energía de
de la buena música, un lingüista, y un rayos cósmicos, una técnica para
conocedor de la comida y bebida." De establecer comunicación con otros
todas maneras, Tesla ocasionalmente planetas y un arma de partículas de
se mostraba cruel, expresando su rayos para destruir una armada de
disgusto por la gente con sobrepeso, 10.000 aeronaves a 250 millas de
despidiendo empleados por su peso. distancia.
También criticaba la ropa de los
demás, exigiéndoles a sus Muchas de sus ideas eran más
subordinados que regresaran a casa prácticas, y ocasionalmente vendía
a cambiarse en varias ocasiones. los derechos a terceros para que
desarrollen sus conceptos.
Tesla era conocido por sus Particularmente innovadores son sus
presentaciones espectaculares, diseños para un velocímetro de
mostrando sus innovaciones al automóvil y una luz delantera
público de manera artística, como si locomotiva. Con estas ventas obtenía
fuera un mago. Esto parecía pequeñas cantidades de dinero, pero
contradecir con su reclusión; Tesla dadas sus innumerables deudas,
394
vivió en un estado rayano a la construir una máscara mortuoria de
pobreza por el resto de sus días. A cobre con la imagen del sabio
pesar de sus problemas financieros científico que aún se conserva en sus
crónicos, Tesla siempre intentó oficinas como un recuerdo personal.
brindar una imagen personal
sofisticada y elegante. Inventos y descubrimientos más
importantes
En 1934 la Westinghouse Corporation
evitó que terminara en la calle al Tesla, podría ser considerado el
pagarle sus rentas y un estipendio mayor científico y el mejor inventor de
mensual como consultor. A cambio, la historia (al menos conocido). Entre
Tesla desechó su acusación de que su amplia lista de creaciones, se
Westinghouse había violado sus comenta que llegó a inventar entre
patentes sobre inalámbricos. En 1937 700 y 1600 dispositivos, de los cuales
el gobierno de Yugoslavia la gran mayoría se desconocen. Entre
recompensó a Tesla con una pensión los más destacables y que han
mensual de $600. Avidos acreedores llegado al conocimiento del público en
aguardaban ansiosos el envío de general, podemos destacar:
estos fondos.
La bobina de Tesla
Muerte de Tesla
Es un transformador de aire con
Tesla vivió los últimos 10 años de su bobinas primarias y secundarias
vida en una suite de dos habitaciones alineadas sobre la resonancia que
en el piso 33 del Hotel New Yorker, convierte a las altas frecuencias de
habitación 3327. Allí, cerca del final las corrientes elevadas de tensiones
de su vida, Tesla mostró signos de relativas débiles, en corriente débil de
enfermedad mental, afirmando ser altas tensiones.
visitado por una paloma blanca en
Mientras las frecuencias sean
específico diariamente.
elevadas, las corrientes alternativas
Hacia el final de sus días, Tesla se de las tensiones muy altas se
tornó en un ser ermitaño y excéntrico. deslizan ampliamente sobre la
Tesla murió solo en una pequeña superficie de la piel, sin causar
habitación de hotel el 7 de enero de daños. ¡Los miliamperios que
1943 a los 86 años. penetran los tejidos nerviosos pueden
matar mientras que muchos amperios
En la catedral de Nueva York donde en la superficie de la piel pueden ser
se llevaron a cabo sus funerales se tolerados durante breves instantes!
reunieron más de dos mil personas.
Arribaron tributos de notables figuras La bobina de Tesla sirve como
políticas y científicos de todo el dispositivo de producción de altas
mundo, incluidos tres premios Nobel. tensiones. Utilizada en la actualidad
de una u otra forma en todo receptor
Hugo Gernsback, gran admirador del de radio o de televisión; se convertirá
famoso científico e inventor, fue uno muy rápidamente en parte del equipo
de los primeros en ser notificados de de todo laboratorio de investigación
su muerte. Gernsback mandó universitaria.
395
Su bobina tiene varias aplicaciones en estaciones terrestres, utilizando
médicas. En 1890, se publicó un aparatos concebidos precisamente
artículo que otorga valores según los principios enunciados por
terapéuticos para el cuerpo humano Tesla. El radar fue de gran ayuda a
al calentamiento interno por medio de los ingleses durante la segunda
corrientes de altas frecuencias. Este Guerra Mundial para prevenir los
fenómeno será conocido con el ataques aéreos de los alemanes.
término de diatermia
Los robots teledirigidos
Los médicos se interesan cada vez
más en el oscilador terapéutico de Tesla sentó las bases de los tele-
Tesla, una pequeña bobina de Tesla. automatismos. Concibió que un día
Venden bobinas médicas a hospitales se pudieran dirigir vehículos a
y laboratorios, lo que les proporciona centenares de kilómetros sin que
mucho dinero. estuvieran tripulados, utilizando la
telegrafía sin hilos. Creó naves-robot
El radar teledirigidas, una de las cuales era
sumergible.
El radar es el instrumento base de
defensa en todos los países Sus patentes de 1895 contienen en
modernos del mundo. realidad las especificaciones de un
barco torpedero no tripulado,
Tesla descubre el principio del radar equipado con seis torpedos de 4,30
en 1900, lo pone a punto y, a pesar metros. Afirma que un reducido
de sus problemas financieros, publica número de estos ingenios basta para
los principios de lo que se convertirá, " atacar y derrotar a toda una armada
casi tres décadas después, en el en una hora, y sin que el enemigo
radar. pueda nunca localizar ni identificar la
potencia que le ha destruido ". Pero
Funciona como los ultrasonidos de
las ideas de Tesla se hallan
los murciélagos: se envía un rayo
demasiado avanzadas para la época,
concentrado de una corriente de
y los responsables de la defensa
minúsculas cargas eléctricas vibrando
americana consideran su proyecto
a una frecuencia muy grande, para
como un sueño irrealizable, que
que rebote en el objetivo, luego se
califican como experimento de
recibe de nuevo el rayo y, tras
laboratorio.
analizarlo, se obtiene una imagen del
objetivo. Tesla, que tanto trabajó para
inaugurar la era de la automatización,
Quince años después de la
siente que está en un mundo que no
descripción del radar por Tesla,
está claramente preparado.
equipos de investigadores
americanos y franceses trabajan Sus investigaciones le impulsan
paralelamente sin descanso para especialmente hacia algunas bases
poner a punto un sistema de de la informática: los inventores que
funcionamiento según sus principios. en la segunda mitad del siglo veinte
En 1934, un equipo francés pone a querían registrar patentes en el
punto e instala el radar en barcos y terreno informático se dieron cuenta
396
de que Tesla les había precedido. " Marconi. Esta información todavía no
Me sorprende la repugnancia que se ha incorporado a las enciclopedias
manifiestan las personas que trabajan pero los ingenieros de radio
en el campo de los ordenadores en concuerdan en decir que es Tesla
reconocer la prioridad de Tesla, quien se halla en el origen de la radio.
mientras que la Sra. Brattain,
Bardeen y Schockley han sido Fueron numerosos los que, a
cubiertos de honores por la invención continuación, iban a utilizar las
del transistor, que ha hecho de las patentes de Tesla para desarrollar la
calculadoras electrónicas una radio comercial.
realidad física ".
Gracias a su potente receptor de
Radio y telecomunicaciones radio escucha extraños sonidos
rítmicos. De hecho parece ser que
En 1893 Tesla dio un nuevo paso por escuchó ondas de radio emitidas por
el progreso de la ciencia describiendo las estrellas. Será preciso esperar a
con detalle los principios de la 1920 para que los astrónomos aíslen
emisión de radio. En Saint-Louis, de nuevo estas señales, conocidas
realizó la primera demostración como ondas cósmicas. Hoy en día la
pública de comunicación por radio, escucha de las estrellas es una
hecho que generalmente se atribuye práctica corriente.
a Marconi en 1895. Lo que siguió fue
una encarnizada competición entre Tesla en la cultura popular
los dos hombres.
En su novela El Prestigio, Christopher
Marconi llega a Londres con un Priest, autor inglés contemporáneo,
receptor TSF. Su aparato es idéntico utiliza el personaje de Tesla
al que Tesla describió en 1893. convirtiéndolo en inventor de un
Marconi niega haber tenido ingenioso aparato eléctrico utilizado
conocimiento del sistema de Tesla, por uno de los ilusionistas que
pero el servicio encargado de protagonizan la historia.
examinar las solicitudes de patentes
Esta novela fue adaptada para el cine
en Estados Unidos rechazará esta
por Christopher Nolan. En la
inverosímil negativa. Marconi
adaptación (cuyo título original es The
transmitió el 12 de diciembre de 1901
Prestige), David Bowie interpreta al
la letra S a través del océano
personaje de Tesla, a quien recurre
Atlántico. La prensa mundial se hace
Robert Angier pidiéndole que invente
eco de la noticia. En realidad, utilizó
una máquina de teleportacion. Tesla
la patente básica de Tesla
en ese momento se hallaba (en la
(n°645.576), solicitada en 1897 y
ficción) trabajando en un proyecto
homologada el 20 de marzo de 1900.
para teletrasportar electricidad de un
También ha utilizado 17 de sus otras punto a otro.
patentes. Pero en 1943 se acabó la
En la novela Hyperion de Dan
confusión: la corte suprema de
Simmons se mencionan en el primer
Estados Unidos estableció que Tesla
capítulo los árboles Tesla, que
era el autor del descubrimiento inicial
de la radio, injustamente atribuida a
397
almacenan electricidad y la liberan en consiste en una torre capaz de emitir
forma de tormentas. un rayo eléctrico muy potente para
destruir enemigos, así como también
En 1984 fue formado en Sacramento, potenciar a los Tesla Troopers
California, Estados Unidos, un grupo dotados con armas lanzarrayos.
musical llamado Tesla, que derivó su
nombre, algunos títulos de álbumes y En el videojuego Silent Hill: Origins
canciones y algunos contenidos de un arma especial que se puede
canciones de eventos relacionados desbloquear se llama Tesla Rifle
con el inventor.
También en el videojuego Return to
El duo estadounidense The Castle Wolfenstein en los
Handsome Family en su disco "The Laboratorios X se utiliza en gran
last days of wonder" tiene una cantidad tecnología Tesla,
canción sobre Tesla: "Tesla's Hotel aplicándose desde la seguridad en
Room", que hace referencia las puertas hasta en la producción de
justamente a su afición por los energía local. Al final de esta etapa
hoteles, su relación con Edison y además aparece un arma Tesla
Westinghouse, las circunstancias de capaz de lanzar rayos de corriente
su muerte y sus enormes hacia el enemigo a grandes
contribuciones a la ciencia. distancias. Parecida a esta arma, es
la "Garra Tesla" del videojuego
En la cinta Café y cigarrillos, un Ratchet and Clank, un guante que
curioso experimento fílmico del acaba en unas tenazas, las cuales
director Jim Jarmusch, Meg y Jack lanzan rayos eléctricos. Ratchet lo
White (del grupo White Stripes) usa no sólo para abatir enemigos,
comentan de modo icónico los logros sino también para accionar diferentes
de Tesla, que también es incluido en dispositivos, como el de abrir una
otras escenas. puerta, a distancia.
En la novela El palacio de la Luna de En el videojuego Fallout 3 aparece
Paul Auster, el viejo Effing cuenta mencionado su nombre en los libros
cómo le marcó el ingenio de Nikola "Nikola Tesla y tu" los cuales sirven
Tesla y menciona la enemistad con para obtener puntos extra en la
Edison. habilidad de armas de energía como
el rifle de plasma o la pistola laser.
En el videojuego Lara Croft Tomb
También aparecen servoarmaduras
Raider: Legend, la protagonista debe
con el nombre de "Armadura Tesla"
hacer funcionar el sistema de
que potencian el uso de este tipo de
transmisión de electricidad
armas. También en la actualización
inalámbrico ideado por Tesla.
"Broken Steel" aparece un arma
En el videojuego Command & llamada Tesla Cannon la cual es muy
Conquer: Red Alert aparece un poderosa a pesar de que solo carga
sistema de defensa llamado "Tesla una bala por recarga.
Coil", igual al invento que el científico
En el videojuego Blood 2 aparece un
usaba para investigar fenómenos
arma llamada Tesla Cannon que
electromagnéticos, pero en el juego
dispara rayos eléctricos.
398
Orchestral Manoeuvres in the Dark hasta el día de hoy continúan
sacó en 1984 una canción titulada clasificados como "secretos de
Tesla Girls basada en el inventor. estado" dando pie a que se
produzcan especulaciones acerca de
En el segundo capítulo de la cuarta su contenido, como fuentes más
temporada de la serie House, baratas de energía o poderosa
aparece escrito "Tesla was robbed" tecnología que puede ser usada con
(A Tesla le robaron) en la pizarra del fines bélicos.
aula que utiliza para la selección de
los candidatos a formar parte de su Los descubrimientos de Tesla a
nuevo equipo. Dicha inscripción se propósito de las ondas
puede ver varias veces a lo largo del electromagnéticas pueden tener
episodio. repercusiones importantes para la
humanidad, si son utilizados con fines
Aparece mencionado en la novela "El destructivos. He aquí algunos de los
mundo perdido", de Michael Crichton, fenómenos que pueden ser
donde se enumeran algunos mitos provocados con la utilización de
tecnológicos, entre los que estaba el ondas electromagnéticas de muy baja
que mencionaba que Nikola Tesla frecuencia:
pudo haber descubierto una increíble
fuente de energía. • Influencia sobre el clima.
En el videojuego Tremulous (un • Perturbación de las conexiones por
MMFPS multiplataforma, libre, hecho radio, y destrucción de los aparatos
con el quake 3 engine), el equipo electrónicos.
humano dispone de los "generadores
Teslas" (similares a los árboles Tesla • Interferencias en las ondas emitidas
que almacenan energía y la liberan por el cerebro, provocando
en forma de rayos), para electrocutar problemas, zumbidos sonoros.
al equipo alien.
Veremos cómo estas ondas
En el cómic "Clockwork girl" (2007) la probablemente son utilizadas por las
protagonista se llama Tesia al leer grandes instituciones
rápido la placa con la máquina con la gubernamentales para controlar el
que fue creada en la que pone clima, influir sobre la población y
"Tesla". sobre ciertos comportamientos.
399
Bernard Eastlund, quien a su vez se americano de armamento) y el
inspiró en los trabajos Nikola Tesla. Ministerio de Defensa.
Oficialmente, los científicos de este Algunas instituciones europeas están
centro de investigación trabajan sobre inquieras y piden " que se establezca
un emisor de radio para estudiar la un acuerdo internacional para prohibir
ionosfera. a escala mundial cualquier desarrollo
y despliegue de armas que podría
Oficiosamente, el HAARP quiere abrir la puerta a toda forma de
sacar partido de la ionosfera para manipulación del hombre ".
convertirla en un arma de energía. La Consideran que " el proyecto HAARP,
ionosfera está constituida por en razón de su impacto general sobre
partículas ionizadas altamente el medio ambiente, es un problema
cargadas de energía. Las de alcance mundial ".
investigaciones realizadas durante un
siglo por una serie de científicos han La guerra invisible de las ondas
puesto en evidencia el hecho que
esta "capa energética" que protege a La investigación en este terreno es
la Tierra podría, con la tecnología una preocupación importante, antigua
adecuada, convertirse en un arma y permanente de los militares. Estas
estratégica de capital importancia. formidables armas llevan
desarrollándose desde hace varios
El proyecto estudia un potente decenios, en particular en
dispositivo para emisiones de altas laboratorios americanos y rusos.
frecuencias, que podría modificar
localmente la ionosfera a fin de Las armas electromagnéticas son
neutralizar radares y radios. Pero, desarrolladas en el marco de
según un investigador del Ministerio inquietantes colaboraciones entre el
de Defensa, este tipo de emisiones Ministerio de Defensa, y el de
permitiría actuar sobre la formación Justicia. Existe un tipo de arma muy
de fenómenos meteorológicos. Es el interesante: las armas de baja y de
inicio de la manipulación del clima. muy baja frecuencia. Es la tecnología
ELF (Extremely Low Frequencies).
Es un proyecto con un coste anual de
30 millones de dólares, que el ejército La frecuencia de resonancia de la
americano presente como inocentes ionosfera es casi idéntica a la del
investigaciones sobre la ionosfera. cerebro humano. La ionosfera es
pues una onda portadora perfecta a
Los promotores no escatiman dinero partir de la cual se puede alcanzar al
en campañas de relaciones públicas cerebro, sin cambiar la frecuencia de
y publicidad para dar seguridad a la emisión. Es el lazo entre la esfera
opinión pública americana. Sin electromagnética de la Tierra y las
embargo, es difícil creer que no se frecuencias de resonancias del
trata de un proyecto con fines miliares cerebro lo que forma la base de las
cuando se sabe que los verdaderos armas estratégicas.
socios capitalistas son la Marina, la
Fuerza Aérea, Raython (gigante En el transcurso del siglo XX, se
pueden distinguir algunas
400
utilizaciones de estas ondas. De a corto y largo plazo, producir
forma general, son utilizadas para adquisiciones de experiencias o
enfríar los ardores de asociación o de borrar las experiencias adquiridas »
órganos políticos y sindicales
considerados demasiado militantes Efectos de estas ondas sobre el
por ciertos dirigentes. He aquí un cuerpo humano
inventario:
A principio de los años 60, el Profesor
• 1962: la señal de Moscú: las Herbert König, puso de relieve un
autoridades americanas constataron cierto número de efectos de las
que el personal de su embajada en frecuencias bajas y muy bajas. En los
Moscú estaba expuesto a niveles años 70, el ejército americano dirigió
elevados de radiación secretamente programas de
electromagnética. Se precisaron años investigación sobre estos efectos.
para darse cuenta de que los Confirmaron la realidad de los
soviéticos buscaban inducir efectos terribles efectos inducidos por estos
biológicos, psicológicos y fisiológicos. campos, es decir, problemas
cardíacos, la alteración de reflejos, un
• 1983-1984: los soviéticos querían estado de aturdimiento. Una
utilizarlas contra las fuerzas rebeldes irradiación crónica o continua puede
afganas. hallarse en el origen de las
tendencias depresivas, los problemas
• 1987: un tipo de arma radicalmente de memoria, las afecciones cutáneas,
nuevo, capaz de degradar los las hemorragias oculares e incluso
sistemas electrónicos o pudiendo ser los cánceres.
utilizada en modo antipersonal
(informe del Ministerio de Defensa Daniel Depris , físico, da algunas
americano). explicaciones: « el componente
magnético de las radiaciones […]
• 1989: Boris Yeltsin reconocía que puede modificar el proceso físico-
en su tiempo la KGB había estudiado químico que rige el metabolismo
el recurso de las emisiones ELF para endocriniano, particularmente a nivel
matar a distancia por paro de la de la glándula tiroides ».
función cardíaca.
También se ha podido constatar la
• 1996: aparición de un artículo del publicación de un memorando titulado
Comité Científico Consejero de la « Adiestramiento biológico del
Fuerza Aérea de EE.UU.: « se puede cerebro por radiaciones de baja
contemplar el desarrollo de fuentes frecuencia », redactado para la
de energías electromagnéticas, cuya NASA.
señal puede ser pulsada, puesta en
forma y dirigida, que podrían Ejemplo de utilización de estas armas
acoplarse con el cuerpo humano de psicotrónicas en tiempo de guerra
manera que impidiera los
movimientos musculares voluntarios y El principio de utilización es sencillo:
el control de las emociones (y las con estas armas, es fácil privar de la
acciones), adormecer, transmitir conciencia de vigilia a todo soldado
sugestiones, interferir con la memoria que ataca, y quitarle toda agresividad.
401
La revista 2000, n°97, de diciembre contrario, microscópica,
93, indicaba a propósito de las armas permitiéndonos transmitir sobre una
psicotrónicas: pequeña superficie, a gran distancia,
una energía trillones de veces
« ¿Se acuerdan ustedes de las superior a la de cualquier otro rayo ».
imágenes de la Guerra del Golfo,
cuando millares de soldados iraquíes
salieron de sus trincheras
rindiéndose? Se rindieron incluso a
los periodistas, a los que tomaron por
soldados, y fueron la presa
bienvenida de los cañones de la
artillería americana, a pesar de que
habían enarbolado bandera blanca.
Cada vez más y más expertos
militares se han convencido de que
no fue el insuficiente
reabastecimiento de las tropas de
Saddam Hussein lo que provocó esta
rendición repentina y masiva, sino
que fueron las armas psicotrónicas de
Estados Unidos ».
Se puede asistir a la puesta a punto
de un arma capaz de paralizar al
enemigo. Con este tipo de arma, el
primer objetivo es cortar los sistemas
electrónicos enemigos. Otros
artilugios producen ultrasonidos,
ondas de sonidos ELF, que provocan
náuseas, vómitos, y perturban
completamente el sentido de la
orientación de las personas
alcanzadas.
Las armas de energía dirigida
Tesla había escrito su teoría sobre
las armas de energía dirigida antes
del inicio del siglo veinte. Su famoso
«rayo de la muerte», pensaba,
instalaría la paz en la Tierra porque
podría destruir ciudades enteras en
todo el mundo, e instantáneamente.
Tesla anunció: « Mi dispositivo
proyecta partículas de dimensión
relativamente grande o, por el
402
Este proceso es adecuado para la
fabricación de grandes series de
piezas pequeñas de gran precisión,
para materiales o mezclas poco
Proceso de producción comunes y para controlar el grado de
de máquinas. porosidad o permeabilidad.
403
con una determinada máquina- maquinas y técnicas. Los caminos de
herramienta. Roma, que todavía se usan fueron
construidos con atención esmerada a
las condiciones de subsuelo y con
una base de grava y arcilla bien
1.- Historia de las maquinas apisonada. Así, quien haya de
trabajar diariamente con máquinas
Reseña histórica de las maquinas. El herramienta, habrá de plantearse
Hombre desde sus inicios cuestiones continuamente y de
(entendiendo como Hombre a un ser resolver problemas relativos a la
con capacidad racional), ha tratado herramienta, a la máquina o al
de dominar las fuerzas de la trabajo. Las máquinas herramienta
naturaleza. Para ello, ha debido modernas, exigen para su racional
aprender a construir y utilizar utilización en la explotación un
artefactos ajenos a él. manejo seguro y profundos
conocimientos técnicos. Una
preparación por buena que sea no es
suficiente. Expondremos en el
siguiente informe, los principales
conceptos para poder comprender las
maquinas básicas y las leyes físicas
que las rigen; partiendo desde
definiciones, tipos y composiciones
de ellas, pasando por subgéneros,
estudiando otros dispositivos, y
revisando aplicaciones
fundamentales del tema.
Durante el siglo XIX se alcanzó un
grado de precisión relativamente alto
en tornos, perfiladoras, cepilladoras,
Por citar algunos ejemplos: en la pulidoras, sierras, fresas,
lucha entre pueblos prehistóricos, ya taladradoras y perforadoras. La
las armas rústicas eran comunes, utilización de estas máquinas se
según afirman investigaciones extendió a todos los países
recientes; compuestas industrializados. Durante los albores
fundamentalmente por piedras y del siglo XX aparecieron máquinas
huesos. Luego los primeros esfuerzos herramientas más grandes y de
de construcción de diques de tierra y mayor precisión. A partir de 1920
zanjas de irrigación, usados para la estas máquinas se especializaron y
agricultura, exigieron la utilización de entre 1930 y 1950 se desarrollaron
herramientas, tales como los arados, máquinas más potentes y rígidas que
y azadones. Hasta que la aprovechaban los nuevos materiales
construcción de caminos no llegó a de corte desarrollados en aquel
ser un arte de gran desarrollo, momento. Estas máquinas
durante la era del imperio Romano no especializadas permitían fabricar
se reconoció verdaderamente el valor productos estandarizados con un
de la buena utilización de nuevas coste bajo, utilizando mano de obra
404
sin cualificación especial. Sin
embargo, carecían de flexibilidad y no complejas, a su vez, se construye
podían utilizarse para varios todo tipo de máquinas utilizadas en la
productos ni para variaciones en los ingeniería, arquitectura y
estándares de fabricación. Para construcción, y todo ámbito de
solucionar este problema, los nuestras vidas. Las máquinas
ingenieros se han dedicado durante también han posibilitado al hombre, el
las últimas décadas a diseñar control de las fuerzas del viento, de
máquinas herramientas muy los combustibles y del agua. Sin
versátiles y precisas, controladas por máquinas, el hombre viviría aún en
ordenadores o computadoras, que estado primitivo y no habría podido
permiten fabricar de forma barata alcanzar ninguna forma de progreso.
productos con formas complejas. Hay que tener en cuenta que una
Estas nuevas máquinas se aplican máquina nunca puede desarrollar
hoy en todos los campos. más trabajo que la energía que recibe
y que, a igualdad de potencia, a
velocidades mayores corresponden
Máquinas: Definición y Referencias fuerzas menores, y viceversa. Una
Una máquina es cualquier artefacto máquina simple no tiene fuente
capaz de aprovechar, dirigir o regular productora de energía en si, por lo
una forma de energía para aumentar tanto no puede trabajar a menos que
la velocidad de producción de trabajo se le provea de ella.
o para transformarla en otra forma
energética. Las máquinas son
dispositivos usados para cambiar la
magnitud y dirección de aplicación de
una fuerza. La utilidad de una
máquina simple (palanca, cable,
plano inclinado, rueda) es que
permite desplegar una fuerza mayor
que la que una persona podría aplicar
solamente con sus músculos, o
aplicarla de forma más eficaz. La
relación entre la fuerza aplicada y la
resistencia ofrecida por la carga El
contra la que actúa la fuerza se llamado “arco de violín”, primer
denomina ventaja teórica de la instrumento de accionamiento
máquina. giratorio alternativo compuesto de un
arco y una cuerda, es utilizado
Debido a que todas las máquinas todavía de forma residual en algunos
deben superar algún tipo de países
rozamiento cuando realizan su
trabajo, la ventaja real de la máquina
siempre es menor que la ventaja
teórica. Combinando máquinas
simples se construyen máquinas
complejas. Con estas máquinas
405
fabricada en 1775 por encargo de
James Watt. Se consiguió una
precisión “del espesor de una
moneda de seis peniques en un
diámetro de 72 pulgadas” (Science
Museum, Londres).
Clases de maquinas
La Palanca
Mandrinadora de J. Wilkinson
accionada por rueda hidráulica, Es la máquina más simple que se
406
conoce y consiste en una barra o tiene además del movimiento de
cuerpo ríquido que gira sobre un rotación otro de traslación.
punto de apoyo o fulcro. Las
Palancas pueden ser de tres géneros
(ver ilustración), según la distribución
de sus elementos.
407
paralela o perpendicularmente a la
potencia en máquinas simples, éstas dirección de giro, para obtener piezas
perderían su eficacia al ser grandes y con partes cilíndricas o cónicas, o
pesadas. Además se perdería una para cortar acanaladuras. Empleando
gran cantidad de trabajo. útiles especiales un torno puede
utilizarse también para obtener
Al estar compuestas de varias superficies lisas, como las producidas
máquinas simples, la condición de por una fresadora, o para taladrar
equilibrio en una máquina compuesta orificios en la pieza.
resultará de multiplicar la conidición
general de equilibrio de una máquina
simple o el número de ellas que PERFILADORA
forman la compuesta:
La perfiladora se utiliza para obtener
superficies lisas. El útil se desliza
sobre una pieza fija y efectúa un
primer recorrido para cortar salientes,
Siendo n el número de máquinas volviendo a la posición original para
compuestas realizar el mismo recorrido tras un
breve desplazamiento lateral. Esta
Entre las máquinas compuestasde máquina utiliza un útil de una sola
ruedas dentadas, palancas y poleas punta y es lenta, porque depende de
están: grúas, polipastos y todas las los recorridos que se efectúen hacia
maquinarias mecánicas actuales que adelante y hacia atrás. Por esta razón
conocemos: relojes, engranajes, etc. no se suele utilizar en las líneas de
producción, pero sí en fábricas de
MAQUINAS Y HERRAMIENTAS herramientas y troqueles o en talleres
CONVENCIONALES que fabrican series pequeñas y que
requieren mayor flexibilidad.
Entre las máquinas herramientas
básicas se encuentran el torno, las
perfiladoras, las cepilladoras y las
fresadoras. Hay además máquinas CEPILLADORA
taladradoras y perforadoras, Esta es la mayor de las
pulidoras, sierras y diferentes tipos de máquinas herramientas de vaivén. Al
máquinas para la deformación del contrario que en las perfiladoras,
metal. donde el útil se mueve sobre una
pieza fija, la cepilladora mueve la
pieza sobre un útil fijo. Después de
Torno cada vaivén, la pieza se mueve
lateralmente para utilizar otra parte de
El famoso torno, la máquina giratoria la herramienta. Al igual que la
más común y más antigua, sujeta una perfiladora, la cepilladora permite
pieza de metal o de madera y la hace hacer cortes verticales, horizontales o
girar mientras un útil de corte da diagonales. También puede utilizar
forma al objeto. El útil puede moverse varios útiles a la vez para hacer
408
varios cortes simultáneos. máquinas perforadoras se encuentran
las perforadoras de calibre y las
fresas de perforación horizontal y
vertical.
FRESADORA
En las fresadoras, la pieza entra en
contacto con un dispositivo circular RECTIFICADORAS
que cuenta con varios puntos de
corte. La pieza se sujeta a un soporte Las rectificadoras son máquinas
que controla el avance de la pieza herramientas equipadas con muelas
contra el útil de corte. El soporte abrasivas de precisión y sistemas
puede avanzar en tres direcciones: adecuados para sujetar, colocar, girar
longitudinal, horizontal y vertical. En o desplazar la pieza para poder
algunos casos también puede girar. afinarla hasta lograr el tamaño, forma
Las fresadoras son las máquinas y acabado deseados. La muela va
herramientas más versátiles. montada en un eje movido por un
Permiten obtener superficies motor, que la hace girar a unos 30
curvadas con un alto grado de metros/segundo. Las rectificadoras
precisión y un acabado excelente. suelen clasificarse según la forma de
Los distintos tipos de útiles de corte la pieza a afinar, el modo de sujeción
permiten obtener ángulos, ranuras, y la estructura de la máquina. Los
engranajes o muescas. cuatro tipos de rectificadoras de
precisión son las rectificadoras de
puntos, las rectificadoras sin puntos,
las interiores y las de superficie.
TALADRADORAS Y
PERFORADORAS Las rectificadoras de puntos o
exteriores se usan con piezas
Las máquinas taladradoras y
cilíndricas taladradas por su centro en
perforadoras se utilizan para abrir
cada extremo, lo que permite sujetar
orificios, para modificarlos o para
la pieza entre dos puntos y hacerla
adaptarlos a una medida o para
girar. Las piezas rectificadas entre los
rectificar o esmerilar un orificio a fin
puntos van desde minúsculos
de conseguir una medida precisa o
manguitos de válvula hasta
una superficie lisa.
laminadoras siderúrgicas con
Hay taladradoras de distintos diámetros superiores a 1,5 m y pesos
tamaños y funciones, desde de casi 100 toneladas.
taladradoras portátiles a radiales,
Las rectificadoras sin puntos eliminan
pasando por taladradoras de varios
la necesidad de taladrar los extremos
cabezales, máquinas automáticas o
de la pieza. En estas máquinas la
máquinas de perforación de gran
pieza se sujeta sobre una cuchilla de
longitud. La perforación implica el
apoyo y una rueda reguladora, que
aumento de la anchura de un orificio
también controla la rotación de la
ya taladrado. Esto se hace con un útil
pieza. Se utilizan para afinar objetos
de corte giratorio con una sola punta,
como bolas de bolos, suturas
colocado en una barra y dirigido
quirúrgicas o rodamientos de rodillos
contra una pieza fija. Entre las
409
cónicos. SIERRAS
Las rectificadoras interiores se Las sierras mecánicas más utilizadas
emplean para el acabado de los pueden clasificarse en tres
diámetros interiores de engranajes, categorías, según el tipo de
guías de rodamientos y piezas movimiento que se utiliza para
similares. Las muelas abrasivas son realizar el corte: de vaivén, circulares
pequeñas y giran a velocidades muy o de banda. Las sierras suelen tener
elevadas, entre 15.000 y 200.000 un banco o marco, un tornillo para
revoluciones por minuto. La pieza va sujetar la pieza, un mecanismo de
rotando despacio mientras la muela avance y una hoja de corte.
permanece fija.
Las rectificadoras de superficie se
emplean para superficies planas. La Útiles y fluidos para el corte
pieza se coloca en un banco plano y
Dado que los procesos de corte
se mantiene en su sitio mediante
implican tensiones y fricciones locales
electroimanes o dispositivos de
y un considerable desprendimiento de
fijación. La muela se hace descender
calor, los materiales empleados en
sobre la pieza mientras el banco se
los útiles de corte deben ser duros,
desplaza con un movimiento
tenaces y resistentes al desgaste a
alternativo o gira lentamente.
altas temperaturas. Hay materiales
que cumplen estos requisitos en
mayor o menor grado, como los
PULIDORA aceros al carbono (que contienen un
1 o 1,2% de carbono), los aceros de
El pulido es la eliminación de metal corte rápido (aleaciones de hierro con
con un disco abrasivo giratorio que volframio, cromo, vanadio o carbono),
trabaja como una fresadora de corte. el carburo de tungsteno y los
El disco está compuesto por un gran diamantes. También tienen estas
número de granos de material propiedades los materiales cerámicos
abrasivo conglomerado, en que cada y el óxido de aluminio.
grano actúa como un útil de corte
minúsculo. Con este proceso se En muchas operaciones de corte
consiguen superficies muy suaves y se utilizan fluidos para refrigerar y
precisas. Dado que sólo se elimina lubricar. La refrigeración alarga la
una parte pequeña del material con vida de los útiles y ayuda a fijar el
cada pasada del disco, las pulidoras tamaño de la pieza terminada. La
requieren una regulación muy lubricación reduce la fricción,
precisa. La presión del disco sobre la limitando el calor generado y la
pieza se selecciona con mucha energía necesaria para realizar el
exactitud, por lo que pueden tratarse corte. Los fluidos para corte son de
de esta forma materiales frágiles que tres tipos: soluciones acuosas,
no pueden procesarse con otros aceites químicamente inactivos y
dispositivos convencionales. fluidos sintéticos.
410
Prensas otros métodos, como el acero
inoxidable y las aleaciones de
Las prensas dan forma a las piezas aluminio.
sin eliminar material, o sea, sin
producir viruta. Una prensa consta de
un marco que sostiene una bancada
fija, un pistón, una fuente de energía Láser
y un mecanismo que mueve el pistón
La mecanización por rayo láser se
en paralelo o en ángulo recto con
consigue dirigiendo con mucha
respecto a la bancada. Las prensas
precisión un rayo láser, para
cuentan con troqueles y punzones
vaporizar el material que se desea
que permiten deformar, perforar y
eliminar. Este método es muy
cizallar las piezas. Estas máquinas
adecuado para hacer orificios con
pueden producir piezas a gran
gran exactitud. También puede
velocidad porque el tiempo que
perforar metales refractarios y
requiere cada proceso es sólo el
cerámicos y piezas muy finas sin
tiempo de desplazamiento del pistón.
abarquillarlas. Otra aplicación es la
fabricación de alambres muy finos.
MÁQUINAS HERRAMIENTAS NO
CONVENCIONALES
Descarga eléctrica
Entre las máquinas herramientas no
La mecanización por descarga
convencionales se encuentran las
eléctrica, conocida también como
máquinas de arco de plasma, las de
erosión por chispa, utiliza la energía
rayo láser, las de descarga eléctrica y
eléctrica para eliminar material de la
las electroquímicas, ultrasónicas y de
pieza sin necesidad de tocarla. Se
haz de electrones. Estas máquinas
aplica una corriente de alta frecuencia
fueron desarrolladas para dar forma a
entre la punta del útil y la pieza,
aleaciones de gran dureza utilizadas
haciendo que salten chispas que
en la industria pesada y en
vaporizan puntos pequeños de la
aplicaciones aerospaciales. También
pieza. Como no hay ninguna acción
se usan para dar forma y grabar
mecánica, pueden realizarse
materiales muy delgados que se
operaciones delicadas con piezas
utilizan para fabricar componentes
frágiles. Este método produce formas
electrónicos como los
que no pueden conseguirse con
microprocesadores.
procesos de mecanizado
convencionales.
Arco de plasma
La mecanización con arco de Electroquímica
plasma utiliza un chorro de gas a alta
Este tipo de mecanización emplea
temperatura y gran velocidad para
también la energía eléctrica para
fundir y eliminar el material. El arco
eliminar material. Se crea una celda
de plasma se utiliza para cortar
electrolítica en un electrólito,
materiales difíciles de seccionar con
411
utilizando el útil como cátodo y la
pieza como ánodo y se aplica una nuevas tecnologías encuentran
corriente de alta intensidad pero de métodos más y más sofisticados
bajo voltaje para disolver el metal y surgen complejos mecanismos que
eliminarlo. La pieza debe ser de un simulan movimientos y análisis
material conductor. Con la preestablecidos, estos mecanismos
mecanización electroquímica son toman ejemplo de los elementos
posibles muchas operaciones como naturales que permiten la recreación
grabar, marcar, perforar y fresar. de dichos sucesos, un ejemplo son
las articulaciones de la anatomía
En que influyen las maquinas en la humana o los cálculos probabilísticos
humanidad que realiza un ordenador para tomar
una decisión. La estimulación a los
En la actualidad nos encontramos descubrimientos es la apertura de
rodeados de un sin número de nuevos mercados con millones de
sistemas tecnológicos que avanzan a clientes potenciales.
pasos agigantados y no es raro que
la ciencia ficción en las películas
muestren cada uno de los sueños Desde un punto de vista pragmático
tecnológicos que quisiéramos todo estimulo físico y mental puede
alcanzar. Cada una de las maquinas ser construido con las herramientas
es una concepción de ideas ¿Cómo adecuadas, desde el punto de vista
llegaría hacer sí…? Es una idea, un sentimental los lasos de afecto que
pensamiento que evalúa el hombre y nos unen con ciertas entidades van
transforma en versiones físicas, así más allá de las limitaciones físicas e
es como se desarrollan las mas incluso mentales, lo que
avanzadas innovaciones contextualizamos como alma o
tecnológicas, la intervención de los esencia divina por ser de un grado
humanos en el desarrollo de las indeterminado de conocimiento tiene
maquinas y la impresión que estas suficientes inconsistencias para
generan en la vida del mismo trabajar durante tiempos indefinidos.
humano. Un concepto es muy claro: La realidad es que la búsqueda de
desde que se inventaron las una maquina humanoide capas de
maquinas el hombre las hizo con una tener existencia propia solo podemos
intención específica que es hacer asimilarlo dentro de los parámetros
más fácil la vida, el trabajo, la de la ciencia ficción, pero limites no
investigación, etc., su propósito la existen, solamente hay ideas con
ayuda prestada al hombre incluso posibilidades mínimas, que algún día
mayor que la del mismo hombre. La pueden ser tomadas en serio.
tendencia en desarrollo y tecnologías
es construir maquinas que no La Ética para las máquinas, nuevo
necesiten de la participación del campo de investigación
hombre para realizar sus trabajos y
Hasta hoy, sólo el Hombre se
otras que actúen a libre albedrio y no
comprometió a un
respondan a una serie de
razonamiento ético, pero ya es
programación ya establecida.
hora de incorporarle una
Cuando las investigaciones de
412
dimensión ética a algunas
máquinas complejas. Se trata
de un nuevo campo de estudio
que considera a las máquinas,
computadoras y robots, como
un tipo de agentes éticos e
intenta implementar en ellos
facultades morales de toma de
decisiones. Dado que las
investigaciones científicas y los
objetos tecnológicos tienen el
poder de afectar a toda la
humanidad, las decisiones
sobre su curso actual y futuro
no deben involucrar
únicamente a los científicos,
los empresarios y los
gobernantes. Es necesario que
la mayoría de la gente tenga
una participación mucho más
activa a fin de fijar los límites
adecuados. Por Sergio
Moriello. Petróleo
Tipos de maquinas
414
profundidad; el mantienen en una
petróleo brota a gran plataforma situada
altura debido a la lejos de la costa, en
presión subterránea, aguas de una
o bien mana con profundidad de hasta
poca fuerza, o varios cientos de
permanece en su metros.
estrato y hay que
extraerlo con La plataforma puede
bombas.2 ser flotante o
descansar sobre
¿Cómo se produce? pilotes anclados en el
Se dice que la extracción del petróleo fondo marino, y resiste
es fácil aunque costosa, depende del a las olas, el viento y,
lugar en el que se encuentre el en las regiones árticas,
yacimiento del petróleo es la los hielos. La torre
tecnología que se utiliza; ya que los sirve para suspender y
hay marítimos y terrestres. hacer girar el tubo de
perforación, en cuyo
En México se encuentran 193
extremo va situada la
plataformas marinas, y el
broca; a medida que
procedimiento que se hace para
ésta va penetrando en
poder extraer el petróleo del subsuelo
la corteza terrestre se
depende de donde se encuentre el
van añadiendo tramos
yacimiento, ahora nos interesa tratar
adicionales de tubo a
el que utilizan las plataformas
la cadena de
marinas el cual es nombrado
perforación. La fuerza
“perforación submarina” y es el
necesaria para
siguiente:
penetrar en el suelo
Perforación submarina procede del propio
peso del tubo de
Otro método para perforación.
aumentar la producción
de los campos Control de surgencia
petrolíferos es la
construcción y empleo Se comienza por bajar
de equipos de hasta cerca del fondo
perforación sobre el una cañería de 5 a 7,5
mar (ha llevado a la cm de diámetro,
explotación de más llamada tubería, que
petróleo). Estos lleva en su extremo
equipos de perforación superior un conjunto de
se instalan, manejan y válvulas y conexiones
2
denominado Árbol de
GRAN DICCIONARIO ENCICLOPÉDICO
ILUSTRADI DE SELECCIONE DEL
Navidad, que mantiene
READER´S DIGEST, Luis Rosales al pozo bajo control.
Camacho, IX, 1977, pp. 2924-2925.
415
La surgencia del 3. Bombeo
petróleo por la tubería, mecánico con
se logra por métodos bombas aspirantes
naturales o artificiales: de profundidad,
accionadas por
Natural gatos de bombeo.
1. Tres son las Por lo general se
causas que efectúa el bombeo
pueden originar la simultáneo de una
surgencia natural. serie de pozos
vecinos,
2. La presión
conectando sus
del agua
gatos de bombeo
subyacente, que al
mediante largas
transmitirse al
varillas de acero, a
petróleo, lo obliga
un excéntrico que
a subir. Es la más
se hace girar en
efectiva.
una estación
3. La presión central.
del gas libre que
4. Bombo
cubre al petróleo,
hidráulico,
que se transmite a
inyectando
éste y lo impulsa
petróleo a presión
en su ascenso.
que regresa a la
4. Cuando no superficie
existe gas libre y el bombeado; y
agua no tiene bombeo centrífugo,
presión suficiente o con bombas
tampoco existe, al centrífugas de
disminuir la presión varias etapas,
por la perforación ubicadas cerca del
del pozo, el gas fondo del pozo y
disuelto en el accionadas por
petróleo se motores eléctricos
desprende y al controlados desde
expandirse lo hace la superficie.
surgir. Es la menos
efectiva de las tres.
Artificial
1. Puede lograrse por dos
métodos:
2. Inyección a presión de agua,
gas o aire.
416
Purificación. almacenamiento
.
El petróleo tal como
surge, no puede *Centrifugado de
procesarse la emulsión.
industrialmente, sin
separarlo antes del gas *Calentado, para
y el agua salada que lo disminuir la
acompañan. viscosidad de
Separación del gas los petróleos
densos.
Se efectúa en una
batería de tanques, en *Métodos
los cuales, por simple químicos,
reposo el gas se separa térmicos o
espontáneamente. eléctricos (que
son los más
Destrucción de la emulsión agua efectivos para
salada-Petróleo desalinizar y
deshidratar).
Es uno de los problemas
de difícil resolución que *Unas vez
afronta la industria purificado, se lo
petrolífera. Se trata de envía a tanques
resolverlo en distintas de almacenaje y
formas: de ellos, a las
destilerías, por
*Se previene la oleoductos u
formación de otros medios de
emulsiones, transporte
evitando la (buques
agitación de la cisternas,
mezcla de agua vagones
salada y tanques, etc.)3
petróleo, en las
operaciones de Es el recurso natural más
surgencia. importante en nuestro país,
porque satisface la demanda de
*Lavado con energéticos y de petroquímicos
agua de la básicos y contribuye al
emulsión, desarrollo industrial de nuestro
seguido con una país.
decantación
posterior. 3
Extracción del petróleo,29 de
septiembre,2005, Petróleo , (vi: 15 de
*Decantación en mayo de 2010)
http://www.textoscientificos.com/textos
tanques de
cientificos
417
México cuenta con 193 gasolina. La civilización moderna
plataformas sería inconcebible son los incontables
marinas equipadas con productos que de él se derivan:
brocas para perforar el combustibles, lubricantes, drogas,
subsuelo hasta llegar al colorante, cauchos sintéticos,
yacimiento. plásticos de infinitas aplicaciones,
productos sintéticos innumerables.
Al abrir un pozo se
instalan los ductos y el
hidrocarburo se extrae Historia del Petróleo en México.
aprovechando la propia El petróleo es y seguirá siendo por un
presión del yacimiento, gran tiempo un recurso estratégico de
con lo que se recupera gran influencia e importancia para las
hasta 30% del economías nacionales. En el caso de
contenido; después, se México se puede decir que su primer
inyecta aire para poder uso aunque puede ser casual, es
sacar hasta un 45% desde la época prehispánica,
adicional. nuestros antepasados lo recogían de
las chapopoteras y lo utilizaban en
El crudo remanente sus ceremonias a manera de
permanece en el pozo, incienso, también como colorante,
pues con las técnicas pegamento o con fines medicinales.
disponibles es muy Ya a mediados del siglo XIX se
costoso extraerlo. En convirtió en una de las principales
2005, Tabasco fue fuentes de energía del mundo actual
el primer lugar nacional como ya lo hemos mencionado antes.
en producción de crudo El auge del petróleo se inicio con la
y gas natural. Sin profundización de las sociedades
embargo, el mayor industriales ya que el uso de
porcentaje de maquinarias y automóviles que
producción tiene lugar funcionan con base en este
en las aguas combustible es cada vez mayor. Para
4
territoriales. efectos del caso mexicano los
primeros intentos de exploración
Usos del Petróleo. industrial de las chapopoteras son de
Los usos del petróleo se trasladan a 1863; pero sólo veinte años más
miles de años atrás. Desde hace tarde se le tomo realmente enserio
muchos siglos se usaba para cubrir ya que la demanda del combustible
paredes o cascos de embarcaciones, venia en aumento, principalmente en
y a veces para lámparas pero su los países industriales donde
utilización más importante ha sido Estados unidos ya era un adversario
fenómeno reciente, paralelo al importante, por lo cual estaba en
perfeccionamiento de los motores de busca de mas campos petroleros y
4
INEGI, Cuéntame de México,2010, México estaba abierto a las
Economía, (vi: 15 de mayo de 2010) inversiones.
http://cuentame.inegi.org.mx/economia/
petroleo/dondeesta.aspx?tema=E
418
A partir de estas fechas se puede en aumento su
abordar el tema de la industria importación. Los
petrolera controlada por las grandes primeros permisos
transnacionales sin ninguna fueron concedidos a
restricción, lo cual con el tiempo empresas inglesas y
provoco muchos descontentos y estadounidenses que
abusos que terminaron con la contaba con el capital y
promulgación de la expropiación la experiencia en este
petrolera en 1938 que le dio un gran negocio, el gobierno
cambio al desarrollo del país, les ofreció todas las
impulsando fuertemente la industria facilidades, lo cual
petrolera y orientándola hacia las permitió que estas
necesidades del país. Pero que empresas durante este
lamentablemente ha llegado a su fin periodo se dedicaran a
ya que a partir de 30 años para acá la abusar de sus
visión ha sido totalmente otra, privilegios,
queriendo regresar a la doctrina de defraudando al
dejar a todo a las libres fuerzas del gobierno y
mercado haciendo a un lado la desarrollando la
constitución y las prioridades del país industria de acuerdo a
y tomando más en cuenta los sus intereses.
intereses privados e internacionales.
La industria petrolera
A continuación se presentan los tres como muchas otras de
grandes momentos de la Historia del la época estaba bajo el
Petróleo en México que se han dominio de las grandes
presentado en el último siglo en transnacionales que si
cuestión de petróleo y así poder claro beneficiaban el
hacer una comparación con las desarrollo del país pero
nuevas políticas implementadas en de acuerdo a sus
épocas recientes. intereses y que con el
tiempo provoca un
El primero, en desarrollo dependiente.
1901donde el
presidente Porfirio Díaz En segundo, después
expide la primera Ley de casi 20 años en el
del Petróleo que faculta poder el grupo
al Ejecutivo Federal sonorense estaba lejos
para otorgar permisos de haber cumplido con
a particulares y sus planes políticos y
compañías sobre todo, trabajar
organizadas para bajo su estandarte
explorar y explotar político que era la
terrenos de propiedad constitución de 1917
federal la idea era
poder erradicar el uso En México, los obreros
del carbón ya que iban petroleros decidieron
419
llevar a cabo una resentido la actitud de
huelga para presionar las empresas hacia sus
a los empresarios y trabajadores y
poder obtener parte de autoridades locales
las grandes ganancias desde su punto de
de las empresas o por vista las petroleras se
lo menos mejores habían comportado
condiciones de trabajo; como si México fuera
tras estudiar el asunto, tierra de conquista” 5
la Suprema Corte de
Justicia decidió que el La nacionalización del
aumento que pedían petróleo fue decidida el
era justo y ordenó que 9 de marzo de 1938,
se les concediera. Sin nadie sospechaba
embargo, las hasta la noche de ese
compañías no día –ni las compañías
obedecieron a tiempo, petroleras ni sus
por lo cual el gobiernos– la magnitud
presidente Cárdenas y los alcances de la
decidió expropiarlas. medida expropiatoria.
420
Cárdenas decretó la la industria petrolera bajo una nueva
nacionalización cuando visión y con nuevos objetivos
las empresas poniendo en primer orden el interés
petroleras se negaron nacional dejando a un lado la
a acatar un laudo de la dependencia con los capitales
Suprema Corte de extranjeros y dando lugar al mayor
Justicia de la Nación auge en la historia.
sobre el contrato
colectivo con sus Durante 1970-1985,
trabajadores. No era hasta el inicio de la
una argucia legal para época neoliberal se
tener el apoyo del tenía la capacidad
movimiento obrero, que suficiente para cubrir
de antemano estaba las necesidades, las
asegurado. Fue utilizar importaciones eran
lo que las empresas mínimas.
creían un incidente
Y por último, finales de
jurídico menor para
los años setentas se da
plantear una cuestión
un punto de inflexión
de fondo: quién manda,
donde todo lo que se
quién decide sobre los
venía logrando se
cielos, el suelo y el
modifica rotundamente,
subsuelo de este
el contexto
territorio, si un grupo
internacional, las crisis
de empresas
y las malas políticas
extranjeras subsidiarias
económicas son el
de sus gobiernos, que
detonador de la nueva
prestos salieron en
época en la que nos
defensa de ellas, o si
encontramos.
los poderes del
gobierno de la Nos hacen ver que es
República elegido y lo mejor cuando en la
apoyado por su realidad los resultados
6
pueblo.” no son los mejores es
algo ilógico que se
Después de esta importante decisión
sigan empeñando en
se puede decir, se da el desarrollo de
continuar con esta
6
visión donde se
Gily Adolfo la jornada diario, Petroleó:
regresa a la época
Quien manda en México, sección porfirista donde la
opinión, 2 febrero 2008 doctrina dominante era
el utilitarismo y el libre
mercado.7
7
Gily Adolfo la jornada diario, Petroleó:
Quien manda en México, sección
opinión, 2 febrero 2008
421
Como se puede ver si la producción natural, petrolíferos,
de petróleo es enorme, de las gasolinas y
mayores a nivel mundial pero “el petroquímicos en el
petróleo crudo sólo sirve para mejor de los casos las
refinarlo prácticamente no tiene otro cifras son muy
uso “ cercanas.
El cambio en la política que nos ha
llevado a una situación de
dependencia que está basada en Todo esto debido a un
bastantes mentiras creadas y plan para ir debilitando
difundidas desde el gobierno que a Pemex ya que en los
busca aparentar el peor de los últimos años se ha ido
panoramas para la industria petrolera debilitando la
cuando en realidad si tiene muchas producción nacional
deficiencias pero la mayoría son por la importación de
sabidas por propio gobierno. productos que bien se
podrían producir en las
Un ejemplo que ilustra refinerías mexicanas, si
lo ilógico y no para satisfacer la
contradictorio de las demanda interna por lo
políticas menos para disminuir
implementadas es el las exportaciones y
caso del gas natural, fortalecer el mercado
que se utiliza para la interno9
generación de energía,
cuando en realidad es
el combustible más Potencias en el mercado del Petróleo.
caro y que la Hace algunos años se creía que los
producción de México principales productores mundiales de
no satisface la petróleo eran Estados Unidos,
demanda, habiendo un URRSS., Venezuela, Koweit, Arabia
combustible más Saudita, Irán, Irak. En Iberoamérica
barato y que en México seguían a Venezuela, en orden de
se desperdicia el producción, México, Argentina,
FTAV. 8 Colombia, Trinidad y Tobago, Brasil,
Perú, Chile y Bolivia.
Pero ahora existe una gran
En México en los competencia en este sector del
últimos años el valor de comercio, ya que se disputa en ser
las exportaciones de una potencia en la producción del
petróleo crudo es
inferior al de las 9
Torrea Ocampo José Felipe PEMEX
importaciones de gas mitos, realidades, testimonios y
propuestas, UACM, México 2006 pp.
8
Torrea Ocampo José Felipe PEMEX 142-151
mitos, realidades, testimonios y
propuestas, UACM, México 2006 pp. 57.
422
también llamado “oro negro”. Al estar Turkmenistán o
leyendo acerca del petróleo me Kazajistán. Sucede
encontré con una noticia que se me que se le ha prestado
hizo muy interesante ya que describe poca atención a la
como han ido cambiando las creciente importancia
estadísticas sobre quien está más en la producción de
arriba o debajo de la lista. Por esta hidrocarburos de los
razón considero importante citarla países del África
aquí para compartirla con usted. subsahariana y de las
ex repúblicas
A principios de siglo, soviéticas de Asia
Estados Unidos reabrió Central en los últimos
su consulado en años.
Guinea Ecuatorial. El
consulado había sido Sin embargo, Angola
cerrado por el gobierno es el segundo
de Bill Clinton en los productor de petróleo
‘90 dadas las en África subsahariana
violaciones a los detrás de Nigeria. Las
derechos humanos exportaciones
cometidas en el país petroleras angoleñas
africano. crecieron en un
asombroso 400% entre
El fundamento el 2002 (cuando
principal de la decisión terminaron los 27 años
de la Casa Blanca de guerra civil) y el
puede encontrarse en 2006. Además, es el
una declaración hecha segundo mayor
en el 2002 por Walter proveedor de petróleo
Kansteiner, entonces de China detrás de
subsecretario de Arabia Saudita,
Estado de EE.UU. para aunque muchas
asuntos africanos, empresas líderes
quien afirmó que "el occidentales también
petróleo africano se tienen inversiones en
está convirtiendo a el país.
gran velocidad en un
interés estratégico Guinea Ecuatorial, la
nacional". única ex colonia
española en la región,
Guinea Ecuatorial no no se queda atrás y es
es un país en el que el el tercer productor
argentino medio piense subsahariano. Los
al nombrar productores ingresos por
de hidrocarburos, exportaciones
como tampoco lo son petroleras del pequeño
Angola o los asiáticos país atlántico (es sólo
423
un poco más grande están inmersas en la
que la provincia de lucha de poder entre
Tucumán) crecieron, distintos países
en la última década, un desarrollados y China
1.994%. por controlar la
producción de
Hubo un sólo país del combustible.
mundo, también
africano aunque Esta situación se
ubicado en la costa reflejó en muchos
opuesta, con un medios
crecimiento más norteamericanos allá
pronunciado en el por 2003 cuando
mismo lapso. Fue Estados Unidos
Sudán, con el 7.000%. invadió Irak. Fue por
entonces que se
Las tasas de comenzó a hablar del
crecimiento en la Golfo de Guinea como
producción de petróleo una zona importante
y gas en los países de para los intereses
Asia Central no han estadounidenses. Los
sido tan elevadas, pero medios llamaban a la
aún así son altas. región el "Otro Golfo" o
Destacan sobre todo el "Nuevo Golfo", en
Kazajistán, donde se referencia al Golfo
produce un 280% más Pérsico y la veían
de gas y un 185% más como una alternativa
de petróleo ahora que viable y necesaria de
hace diez años; y suministro para las
Turkmenistán, donde necesidades petroleras
el aumento en la última y gasíferas
década fue del 82% en estadounidenses. Hoy
gas y 113% petróleo. lo sigue siendo. Según
la revista financiera
Los países nombrados Forbes, la región
hasta aquí conforman podría llegar a
dos regiones claves suministrar hasta el
geo-políticamente: la 25% de las
costa occidental importaciones
africana (sobre todo en estadounidenses para
la región del Golfo de el 2015.
Guinea) y la región de
las ex repúblicas Geografía del futuro.
soviéticas en el centro La región del golfo está
asiático. Son regiones formada por varios
cuya importancia crece países; el mayor
a gran velocidad y que productor petrolero
424
entre ellos es Nigeria, demanda total por
cuya importancia para petróleo creció un
la industria petrolera es 102% (contra un 12%
conocida hace tiempo. de crecimiento de la
De hecho, entre 1996 y demanda
2006 su producción estadounidense) y
aumentó un 20%. La África ofrece la mejor
clave de estos países opción para saciar ese
se encuentra en aumento, que
Guinea Ecuatorial y en continuará en el futuro.
los aportes menores Así como Angola se ha
que puedan ofrecer los convertido en uno de
demás países que sus principales
sobre-miran el golfo: proveedores, Sudán
Togo, Santo Tomé, también está entre los
Benin, Camerún y países desde donde
Gabón. Técnicamente, más importa petróleo
Angola no pertenece al el país asiático. China
golfo por estar más al está invirtiendo
sur, pero suele ser grandes cantidades en
incluida en los análisis el área, como el
de la región. préstamo de 3.000
millones de dólares
Al encontrarse en línea que le hizo a Angola
diagonal a la costa hace un par de años, y
atlántica está sentando
estadounidense, y a precedentes de lo que
una distancia se avecina en los
relativamente corta próximos años en el
según estándares terreno del comercio
transoceánicos, el internacional: la puja
Golfo de Guinea por dominar las nuevas
cuenta con una fuentes de producción
ubicación geográfica energética. China
privilegiada para cuenta con la ventaja
exportar petróleo y gas de no tener que
a los Estados Unidos. enfrentarse a la clase
El transporte desde allí de dilemas éticos de
es sencillo, rápido y algunos gobiernos
seguro y por eso a occidentales. Al igual
Washington le que en la península
conviene establecer arábica, el África
vínculos comerciales. sahariana o en Irán,
varios de los países
China también se del Golfo de Guinea
interesa en la región. son gobernados por
Entre 1996 y 2006 su dictaduras o
425
autarquías, son derrocó y ejecutó a su
altamente corruptos y tío en un golpe de
tienen pésimos Estado en 1979.
antecedentes en el Aunque legalmente
respeto por los Obiang Nguema es un
derechos humanos. presidente
Por ende, comerciar democrático, ya que
con los países del "otro convoca a elecciones
golfo" puede llegar a periódicas, no siempre
plantear un problema tiene oposición: en el
moral (al menos de la 2002, todos los
boca para afuera) para partidos opositores se
Estados Unidos y los retiraron de la
demás países contienda presidencial
desarrollados de antes de los comicios.
Occidente. Lo mismo La oposición acusa a
puede decirse de las Obiang Nguema de ser
naciones del Centro de uno de los dictadores
Asia. más sangrientos de
África.
Según el informe de
corrupción global 2007 Tanto en Guinea
de Transparency Ecuatorial como en
International, sobre un otros de estos paísesa
total de 179 se ha denunciado en
posiciones, Angola y más de una
Nigeria se ubican oportunidad la
juntos en el lugar 147, desaparición de
Kazajistán está en el millones de dólares de
150, Turkmenistán en ingresos por
el 162, Guinea hidrocarburos de las
Ecuatorial en el 168, arcas públicas en los
Sudán en el 172 y últimos años. Al
Uzbekistán en el 175. respecto, en el 2002
un periodista de la
Africa mía. Un ejemplo BBC le preguntó a
contundente lo ofrece Obiang Ngume por qué
Guinea Ecuatorial, desaparecía tanto
donde sólo dos dinero. El presidente,
personas han que se encontraba en
gobernado desde la campaña en ese
obtención de la momento, respondió
independencia en que era un secreto de
1968: Francisco Estado y que no tenía
Macías y su sobrino que explicarle a nadie
Teodoro Obiang el destino dado a ese
Nguema, quien dinero. Algo parecido a
426
lo que en otros países un duro golpe a las
se llama "fondos necesidades
reservados". estratégicas europeas
cuando acordó con el
A diferencia de los primer ministro ruso
países costeros Vladimir Putin y el
africanos, varios de los presidente de
países centro-asiáticos Turkmenistán,
tienen complicaciones Gurbanguly
al momento de Berdymukhammedov,
exportar, sobre todo la construcción de un
Turkmenistán y gasoducto a Rusia.
Uzbekistán (el mayor Tiempo antes, la Unión
productor de gas de Europea había
las repúblicas ex intentado convencer a
soviéticas de Asia Nazarbayev de
central). Ambos países construir un gasoducto
tienen pocas salidas a Turquía, vía el
porque de un lado está Caspio, y llegar desde
Afganistán, que no es ahí a Europa. Las
una opción viable, por relaciones energéticas
otro está Rusia y por entre la UE y Rusia
otro Irán. Les queda la son tensas desde hace
costosa opción de tiempo.
atravesar el Caspio
para salir a través de la Como las de la
región del Caúcaso. En mayoría de los
un mundo ideal, productores asiáticos
ninguno de los dos de hidrocarburos, las
países querría hacer instituciones políticas
negocios con Rusia, kazakas no son de lo
pero lo hacen. La más firmes:
posibilidad de que Nazarbayev preside el
negocien con Irán es país desde la caída de
resistida desde la URSS en 1991 y
Washington. forma parte de los
escalones más altos
Kazajistán es el mayor del gobierno desde
productor petrolero de 1979, cuando se
la región y exporta convirtió en secretario
mucho a través del del comité central del
Golfo Pérsico (gracias Partido Comunista. Por
a un acuerdo con Irán) su parte, la vecina
y cada vez más hacia Turkmenistán es uno
China. En mayo, el de los países donde
presidente Nursultan menos se respetan los
Nazarbayev le asestó derechos humanos,
427
según Amnesty por defender los
International. Lo mismo intereses de empresas
sucede con italianas ante cualquier
Uzbekistán. clase de volatilidad
política en Asia central.
A pesar de sus Puede suponerse que
relaciones con Rusia, cualquier otro líder de
Irán y China, los la UE hubiera actuado
países centro-asiáticos de forma similar.
presentan una gran
ventaja para los Los principales
compradores productores africanos
occidentales de gas y subsaharianos solían
petróleo al no ofrecer la misma
pertenecer a la OPEP, ventaja de no
el cartel petrolero tan pertenecer a la OPEP
temido por los y por lo tanto no tener
compradores de limitada la extracción.
petróleo porque limita La excepción era
la producción de sus Nigeria, que se está
miembros a fin de encargando de atraer a
regular el precio del los demás países
barril. regionales a la
organización. Fue
De ahí el gran interés Nigeria quien más
de las grandes negoció para incorpora
petroleras europeas y al cartel a Angola
estadounidenses por (sucedió en diciembre
desarrollar campos pasado) y también fue
petrolíferos en la zona quien invitó a Sudán a
norte del Mar Caspio. unirse. En este
Eso también explica momento, Sudán, al
por qué el primer igual que Ecuador, son
ministro italiano, observadores en la
Romano Prodi, organización.
intervino ante el
gobierno de Si las estimaciones
Nazarbayev a actuales sobre las
principios de octubre reservas petroleras y
cuando el gobierno gasíferas argentinas
kazako amenazó con son correctas, a
romper un contrato con nuestro país no le
la empresa italiana Eni. quedan más de diez
El contrato no se años de reservas. Si
rompió, pero la esto sucedo, la
situación demostró la Argentina deberá
preocupación de Prodi importar hidrocarburos
428
y entonces Angola, El tema del petróleo ahora desafía
Kazajistán, algunas amenazas a la sociedad,
Turkmenistán y la zona ahora en nuestro país ha sido víctima
del Golfo de Guinea de derrames en el Golfo de México a
pasarán a ser nombres causa de la explosión de una de las
importantes porque plataformas de Estados Unidos, esto
estarán entre quienes además de ser un peligro para
determinen el valor nuestra sociedad es un desastre
internacional del ecológico que aún del todo no ha
combustible. Ya es llegado a afectar a nuestro país, pero
hora de ir si a algunos estados de E.U., se ha
conociéndolos.10 mencionada que es el peor desastre
ecológico ocurrido.
10
El problema final es la tradicional
Rodrigo Tichard, REVISTA
alianza, hoy en día nuclear, entre Irán
ELCTRÓNICA “Noticias de la Semana”,
Las nuevas Potencias,,2010, Petróleo, y Rusia. Cuando Estados Unidos
(vi: 16 de mayo de 2010) ataque Irán la Tercera Guerra
http://www.revista- Mundial, que hace años que empezó
noticias.com.ar/comun/nota.php?
art=954&ed=1614
429
en el Mar Caspio, llegará también a expropiación es la mejor época no
Occidente. sólo para el crecimiento en
infraestructura inversión y demás en
la industria petrolera sino también
Conclusiones. en es en este periodo donde se da el
México vive una etapa de mejor desarrollo de la sociedad en su
trascendencia, donde se tiene que conjunto en todos sus ámbitos. Y no
tomar medidas al respecto ya que en el sentido de que todo debe ser
desde la época neoliberal los controlado por el gobierno sino que
resultados no son nada optimistas ya debe haber áreas como lo es el
que el modelo por si sólo es petróleo que son estratégicas que
desventajoso pero lo peor es que se deben ser controladas por alguien
acrecienta con las políticas que busque el beneficio general y no
económicas de nuestros gobernantes el particular.
No se puede vivir con incongruencias
tan grandes como el régimen
impositivo que no fue abordado pero
que es el mayor freno para el
desarrollo de la industria petrolera, y
no se diga de la falta de interés para
que aquí se produzcan los productos
con mayor valor agregado y no se
tengan que importar, la verdad son
una serie de incongruencias que son
una ofensa para el pueblo.
“Actualmente ante la amenaza de
privatizar Pemex en todo o en parte,
con capital extranjero o nacional pero
siempre capital privado –es decir, que
en tanto capital no puede por
definición responder al interés de la Robótica
nación sino al suyo propio, si no
dejaría de ser capital–, los La robótica es la ciencia y la
fundamentos de la disputa deben tecnología de los robots. Se ocupa
plantearse sobre el mismo terreno: del diseño, manufactura y
quién manda en México”11. Pero aplicaciones de los robots. La
pareciera que esa disputa ya no es robótica combina diversas
disputa por que desde años atrás hay disciplinas como son: la mecánica,
un ganador y son las trasnacionales la electrónica, la informática, la
como en el Porfiriato. inteligencia artificial y la ingeniería
En general creo que los datos de control. Otras áreas importantes
presentados aunque muy básico, son en robótica son el álgebra, los
claros que la época a partir de la autómatas programables y las
máquinas de estados.
11
430
El término robot se popularizó con esta protección no entre en
el éxito de la obra RUR (Robots conflicto con la Primera o la
Universales Rossum), escrita por Segunda Ley.
Karel Capek en 1920. En la
traducción al inglés de dicha obra, En la ciencia ficción el hombre ha
la palabra checa robota, que imaginado a los robots visitando
significa trabajos forzados, fue nuevos mundos, haciéndose con
traducida al inglés como robot. el poder, o simplemente aliviando
de las labores caseras.
2._ Historia de la robótica
La historia de la robótica ha
estado unida a la construcción de
"artefactos", que trataban de
materializar el deseo humano de
crear seres a su semejanza y que
lo descargasen del trabajo. El
ingeniero español Leonardo
Torres Quevedo (GAP) (que
construyó el primer mando a
distancia para su automóvil Tabla Histórica
mediante telegrafía sin hilo, el
ajedrecista automático, el primer
transbordador aéreo y otros No
muchos ingenios) acuñó el término F
mb
"automática" en relación con la e
Import re Inve
teoría de la automatización de c
ancia del ntor
tareas tradicionalmente asociadas h
rob
a los humanos. a
ot
El término robótica es acuñado por
Isaac Asimov, definiendo a la
ciencia que estudia a los robots. S Descri Au Ctes
Asimov creó también las Tres ig pcion ton ibius
Leyes de la Robótica: lo es de om de
I más a Alex
1. Un robot no debe dañar a un a de andr
ser humano o, por su inacción, . 100 ia,
dejar que un ser humano sufra C máqui Filó
daño. . nas y n de
2. Un robot debe obedecer las y autóm Biza
órdenes que le son dadas por un a atas, ncio,
ser humano, excepto si estas n incluy Her
órdenes entran en conflicto con la t endo ón
Primera Ley. e un de
3. Un robot debe proteger su s artefa Alex
propia existencia, hasta donde
431
cto rob
con oti
fuego, za
un do
órgan s
o de
viento
, una
máqui Ca
na Diseñ bal
c. Leo
opera o de ler
1 nard
da un o
4 o da
media robot me
9 Vinc
nte huma cá
5 i
una andr noide nic
mone ia, y o
da, otro
una s
máqui Pato
na de mecá
vapor, nico
en capaz Di Jacq
Pneu 1 de ge ues
matic 7 comer sti de
a y 3 , ng Vau
Auto 8 agitar Du cans
mata sus ck on
de alas y
Herón excret
de ar.
Alexa
ndria
Jugue
tes
Ba mecá Ju
Prime rco 1 nicos gu Hisa
r co 8 japon ete shig
1 robot n Al- 0 eses s e
2 huma cu Jaza 0 que Ka Tan
0 noide atr ri s sirven rak aka
6 progr o té, uri
amabl mú dispar
e sic an
os flecha
432
s y con
pintan comp
. ortami
ento me Walt
biológ r er
ico
Apare simpl
ce el e5
Ro
primer
ss
autóm
um
ata de
's
1 ficción Kare Prime
Un
9 llama l r
ive
2 do Čap robot
rsa
1 "robot ek comer
l
", cial,
Ro
apare de la
bot
ce en comp
s
R.U.R añía
. Unim
ation
funda
da por
Se 1 Georg Geo
exhib Un
9 e rge
e un im
5 Devol Dev
robot ate
Wes 6 y ol
huma Josep
ting
noide h
1 hou
en la Engel
9 Ele se
World' berge
3 ktr Elec
s r,
0 o tric
Fairs basad
s Cor
entre a en
pora
los una
tion
años patent
1939 e de
y Devol
1940 6
433
robot capaz
indust ol de
rial despl
azars
e de
forma
Prime Fuji or
1 bíped
r Pal Yus 0 O Co.
9 a e
robot leti oki Ltd
6 intera
"pallet zer Kog ctuar
3
izing"7 yo con
las
perso
Prime nas
r
robot KUK
1 con A Los primeros autómatas
Fa
9 seis Rob
mu En el siglo IV antes de Cristo, el
7 ejes ot
lus matemático griego Arquitas de
3 electr Gro
omec up Tarento construyó un ave
ánico mecánica que funcionaba con
s vapor y al que llamó "La paloma".
También el ingeniero Herón de
Alejandría (10-70 d. C.) creó
numerosos dispositivos
Brazo automáticos que los usuarios
manip podían modificar, y describió
ulador máquinas accionadas por presión
progr de aire, vapor y agua. Por su
amabl Vict parte, el estudioso chino Su Song
1
e PU or levantó una torre de reloj en 1088
9
univer M Sch con figuras mecánicas que daban
7
sal, A ein las campanadas de las horas.
5
un man
produ Al Jazarií (1136–1206), un
cto de inventor musulmán de la dinastía
Unim Artuqid, diseñó y construyó una
ation serie de máquinas automatizadas,
entre los que había útiles de
cocina, autómatas musicales que
funcionaban con agua, y en 1206
2 Robot AS Hon
los primeros robots humanoides
0 Huma IM da
programables. Las máquinas
0 noide Mot
tenían el aspecto de cuatro
434
músicos a bordo de un bote en un artrópodos en funciones y forma.
lago, entreteniendo a los invitados Como se ha hecho notar
en las fiestas reales. Su anteriormente, la tendencia se
mecanismo tenía un tambor dirige hacia ese tipo de cuerpos
programable con clavijas que que ofrecen gran flexibilidad y han
chocaban con pequeñas palancas probado adaptabilidad a cualquier
que accionaban instrumentos de ambiente.
percusión. Podían cambiarse los
ritmos y patrones que tocaba el
tamborilero moviendo las clavijas.
Desarrollo moderno
435
de serpiente se encuentran, sin comportamiento imita al de los
embargo, en una fase de humanos o a otros animales.
producción muy amplia, el ejemplo
más notorio ha sido Aibo de Sony. Aunque las historias sobre
ayudantes y acompañantes
artificiales, así como los intentos
de crearlos, tienen una larga
historia, las máquinas totalmente
autónomas no aparecieron hasta
el siglo XX. El primer robot
programable y dirigido de forma
digital, el Unimate, fue instalado
en 1961 para levantar piezas
calientes de metal de una máquina
de tinte y colocarlas.
436
• 4ª Generación.
Según su arquitectura
4._ Clasificación de los robots
La arquitectura, es definida por el
Según su cronología
tipo de configuración general del
Robot, puede ser metamórfica. El
• 1ª Generación.
concepto de metamorfismo, de
reciente aparición, se ha
Manipuladores. Son sistemas
introducido para incrementar la
mecánicos multifuncionales con un
flexibilidad funcional de un Robot a
sencillo sistema de control, bien
través del cambio de su
manual, de secuencia fija o de
configuración por el propio Robot.
secuencia variable.
El metamorfismo admite diversos
niveles, desde los más
• 2ª Generación.
elementales (cambio de
herramienta o de efecto terminal),
Robots de aprendizaje. Repiten
hasta los más complejos como el
una secuencia de movimientos
cambio o alteración de algunos de
que ha sido ejecutada
sus elementos o subsistemas
previamente por un operador
estructurales. Los dispositivos y
humano. El modo de hacerlo es a
mecanismos que pueden
través de un dispositivo mecánico.
agruparse bajo la denominación
El operador realiza los
genérica del Robot, tal como se ha
movimientos requeridos mientras
indicado, son muy diversos y es
el robot le sigue y los memoriza.
por tanto difícil establecer una
clasificación coherente de los
• 3ª Generación.
mismos que resista un análisis
crítico y riguroso. La subdivisión
Robots con control sensorizado. El
de los Robots, con base en su
controlador es una computadora
arquitectura, se hace en los
que ejecuta las órdenes de un
siguientes grupos: Poliarticulados,
programa y las envía al
Móviles, Androides, Zoomórficos e
manipulador para que realice los
Híbridos.
movimientos necesarios.
• 1. Poliarticulados
437
En este grupo están los Robots de • 3. Androides
muy diversa forma y configuración
cuya característica común es la de Son Robots que intentan
ser básicamente sedentarios reproducir total o parcialmente la
(aunque excepcionalmente forma y el comportamiento
pueden ser guiados para efectuar cinemática del ser humano.
desplazamientos limitados) y estar Actualmente los androides son
estructurados para mover sus todavía dispositivos muy poco
elementos terminales en un evolucionados y sin utilidad
determinado espacio de trabajo práctica, y destinados,
según uno o más sistemas de fundamentalmente, al estudio y
coordenadas y con un número experimentación. Uno de los
limitado de grados de libertad". En aspectos más complejos de estos
este grupo se encuentran los Robots, y sobre el que se centra la
manipuladores, los Robots mayoría de los trabajos, es el de la
industriales, los Robots locomoción bípeda. En este caso,
cartesianos y se emplean cuando el principal problema es controlar
es preciso abarcar una zona de dinámica y coordinadamente en el
trabajo relativamente amplia o tiempo real el proceso y mantener
alargada, actuar sobre objetos con simultáneamente el equilibrio del
un plano de simetría vertical o Robot.
reducir el espacio ocupado en el
suelo. • 4. Zoomórficos
• 5. Híbridos
439
Expo 2005, Nagakute (Aichi)
Existe
una
gran 6._Aplicaciones:
Usos médicos
Recientemente, se ha logrado un
gran avance en los robots
dedicados a la medicina, con dos
compañías en particular,
Computer Motion e Intuitive
Surgical, que han recibido la
esperanza, especialmente en aprobación regulatoria en América
Japón, de que el cuidado del del Norte, Europa y Asia para que
hogar para la población de edad sus robots sean utilizados en
avanzada pueda ser procedimientos de cirugía invasiva
desempeñado por robots. mínima. Desde la compra de
Computer Motion (creador del
Los robots parecen estar robot Zeus) por Intuitive Surgical,
abaratándose y reduciendo su se han desarrollado ya dos
tamaño, una tendencia modelos de robot daVinci por esta
relacionada con la miniaturización última. En la actualidad, existen
de los componentes electrónicos más de 800 robots quirúrgicos
que se utilizan para controlarlos. daVinci en el mundo, con
Además, muchos robots son aplicaciones en Urología,
diseñados en simuladores mucho Ginecología, Cirugía general,
antes de construirse y de que Cirugía Pediátrica, Cirugía
interactúen con ambientes físicos Torácica, Cirugía Cardíaca y ORL.
reales. Un buen ejemplo de esto También la automatización de
es el equipo Spiritual Machine, un laboratorios es un área en
equipo de 5 robots desarrollado crecimiento. Aquí, los robots son
totalmente en un ambiente virtual utilizados para transportar
para jugar al fútbol en la liga muestras biológicas o químicas
mundial de la F.I.R.A. entre instrumentos tales como
incubadoras, manejadores de
Además de los campos líquidos y lectores. Otros lugares
mencionados, hay modelos donde los robots están
trabajando en el sector educativo, reemplazando a los humanos son
servicios (por ejemplo, en lugar de la exploración del fondo oceánico
recepcionistas humanos o y exploración espacial. Para esas
vigilancia) y tareas de búsqueda y tareas se suele recurrir a robots de
rescate. tipo artrópodo.
440
Modelos de vuelo dios griego de los herreros,
Hefesto (Vulcano para los
En fases iniciales de desarrollo romanos) creó sirvientes
hay robots alados experimentales mecánicos inteligentes, otros
y otros ejemplos que explotan el hechos de oro e incluso mesas
biomimetismo. Se espera que los que se podían mover por sí
así llamados nanomotores y mismas. Algunos de estos
cables inteligentes simplifiquen autómatas ayudan al dios a forjar
drásticamente el poder de la armadura de Aquiles, según la
locomoción, mientras que la Ilíada Aunque, por supuesto, no se
estabilización en vuelo parece describe a esas máquinas como
haber sido mejorada "robots" o como "androides", son
substancialmente por giroscopios en cualquier caso dispositivos
extremadamente pequeños. mecánicos de apariencia humana.
Literatura
Ya en 1817, en un cuento de
Hoffmann llamado El Coco,
aparece una mujer que parecía
una muñeca mecánica, y en la
obra de Edward S. Ellis de 1865 El
7._ Los robots en la ficción Hombre de Vapor de las Praderas
se expresa la fascinación
Mitología americana por la industrialización.
442
conflictos que se podrían dar entre
estas leyes.
Entender y aplicar lo
anteriormente expuesto requeriría
verdadera inteligencia y
consciencia del medio
circundante, así como de sí
mismo, por parte del robot, algo
que a pesar de los grandes
avances tecnológicos de la era
moderna no se ha alcanzado.
Ciertas aplicaciones de la
cibernética pueden presentar
algunas desventajas por ejemplo:
• La creación de máquinas
complejas que reemplacen a los 12._ Androide
trabajadores provocaría un recorte • Androide es la denominación
de personal. que se le da a un robot
• En un futuro ya no se antropomorfo que, además de
ocuparía personal "viejo" y imitar la apariencia humana, imita
contratarían técnicos jóvenes para algunos aspectos de su conducta
el mantenimiento de las máquinas. de manera autónoma. Es un
• Es una tecnología muy término mencionado por primera
potente pero su gran limitación es vez por Alberto Magno en 1270 y
encontrar la relación máquina- popularizado por el autor francés
sistema nervioso; ya que para esto Auguste Villiers en su novela de
se debería conocer el sistema 1886 L'Ève future.
nervioso perfectamente. Etimológicamente "androide" se
refiere a los robots humanoides de
fisionomía masculina, a los robots
445
de apariencia femenina se les sabio, es con bastante frecuencia
llama ocasionalmente ginoides, un monstruo que se rebela contra
principalmente en las obras de su creador y en ocasiones lo
ciencia ficción, aunque en el destruye como castigo por su
lenguaje coloquial el término hubris; y el primero de los cuales
androide suele usarse para ambos no es necesariamente el monstruo
casos. de Frankenstein de Mary Shelley.
Bien que dicho monstruo sea
Androides en la cultura popular fácilmente el más famoso.
Robot
ASIMO De hecho es tan notorio este
de fenómeno, que el reconocido
Honda. experto en inteligencia artificial
Marvin Minsky, llegó a narrar
Un como en ocasiones llegaba a
robot sentirse incómodo frente a una de
sus creaciones, el androide Cog,
cuando éste presentaba
conductas inesperadas.
446
forma humana no es necesaria, y 13._ Inteligencia artificial
a veces es incluso un estorbo
(respecto a las capacidades Se denomina inteligencia artificial
actuales de los androides). (IA) a la rama de las Ciencias de
la Computación1 2 3 dedicada al
La construcción de un robot que desarrollo de agentes racionales
imite convincentemente aunque no vivos.
sea una parte ínfima de la libertad
de gestos y movimiento humanos, Para explicar la definición anterior,
es una tarea de una enorme entiéndase a un agente como
complejidad técnica. De hecho, es cualquier cosa capaz de percibir
un problema que en varias su entorno (recibir entradas),
instancias está todavía abierto a la procesar tales percepciones y
investigación y a la mejora, actuar en su entorno (proporcionar
aunque ya existen varios ejemplos salidas), y entiéndase a la
bastante meritorios en ese [racionalidad] como la
sentido, de robots humanoides característica que posee una
que imitan ciertas conductas y elección de ser correcta, más
capacidades humanas. Un específicamente, de tender a
ejemplo conocido en este sentido, maximizar un resultado esperado
es el robot Asimo de Honda, que (este concepto de racionalidad es
es capaz de marchar en dos pies, más general y por ello más
de subir y bajar escaleras y de adecuado que inteligencia para
otra serie de proezas de definir la naturaleza del objetivo de
locomoción bípeda. esta disciplina).
447
También se distinguen varios tipos parte de la rutina en campos como
de procesos válidos para obtener economía, medicina, ingeniería y
resultados racionales, que la milicia, y se ha usado en gran
determinan el tipo de agente variedad de aplicaciones de
inteligente. De más simples a más software, juegos de estrategia
complejos, los cinco principales como ajedrez de computador y
tipos de procesos son: otros videojuegos.
449
Claude Shannon en la • A mediados de los años 60,
Conferencia de Dartmouth, un aparecen los sistemas expertos,
congreso en el que se hicieron que predicen la probabilidad de
previsiones triunfalistas a diez una solución bajo un set de
años que jamás se cumplieron, lo condiciones. Por ejemplo
que provocó el abandono casi total DENDRAL, iniciado en 1965 por
de las investigaciones durante Buchanan, Feigenbaum y
quince años. Lederberg, el primer Sistema
• En 1957 Newell y Simon Experto, que asistía a químicos en
continúan su trabajo con el estructuras químicas complejas
desarrollo del General Problem euclidianas, MACSYMA, que
Solver (GPS). GPS era un sistema asistía a ingenieros y científicos en
orientado a la resolución de la solución de ecuaciones
problemas. matemáticas complejas.
• En 1958 John McCarthy • En 1968 Minsky publica
desarrolla en el Instituto de Semantic Information Processing.
Tecnología de Massachusetts • En 1968 Seymour Papert,
(MIT), el LISP. Su nombre se Danny Bobrow y Wally Feurzeig,
deriva de LISt Processor. LISP fue desarrollan el lenguaje de
el primer lenguaje para programación LOGO.
procesamiento simbólico. • En 1969 Alan Kay desarrolla
• En 1959 Rosenblatt introduce el lenguaje Smalltalk en Xerox
el Perceptrón. PARC y se publica en 1980.
• A fines de los 50 y • En 1973 Alain Colmenauer y
comienzos de la década del 60 su equipo de investigación en la
Robert K. Lindsay desarrolla «Sad Universidad de Aix-Marseille crean
Sam», un programa para la lectura PROLOG (del francés
de oraciones en inglés y la PROgrammation en LOGique) un
inferencia de conclusiones a partir lenguaje de programación
de su interpretación. ampliamente utilizado en IA.
• En 1963 Quillian desarrolla • En 1973 Shank y Abelson
las redes semánticas como desarrollan los guiones, o scripts,
modelo de representación del pilares de muchas técnicas
conocimiento. actuales en Inteligencia Artificial y
• En 1964 Bertrand Raphael la informática en general.
construye el sistema SIR • En 1974 Edward Shortliffe
(Semantic Information Retrieval) el escribe su tesis con MYCIN, uno
cual era capaz de inferir de los Sistemas Expertos más
conocimiento basado en conocidos, que asistió a médicos
información que se le suministra. en el diagnóstico y tratamiento de
Bobrow desarrolla STUDENT. infecciones en la sangre.
• Posteriormente entre los • En las décadas de 1970 y
años 1968-1970 Terry Winograd 1980, creció el uso de sistemas
desarrolló el sistema SHRDLU, expertos, como MYCIN:
que permitía interrogar y dar R1/XCON, ABRL, PIP, PUFF,
órdenes a un robot que se movía CASNET,
dentro de un mundo de bloques. INTERNIST/CADUCEUS, etc.
450
Algunos permanecen hasta hoy Fundamentos y filosofía
(shells) como EMYCIN, EXPERT,
OPSS. Como ocurre casi siempre en el
• En 1981 Kazuhiro Fuchi caso de una ciencia recién creada,
anuncia el proyecto japonés de la la inteligencia artificial aborda
quinta generación de tantas cuestiones confundibles en
computadoras. un nivel fundamental y conceptual
• En 1986 McClelland y que, adjunto a lo científico, es
Rumelhart publican Parallel necesario hacer consideraciones
Distributed Processing (Redes desde el punto de vista de la
Neuronales). filosofía. Gran parte de esta
• En 1988 se establecen los ciencia se junta con temas en la
lenguajes Orientados a Objetos. filosofía de la mente, pero hay
• En 1997 Garry Kasparov, ciertos temas particulares a la IA.
campeón mundial de ajedrez Por ejemplo:
pierde ante la computadora
autónoma Deep Blue. • ¿En qué consiste la
• En 2006 se celebró el inteligencia? ¿Cómo la
aniversario con el Congreso en reconoceríamos en un objeto no
español 50 años de Inteligencia humano, si la tuviera?
Artificial - Campus Multidisciplinar • ¿Qué sustancia y
en Percepción e Inteligencia 2006. organización se requiere? ¿Es
• En el año 2009 ya hay en posible que una criatura hecha de
desarrollo sistemas inteligentes metal, por ejemplo, posea una
terapéuticos que permiten detectar inteligencia comparable a la
emociones para poder interactuar humana?
con niños autistas. • Aunque una criatura no
• Existen personas que al orgánica pudiera solucionar
dialogar sin saberlo con un chatbot problemas de la misma manera
no se percatan de hablar con un que un humano, ¿tendría o podría
programa, de modo tal que se tener conciencia y emociones?
cumple la prueba de Turing como • Suponiendo que podemos
cuando se formuló: «Existirá hacer robots con una inteligencia
Inteligencia Artificial cuando no comparable a la nuestra,
seamos capaces de distinguir ¿debemos hacerlo?
entre un ser humano y un
programa de computadora en una Durante más de 2000 años de
conversación a ciegas». tradición en filosofía, han ido
• Como anécdota, muchos de surgiendo diversas teorías del
los investigadores sobre IA razonamiento y del aprendizaje,
sostienen que «la inteligencia es simultáneamente con el punto de
un programa capaz de ser vista de que la mente se reduce al
ejecutado independientemente de funcionamiento físico. La
la máquina que lo ejecute, psicología ofrece herramientas
computador o cerebro». que permiten la investigación de la
mente humana, así como un
lenguaje científico para expresar
451
las teorías que se van obteniendo. su nombre al-Jwarizmi deriva la
La lingüística ofrece teorías para palabra algoritmo).
la estructura y significado del
lenguaje, así como la ciencia de la El hombre se ha aplicado a sí
computación, de la que se toman mismo el nombre científico de
las herramientas que permiten que Homo sapiens como una
la Inteligencia Artificial sea una valoración de la trascendencia de
realidad. nuestras habilidades mentales
tanto para nuestra vida cotidiana
Empezó con el nacimiento de como para nuestro propio sentido
Platón en 428 a. C. y con lo que de identidad. Los esfuerzos del
aprendió de Sócrates. La temática campo de la inteligencia artificial
de su obra fue muy diversa: se enfocan en lograr la
política, matemática, física, compresión de entidades
astronomía y diversas ramas de la inteligentes. Una de las razones
filosofía. El filósofo Hubet Dreyfus de su estudio es el aprender más
(1979) afirma que: de nosotros mismos. A diferencia
de la filosofía y de la psicología,
Bien podría afirmarse que la que también se ocupan de la
historia de la inteligencia artificial inteligencia, los esfuerzos de la
comienza en el año 450 a.C., inteligencia artificial están
cuando Platón cita un diálogo en encaminados tanto a la
el que Sócrates le pregunta a construcción de entidades como a
Eutidemo: «Desearía saber cuál su compresión. Otra razón por la
es la característica de la piedad cual se estudia la inteligencia
que hace que una acción se artificial es debido a que ha sido
pueda considerar como pía... y así posible crear sorprendentes y
la observe y me sirva de norma diversos productos de
para juzgar tus acciones y las de trascendencia. Nadie podría
otros.» pronosticar con toda precisión lo
que se podría esperar en el futuro,
Los filósofos delimitaron las más es evidente que las computadoras
importantes ideas relacionadas que posean una inteligencia a
con la inteligencia artificial, pero nivel humano tendrán
para pasar de allí a una ciencia repercusiones muy importantes en
formal era necesario contar con nuestra vida diaria así como en el
una formalización matemática en devenir de la civilización.
tres áreas principales: la
computación, la lógica y la El problema que aborda la
probabilidad. La idea de expresar inteligencia artificial es uno de los
un cálculo mediante un algoritmo más complejos: ¿Cómo es posible
formal se remonta a la época de que un diminuto y lento cerebro,
Jwarizmi, matemático árabe del sea biológico o electrónico, tenga
siglo IX, con cuyas obras se capacidad de percibir,
introdujeron en Europa los comprender, predecir y manipular
números arábigos y el álgebra (de un mundo que en tamaño y
complejidad lo excede con
452
creces?, pero a diferencia de la En esta línea, hay que saber que
investigación en torno al ya existen sistemas inteligentes.
desplazamiento mayor que la Capaces de tomar decisiones
velocidad de la luz o de un «acertadas».
dispositivo antigravitatorio, el
investigador del campo de la Aunque, por el momento, la
inteligencia artificial cuenta con mayoría de los investigadores en
pruebas contundentes de que tal el ámbito de la Inteligencia
búsqueda es totalmente factible. Artificial se centran sólo en el
aspecto racional, muchos de ellos
La inteligencia artificial permite al consideran seriamente la
hombre emular en las máquinas el posibilidad de incorporar
comportamiento humano, tomando componentes «emotivos» como
como base el cerebro y su indicadores de estado, a fin de
funcionamiento, de manera tal que aumentar la eficacia de los
se pueda alcanzar cierto sistemas inteligentes.
razonamiento creando marionetas
robóticas. Particularmente para los robots
móviles, es necesario que cuenten
La inteligencia artificial y los con algo similar a las emociones
sentimientos con el objeto de saber –en cada
instante y como mínimo– qué
El concepto de IA es aún hacer a continuación [Pinker,
demasiado difuso. 2001, p. 481].
Contextualizando, y teniendo en
cuenta un punto de vista científico, Al tener «sentimientos» y, al
podríamos englobar a esta ciencia menos potencialmente,
como la encargada de imitar una «motivaciones», podrán actuar de
persona, y no su cuerpo, sino acuerdo con sus «intenciones»
imitar al cerebro, en todas sus [Mazlish, 1995, p. 318]. Así, se
funciones, existentes en el podría equipar a un robot con
humano o inventadas sobre el dispositivos que controlen su
desarrollo de una máquina medio interno; por ejemplo, que
inteligente. «sientan hambre» al detectar que
su nivel de energía está
A veces, aplicando la definición de descendiendo o que «sientan
Inteligencia Artificial, se piensa en miedo» cuando aquel esté
máquinas inteligentes sin demasiado bajo.
sentimientos, que «obstaculizan»
encontrar la mejor solución a un Esta señal podría interrumpir los
problema dado. Muchos procesos de alto nivel y obligar al
pensamos en dispositivos robot a conseguir el preciado
artificiales capaces de concluir elemento [Johnson-Laird, 1993, p.
miles de premisas a partir de otras 359]. Incluso se podría introducir
premisas dadas, sin que ningún el «dolor» o el «sufrimiento físico»,
tipo de emoción tenga la opción de a fin de evitar las torpezas de
obstaculizar dicha labor. funcionamiento como, por
453
ejemplo, introducir la mano dentro asignación de metas o motivación,
de una cadena de engranajes o junto a la toma de decisiones y
saltar desde una cierta altura, lo asignación de prioridades con
cual le provocaría daños base en estados actuales y
irreparables. estados meta, logran un
comportamiento en extremo
Esto significa que los sistemas eficiente, especialmente ante
inteligentes deben ser dotados con problemas complejos y peligrosos.
mecanismos de retroalimentación
que les permitan tener En síntesis, lo racional y lo
conocimiento de estados internos, emocional están de tal manera
igual que sucede con los humanos interrelacionados entre sí, que se
que disponen de propiocepción, podría decir que no sólo no son
interocepción, nocicepción, aspectos contradictorios sino que
etcétera. Esto es fundamental son –hasta cierto punto–
tanto para tomar decisiones como complementarios.
para conservar su propia
integridad y seguridad. La
retroalimentación en sistemas está
particularmente desarrollada en Críticas
cibernética, por ejemplo en el
cambio de dirección y velocidad Las principales críticas a la
autónomo de un misil, utilizando inteligencia artificial tienen que ver
como parámetro la posición en con su incapacidad de imitar por
cada instante en relación al completo a un ser humano. Estas
objetivo que debe alcanzar. Esto críticas ignoran que ningún
debe ser diferenciado del humano individual tiene capacidad
conocimiento que un sistema o para resolver todo tipo de
programa computacional puede problemas, y autores como
tener de sus estados internos, por Howard Gardner han propuesto
ejemplo la cantidad de ciclos que existen inteligencias múltiples.
cumplidos en un loop o bucle en Un sistema de inteligencia artificial
sentencias tipo do... for, o la debería resolver problemas. Por lo
cantidad de memoria disponible tanto es fundamental en su diseño
para una operación determinada. la delimitación de los tipos de
problemas que resolverá y las
A los sistemas inteligentes el no estrategias y algoritmos que
tener en cuenta elementos utilizará para encontrar la solución.
emocionales les permite no olvidar
la meta que deben alcanzar. En En los humanos la capacidad de
los humanos el olvido de la meta o resolver problemas tiene dos
el abandonar las metas por aspectos: los aspectos innatos y
perturbaciones emocionales es un los aspectos aprendidos. Los
problema que en algunos casos aspectos innatos permiten por
llega a ser incapacitante. Los ejemplo almacenar y recuperar
sistemas inteligentes, al combinar información en la memoria y los
una memoria durable, una aspectos aprendidos el saber
454
resolver un problema matemático apareció ya en los inicios de los
mediante el algoritmo adecuado. primeros sistemas operativos
Del mismo modo que un humano informáticos. La capacidad de los
debe disponer de herramientas humanos para comunicarse entre
que le permitan solucionar ciertos sí implica el conocimiento del
problemas, los sistemas artificiales lenguaje que utiliza el interlocutor.
deben ser programados de modo Para que un humano pueda
tal que puedan resolver ciertos comunicarse con un sistema
problemas. inteligente hay dos opciones: o
bien el humano aprende el
Muchas personas consideran que lenguaje del sistema como si
el test de Turing ha sido superado, aprendiese a hablar cualquier otro
citando conversaciones en que al idioma distinto al nativo, o bien el
dialogar con un programa de sistema tiene la capacidad de
inteligencia artificial para chat no interpretar el mensaje del usuario
saben que hablan con un en la lengua que el usuario utiliza.
programa. Sin embargo, esta
situación no es equivalente a un Un humano durante toda su vida
test de Turing, que requiere que el aprende el vocabulario de su
participante esté sobre aviso de la lengua nativa. Un humano
posibilidad de hablar con una interpreta los mensajes a pesar de
máquina. la polisemia de las palabras
utilizando el contexto para resolver
Otros experimentos mentales ambigüedades. Sin embargo,
como la Habitación china de John debe conocer los distintos
Searle han mostrado cómo una significados para poder interpretar,
máquina podría simular y es por esto que lenguajes
pensamiento sin tener que tenerlo, especializados y técnicos son
pasando el test de Turing sin conocidos solamente por expertos
siquiera entender lo que hace. en las respectivas disciplinas. Un
Esto demostraría que la máquina sistema de inteligencia artificial se
en realidad no está pensando, ya enfrenta con el mismo problema,
que actuar de acuerdo con un la polisemia del lenguaje humano,
programa preestablecido sería su sintaxis poco estructurada y los
suficiente. Si para Turing el hecho dialectos entre grupos.
de engañar a un ser humano que
intenta evitar que le engañen es Los desarrollos en inteligencia
muestra de una mente inteligente, artificial son mayores en los
Searle considera posible lograr campos disciplinares en los que
dicho efecto mediante reglas existe mayor consenso entre
definidas a priori. especialistas. Un sistema experto
es más probable de ser
Uno de los mayores problemas en programado en física o en
sistemas de inteligencia artificial medicina que en sociología o en
es la comunicación con el usuario. psicología. Esto se debe al
Este obstáculo es debido a la problema del consenso entre
ambigüedad del lenguaje, y especialistas en la definición de
455
los conceptos involucrados y en 14._ Robótica Educativa
los procedimientos y técnicas a
utilizar. Por ejemplo, en física hay La 'Robótica Educativa' es un
acuerdo sobre el concepto de medio de aprendizaje, en el cual
velocidad y cómo calcularla. Sin participan las personas que tienen
embargo, en psicología se motivación por el diseño y
discuten los conceptos, la construcción de creaciones
etiología, la psicopatología y cómo propias (objeto que posee
proceder ante cierto diagnóstico. caraceristicas similares a las de la
Esto dificulta la creación de vida humana o animal). Éstas
sistemas inteligentes porque creaciones se dan en primera
siempre habrá desacuerdo sobre instancia de forma mental y
lo que se esperaría que el sistema posteriormente en forma física, las
haga. A pesar de esto hay cuales son construidas con
grandes avances en el diseño de diferentes tipos de materiales y
sistemas expertos para el controladas por un sistema
diagnóstico y toma de decisiones computacional, los que son
en el ámbito médico y psiquiátrico llamados prototipos o
(Adaraga Morales, Zaccagnini simulaciones.
Sancho, 1994).
En sus inicios los autómatas eran
realizados con materiales fáciles
de encontrar, ya sea con madera,
Aplicaciones de la inteligencia cobre o cualquier otro material
artificial fácil de moldear.
La fundación de la RE está
relacionada con trabajos en el
CNR de Roma en los 90, pero la
idea inicial de codificar el sistema
de control de un robot en un
genoma y evolucionarlo data de
finales de los años 80.
458
16._ Robótica autónoma 17._ Competiciones de robots
459
En esta prueba, dos robots se
enfrentan en una arena de
combate de una medida
previamente conocida. Ambos
robots tienen un arma a distancia Principales competiciones
y un arma para combate cuerpo a existentes
cuerpo. El arma a distancia
consiste en un lanzador de algún • Robocup
tipo de proyectil, por lo general • Hispabot
muy liviano, que no cause daños a • European Land-Robot Trial
su objetivo. Los dos robots deben • Alcabot
enfrentarse en la zona de combate • Eurobot
hasta que uno de los dos es • FIRST
alcanzado por un proyectil del • Robolid
otro, o por su arma de lucha • Cosmobot
directa. • Competencia Argentina de
Sumo UTN - FRBB
• Sumo
Ropa deportiva
En este estilo de competición,dos
robots se enfrentan dentro de una Canterbury of New Zealand está
zona delimitada; la idea es que preparada para revolucionar el
ambos intentan sacarse mercado de ropa técnica deportiva
mutuamente de esta zona. con el lanzamiento de IonX(TM) -
una gama de prendas de alto
• Carrera de bípedos rendimiento diseñadas para
aumentar la competitividad de los
Mientras que en las competencias deportistas.
mencionadas anteriormente los
robot tienen una estructura Esta ropa deportiva especializada
vehicular, en la carrera de bípedos utiliza el tejido de ultima generación
se enfrentan robots cuyo Ionised Energy Fabrics (TM)- que
movimiento utiliza dos ioniza al cuerpo mediante un campo
extremidades inferiores (análogas electromagnético de carga negativa.
a las extremidades inferiores de Este proceso facilita el suministro de
los animales bípedos). Los robots oxígeno a los músculos desde la
compiten en una línea recta, sangre, lo cual a su vez aumenta el
siendo el ganador el robot que rendimiento media en un 2,7%, y
atraviese el recorrido definido acelera la recuperación muscular.
primero.
La ionización es un proceso natural
que se produce a causa de una carga
positiva o negativa de los átomos, por
ejemplo durante las tormentas
eléctricas o cerca de las cascadas de
agua. En contacto con la piel, los
460
tejidos Ionised Energy Fabrics textil ha afectado de forma tan
ofrecen dos ventajas fundamentales: directa y tangible los niveles de
mayor rendimiento durante la rendimiento y recuperación".
actividad y un periodo de
recuperación más corto. Prof Mike Caine, B.Sc., Ph.D.,
Director del Instituto de
El aumento del rendimiento se Tecnología Deportiva de la
produce gracias a mayor flujo de Universidad de Loughborough,
sangre oxigenada por el cuerpo, lo Reino Unido, dijo: "Los
cual genera más energía en los resultados preliminares de un
músculos. Esto ayuda a incrementar estudio realizado por un
la potencia media del deportista y a la equipo de Tecnología
vez mejorar la velocidad y la fuerza. Deportiva en la Universidad de
Loughborough indican que los
La mayor tasa de transferencia deportistas que llevan prendas
de oxígeno desde la sangre a tratadas con IonX demuestran
los músculos también beneficia mayor nivel de rendimiento y
al sistema de energía de fuerza durante periodos
anaeróbica del cuerpo, al cortos y repetidos de máximo
eliminar residuos como el esfuerzo. Con el tiempo y más
ácido láctico de forma más estudios se debe poder
eficaz. La rápida recuperación comprender cómo maximizar
permite reanudar antes los las posibilidades de IonX(TM),
periodos de entrenamiento o aunque ya está claro que estas
competición. prendas pueden llegar a
aportar unos beneficios
Joe Middleton. Consejero valiosas para el rendimiento de
Delegado de Canterbury of los atletas durante el
New Zealand comenta: "En entrenamiento y la
Canterbury nos sentimos competición."
orgullosos de las prendas
futuristas y tecnológicamente La tecnología dri-fit
avanzadas que desarrollamos.
La gama IonX(TM) no sólo Hemos visto a través del tiempo que
marca un momento clave para la tecnología está presente hoy en
Canterbury, sino también para todas las áreas, en la salud, en la
el mercado de ropa técnica informática, en los deportes y en la
deportiva en general." vida diaria sin duda.
462
Camisas y Shorts de Futbol nylon, acrylic y rayon en un
uniforme de futbol lo
Es simple. La seleccion correcta de mantendra seco pero las tela
camisa y shorts de futbol abilita a que de algodon tiene la tendencia
tu equipo funcione mejor. Nike y de retener agua.
Adidas se han despejado de su
compentencia gracias a su fabricado Nylon: Un tela exceptionalmente
de la tela para manejar la humedad fuerte de elastico que retiene un
llamada "Moisture Management" bajo porcental de humedad y es
(Manejo de Humedad). " Moisture facilmente tratable .
Management" hace que la humedad Polyester: Una tela muy durable,
del cuerpo se desprenda para regular ligera y mas respirable para el
la temperatura del cuerpo. Las cuerpo. Retiene un bajo porcental
camisas,shorts,y calcettas fabricadas de humedad y es facilmente
por estas telas siempre mantienen al tratable.
jugador fresco y seco para desplegar
su funcion SIEMPRE AGUSTO. CoolMax: Hecho y patentado por
DuPont, CoolMax es una teal
En los viejos tiempos todos disenada para remover la humedad y
usaban la tela de algodon. evaporizar el sudor. Cool Max es
Lamentablemente cuando el ligera y se seca pronto.
algodon se humedese se Tecnologia ClimaLite, ClimaCool and
mantiene humedo. En los tiempos Dri-Fit
de mucha calor se siente el calor
en tu piel y en los tiempos de Tecnologias ClimaLite, ClimaCool
invierno el sudor se mantiene y Dri-Fit hace regular el
cercas del cuerpo y con un viento microclima de cuerpo. La primera
ligero te da escalofrio. Nuevas linea de tela es CoolMax que fue
telas de Micro Fibra como "Dri-Fit" disenada para mantener el sudor
fabricada por Nike o como la lo mas lejos de tu cuerpo posible
"Clima Cool" fabricada por Adidas para que te mantegas seco y
fueron disenadas para atrapar la agusto.
humedad para transportarla hace
la cima de la tela para despues Nike popularizo el manejo de la
evaporizar el sudor. Este tipo de humedad con la teconologia de " Dri-
innovaciones hacen que cuerpo FIT". Esta fue unas de las primeras
respire mejor para evitar mal manejo de humedada patentado en el
olores que pueden quedar en la sistema de negocios. Ahora que se
ropa. Mas importante es que estas ha mantenido por anos, mas atletas
telas de alta tecnologia no se benefician al no sudar. Con lo
encojen, son suaves, y flexibles maximo en el manejo de la humedad
para que uno se sienta aun MAS "DRI_FIT" pueda ayudarte funcionar
AGUSTO mejor. Por eso Nike esta orgulloso de
• introducir los nuevos Uniformes de
• Mezclas de algodon: Estas Futbol como El Nike Centenario, Nike
telas son un poco mejor que la Brasilia Pro Vent, y el Nike Game Rio
de algodon. El porcentaje de
463
para la alineacion de DRI-FIT para calcettasAdidas’s Elite, Montreal,y
este ano. Copa Edge son reconocidas por el
La historia de Adidas es que siempre talon reinforsado, tela de respiro, y
llena los requisitos del atleta soporte alrededor del tobillo. Las
moderno. Enfocandose en las calcettas Nike Total 90 y Classic
funciones, Adidas corre la milla extra ofrecen costuras suaves alrededor de
para vestir a sus atletas con ropa que los dedos y una tela fina para el
pueda ser la diferencia a la hora de estiramiento hace los laterales. Estos
competencia. ClimaCool fue dos estilos a la vez ofrecen mas
introducida por Adidas para darle mas alcochadamiento para darle la
ventilacion y manejo de humedad a satisfasion a tus zapatos y mejor
las camisas y shorts de futbol. Es una proteccion a tus pies del impacto al
tela de alta respiracion que ventila y correr repetidamente.
desaparece la humedad rapidamente CALZADO DEPORTIVO
del cuerpo. ClimaCool mantiene al
atleta fresco,seco y agusto. Mas Son muchos los deportes que se
importante ventaliza en las zonas de practican en todo el mundo y cada
mas alto calor. actividad precisa de un tipo de
Que tal las calcettas? tecnología diferente de calzado
La calcetta ideal hace la mayor parte según el pie, el terreno y el
del diseno en tus zapatos. Por deporte. El calzado correcto hará
ejemplo, una calcetta gruesa que no la diferencia entre competir,
se siete bien, puede que le de la ganar, perder y prevenir lesiones.
contra a sus zapatos de alto
La imagen de la izquierda es de tipo
tecnologia que le ofrecen estabilidad
térmica de una huella plantal con
y mejor manejo. Calcettas buenas
discriminación de presiones por color.
tambien hacen que sus pies se
Los colores más "cálidos" (amarillo,
mantegan secos, calientitos, y libre
rojo) representan fuerzas más altas y
de ampollas.
los más "fríos" (azul, violeta) fuerzas
más débiles. Imagen capturada y
Sudor de pie. En un dia de torneo o al
procesada por una económica
correr un maraton, tus pies pueden
plataforma que trae software marca
llenar hasta dos vazos o mas de puro
TPS® Foot Scan. Los puntos rojos
sudor. La misma regla aplica sobre el
son los centros de presión. La imagen
manejo de humedad en las calcettas.
de la derecha es la misma huella
El algodon absorbe el sudor que
plantal pero en un gráfico diferente de
haran que sus calcettas se
tres dimensiones. De esta forma se
humedezcan y se mantegan
puede observar no solo por colores,
humedas. Pero, con las calcettas
sino también por la altura de las
humedas habra riesgo de ampollas.
áreas y la magnitud de las fuerzas de
Un material sintetico de alta
apoyo.
tecnologia hara que el sudor se
desprenda de su piel. En condiciones normales, estando el
Aqui estan de nuevo Nike y Adidas, calcáneo en el mismo plano que los
quienes se han desalojado en sus metatarsos, el peso del cuerpo se
respectivos caminos en la tecnologia distribuye algo más del 50% sobre el
de las calcettas de futbol. Las
464
talón. Pero cuando el pié se que el calzado es de la talla
encuentra en un calzado con tacón adecuada, hay que probarse otros
que eleva el plano del talón, el peso calzados de las mismas
se desplaza proporcionalmente características pero de diferentes
adelante según la altura que exista fabricantes.
entre el talón y el plano del suelo. Las
cabezas de los cinco metatarsianos 6Cada país posee una relación
participan en la distribución del peso diferente entre la talla en centímetros
que le corresponde a la parte anterior y el número de calzado. Incluso en el
del triángulo del pié; 2/6 de la mitad mismo país se observan diferencias
del peso corporal caen sobre la entre distintos fabricantes. Encontrar
cabeza del primer meta y 1/6 sobre la talla correcta solo es cuestión de
cada uno de los restantes. probarse números y andarlos.
CRITERIO PARA LA ELECCIÓN Todo calzado deportivo se subdivide
DEL CALZADO DEPORTIVO en tres zonas principales:
1La zapatilla que da buen resultado a 1. Retropie o Talón(Rearfoot).Tercio
un compañero o amigo, no tiene por del calzado que abarca la parte
qué ser buena para otros. Hay que posterior del mismo y que
probarse varios modelos para elegir corresponde principalmente a la zona
la más adecuada al pie teniendo en del talón (lo que abarca el
cuenta la adaptación de la Contenedor del Talón).
morfología, número y actividad física.
2. Mediopie(Midfoot).Segundo tercio
2Es aconsejable realizar la elección de las zapatillas (aproximadamente a
del tamaño al atardecer, cuando el la altura de la bóveda plantal y la
pie está dilatado tras la actividad de zona correspondiente al empeine del
la jornada, en las mismas condiciones pie).
que si se hubiera realizado una
marcha de más de 3 kilómetros. 3. Antepie(Forefoot).Ultimotercio del
calzado que corresponde a la zona
3Para acertar con el número hay que de los metatarsos y los dedos de los
probarse el calzado con el tipo de pies (la punta del calzado).
calcetín que se usa para la práctica
deportiva. Es conveniente probarse el Hoy en día podemos elegir el calzado
número que se calza habitualmente y en función del deporte que vamos a
uno más para comparar la comodidad realizar. Cada marca tiene varios
y el ajuste entre uno y otro. modelos para un deporte especifico y
también podemos elegir un modelo
4Al probarse la zapatilla hay que con punta afilada paraPie
fijarse en que el talón esté bien Griego(donde el dedo índice es el
calzado, los dedos se muevan con más largo del pie) o un modelo con
libertad y el dedo gordo e índice no punta cuadrada para elPie
se replieguen sobre los demás. Egipcio(donde el dedo gordo es el
más largo del pie y que es el más
5Cuando no se tiene la seguridad de común).
465
Un pie griego puede usar una de la amortiguación pero también
zapatilla para pie egipcio, pero no al buena parte del control del
revés.Pie Pronador(pie con movimiento. Generalmente están
predisposición a exagerar el hechas de materiales elastómeros
movimiento de inclinación hacia cuya característica más deseable
dentro de los tobillos) oPie debe ser una alta resiliencia, que es
Supinador(tobillo que presenta la cualidad que tiene un material de
respecto a la pierna una posición regresar a su forma original luego de
arqueada hacia afuera).Debemos haber sido deformado.Cuanto más
tener en cuenta si nuestro pie es alta sea la resiliencia de un material,
Cavo con arco pronunciado(fascitis: tantas más veces podrá el mismo
irritación del tejido de la planta del pie volver a retomar su forma original y
y tendinitis: inflamación del tendón de por lo tanto mantener su capacidad
Aquiles)oValgo del tipo pie de amortiguación.
plano(mucha flexibilidad hace que
sufra el músculo tibial anterior). Los materiales más conocidos en
esta rama del calzado deportivo son
La suela la EVA (Ethynlene Vynil Acetato) y los
poliuretanos. Algunos usan cámaras
Parte del calzado que entra en de aire encerradas en cápsulas de
contacto directo con el terreno, debe poliuretano, otros confinaron un gel o
presentar buenas características de usaron líquidos que pasan por
resistencia a la abrasión para distintas cámaras dependiendo de la
garantizar una durabilidad adecuada; fase de apoyo que se esté
además un dibujo de calado que le dé produciendo. También se utilizan
buen agarre cuando las condiciones materiales elastómeros especiales de
del terreno son resbaladizas. Una alta resiliencia pero alto costo y
menor superficie de contacto con el desventajas técnicas en otros
suelo implica una mayor abrasión a aspectos, que no se aconsejan para
las áreas expuestas de la suela. ser utilizados como componentes
Aquellas suelas que tengan dibujos generalizado de toda la entresuela.
muy marcados deberían gastarse
más rápido, sin embargo La capellada
actualmente, las suelas pueden
hacerse de materiales muy Cubre al pie de los elementos
resistentes, tales como compuestos externos evitando así que pequeños
similares a los de los neumáticos de pedruscos u otros objetos vayan a
automóviles de carrera o a los parar entre medio del pie y la parte
materiales empleados en chalecos superior del calzado. Además da
antibalas y soportar perfectamente el contención al pie en los posibles
desgaste con buen agarre. desplazamientos laterales y antero-
posteriores que se dan en la carrera.
La entresuela Están hechas de telas más o menos
aireadas compuestas por fibras de
Desde el punto de vista técnico, es la nylon o poliéster. Raramente se ven
parte más importante del calzado elementos de cuero natural, debido a
para correr. Sobre ella recae la tarea su costo y a que éste tiende a
466
contraerse con las mojaduras. El diseños resignan la capacidad de
contrafuerte del talón es un elemento controlar movimientos viciosos y
muy importante ya que contiene parte disponen de pocos o ningún tipo de
de los movimientos laterales del elemento que le dé una mayor rigidez
retropié y sin duda, según sus a la zona del arco medio. Estas
características, participa del control características hacen que el calzado
de pronación o supinación según esté sea más flexible y eso favorece a los
diseñado el calzado. Generalmente corredores de apoyo inicial
están hechos con polímeros, metatarsiano o que tienen arcos
plásticos termo conformados para mediales muy altos y rígidos, aunque
resistir la deformación y son más o también lo pueden usar aquellos
menos rígidos según la orientación corredores que tengan una técnica de
que se quiera dar al calzado. carrera eficiente y sin vicios de
pisada.
Todo el calzado está construido
sobre una estructura de soporte Este tipo de calzado estaría
que podemos decir que es el desaconsejado para los corredores
"esqueleto" del mismo. Este que no tienen al menos una pisada
soporte a veces está hecho de un biomecánicamente neutra (sin
tipo especial de cartón o plástico y pronación ni supinación excesivas).
continuando su dibujo de huella
en la entresuela y la suela, da la Tomemos en cuenta que la
forma general de apoyo que amortiguación es quizá el argumento
tendrá el calzado. Cuando se de ventas número uno con el que se
busca construir un calzado fuerte pretende convencer al consumidor de
con alta capacidad de control de calzado deportivo.Y una amplia
movimiento, éste soporte se hace mayoría de los corredores NO se
con el cartón antedicho o en halla dentro de la categoría que se
plástico y su silueta será más beneficiaría de usar este tipo de
recta a la altura del arco medial. Si calzado. No siempre el calzado que
se desea hacer un calzado más mejor amortigua es el mejor para el
flexible, generalmente ésta corredor y hay otros temas a tener en
estructura se hace con materiales cuenta. Los calzados de esta
más suaves, como telas con categoría pesan entre 270 y 320
espuma de poliuretano o poliéster gramos.Para un talle de referencia de
y la silueta de la suela es de una 9½ puntos en versión masculina y en
forma mucho más cavada a la el sistema americano.
altura del arco medial.
Calzados estables: En esta categoría
Calzados con gran capacidad de los diseños intentan conciliar las
amortiguación características de amortiguación con
las de control de movimientos
Estos calzados ofrecen un máximo de espurios del pié. Generalmente
amortiguación y se sienten más vienen provistos de algún tipo de
blandos y suaves al pisar que inserto plástico o bien de una goma
cualquiera de los de las otras de mayor densidad en la mitad
categorías. Para lograr esto sus interna (medial) de la entresuela;
467
típicamente esta zona de mayor del arco medial, pareciéndose a la
densidad se fabrica en otro color para huella que dejarían los individuos
que sea claramente distinguible. La hacia los cuales estaría orientada
huella que deja el calzado de ésta esta categoría, corredores con pié
categoría es intermedia, ni plano que necesitan una buena base
completamente recta a la altura de la de apoyo para sus pies y que limite
zona del arco medial ni tampoco los movimientos de sobrepronación o
completamente cavada. Se aconseja sobresupinación que sufren. Este tipo
este tipo de calzado a aquellos de calzado está aconsejado además
corredores que tienen arcos mediales para los corredores más pesados ya
normales, que no sufren serios que en general son construidos con
problemas de pronación ni supinación énfasis en la durabilidad y la
y buscan un calzado de resistencia a las grandes presiones.
entrenamiento que ofrezca buena También se puede aconsejar la
amortiguación y un mínimo de control elección de calzados de esta
de movimientos. Los calzados de categoría a aquellos corredores que
esta categoría pesan entre 300 y 370 usen plantillas o insertos ortopédicos
gramos. correctivos, ya que la mayor
profundidad interior con la que son
Calzados con gran control de diseñados, permite acomodar estos
movimientos elementos. Los calzados de esta
categoría pesan entre 320 y 400
Con énfasis en la rigidez, los gramos.
calzados de esta categoría, se
diseñan pensando en ofrecer un Calzados de entrenamiento livianos
máximo de control de los
movimientos viciosos en el apoyo del En esta categoría de calzados se
pie en carrera, fundamentalmente la podría clasificar a aquellos que
sobrepronación. Artilugios tales como siendo más livianos y flexibles que los
insertos plásticos, de dimensiones calzados de entrenamiento
más generosas que en la anterior descriptos, conservan cualidades de
categoría, entresuelas de mayor amortiguación y control de
espesor y de poliuretano por su movimientos mínimas y satisfactorias.
mayor durabilidad y tolerancia a las Típicamente se puede recomendar
presiones que la goma EVA y este tipo de calzados a los corredores
contrafuertes de talón más rígidos, biomecánicamente eficientes y de
son algunos de los elementos de los pisada neutra, que buscan zapatillas
que se valen los fabricantes para más dúctiles y ligeras para
lograr productos eficaces de esta entrenamientos veloces, o como
clase. calzado alternativo para
competencias mayores a los 15
La base de apoyo generalmente kilómetros. Los calzados en esta
termina en una suela de goma al categoría pueden pesar entre 250 y
carbón de alta resistencia a la 290 gramos. Frecuentemente
abrasión, más dura y pesada, que presentan una silueta de base algo
deja una huella que típicamente se cavada y fabricados con materiales
distingue porque es recta a la altura
468
más livianos pero también menos calzados de esta clase suelen pesar
resistentes. entre 170 y 210 gramos.
470
Los materiales y las técnicas Tango Mundial, modelo líder probado
utilizados para el Telstar y el Chile en túnel aerodinámico; el Tango
fueron idénticos a los empleados Alicante, el modelo especial para
cuatro años antes. iluminación artificial; el Tango
Málaga, óptimo para superficies
El adidas Tango, Argentina duras, y el Tango indoor para fútbol
1978 sala.
472
puntos de contacto entre tres sus sales rehidratantes llegan
piezas en un 60% (de 60 a 24). al torrente sanguíneo de una
• La primera "patada" que se le manera muy veloz.
dé será en el encuentro
Alemania-Costa Rica del 9 de •
junio.
•
• BEBIDAS REHIDRATANTES
• Las bebidas rehidratantes
están siendo muy publicitadas
en los últimos años. Cada vez
más gente hace deporte y
ejercicios más intensos que
antes y eso se debe a que las
personas estamos tomando
conciencia de que la salud es
lo primordial. Empezamos a
dejar de comer grasas
saturadas y nos informamos
más sobre temas que nos
conducen al bienestar de todo
nuestro cuerpo.
•
• Después de hacer deporte, el • Las bebidas rehidratantes más
cuerpo pierde mucho líquido y comunes en el mercado son
sales minerales que deben Gatorade y Powerade, las
recuperarse para no sufrir cuales son utilizadas por los
colapsos de cansancios por deportistas en general.
deshidratación y desmayos. Muchas personas también las
Para esto es bueno tomar utilizan para hidratarse luego
bebidas rehidratantes después de una fuerte diarrea, como si
de hacer mucho deporte o en fuera suero, ya que contienen
medio de una actividad física cantidades elevadas de sales
muy fuerte. minerales que son muy buenas
• para el organismo.
• Las bebidas rehidratantes
recomendadas son aquellas •
que son de tipo isotónicas, ya Antes que nada es necesario
que estas tienen sales definir qué se entiende por
minerales que ayudan al bebida rehidratante: por lo
cuerpo a recuperar ese líquido general, las que se elaboran
perdido al sudar. Otro factor comercialmente no son más
importante sobre las bebidas que un compuesto líquido que
isotónicas es que son de una contiene además de agua
muy rápida absorción, ya que ciertas cantidades –que varían
473
según el tipo- de carbohidratos •
(azúcares y polímeros de •
glucosa), que son los •
encargados de aportar • Los dos primeros tipos de
energía, y/o de electrolitos bebidas mencionadas –
(sales minerales, entre las que hipotónica e isotónica- son
destaca el sodio, potasio, ideales para la rehidratación
magnesio y cloro) que son los del cuerpo luego del ejercicio,
que favorecen el mientras que, por el contrario,
restablecimiento del equilibrio la última clasificación, las
de los fluidos corporales. hipertónicas, no son
específicamente rehidratantes
• Hay algunas que, además, sino que son más bien
contienen saborizantes y energizantes (debido a su alto
vitaminas. contenido de carbohidratos),
por lo que su uso se destina,
• La diferenciación entre las
principalmente, para
hipotónicas, las isotónicas y
restablecer las reservas
las hipertónicas radica,
energéticas del cuerpo.
principalmente, en la
• Es por esto último que, si se
concentración de estas
opta por ingerir bebidas
bebidas en comparación con
hipertónicas, no se debe dejar,
laconcentración de los propios
bajo ningún punto de vista, de
fluidos corporales.
beber agua, para asegurarse
•
así una correcta rehidratación
• A ver, retomemos: uno de los
–o en su defecto, consumir
lugares en donde se absorben
también alguna de las otras
los líquidos –con sus
dos variedades-.
nutrientes- es en el intestino, el
•
cual contiene de manera
• Por último, cabe aclarar que la
natural sus propios fluidos. Si
elección del tipo de bebida
la bebida que se incorpora
dependerá de la calidad y la
posee una concentración
cantidad de actividad física a
menor de solutos(las
realizar, es decir, si se busca
sustancias disueltas antes
sólo una correcta rehidratación
mencionadas) que la del
o si, además, en caso de que
propio intestino, se las
el ejercicio sea más intenso y
denomina hipotónicas, si esa
requiera de mayor desgaste,
concentración es igual, es
se apunte a una reposición
decir, está en equilibriocon
energética posterior.
dichos fluidos, hablamos de
•
una bebida isotónica, y si, en
•
cambio, contienemayor
•
cantidad de electrolitos en
• Gatorade es una bebida no
comparación con los naturales,
gasificada, usada para
nos estamos refiriendo a una
rehidratar y recuperar
bebida hipertónica.
carbohidratos (bajo la forma de
474
azúcares sacarosa y glucosa)
y electrolitos (sales
delsodioypotasio) agotados
durante el ejercicio. Es
comercializada por Quaker
Oats Company, una división de
PepsiCo.
•
• En un principio fue elaborada
sólo para atletas. Sin embargo,
debido a su mal sabor (en un
principio) y a otros problemas
con algunos ingredientes, la
bebida fue reformulada. La
nueva fórmula proporcionaba
mejores valores nutricionales e
incluso un mejor sabor.
•
• Debido a su buen sabor y a su
gran aporte nutricional, la
bebida comenzó a consumirse
como bebida común. Y,
gracias a ese impulso
comercial, la marca Gatorade,
lanzó al mercado diferentes
productos para atletas, que
buscan tener la misma función
original, rehidratar al atleta.
Aunque Gatorade es la bebida
más conocida a nivel mundial,
tiene muchos competidores,
como Powerade, All Sport,
entre otras bebidas deportivas
o isotónicas.
•
• La marca hoy tiene institutos
de ciencias, donde se realizan
pruebas que permiten
comprobar el desempeño del
gatorade en los atletas y
permitir el desarrollo de
nuevos productos para la
hidratación del atleta.
475
476
A grandes rasgos esto es algo de
todo lo que se usa en la industria del
deporte y algunos de lo avances
tecnologicos que se van incluyendo y
el equipo de alto rendimiento para
deportistas profesionales.
Exiten muchas empresas que año
con año renuevan su tecnologia para
desempeñarse de manera mejor en el
campo de las ventas y ofrecer al
publico y la gente que usa su marca
un mejor producto con mas alta
calidad.
Debido a todas las mejoras en los
equipos deportivos, cada vez se
hacen mas cortas las diferencias el
nivel de juego en cualquier campo
entre los jugadores, esto hace que se
tengan mejores partidos y juegos de
mas alto nivel.
Todos estos procesos de mejoras se
hacen con los ingenieros mas
capacitados en el area, de manera de
conseguir el mas alto nivel de calidad
y excelencia en el producto, a base
de pruebas e innovaciones, los
jugadores cada vez utilizan equipo
mas tecnologico y nuevo con el pasar
del tiempo.
Fue excelente el hecho de
conocer algo mas de los procesos
evolutivos deportivos en el campo de
la ciencia y como es posible mezclar
ambas, la actividad deportiva y los
avances tecnologicos.
Sistemas Solares
477
Canterbury of New Zealand está antes los periodos de entrenamiento
preparada para revolucionar el o competición.
mercado de ropa técnica deportiva
con el lanzamiento de IonX(TM) - una Joe Middleton. Consejero Delegado
gama de prendas de alto rendimiento de Canterbury of New Zealand
diseñadas para aumentar la comenta: "En Canterbury nos
competitividad de los deportistas. sentimos orgullosos de las prendas
futuristas y tecnológicamente
Esta ropa deportiva especializada avanzadas que desarrollamos. La
utiliza el tejido de ultima generación gama IonX(TM) no sólo marca un
Ionised Energy Fabrics (TM)- que momento clave para Canterbury, sino
ioniza al cuerpo mediante un campo también para el mercado de ropa
electromagnético de carga negativa. técnica deportiva en general."
Este proceso facilita el suministro de
oxígeno a los músculos desde la Es la primera vez que un fabricante
sangre, lo cual a su vez aumenta el de ropa deportiva usa semejante nivel
rendimiento media en un 2,7%, y de tecnología para el desarrollo de
acelera la recuperación muscular. sus productos, y las prendas
IonX(TM) representan, además, la
La ionización es un proceso natural primera vez que un producto textil ha
que se produce a causa de una carga afectado de forma tan directa y
positiva o negativa de los átomos, por tangible los niveles de rendimiento y
ejemplo durante las tormentas recuperación".
eléctricas o cerca de las cascadas de
agua. En contacto con la piel, los Prof Mike Caine, B.Sc., Ph.D.,
tejidos Ionised Energy Fabrics Director del Instituto de Tecnología
ofrecen dos ventajas fundamentales: Deportiva de la Universidad de
mayor rendimiento durante la Loughborough, Reino Unido, dijo:
actividad y un periodo de "Los resultados preliminares de un
recuperación más corto. estudio realizado por un equipo de
Tecnología Deportiva en la
El aumento del rendimiento se Universidad de Loughborough indican
produce gracias a mayor flujo de que los deportistas que llevan
sangre oxigenada por el cuerpo, lo prendas tratadas con IonX
cual genera más energía en los demuestran mayor nivel de
músculos. Esto ayuda a incrementar rendimiento y de fuerza durante
la potencia media del deportista y a la periodos cortos y repetidos de
vez mejorar la velocidad y la fuerza. máximo esfuerzo. Con el tiempo y
más estudios se debe poder
La mayor tasa de transferencia de comprender cómo maximizar las
oxígeno desde la sangre a los posibilidades de IonX(TM), aunque ya
músculos también beneficia al está claro que estas prendas pueden
sistema de energía anaeróbica del llegar a aportar unos beneficios
cuerpo, al eliminar residuos como el valiosas para el rendimiento de los
ácido láctico de forma más eficaz. La atletas durante el entrenamiento y la
rápida recuperación permite reanudar competición."
478
La tecnología dri-fit
La vestimenta y el calzado son
también una parte importante en la
vida del deportista ya que con las
Hemos visto a través del tiempo que nuevas tecnologías puedes tener una
la tecnología está presente hoy en camiseta seca aunque hayas hecho 3
todas las áreas, en la salud, en la horas de ejercicio. La tecnología
informática, en los deportes y en la llamada Dri-FIT permite el transporte
vida diaria sin duda. de la humedad del cuerpo (sudor) de
la parte interna hacia la parte externa
En la cuestión deportiva encontramos del tejido donde se evapora
la tecnología en la ropa, en el rápidamente. Clima-FIT protege
calzado, en los aparatos que se contra el viento, ofrece resistencia al
utilizan y en un sin número de cosas agua y extrema facilidad de respiro y
más. Por ejemplo en las carreras Therma- FIT mantiene la temperatura
organizadas, tanto de México como del cuerpo, proporcionando
en el resto del mundo, registraron una aislamiento térmico y es muy
notable mejora gracias a la aplicación resistente al viento.
de la tecnología computarizada.
En el calzado, la tecnología nos
En efecto, los eventos deportivos de permite escoger el mas adecuado
este tipo ya no son los mismos que según nuestras necesidades, las
hace siete años cuando se características del pié y la manera en
implementó el llamado sistema de que pisamos, si eres supinador( que
"chips" para la medición de los pisas hacia fuera) o pronador (si
tiempos y resultados en una pisas hacia adentro) hay tenis que
competencia. Estos aparatitos están indicados para tu diferente tipo
permiten obtener el tiempo y lugar de pisada, con aire a fin de reducir el
inmediatamente y pueden ser impacto de los pies contra el suelo,
consultados por Internet el mismo día etc.
del evento, genera datos como
tiempo personal, lugar, paso por Y por último mencionaremos lo útiles
kilómetro, etc., fotografías del que han resultado ser los monitores
corredor al llegar a la meta, de frecuencia cardiaca ya que como
generación de diploma para cada su nombre lo dice, ayudan a conocer
participante y disposición de este la frecuencia cardiaca a diferentes
también vía Internet, envío de esa intensidades y esto ayuda a los
información a teléfono celular y otros deportistas a entrenar exactamente
servicios. como deben, para desarrollar cada
una de las seis capacidades físicas:
Realmente el uso del chip es sin duda Acondicionamiento aeróbico,
uno de los inventos más importantes acondicionamiento anaeróbico,
en el deporte y hoy ya está capacidad aeróbica, capacidad
consolidado como un elemento de anaeróbica, fuerza y flexibilidad.
gran utilidad en toda competencia,
especialmente en las carreras de
ruta.
479
Nuevas telas de Micro Fibra como
Hay mucho, mucho más de que "Dri-Fit" fabricada por Nike o como la
aprender y también existen medios "Clima Cool" fabricada por Adidas
por los que podemos empaparnos de fueron disenadas para atrapar la
estos temas. La revista Club de humedad para transportarla hace la
Corredores te ofrece en sus cima de la tela para despues
secciones además de todos estos evaporizar el sudor. Este tipo de
temas, técnicas de entrenamiento, innovaciones hacen que cuerpo
salud, asuntos médicos propios de respire mejor para evitar mal olores
los corredores, calendarios de que pueden quedar en la ropa. Mas
carreras, cultura en torno al atletismo, importante es que estas telas de alta
nutrición y cocina especializada para tecnologia no encojen, son suaves, y
quienes corren, novedades en flexibles para que uno se sienta aun
tecnología, ropa y accesorios, MAS AGUSTO
anécdotas, resultados de las carreras
más importantes, etcétera. Así que ya Mezclas de algodon: Estas telas son
sabes donde buscar si quieres un poco mejor que la de algodon. El
calidad, información interesante y lo porcentaje de nylon, acrylic y rayon
más nuevo en tecnología. en un uniforme de futbol lo mantendra
seco pero las tela de algodon tiene la
tendencia de retener agua.
Camisas y Shorts de Futbol
Nylon: Un tela exceptionalmente
Es simple. La seleccion correcta de fuerte de elastico que retiene un bajo
camisa y shorts de futbol abilita a que porcental de humedad y es facilmente
tu equipo funcione mejor. Nike y tratable .
Adidas se han despejado de su
compentencia gracias a su fabricado Polyester: Una tela muy durable,
de la tela para manejar la humedad ligera y mas respirable para el
llamada "Moisture Management" cuerpo. Retiene un bajo porcental de
(Manejo de Humedad). " Moisture humedad y es facilmente tratable.
Management" hace que la humedad
del cuerpo se desprenda para regular CoolMax: Hecho y patentado por
la temperatura del cuerpo. Las DuPont, CoolMax es una teal
camisas,shorts,y calcettas fabricadas disenada para remover la humedad y
por estas telas siempre mantienen al evaporizar el sudor. Cool Max es
jugador fresco y seco para desplegar ligera y se seca pronto.
su funcion SIEMPRE AGUSTO.
Tecnologia ClimaLite, ClimaCool and
En los viejos tiempos todos usaban la Dri-Fit
tela de algodon. Lamentablemente
cuando el algodon se humedese se Tecnologias ClimaLite, ClimaCool y
mantiene humedo. En los tiempos de Dri-Fit hace regular el microclima de
mucha calor se siente el calor en tu cuerpo. La primera linea de tela es
piel y en los tiempos de invierno el CoolMax que fue disenada para
sudor se mantiene cercas del cuerpo mantener el sudor lo mas lejos de tu
y con un viento ligero te da escalofrio.
480
cuerpo posible para que te mantegas
seco y agusto. Sudor de pie. En un dia de torneo o al
correr un maraton, tus pies pueden
Nike popularizo el manejo de la llenar hasta dos vazos o mas de puro
humedad con la teconologia de " Dri- sudor. La misma regla aplica sobre el
FIT". Esta fue unas de las primeras manejo de humedad en las calcettas.
manejo de humedada patentado en el El algodon absorbe el sudor que
sistema de negocios. Ahora que se haran que sus calcettas se
ha mantenido por anos, mas atletas humedezcan y se mantegan
se benefician al no sudar. Con lo humedas. Pero, con las calcettas
maximo en el manejo de la humedad humedas habra riesgo de ampollas.
"DRI_FIT" pueda ayudarte funcionar Un material sintetico de alta
mejor. Por eso Nike esta orgulloso de tecnologia hara que el sudor se
introducir los nuevos Uniformes de desprenda de su piel.
Futbol como El Nike Centenario, Nike
Brasilia Pro Vent, y el Nike Game Rio Aqui estan de nuevo Nike y Adidas,
para la alineacion de DRI-FIT para quienes se han desalojado en sus
este ano. respectivos caminos en la tecnologia
de las calcettas de futbol. Las
La historia de Adidas es que siempre calcettasAdidas’s Elite, Montreal,y
llena los requisitos del atleta Copa Edge son reconocidas por el
moderno. Enfocandose en las talon reinforsado, tela de respiro, y
funciones, Adidas corre la milla extra soporte alrededor del tobillo. Las
para vestir a sus atletas con ropa que calcettas Nike Total 90 y Classic
pueda ser la diferencia a la hora de ofrecen costuras suaves alrededor de
competencia. ClimaCool fue los dedos y una tela fina para el
introducida por Adidas para darle mas estiramiento hace los laterales. Estos
ventilacion y manejo de humedad a dos estilos a la vez ofrecen mas
las camisas y shorts de futbol. Es una alcochadamiento para darle la
tela de alta respiracion que ventila y satisfasion a tus zapatos y mejor
desaparece la humedad rapidamente proteccion a tus pies del impacto al
del cuerpo. ClimaCool mantiene al correr repetidamente.
atleta fresco,seco y agusto. Mas
importante ventaliza en las zonas de
mas alto calor. CALZADO DEPORTIVO
Son muchos los deportes que se
Que tal las calcettas?
practican en todo el mundo y cada
La calcetta ideal hace la mayor parte
actividad precisa de un tipo de
del diseno en tus zapatos. Por
tecnología diferente de calzado según
ejemplo, una calcetta gruesa que no
el pie, el terreno y el deporte. El
se siete bien, puede que le de la
calzado correcto hará la diferencia
contra a sus zapatos de alto
entre competir, ganar, perder y
tecnologia que le ofrecen estabilidad
prevenir lesiones.
y mejor manejo. Calcettas buenas
tambien hacen que sus pies se La imagen de la izquierda es de tipo
mantegan secos, calientitos, y libre térmica de una huella plantal con
de ampollas.
481
discriminación de presiones por color. del tamaño al atardecer, cuando el
Los colores más "cálidos" (amarillo, pie está dilatado tras la actividad de
rojo) representan fuerzas más altas y la jornada, en las mismas condiciones
los más "fríos" (azul, violeta) fuerzas que si se hubiera realizado una
más débiles. Imagen capturada y marcha de más de 3 kilómetros.
procesada por una económica
plataforma que trae software marca 3Para acertar con el número hay que
TPS® Foot Scan. Los puntos rojos probarse el calzado con el tipo de
son los centros de presión. La imagen calcetín que se usa para la práctica
de la derecha es la misma huella deportiva. Es conveniente probarse el
plantal pero en un gráfico diferente de número que se calza habitualmente y
tres dimensiones. De esta forma se uno más para comparar la comodidad
puede observar no solo por colores, y el ajuste entre uno y otro.
sino también por la altura de las
áreas y la magnitud de las fuerzas de 4Al probarse la zapatilla hay que
apoyo. fijarse en que el talón esté bien
calzado, los dedos se muevan con
En condiciones normales, estando el libertad y el dedo gordo e índice no
calcáneo en el mismo plano que los se replieguen sobre los demás.
metatarsos, el peso del cuerpo se
distribuye algo más del 50% sobre el 5Cuando no se tiene la seguridad de
talón. Pero cuando el pié se que el calzado es de la talla
encuentra en un calzado con tacón adecuada, hay que probarse otros
que eleva el plano del talón, el peso calzados de las mismas
se desplaza proporcionalmente características pero de diferentes
adelante según la altura que exista fabricantes.
entre el talón y el plano del suelo. Las
cabezas de los cinco metatarsianos 6Cada país posee una relación
participan en la distribución del peso diferente entre la talla en centímetros
que le corresponde a la parte anterior y el número de calzado. Incluso en el
del triángulo del pié; 2/6 de la mitad mismo país se observan diferencias
del peso corporal caen sobre la entre distintos fabricantes. Encontrar
cabeza del primer meta y 1/6 sobre la talla correcta solo es cuestión de
cada uno de los restantes. probarse números y andarlos.
CRITERIO PARA LA ELECCIÓN DEL
CALZADO DEPORTIVO
1La zapatilla que da buen resultado a
un compañero o amigo, no tiene por
qué ser buena para otros. Hay que
probarse varios modelos para elegir Todo calzado deportivo se subdivide
la más adecuada al pie teniendo en en tres zonas principales:
cuenta la adaptación de la
morfología, número y actividad física. 1. Retropie o Talón(Rearfoot).Tercio
del calzado que abarca la parte
2Es aconsejable realizar la elección posterior del mismo y que
482
corresponde principalmente a la zona Parte del calzado que entra en
del talón (lo que abarca el contacto directo con el terreno, debe
Contenedor del Talón). presentar buenas características de
resistencia a la abrasión para
2. Mediopie(Midfoot).Segundo tercio garantizar una durabilidad adecuada;
de las zapatillas (aproximadamente a además un dibujo de calado que le dé
la altura de la bóveda plantal y la buen agarre cuando las condiciones
zona correspondiente al empeine del del terreno son resbaladizas. Una
pie). menor superficie de contacto con el
suelo implica una mayor abrasión a
3. Antepie(Forefoot).Ultimo tercio del las áreas expuestas de la suela.
calzado que corresponde a la zona Aquellas suelas que tengan dibujos
de los metatarsos y los dedos de los muy marcados deberían gastarse
pies (la punta del calzado). más rápido, sin embargo
actualmente, las suelas pueden
Hoy en día podemos elegir el calzado hacerse de materiales muy
en función del deporte que vamos a resistentes, tales como compuestos
realizar. Cada marca tiene varios similares a los de los neumáticos de
modelos para un deporte especifico y automóviles de carrera o a los
también podemos elegir un modelo materiales empleados en chalecos
con punta afilada paraPie antibalas y soportar perfectamente el
Griego(donde el dedo índice es el desgaste con buen agarre.
más largo del pie) o un modelo con
punta cuadrada para elPie La entresuela
Egipcio(donde el dedo gordo es el
más largo del pie y que es el más Desde el punto de vista técnico, es la
común). parte más importante del calzado
para correr. Sobre ella recae la tarea
Un pie griego puede usar una de la amortiguación pero también
zapatilla para pie egipcio, pero no al buena parte del control del
revés.Pie Pronador(pie con movimiento. Generalmente están
predisposición a exagerar el hechas de materiales elastómeros
movimiento de inclinación hacia cuya característica más deseable
dentro de los tobillos) oPie debe ser una alta resiliencia, que es
Supinador(tobillo que presenta la cualidad que tiene un material de
respecto a la pierna una posición regresar a su forma original luego de
arqueada hacia afuera).Debemos haber sido deformado.Cuanto más
tener en cuenta si nuestro pie es alta sea la resiliencia de un material,
Cavo con arco pronunciado(fascitis: tantas más veces podrá el mismo
irritación del tejido de la planta del pie volver a retomar su forma original y
y tendinitis: inflamación del tendón de por lo tanto mantener su capacidad
Aquiles)oValgo del tipo pie de amortiguación.
plano(mucha flexibilidad hace que
sufra el músculo tibial anterior). Los materiales más conocidos en
esta rama del calzado deportivo son
La suela la EVA (Ethynlene Vynil Acetato) y los
poliuretanos. Algunos usan cámaras
483
de aire encerradas en cápsulas de plástico y continuando su dibujo de
poliuretano, otros confinaron un gel o huella en la entresuela y la suela, da
usaron líquidos que pasan por la forma general de apoyo que tendrá
distintas cámaras dependiendo de la el calzado. Cuando se busca
fase de apoyo que se esté construir un calzado fuerte con alta
produciendo. También se utilizan capacidad de control de movimiento,
materiales elastómeros especiales de éste soporte se hace con el cartón
alta resiliencia pero alto costo y antedicho o en plástico y su silueta
desventajas técnicas en otros será más recta a la altura del arco
aspectos, que no se aconsejan para medial. Si se desea hacer un calzado
ser utilizados como componentes más flexible, generalmente ésta
generalizado de toda la entresuela. estructura se hace con materiales
más suaves, como telas con espuma
La capellada de poliuretano o poliéster y la silueta
de la suela es de una forma mucho
Cubre al pie de los elementos más cavada a la altura del arco
externos evitando así que pequeños medial.
pedruscos u otros objetos vayan a
parar entre medio del pie y la parte Calzados con gran capacidad de
superior del calzado. Además da amortiguación
contención al pie en los posibles
desplazamientos laterales y antero- Estos calzados ofrecen un máximo de
posteriores que se dan en la carrera. amortiguación y se sienten más
Están hechas de telas más o menos blandos y suaves al pisar que
aireadas compuestas por fibras de cualquiera de los de las otras
nylon o poliéster. Raramente se ven categorías. Para lograr esto sus
elementos de cuero natural, debido a diseños resignan la capacidad de
su costo y a que éste tiende a controlar movimientos viciosos y
contraerse con las mojaduras. El disponen de pocos o ningún tipo de
contrafuerte del talón es un elemento elemento que le dé una mayor rigidez
muy importante ya que contiene parte a la zona del arco medio. Estas
de los movimientos laterales del características hacen que el calzado
retropié y sin duda, según sus sea más flexible y eso favorece a los
características, participa del control corredores de apoyo inicial
de pronación o supinación según esté metatarsiano o que tienen arcos
diseñado el calzado. Generalmente mediales muy altos y rígidos, aunque
están hechos con polímeros, también lo pueden usar aquellos
plásticos termo conformados para corredores que tengan una técnica de
resistir la deformación y son más o carrera eficiente y sin vicios de
menos rígidos según la orientación pisada.
que se quiera dar al calzado.
Este tipo de calzado estaría
Todo el calzado está construido sobre desaconsejado para los corredores
una estructura de soporte que que no tienen al menos una pisada
podemos decir que es el "esqueleto" biomecánicamente neutra (sin
del mismo. Este soporte a veces está pronación ni supinación excesivas).
hecho de un tipo especial de cartón o
484
Tomemos en cuenta que la Con énfasis en la rigidez, los
amortiguación es quizá el argumento calzados de esta categoría, se
de ventas número uno con el que se diseñan pensando en ofrecer un
pretende convencer al consumidor de máximo de control de los
calzado deportivo.Y una amplia movimientos viciosos en el apoyo del
mayoría de los corredores NO se pie en carrera, fundamentalmente la
halla dentro de la categoría que se sobrepronación. Artilugios tales como
beneficiaría de usar este tipo de insertos plásticos, de dimensiones
calzado. No siempre el calzado que más generosas que en la anterior
mejor amortigua es el mejor para el categoría, entresuelas de mayor
corredor y hay otros temas a tener en espesor y de poliuretano por su
cuenta. Los calzados de esta mayor durabilidad y tolerancia a las
categoría pesan entre 270 y 320 presiones que la goma EVA y
gramos.Para un talle de referencia de contrafuertes de talón más rígidos,
9½ puntos en versión masculina y en son algunos de los elementos de los
el sistema americano. que se valen los fabricantes para
lograr productos eficaces de esta
Calzados estables: En esta categoría clase.
los diseños intentan conciliar las
características de amortiguación con La base de apoyo generalmente
las de control de movimientos termina en una suela de goma al
espurios del pié. Generalmente carbón de alta resistencia a la
vienen provistos de algún tipo de abrasión, más dura y pesada, que
inserto plástico o bien de una goma deja una huella que típicamente se
de mayor densidad en la mitad distingue porque es recta a la altura
interna (medial) de la entresuela; del arco medial, pareciéndose a la
típicamente esta zona de mayor huella que dejarían los individuos
densidad se fabrica en otro color para hacia los cuales estaría orientada
que sea claramente distinguible. La esta categoría, corredores con pié
huella que deja el calzado de ésta plano que necesitan una buena base
categoría es intermedia, ni de apoyo para sus pies y que limite
completamente recta a la altura de la los movimientos de sobrepronación o
zona del arco medial ni tampoco sobresupinación que sufren. Este tipo
completamente cavada. Se aconseja de calzado está aconsejado además
este tipo de calzado a aquellos para los corredores más pesados ya
corredores que tienen arcos mediales que en general son construidos con
normales, que no sufren serios énfasis en la durabilidad y la
problemas de pronación ni supinación resistencia a las grandes presiones.
y buscan un calzado de También se puede aconsejar la
entrenamiento que ofrezca buena elección de calzados de esta
amortiguación y un mínimo de control categoría a aquellos corredores que
de movimientos. Los calzados de usen plantillas o insertos ortopédicos
esta categoría pesan entre 300 y 370 correctivos, ya que la mayor
gramos. profundidad interior con la que son
diseñados, permite acomodar estos
Calzados con gran control de elementos. Los calzados de esta
movimientos
485
categoría pesan entre 320 y 400 materiales más livianos pero también
gramos. los menos duraderos para su diseño.
No existen los elementos de control
de movimientos y la amortiguación es
mínima.
BEBIDAS REHIDRATANTES
Las bebidas rehidratantes están
siendo muy publicitadas en los
últimos años. Cada vez más gente
hace deporte y ejercicios más
intensos que antes y eso se debe a
que las personas estamos tomando
conciencia de que la salud es lo
primordial. Empezamos a dejar de
comer grasas saturadas y nos
informamos más sobre temas que
nos conducen al bienestar de todo
nuestro cuerpo.
490
las utilizan para hidratarse luego de contienemayor cantidad de
una fuerte diarrea, como si fuera electrolitos en comparación con los
suero, ya que contienen cantidades naturales, nos estamos refiriendo a
elevadas de sales minerales que son una bebida hipertónica.
muy buenas para el organismo.
Antes que nada es necesario definir Los dos primeros tipos de bebidas
qué se entiende por bebida mencionadas –hipotónica e isotónica-
rehidratante: por lo general, las que son ideales para la rehidratación del
se elaboran comercialmente no son cuerpo luego del ejercicio, mientras
más que un compuesto líquido que que, por el contrario, la última
contiene además de agua ciertas clasificación, las hipertónicas, no son
cantidades –que varían según el tipo- específicamente rehidratantes sino
de carbohidratos (azúcares y que son más bien energizantes
polímeros de glucosa), que son los (debido a su alto contenido de
encargados de aportar energía, y/o carbohidratos), por lo que su uso se
de electrolitos (sales minerales, entre destina, principalmente, para
las que destaca el sodio, potasio, restablecer las reservas energéticas
magnesio y cloro) que son los que del cuerpo.
favorecen el restablecimiento del Es por esto último que, si se opta por
equilibrio de los fluidos corporales. ingerir bebidas hipertónicas, no se
debe dejar, bajo ningún punto de
Hay algunas que, además, contienen
vista, de beber agua, para asegurarse
saborizantes y vitaminas.
así una correcta rehidratación –o en
La diferenciación entre las su defecto, consumir también alguna
hipotónicas, las isotónicas y las de las otras dos variedades-.
hipertónicas radica, principalmente,
en la concentración de estas bebidas Por último, cabe aclarar que la
en comparación con laconcentración elección del tipo de bebida dependerá
de los propios fluidos corporales. de la calidad y la cantidad de
actividad física a realizar, es decir, si
A ver, retomemos: uno de los lugares se busca sólo una correcta
en donde se absorben los líquidos – rehidratación o si, además, en caso
con sus nutrientes- es en el intestino, de que el ejercicio sea más intenso y
el cual contiene de manera natural requiera de mayor desgaste, se
sus propios fluidos. Si la bebida que apunte a una reposición energética
se incorpora posee una posterior.
concentración menor de solutos(las
sustancias disueltas antes
mencionadas) que la del propio
intestino, se las denomina Gatorade es una bebida no
hipotónicas, si esa concentración es gasificada, usada para rehidratar y
igual, es decir, está en equilibriocon recuperar carbohidratos (bajo la
dichos fluidos, hablamos de una forma de azúcares sacarosa y
bebida isotónica, y si, en cambio, glucosa) y electrolitos (sales
491
delsodioypotasio) agotados durante el
ejercicio. Es comercializada por
Quaker Oats Company, una división
de PepsiCo.
492
Panel Fotovoltaico o Panel Solar.
El Panel Fotovoltaico, es la
A grandes rasgos esto es algo conversión directa de luz en
de todo lo que se usa en la industria electricidad a nivel atómico. Algunos
del deporte y algunos de lo avances materiales presentan una propiedad
tecnologicos que se van incluyendo y conocida como efecto fotoeléctrico
el equipo de alto rendimiento para que hace que absorban fotones de
deportistas profesionales. luz y emitan electrones. Cuando
estos electrones libres son
capturados, el resultado es una
Exiten muchas empresas que corriente eléctrica que puede ser
año con año renuevan su tecnologia utilizada como electricidad.
para desempeñarse de manera mejor
en el campo de las ventas y ofrecer al Los módulos fotovoltaicos o
publico y la gente que usa su marca colectores solares fotovoltaicos
un mejor producto con mas alta (llamados a veces paneles solares,
calidad. aunque esta denominación abarca
otros dispositivos) están formados por
un conjunto de celdas (células
Debido a todas las mejoras en fotovoltaicas) que producen
los equipos deportivos, cada vez se electricidad a partir de la luz que
hacen mas cortas las diferencias el incide sobre ellos. El parámetro
nivel de juego en cualquier campo estandarizado para clasificar su
entre los jugadores, esto hace que se potencia se denomina potencia pico,
tengan mejores partidos y juegos de y se corresponde con la potencia
mas alto nivel. máxima que el módulo puede
entregar bajo unas condiciones
estandarizadas, que son:
Todos estos procesos de
mejoras se hacen con los ingenieros
• Radiación de 1000 W/m².
mas capacitados en el area, de
• Temperatura de célula de
manera de conseguir el mas alto nivel
25 °C (no temperatura
de calidad y excelencia en el
ambiente).
producto, a base de pruebas e
innovaciones, los jugadores cada vez
utilizan equipo mas tecnologico y Las placas fotovoltaicas se dividen
nuevo con el pasar del tiempo. en:
• Cristalinas
Fue excelente el hecho de o Monocristalinas: se
conocer algo mas de los procesos componen de secciones
evolutivos deportivos en el campo de de un único cristal de
la ciencia y como es posible mezclar silicio (reconocibles por
ambas, la actividad deportiva y los su forma circular u
avances tecnologicos. octogonal, donde los 4
lados cortos, si se
493
observa, se aprecia que de incrementar la capacidad de las
son curvos, debido a células fotosensibles.
que es una célula
circular recortada). La era moderna de la tecnología de
o Policristalinas: cuando potencia solar no llegó hasta el año
están formadas por 1954 cuando los Laboratorios Bell,
pequeñas partículas descubrieron, de manera accidental,
cristalizadas. que los semiconductores de silicio
• Amorfas: cuando el silicio no dopado con ciertas impurezas, eran
se ha cristalizado. muy sensibles a la luz.
497
se encuentran Xsunx, Konarka una determinada cantidad de
Technologies, Inc., Nanosolar, Dyesol corriente continua, también
y Nanosys. denominada DC (acrónimo del inglés
Direct Current y que corresponde a
Principio de funcionamiento un tipo de corriente eléctrica que se
describe como un movimiento de
1. Algunos de los fotones, que cargas en una dirección y un sólo
provienen de la radiación solar, sentido, a través de un circuito. Los
impactan sobre la primera electrones se mueven de los
superficie del panel, potenciales más bajos a los más
penetrando en este y siendo altos).
absorbidos por materiales
semiconductores, tales como Opcionalmente:
el silicio o el arseniuro de galio.
2. Los electrones, subpartículas 1. La corriente continua se lleva a
atómicas que forman parte del un circuito electrónico
exterior de los átomos, y que conversor (inverter) que
se alojan en orbitales de transforma la corriente
energía cuantizada, son continua en corriente alterna,
golpeados por los fotones (AC) (tipo de corriente
(interaccionan) liberándose de disponible en el suministro
los átomos a los que estaban eléctrico de cualquier hogar)
originalmente confinados. de 120 o 240 voltios.
2. La potencia de AC entra en el
Esto les permite, posteriormente, panel eléctrico de la casa.
circular a través del material y 3. La electricidad generada se
producir electricidad. Las cargas distribuye, casi siempre, a la
positivas complementarias que se línea de distribución de los
crean en los átomos que pierden los dispositivos de iluminación de
electrones, (parecidas a burbujas de la casa, ya que estos no
carga positiva) se denominan huecos consumen excesiva energía, y
y fluyen en el sentido opuesto al de son los adecuados para que
los electrones, en el panel solar. funcionen correctamente con
la corriente generada por el
Se ha de comentar que, así como el panel.
flujo de electrones corresponde a 4. La electricidad que no se usa
cargas reales, es decir, cargas que se puede enrutar y usar en
están asociadas a desplazamiento otras instalaciones.
real de masa, los huecos, en realidad,
son cargas que se pueden considerar Fotogeneración de portadores de
virtuales puesto que no implican carga
desplazamiento de masa real.
Cuando un fotón llega a una pieza de
Un conjunto de paneles solares silicio, pueden ocurrir tres
transforman la energía solar (energía acontecimientos:
en forma de radiación y que depende
de la frecuencia de los fotones) en
498
El fotón puede pasar a través del determinada. La energía que el fotón
material de silicio sin producir ningún le proporciona es capaz de excitarlo y
efecto, esto ocurre, generalmente promocionarlo a la banda de
para fotones de baja energía. conducción, que está vacía y donde
puede moverse con relativa libertad,
Los fotones pueden ser reflejados al usando esa banda, para desplazarse,
llegar a la superficie del panel, y son a través del interior del
expulsados de este. semiconductor.
El fotón es absorbido por el silicio, en El enlace covalente del cual formaba
cuyo caso puede ocurrir: parte el electrón, tiene ahora un
electrón menos. Esto se conoce
Generar calor
como hueco. La presencia de un
Producir pares de electrones-huecos, enlace covalente perdido permite a
si la energía del fotón incidente es los electrones vecinos moverse hacia
más alta que la mínima necesaria el interior de ese hueco, que
para que los electrones liberados producirá un nuevo hueco al
lleguen a la banda conducción. desplazarse el electrón de al lado, y
de esta manera, y por un efecto de
Nótese que si un fotón tiene un traslaciones sucesivas, un hueco
número entero de veces el salto de puede desplazarse a través de la red
energía para que el electrón llegue a cristalina. Así pues, se puede afirmar
la banda de conducción, podría crear que los fotones absorbidos por el
más de un único par electrón-hueco. semiconductor crean pares móviles
No obstante, este efecto no es de electrones-huecos.
significativo, de manera usual, en las
células solares. Este fenómeno, de Un fotón solo necesita tener una
múltiplos enteros, es explicable energía más alta que la necesaria
mediante la mecánica cuántica y la para llegar a los huecos vacíos de la
cuantización de la energía. banda de conducción del silicio, y así
poder excitar un electrón de la banda
Cuando se absorbe un fotón, la de valencia original a dicha banda.
energía de este se comunica a un
electrón de la red cristalina. El espectro de frecuencia solar es
Usualmente, este electrón está en la muy parecido al espectro del cuerpo
banda de valencia, y está negro cuando este se calienta a la
fuertemente vinculado en enlaces temperatura de 6000K y, por tanto,
covalentes que se forman entre los gran cantidad de la radiación que
átomos colindantes. El conjunto total llega a la Tierra está compuesta por
de los enlaces covalentes que forman fotones con energías más altas que la
la red cristalina da lugar a lo que se necesaria para llegar a los huecos de
llama la banda de valencia. Los la banda de conducción. Ese
electrones pertenecientes a esa excedente de energía que muestran
banda son incapaces de moverse los fotones, y mucho mayor de la
más allá de los confines de la banda, necesaria para la promoción de
a no ser que se les proporcione electrones a la banda de conducción,
energía, y además energía será absorbida por la célula solar y se
499
manifestará en un apreciable calor está compuesta de, al menos, dos
(dispersado mediante vibraciones de delgadas láminas de silicio. Una
la red, denominadas fonones) en dopada con elementos con menos
lugar de energía eléctrica utilizable. electrones de valencia que el silicio,
denominada P y otra con elementos
Separación de los portadores de con más electrones que los átomos
carga de silicio, denominada N. Ambas
están separadas por un
Hay dos modos fundamentales para semiconductor.
la separación de portadores de carga
en un célula solar: Aquellos fotones procedentes de la
fuente luminosa, que presentan
1. movimiento de los portadores, energía adecuada, inciden sobre la
impulsados por un campo superficie de la capa P, y al
electrostático establecido a interactuar con el material liberan
través del dispositivo. electrones de los átomos de silicio los
2. difusión de los portadores de cuales, en movimiento, atraviesan la
carga de zonas de alta capa de semiconductor, pero no
concentración de portadores a pueden volver. La capa N adquiere
zonas de baja concentración una diferencia de potencial respecto a
de portadores (siguiendo un la P. Si se conectan unos
gradiente de potencial conductores eléctricos a ambas
eléctrico). capas y estos, a su vez, se unen a un
dispositivo o elemento eléctrico
En las células de unión p-n, consumidor de energía que,
ampliamente usadas en la actualidad, usualmente y de forma genérica se
el modo que predomina en la denomina carga, se iniciará una
separación de portadores es por la corriente eléctrica continua.
presencia de un campo electrostático.
No obstante, en células solares en las
que no hay uniones p-n (típicas de la Este tipo de paneles producen
tercera generación de células solares electricidad en corriente continua y
experimentales, como células de aunque su efectividad depende tanto
película delgada de polímeros o de de su orientación hacia el sol como
tinta sensibilizada), el campo eléctrico de su inclinación con respecto a la
electrostático parece estar ausente. horizontal, se suelen montar
En este caso, el modo dominante de instalaciones de paneles con
separación es mediante la vía de la orientación e inclinación fija, por
difusión de los portadores de carga. ahorros en mantenimiento. Tanto la
inclinación como la orientación, al sur,
Generación de corriente en un placa se fija dependiendo de la latitud y
convencional tratando de optimizarla al máximo
usando las recomendaciones de la
Los módulos fotovoltaicos funcionan, norma ISO correspondiente.
como se ha dejado entrever en el
anterior apartado, por el efecto La unión p-n
fotoeléctrico. Cada célula fotovoltaica
500
La célula solar más usual está unión se llama región de agotamiento
fabricada en silicio y configurada porque no contiene nada más que
como un gran área de unión p-n. Una algunos portadores de carga móviles.
simplificación de este tipo de placas Es también conocida como la región
puede considerarse como una capa de espacio de cargas.
de silicio de tipo n directamente en
contacto con una capa de silicio de Factores de eficiencia de una célula
tipo p. En la práctica, las uniones p-n solar
de las células solares, no están
hechas de la manera anterior, más Punto de máxima potencia
bien, se elaboran por difusión de un
tipo de dopante en una de las caras Una placa o célula solar puede operar
de una oblea de tipo p, o viceversa. en un amplio rango de voltajes e
intensidades de corriente. Esto puede
Si la pieza de silicio de tipo p es lograrse variando la resistencia de la
ubicada en íntimo contacto con una carga, en el circuito eléctrico, por una
pieza de silicio de tipo n, tiene lugar la parte, y por la otra variando la
difusión de electrones de la región irradiación de la célula desde el valor
con altas concentraciones de cero (valor de cortocircuito) a valores
electrones (la cara de tipo n de la muy altos (circuito abierto) y se puede
unión) hacia la región de bajas determinar el punto de potencia
concentraciones de electrones (cara máxima teórica, es decir, el punto que
tipo p de la unión). maximiza V y tiempo frente a I, o lo
que es lo mismo, la carga para la cual
Cuando los electrones se difunden a la célula puede entregar la máxima
través de la unión p-n, se recombinan potencia eléctrica para un
con los huecos de la cara de tipo p. determinado nivel de radiación.
Sin embargo, la difusión de los
portadores no continua El punto de potencia máxima de un
indefinidamente. Esta separación de dispositivo fotovoltaico varía con la
cargas, que la propia difusión crea, iluminación incidente. Para sistemas
genera un campo eléctrico provocado bastante grandes se puede justificar
por el desequilibrio de las cargas un incremento en el precio con la
parando, inmediatamente, el flujo inclusión de dispositivos que midan la
posterior de más cargas a través de potencia instantánea por medida
la unión. continua del voltaje y la intensidad de
corriente (y de ahí la potencia
El campo eléctrico establecido a transferida), y usar esta información
través de la creación de la unión p-n para ajustar, de manera dinámica, y
crea un diodo que permite el flujo de en tiempo real, la carga para que se
corriente en un solo sentido a través transfiera, siempre, la máxima
de dicha unión. Los electrones potencia posible, a pesar de las
pueden pasar del lado de tipo n hacia variaciones de luz, que se produzcan
el interior del lado p, y los huecos durante el día.
pueden pasar del lado de tipo p hacia
el lado de tipo n. Esta región donde Eficiencia en la conversión de energía
los electrones se han difundido en la
501
La eficiencia de una célula solar (η, como la relación entre el máximo
"eta"), es el porcentaje de potencia punto de potencia dividido entre el
convertida en energía eléctrica de la voltaje en circuito abierto (Voc) y la
luz solar total absorbida por un panel, corriente en cortocircuito Isc:
cuando una célula solar está
conectada a un circuito eléctrico. Este
término se calcula usando la relación
del punto de potencia máxima, Pm,
dividido entre la luz que llega a la Potencia y costes
celda irradiancia (E, en W/m²), bajo
condiciones estándar (STC) y el área En un día soleado, el Sol irradia
superficial de la célula solar (Ac en alrededor de 1 kW/m2 a la superficie
m²). de la Tierra. Considerando que los
paneles fotovoltaicos actuales tienen
una eficiencia típica entre el 12%-
25%, esto supondría una producción
aproximada de entre 120-250 W/m²
en función de la eficiencia del panel
La STC especifica una temperatura fotovoltaico y las horas de irradiación
de 25 °C y una irradiancia de 1000 solar.
W/m² con una masa de aire espectral
de 1,5 (AM 1,5). Esto corresponde a Por otra parte, están produciéndose
la irradiación y espectro de la luz grandes avances en la tecnología
solar incidente en un día claro sobre fotovoltaica y ya existen paneles
una superficie solar inclinada con experimentales con rendimientos
respecto al sol con un ángulo de superiores al 40%.
41,81º sobre la horizontal.
A latitudes medias y septentrionales,
Esta condición representa, teniendo en cuenta el ciclo diurno y
aproximadamente, la posición del sol las condiciones atmosféricas, llegan a
de mediodía en los equinoccios de la superficie terrestre 100 W/m² de
primavera y otoño en los estados media en invierno y 250 W/m² en
continentales de los EEUU con una verano. Con una eficiencia de
superficie orientada directamente al conversión de, aproximadamente,
sol. De esta manera, bajo estas 12%, se puede esperar obtener 12 y
condiciones una célula solar típica de 30 vatios por metro cuadrado de
100 cm2, y de una eficiencia del 12%, celda fotovoltaica en invierno y
aproximadamente, se espera que verano, respectivamente.
pueda llegar a producir una potencia
de 1,2 vatios. Con los costes actuales de energía
eléctrica, 0.08 $/kWh (USD), un metro
Factor de llenado cuadrado generará hasta 0.06 $/día,
y un km² generará hasta 30 MW, o
Otro término para definir la eficacia 50,000 $/(km².día). Para comparar, el
de una célula solar es el factor de Sahara despoblado se extiende por 9
llenado o fill factor (FF), que se define millones de km², con menos nubes y
502
un mejor ángulo solar, pudiendo Actualmente, la producción mundial
generar hasta 50 MW/km², o 450 TW de células fotovoltaicas se concentra
(teravatio) en total. El consumo de en Japón (48%), Europa (27%) y
energía actual de la población EEUU (11%). El consumo de silicio
terrestre está cercano a 12-13 TW en en 2004 destinado a aplicaciones
cualquier momento dado (incluyendo fotovoltaicas ascendió a 13.000
derivados del petróleo, carbón, toneladas.
energía nuclear e hidroeléctrica).
En España las principales empresas
El verdadero problema con los instaladoras de paneles fotovoltaicos
paneles fotovoltaicos es el coste de la son T-Solar, Fotowatio, Renovalia y
inversión, como se puede ver en el Solaria.
artículo sobre la ganancia neta de
energía, requiriendo hasta más de 10 Usos de las celdas fotovoltaicas
años (de una vida útil de 40 años o solares
más) para recuperar el coste inicial y
generar ganancias. El precio actual Deben su aparición a la industria
de los módulos fotovoltaicos, oscila aeroespacial, y se han convertido en
entre los 3.5 y los 5.0 $/W (USD), de el medio más fiable de suministrar
capacidad de producción, en función energía eléctrica a un satélite o a una
de la cantidad que se compre y la sonda en las órbitas interiores del
procedencia. Los más baratos vienen Sistema Solar. Esto es gracias a la
de China y se debe ser muy prudente mayor irradiación solar sin el
con la calidad y garantías de los impedimento de la atmósfera y a su
mismos. El precio de 8 $/W, aunque bajo peso.
algo barato, es el precio completo de
una instalación fija: módulos, En tierra, son la fuente solar más
estructuras de soporte, onduladores, popular en instalaciones pequeñas o
protecciones, sistemas de medición, en edificios, frente al método de
costes del proyecto, instalación y campos de espejos heliostatos
permisos administrativos. Un precio empleados en las grandes centrales
normal está entre 8.6 y 9.0 $/W. Si la solares.
instalación es con seguidores de sol
de dos ejes, el coste puede rondar los Junto con una pila auxiliar, se usa
10.60 $/W, aunque la producción habitualmente en ciertas aplicaciones
eléctrica obtenida es del orden de un de poco consumo como boyas o
30% superior que en una fija. aparatos en territorios remotos, o
simplemente cuando la conexión a
Fabricación de paneles una central de energía sea
convencionales impracticable. Su utilización a gran
escala se ve restringida por su alto
Generalmente se elaboran de silicio, coste, tanto de compra como de
el elemento que es el principal instalación. Hasta ahora, los paneles
componente de la sílice, el material fotovoltaicos ocupan una pequeña
de la arena. porción de la producción mundial de
energía.
503
Experimentalmente han sido usados mercado libre de generación
para dar energía a automóviles, por eléctrica.
ejemplo en el World solar challenge a
través de Australia. Muchos yates y Lista de aplicaciones
vehículos terrestres los usan para
cargar sus baterías lejos de la red
eléctrica. Programas de incentivo a
gran escala, ofreciendo recompensas
financieras como la posibilidad de
vender el exceso de electricidad a la
red pública, han acelerado en gran
medida el avance de las instalaciones
de celdas fotovoltaicas solares en
España, Alemania, Japón, Estados
Unidos y otros países.
La experiencia en producción e
instalación, los avances tecnológicos
que aumentan la eficiencia de las
celdas solares, las economías de
escala en un mercado que crece un
40% anualmente, unido a las subidas • Centrales conectadas a red
en los precios de los combustibles con subvención a la
fósiles, hacen que las se empiece a producción (de un 575%
contemplar la fotovoltaica para actualmente en España).
producción eléctrica de base, en • Estaciones repetidoras de
centrales conectadas a red. microondas y de radio.
• Electrificación de pueblos en
Actualmente muchos gobiernos del áreas remotas (Electrificación
mundo (Alemania, Japón, EEUU, rural).
España, Grecia, Italia, Francia, ...) • Instalaciones médicas en
están subvencionando las áreas rurales.
instalaciones con un objetivo • Corriente eléctrica para casas
estratégico de diversificación y de campo.
aumento de las posibilidades • Sistemas de comunicaciones
tecnológicas preparadas para crear de emergencia.
electricidad de forma masiva. La gran • Sistemas de vigilancia de
mayoría de las instalaciones datos ambientales y de calidad
conectadas a red están motivadas del agua.
por primas muy elevadas a la • Faros, boyas y balizas de
producción, pagándose al productor 5 navegación marítima.
o 6 veces el coste de la energía • Bombeo para sistemas de
eléctrica generada por vías riego, agua potable en áreas
tradicionales, o mediante incentivos rurales y abrevaderos para el
fiscales, lo que ha generado críticas ganado.
desde grupos favorables a un
504
• Balizamiento para protección Desde los años 70 se han realizado
aeronáutica. investigaciones sobre la tecnología
• Sistemas de protección de concentración fotovoltaica de
catódica. manera que ha mejorado su
• Sistemas de desalinización. eficiencia hasta conseguir superar a
• Vehículos de recreo. la fotovoltaica tradicional. No fue
• Señalización ferroviaria. hasta los años 2006-2007 que las
• Sistemas para cargar los tecnologías de concentración pasaron
acumuladores de barcos. de estar reducidas al ámbito de la
• Fuente de energía para naves investigación y empezar a conseguir
espaciales. los primeros desarrollos comerciales.
• Postes SOS (Teléfonos de En 2008 el ISFOC (Instituto de
emergencia de carretera). Sistemas Solares Fotovoltaicos de
• Parquímetros. Concentración) puso en marcha en
• Recarga de Scooters España una de las mayores de este
Eléctricos tipo a nivel mundial, conectando a la
red 3MW de potencia. En este
Panel de alta concentración proyecto participaron varias
empresas que utilizaban diversas
Fruto de un convenio de colaboración tecnologías de concentración
firmado por la Universidad Politécnica fotovoltaica (CPV).
de Madrid (UPM), a través de su
Instituto de Energía Solar, la empresa Algunas de estas tecnologías utilizan
Guascor Fotón[4] y el Instituto para la lentes para aumentar la potencia del
Diversificación y Ahorro de la sol que llega a la célula. Otras
Energía, organismo del Ministerio de concentran con un sistema de
Industria, Turismo y Comercio espejos la energía del sol en células
español, se ha realizado la primera de alta eficiencia para obtener un
instalación solar de alta rendimiento máximo de energía.
concentración de silicio en Algunas empresas como SolFocus ya
explotación comercial de Europa. han empezado a comercializar la
tecnología CPV a gran escala y están
Se trata de una instalación solar desarrollando proyectos en Europa y
fotovoltaica que, frente a una EE.UU. que superan los 10MW en
convencional, utiliza una 2009.
extraordinaria reducción de silicio y
convierte la luz solar en energía La tecnología de concentración
eléctrica con muy alta eficiencia. Esta fotovoltaica se dibuja como una de
tecnología surge como forma de las opciones más eficientes en
aprovechar al máximo el potencial del producción energética a menor coste
recurso solar y evitar por otra parte la para zonas de alta radiación solar
dependencia del silicio, cada vez más como son los países mediterráneos,
escaso y con un precio cada vez las zonas del sur de EE.UU, México,
mayor debido al aumento de la Australia…
demanda por parte de la industria
solar. ¿Cómo Funcionan las Celdas
Fotovoltaicas?
505
grama ilustra la operación de una celda fotovoltáica, llamada también celda
Las celdas solares están hechas de la misma clase de materiales
onductores, tales como el silicio, que se usan en la industria
electrónica. Para las celdas solares, una delgada
Varios rejilla
módulos semiconductora
pueden es unos con otros para formar un arreg
ser conectados
ialmente tratada para formar un campo eléctrico, positivo en un lado
general, cúanto más grande es el área y de un módulo o arreglo, más electr
vo en el otro. Cuando la energía luminosa llega hasta
será producida. Losla módulos
celda solar, los
y arreglos fotovoltaicos producen corriente d
ones son golpeados y sacados de los átomos del material semiconductor. Si
(CC). Estos arreglos pueden ser conectados tanto en serie como en paralelo
mos conductores eléctricos tanto del lado positivo como del negativo de la
producir cualquier cantidad de voltaje o corriente que se requiera.
formando un circuito eléctrico, los electrones pueden ser capturados en
de una corriente eléctrica -- es decir, en electricidad. La electricidad puede
ces ser usada para suministrar potencia a una carga, por ejemplo para
der una luz o energizar una herramienta.
506
en día, los dispositivos fotovoltaicos (FV) más
nes usan una sola juntura o interfase para crear un
o eléctrico dentro de un semiconductor, como por
lo una celda FV. En una celda FV de una sola
a, solamente aquellos fotones cuya energía sea igual
yor a la del espacio interbanda del material de la
pueden liberar un electrón para ser usado en un
o eléctrico. En otras palabras, la reacción fotovoltaica
celdas de una sola juntura está limitada a la porción
spectro solar cuya energía esté por encima del
io interbanda del material absorbente, y por tanto
os fotones con energías más bajas no son utilizados. Celda fotovoltaica policristalina solar
de 4 pulgadas.
manera de sortear esta limitación es usando dos (o
celdas diferentes, con más de un espacio de banda y La vida útil media a máximo
e una juntura, para generar un voltaje. Este tipo de rendimiento se sitúa en torno a los 25
s son conocidas como celdas "multijuntura" (también años, período a partir del cual la
das celdas "de cascada" o "tandem"). Los dispositivos multijuntura potenciapueden
entregada disminuye.
una mayor eficiencia de conversión total porque pueden convertir una
ón más grande del espectro luminoso en electricidad. Al grupo de células fotoeléctricas
para energía solar se le conoce como
se muestra abajo, un dispositivo multijuntura es un conjunto panelde fotovoltaico.
celdas Los paneles
uales de una sola juntura, colocadas en orden descendente de fotovoltaicos
acuerdo a consisten
su en una red de
io de banda (Eg). La celda más alta captura los fotones decélulas solares
alta energía y conectadas como
asar el resto de los fotones hacia abajo para ser absorbidoscircuito
por las en serie para aumentar la
celdas
spacios de bandas más bajos. tensión de salida hasta el valor
deseado (usualmente se utilizan 12V
Muchas de las investigaciones que seó realizan24V) a en la lavez que se conectan
actualidad sobre celdas multijuntura están varias redes al
enfocadas como circuito paralelo
uso del arseniuro de galio en uno (o en todos) de los la corriente eléctrica
para aumentar
componentes de las celdas. Talesqueceldas es capazhan de proporcionar el
dispositivo.
alcanzado eficiencias de alrededor del 35% bajo luz
solar concentrada. Otros materiales estudiados para su
uso en dispositivos multijuntura son por El tipo de corriente eléctrica que
ejemplo,
proporcionan
silicio amorfo y el diseleniuro de indio con cobre es corriente continua,
por lo que si necesitamos corriente
alterna o que
Como ejemplo de esto, el dispositivo multijuntura aumentar su tensión,
tendremos
se muestra abajo, utiliza una celda superior que añadir un inversor y/o
de fosfato
de indio con galio, una juntura "de túnel"un convertidor
para facilitar elde potencia
flujo de electrones entre las celdas, y una celda inferior
eniuro de galio. Principio de funcionamiento
En un semiconductor expuesto a la
luz, un fotón de energía arranca un
pio de Funcionamiento electrón, creando al pasar un
507
«hueco». Normalmente, el electrón una capa de silicio puro, los
encuentra rápidamente un hueco electrones están ligados a la
para volver a llenarlo, y la energía red cristalina que, en
proporcionada por el fotón, pues, se consecuencia, está cargada
disipa. El principio de una célula positivamente. La conducción
fotovoltaica es obligar a los eléctrica está asegurada por
electrones y a los huecos a avanzar los huecos, positivos (P).
hacia el lado opuesto del material en
lugar de simplemente recombinarse En el momento de la creación de la
en él: así, se producirá una diferencia unión PN, los electrones libres de la
de potencial y por lo tanto tensión capa N entran en la capa P y se
entre las dos partes del material, recombinan con los huecos en la
como ocurre en una pila. región P. Existirá así durante toda la
vida de la unión, una carga positiva
Para ello, se crea un campo eléctrico en la región N a lo largo de la unión
permanente, a través de una unión (porque faltan electrones) y una carga
PN, entre dos capas dopadas negativa en la región en P a lo largo
respectivamente, P y N: de la unión (porque los huecos han
desaparecido); el conjunto forma la
«Zona de Carga de Espacio» (ZCE) y
existe un campo eléctrico entre las
dos, de N hacia P. Este campo
eléctrico hace de la ZCE un [diodo]],
que solo permite el flujo de corriente
en una dirección: los electrones
pueden moverse de la región P a la
N, pero no en la dirección opuesta y
por el contrario los huecos no pasan
más que de N hacia P.no
• La capa superior de la celda se
compone de silicio dopado de En funcionamiento, cuando un fotón
tipo N. En esta capa, hay un arranca un electrón a la matriz,
número de electrones libres creando un electrón libre y un hueco,
mayor que una capa de silicio bajo el efecto de este campo eléctrico
puro, de ahí el nombre del cada uno va en dirección opuesta: los
dopaje N, como carga negativa electrones se acumulan en la región
(electrones). El material N (para convertirse en polo negativo),
permanece eléctricamente mientras que los huecos se acumulan
neutro: es la red cristalina en la región dopada P (que se
quien tiene globalmente una convierte en el polo positivo). Este
carga positiva. fenómeno es más eficaz en la (ZCE),
donde casi no hay portadores de
• La capa inferior de la celda se carga (electrones o huecos), ya que
compone de silicio dopado de son anulados, o en la cercanía
tipo P. Esta capa tiene por lo inmediata a la (ZCE): cuando un fotón
tanto una cantidad media de crea un par electrón-hueco, se
electrones libres menor que separaron y es improbable que
508
encuentren a su opuesto, pero si la parte de la arena). El silicio de calidad
creación tiene lugar en un sitio más fotovoltaica debe ser purificado hasta
alejado de la unión, el electrón alcanzar más de 99,999%, que se
(convertido en hueco) mantiene una obtiene mediante la conversión del
gran oportunidad para recombinarse silicio en un compuesto químico que
antes de llegar a la zona N (resp. la se destila y luego vuelve a
zona P). Pero la ZCE es transformarse en silicio.
necesariamente muy delgada, así
que no es útil dar un gran espesor a El silicio se produce en barras
la célula.[3] llamadas «lingotes» de sección
redonda o cuadrada. Estos lingotes
En suma, una célula fotovoltaica es el son luego cortados en láminas
equivalente de un Generador de delgadas cuadradas (si es necesario)
Energía a la que hemos añadido un de 200 micrómetros de espesor, que
diodo. se llaman «obleas». Después del
tratamiento para la inyección del
Es preciso añadir contactos eléctricos enriquecido con dopante (P As SB o
(que permitan pasar la luz: en la B) y obtener así los semiconductores
práctica, mediante un contacto de de silicio tipo P o N, las obleas son
rejilla, una capa antireflectante para «metalizadas»: unas cintas de metal
garantizar la correcta absorción de se incrustan en la superficie y se
fotones, etc. conectan a contactos eléctricos. Una
vez que las obleas se metalizan se
Para que la célula funcione, y han convertido en células solares.
produzca la potencia máxima de
corriente se le añade la banda La producción de células fotovoltaicas
prohibida de los semiconductores a requiere energía, y se estima que un
nivel de energía de los fotones. Es módulo fotovoltaico debe trabajar
posible aumentar las uniones a fin de alrededor de 2 a 3 años[4] según su
explotar al máximo el espectro de tecnología para producir la energía
energía de los fotones, lo que que fue necesaria para su producción
produce las células multijuntas. (módulo de retorno de energía).
510
internacional ). El término
policristalino se utiliza para las capas
depositadas sobre un sustrato
(granos pequeños).
Célula Tándem
513
semiconductores), con el INES Hill (Massachusetts) ha
(Savoy) donde la CEA-Liten ha desarrollado paneles solares
concentrado sus actividades capaces de recuperar el
en la energía solar. espectro infrarrojo y convertirlo
• Otros semiconductores en electricidad. Esto permitiría
(selenio;asociación cobre- la producción de electricidad a
indio-selenio (CIS) de película partir de cualquier fuente de
fina) se están estudiando por calor, incluso por la noche.[10]
ejemplo en Francia por el Hasta ahora, sólo una parte de
instituto de investigación y la radiación de la luz visible,
desarrollo en energía predominantemente verde y
fotovoltaica (IRDEP[8] ). El CIS azul, se transformaba en
parece ofrecer un modesto electricidad y la radiación
rendimiento del 12%, pero con infrarroja se utilizaba en los
bajo costo de fabricación. paneles térmicos para calentar
• Los compuestos orgánicos de el agua.
(materias plásticas) también • Asimismo, se pretende fabricar
pueden ser usadas para hacer células transparentes; modelos
células fotovoltaicas de impulsados por el Instituto
polímeros, y podría llegar a alemán Fraunhofer para la
hacerse paneles flexibles y Mecánica de Materiales (IWM;
ligeros, azulejos, tejidos o proyecto "METCO"[11] sugieren
velas solares, es de esperar que las células transparentes
que de fabricación a bajo bicapa podrían algún día ser
coste. En la actualidad los producidas industrialmente. los
rendimientos son bajos (5% semiconductores de tipo P
como máximo), así como su transparentes parecen más
vida, y aún quedan muchos difíciles de producir (el fósforo
problemas técnicos por podría ser un dopante-P del
resolver. A principios de 2008, óxido de zinc, pero el nitrógeno
el grupo japonés Fujikura parece ser más prometedor.
anunciaba[9] haber puesto a [12]
)
prueba (1000 horas a 85° C y • Por último, la escasez de silicio
con una humedad del 85%) o de productos dopantes (el
unas células fotovoltaicas precio de indio se ha
orgánicas de tipo Grätzel no multiplicado por diez desde
sólo más resistente, sino que 2002 hasta 2009 tras su
su rendimiento mejoró del 50 rarefacción) aumenta aún más
al 70% con una superficie los incentivo para la innovación
rugosa que distribuye al azar la de un mercado en fuerte
luz reflejada dentro de la célula crecimiento que parece
donde se liberan de nuevo las enorme, sobre todo si se
cargas eléctricas mediante la puede reducir el costo de la
activación de otros pigmentos electricidad y acercarlo al de
fotosensibles. los combustibles fósiles.
• Un equipo de EE.UU. de
Boston College en Chestnut
514
objetos lejanos con mucho más
detalle que a simple vista. Es
herramienta fundamental de la
astronomía, y cada desarrollo o
perfeccionamiento del telescopio ha
sido seguido de avances en nuestra
comprensión del Universo. Gracias al
telescopio el ser humano pudo
empezar a conocer la verdadera
naturaleza de los objetos
astronómicos que nos rodean y
nuestra ubicación en el Universo.
Generalmente, se atribuye su
invención a Hans Lippershey, un
fabricante de lentes alemán, pero
recientes investigaciones del
informático Nick Pelling divulgadas en
la revista británica History Today,
atribuyen la autoría a un gerundés
llamado Juan Roget en 1590, cuyo
invento habría sido por Zacharias
Janssen, quien el día 17 de octubre
intentó patentarlo. Poco antes, el día
14, Jacob Metius también había
intentado patentarlo. Fueron estos
hechos los que despertaron las
suspicacias de Nick Pelling quien,
basándose en las pesquisas de José
María Simón de Guilleuma, sugiere
que el legítimo inventor fue Juan
Roget.
515
Galileo, al recibir noticias de este
invento, decidió diseñar y construir
uno. En 1609 mostró el primer Características.
telescopio astronómico registrado.
Gracias al telescopio, hizo grandes
descubrimientos en astronomía, entre Un telescopio es básicamente un
los que destaca la observación, el 7 instrumento óptico que recoge cierta
de enero de 1610, de cuatro de las cantidad de luz y la concentra en un
lunas de Júpiter girando en torno a punto. La cantidad de luz colectada
ese planeta. por el instrumento depende
fundamentalmente de la apertura del
mismo (el diámetro del objetivo). Para
Conocido hasta entonces como la visualizar las imágenes se utilizan los
lente espía, el nombre "telescopio" oculares, los cuales se disponen en el
fue propuesto primero por el punto donde la luz es concentrada
matemático griego Giovanni por el objetivo, el plano focal. Son los
Demisiani el 14 de abril de 1611 oculares los que proporcionan los
durante una cena en Roma en honor aumentos al telescopio: al
de Galileo, cena en la que los intercambiar oculares se obtienen
asistentes pudieron observar las diferentes aumentos con el mismo
lunas de Júpiter por medio del instrumento.
telescopio que Galileo había traído
consigo.
La idea principal en un telescopio
astronómico es la captación de la
Existen varios tipos de telescopio: mayor cantidad de luz posible,
refractores, que utilizan lentes; necesaria para poder observar
reflectores, que tienen un espejo objetos de bajo brillo, así como para
cóncavo en lugar de la lente del obtener imágenes nítidas y definidas,
objetivo, y catadióptricos, que poseen necesarias por ejemplo para observar
un espejo cóncavo y una lente detalles finos en planetas y separar
correctora. El telescopio reflector fue estrellas dobles cerradas.
inventado por Isaac Newton en 1688
constituyó un importante avance
sobre los telescopios de su época al Para caracterizar un telescopio y
corregir fácilmente la aberración utilizarlo se emplean una serie de
cromática característica de los parámetros y accesorios en general q
telescopios refractores. son los siguientes:
516
Diámetro del objetivo: diámetro Trípode: conjunto de tres patas
del espejo o lente primaria del generalmente metálicas que le dan
telescopio. soporte y estabilidad al telescopio.
Ocular: accesorio pequeño que Portaocular: orificio donde se
colocado en el foco del telescopio colocan el ocular, reductores o
permite magnificar la imagen de los multiplicadores de focal (p.ej lentes
objetos. de Barlow) o fotográficas.
Lente de Barlow: lente que
generalmente duplica o triplica los
aumentos del ocular cuando se
observan los astros.
Filtro: pequeño accesorio que
generalmente opaca la imagen del
astro pero que dependiendo de su
color y material permite mejorar la
observación. Se ubica delante del
ocular, y los más usados son el
lunar (verde-azulado, mejora el
contraste en la observación de
nuestro satélite), y el solar, con
gran poder de absorción de la luz
del Sol para no lesionar la retina del
ojo.
Razón Focal: es el cociente entre
la distancia focal (mm) y el
diámetro (mm). (f/ratio).
Magnitud límite: es la magnitud
máxima que teóricamente puede
observarse con un telescopio dado,
en condiciones de observación
ideales. La fórmula para su cálculo
es: m(límite) = 6,8 + 5log(D)
(siendo D el diámetro en
centímetros de la lente o el espejo En la figura se muestran las
del telescopio). principales partes de un típico
telescopio reflector newtoniano con
Aumentos: La cantidad de veces
montura ecuatorial alemana, ya se
que un instrumento multiplica el
explico que se le llama newtoniano
diámetro aparente de los objetos
por el hecho de que Isaac Newton fue
observados. Equivale a la relación
el creador.
entre la longitud focal del telescopio
y la longitud focal del ocular
(DF/df). Por ejemplo, un telescopio
de 1000 mm de distancia focal, con Existen dos grandes divisiones entre
un ocular de 10mm de df. los telescopios, según el tipo de
proporcionará un aumento de 100 objetivo que utilizan: los reflectores y
(se expresa también como 100X). los refractores. Los reflectores se
517
constituyen de un espejo principal incorporan los llamados dobletes
(espejo primario u objetivo), el cual no acromáticos, destinados a corregir la
es plano como los espejos aberración cromática, el típico efecto
convencionales, sino que fue provisto de "arco iris" en donde las estrellas
de cierta curvatura (idealmente parecen tener un borde azul y otro
parabólica) que le permite concentrar rojo.
la luz en un punto.
518
proceso de aluminización, una fina correctora cóncava de menisco
película de aluminio es depositada negativo en la pupila de entrada del
sobre la previamente pulida superficie aparato que corrige los problemas de
del objetivo. A este tipo de espejos es aberración periférica presentes en los
posible brindarles diferentes telescopios reflectores. Fue inventado
curvaturas para responder a distintas por el óptico soviético Dimitri
necesidades. La curvatura influye en Dimitrievich Maksutov en 1941 como
la distancia focal, la distancia entre el una variación del diseño de la cámara
objetivo y el plano focal (y estos de Schmidt.
factores hacen a la razón foca)
519
recientemente chinos, están al En la siguiente imagen se observa la
alcance de la mayoría de los bolsillos. configuración de un típico telescopio
reflector Newtoniano de aficionado.
Este diseño es muy utilizado, dada su
simpleza y facilidad de alineado de
La configuración de estos telescopios
presenta un cuerpo sellado por la
lente correctora y una óptica muy
estable, por lo que son muy usados
en aplicaciones militares y de otro
tipo donde se requiera una óptica
telescópica de calidad, resistente y
con mantenimiento poco delicado.
520
En la imagen se muestra el diseño de (horizontal y vertical). Estos
un reflector Schmidt-Cassegrain. Este movimientos son medidos en relación
diseño es muy compacto y muy al observador (que tiene posición 0º
utilizado por aficionados avanzados. Azimut, 0º altura).
521
observador y corresponde con la una vez ubicada la zona de
latitud de la localización del observación), una distancia focal
observador. Los montajes larga proporciona menor ampliación
ecuatoriales se equipan a menudo de (mas campo visual, ideal para
una impulsión del motor para el búsquedas)
seguimiento automático de objetos a
través del cielo de la noche. Pueden
también ser equipados de fijadores
El tipo de diseño caracteriza a los
de círculos para tener en cuenta la
oculares. Los de mayor calidad
localización de objetos por sus
poseen gran cantidad de piezas, son
coordenadas celestiales. Existen
muy sofisticados, otorgando el mayor
varios tipos de montura ecuatorial,
campo visual, luminosidad y pupila de
entre los que se pueden destacar la
salida (el diámetro del "cilindro" de luz
alemana y la de horquilla.
que se desprende el ocular).
523
de solo unos milímetros, lo que hace características técnicas de los
que el ojo se deba ubicar muy cerca oculares.
de la primer cara óptica del ocular.
Ortoscópico
Huygenian
Compuesto de 4 elementos, tres de
Este diseño se ellos dispuestos como una unidad.
compone de 2 Ofrece muy buena corrección
elementos (dos lentes cromática, definición y contraste. Es
plano convexas), con un diseño mejorado del Kellner.
ambas caras planas
del lado del observador. Ofrece
corrección lateral del color (corrección
cromática). Es un ocular económico
por su simplicidad, pero la calidad del Plössl
mismo es reducida.
Uno de los diseños mas
populares
entre los
aficionados
Ramsden por su gran
desempeño.
Este ocular consiste en dos lentes Su construcción
planos convexos dispuestos con las es simétrica,
caras convexas enfrentadas. La compuesta
corrección cromática no es completa. de dos lentes
Es un diseño muy simple y acromáticas con las caras planas en
económicos pero de baja calidad. los extremos. Posee un campo visual
y un relieve del ojo superior a la del
modelo Ortoscópico.
Kellner
Posee tres elementos,
basado en el diseño
Ramsden, donde fue Erfle
remplazada la lente
más cercana al ojo por Posee un gran campo visual.
un par apocromático, Usualmente consiste en 5 o 6
brindando una mejor corrección elementos, ofreciendo un gran relieve
cromática. A partir de este modelo del ojo con una distancia de trabajo
mejoran muchas de las relativamente corta. La distorsión
(para campos similares) es
524
comparable a la del diseño recomendable alinearlo con un
Ortoscópico. edificio ya que no se moverá del
campo visual independientemente de
cuan largo sea el proceso de
alineación.
El buscador
El buscador es básicamente una mira
que permite ubicar rápidamente los Barlow
objetos a observar a través del
telescopio, para después comenzar el Algo muy
proceso de enfoque en el ocular. Se difundido son las
pueden instalar desde miras tipo rifle lentes de Barlow.
en donde no existe ningún aumento, Estos dispositivos
hasta pequeños sistemas tipo multiplican la
binocular con pocos aumentos. Lo ampliación
más recomendable es que existan utilizada, al
muy pocos aumentos, ya que el fin de duplicar o triplicar
este artefacto es la ubicación y no la la distancia focal
amplificación del objeto. del telescopio. Se
ubican entre el
telescopio y el ocular y pueden ser de
utilidad en las observaciones
Se recomienda instalar el buscador
planetarias y lunares, para obtener
cerca del ocular ya que de esta
primeros planos.
manera se tiene una mayor
comodidad en la sesión de
observación al momento de encontrar
un objeto. Las hay de diferentes calidades, las
mejores son las de longitud mas
corta, con mayor cantidad de
componentes. Las lentes de Barlow
El buscador debe ser puesto a punto
suelen ser de 2x a 3x, indicando la
para que cumpla con su objetivo.
cantidad de multiplicación poseída.
Cuando un buscador está bien
Hay modelos con hasta 5x y de
alineado, el objeto que se mira a
multiplicaciones intermedia.
través de el, también se observa en el
centro del ocular. Para alinear
correctamente el buscador, deben
aflojarse los tornillos que lo sujetan al Para entender como funciona una
tubo del telescopio y basta con lente de Barlow imagínese que el
enfocar con el ocular un objeto telescopio es un objetivo fotográfico.
grande (la Luna o bien un edificio) y Como sabemos estos se miden en
después encontrarlo con el buscador, milímetros y corresponden a la
apretando poco a poco el sistema de distancia focal del objetivo. En un
calibración (normalmente son tres telescopio de 900 mm de distancia
tornillos) una vez ubicado, se aprietan focal, sacando una fotografía en foco
los tornillos que fijan el buscador al primario se esta haciendo la toma con
tubo del telescopio. Es muy
525
el equivalente de un objetivo de 900 Existen filtros mas especializados,
mm. como los de polución lumínica que
filtran las longitudes de onda
provenientes mas que nada de la
iluminación publica (mercurio y sodio
Al añadir una lente de Barlow 2x se
principalmente). Otros como los filtros
multiplica esta longitud en un factor
para nebulosas (los de Oxigeno
de 2, con lo cual la fotografía se
ionizado por ejemplo), son bastante
estaría realizando con un objetivo de
costosos, pero pueden llegar a
1800 mm. Lo mismo sucede con la
realzar bastante una imagen.
observación visual. Al tener un
telescopio de 900 mm de focal y
utilizar un ocular de 10 mm, la
ampliación obtenida es de 90x, pero Un tipo particular de filtro es el solar.
al añadirle al sistema un Barlow 2x la Los hay de diferentes clases,
ampliación utilizada se duplica hasta dependiendo de cada observador.
los 180x. Los más comunes y económicos son
los que filtran simplemente para
Hay que recordar que no debe disminuir el brillo de la imagen y
abusarse del poder de ampliación de evitar el traspaso de radiación
un telescopio. Cada equipo posee peligrosa. Hay muchos otros mas
intrínsecamente un máximo sofisticados como los de Hidrogeno
disponible para aumentar la imagen, Alfa, los cuales solo dejan pasar una
que se relaciona con el diámetro del estrecha banda de radiación,
objetivo y la calidad del equipo. pudiendo así observarse fenómenos
como las erupciones solares.
526
Filtros de Colores # 21 Naranja (Orange) - 46 % de
transmisión.
A continuación se detallan las
características de los filtros más Reduce o bloquea las longitudes de
comunes así como las diferentes onda azules y verdes. Utilizado en
utilidades de cada uno de ellos. Júpiter y Saturno para incrementar
los detalles de las zonas polares y los
cinturones. Aclara los límites entre las
diferentes áreas de la superficie de
# 8 Amarillo Claro (Light Yellow) - 83
Marte.
% de transmisión.
Es usado para observar los detalles
rojos y naranjas de la atmósfera de # 23A Rojo claro (Light red) - 25 % de
Júpiter y realzar los detalles transmisión.
observables de los cinturones del
planeta. Incrementa el contraste de En telescopios mayores a 6 pulgadas
las zonas oscuras de Marte. Utilizado cumple una función similar al filtro #
para realzar detalles de la superficie 21. Usado principalmente en Júpiter,
lunar en telescopios de 8 pulgadas de Saturno y Marte. Incrementa el
apertura y menores. contraste entre el cielo del crepúsculo
y Mercurio en observaciones
cercanas al amanecer o atardecer.
# 11 Amarillo verdoso (Yellow-Green)
- 78 % de transmisión.
# 25A Rojo (Red) - 14 % de
Utilizado para aumentar el contraste transmisión.
de las características rojas y azules
en Júpiter y Saturno. Oscurece las Bloque las longitudes de onda azules
zonas oscuras de Marte y clarifica la y verde-azuladas resultando en, por
división de Cassini en Saturno. ejemplo, mayor contraste entre las
formaciones azules de nubes en
Júpiter. Utilizado también para la
observación de las zonas polares de
Marte. Por tener poco transmisión de
# 12 Amarillo (Yellow) - 74 % de luz solo se recomienda para
transmisión. telescopios de mas de 8 pulgadas de
diámetro.
Contrasta fuertemente con las
características azules de Júpiter y
Saturno, resaltando las rojas y
# 38A Azul oscuro (Dark blue) - 17 %
naranjas. Incrementa el contraste en
de transmisión.
las áreas azules-verdosas de Marte.
Utilizado para incrementar el Filtro utilizado para la observación de
contraste en la observación lunar en Júpiter. Absorbe fuertemente el
telescopios de 6 pulgadas y mayores. naranja y el rojo. Incrementa el
contraste entre las estructuras rojizas
527
en Júpiter, incluyendo la Mancha regiones polares en Marte y los
Roja. También utilizado para el fenómenos atmosféricos en Venus.
estudio de la atmósfera marciana y
las estructuras nubosas en Saturno.
Incrementa el contraste en la
# 80A Azul (Blue) - 30 % de
atmósfera de Venus.
transmisión.
Comúnmente usado para la
# 47 Violeta (Violet) - 3 % de observación de Júpiter y Saturno.
transmisión. Aumenta el contraste de los
cinturones de Júpiter y la Mancha
Absorbe fuertemente las longitudes Roja. Brinda detalles de los
de onda verdes, rojas y amarillas. cinturones de Saturno y de
Utilizado para la observación de las fenómenos polares. Muy utilizado
zonas polares de Marte y para para contrastar y detallar zonas de la
observar fenómenos ocasionales en superficie lunar.
las zonas polares de Venus.
Incrementa el contraste entre los
anillos y Saturno. Para utilizar solo en
# 82A Azul claro (Light blue) - 73 %
telescopios de mas de 8 pulgadas
de transmisión.
(203 mm).
Utilizado en la Luna, Marte, Júpiter y
Saturno. Este filtro incrementa el
# 56 Verde claro (Light green) - 56 % contraste entre las áreas de la
de transmisión. imagen sin absorber demasiada luz.
Un valioso filtro para ser utilizado
Excelente para la observación de las junto a otro.
zonas polares de Marte y las
tormentas amarillentas sobre la
superficie. Incrementa el contraste
ND 96 Densidad de 0.9 - 13% de
entre las zonas azules y rojas de la
transmisión.
atmósfera de Júpiter. Utilizable para
incrementar el detalle de las Este filtro transmite uniformemente en
características lunares. todas las longitudes de onda del
espectro por ser un filtro neutro. Es
ideal para reducir la luz en
# 58 Verde (Green) - 24 % de observaciones lunares en telescopios
transmisión. mayores a 4 pulgadas de apertura.
Utilizado también para la observación
Para ser utilizado en telescopios de 8 de estrellas dobles donde una de las
pulgadas y mayores de apertura para componentes excede en gran medida
incrementar el contraste de diferentes el brillo de la otra.
estructuras en Júpiter. Incrementa la
definición de los cinturones de
Saturno y las regiones polares.
El porcentaje de transmisión de luz
Incrementa el contraste de las
esta referido a la cantidad de luz que
528
deja pasar el filtro. Un filtro con una eliminar los efectos de la turbulencia
transmisión del 30% deja pasar ese atmosférica, además tiene el límite
porcentaje del total de luz recibida. de una cancha de futbol como
Un filtro con una transmisión del 30% resolución óptica del instrumento.
deja pasar más luz (es menos Además, la atmósfera absorbe
oscuro) que uno que tenga una fuertemente la radiación del planeta
transmisión del 17%. tierra en ciertas longitudes de onda,
especialmente en el infrarrojo,
disminuyendo la calidad de las
imágenes e imposibilitando la
Este tipo de filtro posee una rosca en
adquisición de espectros en ciertas
ambas caras, una externa y otra
bandas caracterizadas por la
interna. La externa se utiliza para
absorción de la atmósfera terrestre.
enroscarse en la parte posterior del
Los telescopios terrestres se ven
ocular (poseen el mismo diámetro
también afectados por factores
que estos), la rosca interior se usa
meteorológicos (presencia de nubes)
para disponer de mas de un filtro al
y la contaminación lumínica
mismo tiempo, enroscando uno sobre
ocasionada por los grandes
otro (recordar que la transmisión de
asentamientos urbanos, lo que
luz disminuye).
reduce las posibilidades de ubicación
de telescopios terrestres.
Una de las características del HST es
la posibilidad de ser visitado por
Telescopios Famosos. astronautas en las llamadas misiones
de servicio (SM, por sus iniciales en
inglés). Durante las misiones de
El Telescopio espacial Hubble (HST servicio se pueden arreglar
por sus siglas en inglés) es un elementos estropeados, instalar
telescopio que orbita en el exterior de nuevos instrumentos y elevar la órbita
la atmósfera, en órbita circular del telescopio. Hasta la fecha se han
alrededor de la Tierra a 593 km sobre realizado 5 misiones de servicio. La
el nivel del mar, con un período última tuvo lugar en mayo de 2009 y
orbital entre 96 y 97 min. en ella se produjo la mejora más
Denominado de esa forma en honor drástica de la capacidad instrumental
de Edwin Hubble, fue puesto en del HST, al instalarse dos nuevos
órbita el 24 de abril de 1990 en la instrumentos (WFC3 -Cámara de
misión STS-31 y como un proyecto gran angular 3- y COS -Espectrógrafo
conjunto de la NASA y de la ESA de orígenes cósmicos-), repararse
inaugurando el programa de Grandes otros dos (ACS - Cámara
Observatorios. El telescopio puede avanzada para sondeos- y STIS -
obtener imágenes con una resolución Espectrógrafo de imágenes del
óptica de 2.0 megapíxeles mayor de telescopio espacial-) y mejorar otro
0,1 segundos de arco. La ventaja de más (FGS -Sensores de guiado fino-).
disponer de un telescopio más allá de
la atmósfera radica, principalmente,
en que de esta manera se pueden
529
Descripción técnica. electricidad almacenada cuando la
Tierra eclipsa el Sol o cuando la
El telescopio tiene una masa en torno orientación de los paneles solares no
a 11 toneladas, de forma cilíndrica es la apropiada.
con una longitud de 13,2 m y un
diámetro máximo de 4,2 m. El coste
del HST ascendió (en 1990) a 2000
millones de dólares estadounidenses. Según la revista Investigación y
Inicialmente un fallo en el pulido del Ciencia, en la actualidad “la
espejo primario del telescopio resolución del Hubble decuplica la del
fabricado por Perkin Elmer produjo mejor instrumento instalado en tierra,
imágenes ligeramente desenfocadas y gracias a ello puede observar con
debido a aberraciones esféricas. claridad un volumen de espacio mil
Aunque este fallo fue considerado en veces mayor (que otros telescopios)”.
su día como una importante
negligencia por parte del proyecto, la
primera misión de servicio al
telescopio espacial pudo instalar un
sistema de corrección óptica capaz Cifras curiosas sobre el Hubble.
de corregir el defecto del espejo
primario (COSTAR, iniciales en inglés En el momento de ser lanzado
de Óptica correctora como reemplazo era del tamaño de un vagón cisterna
axial del telescopio espacial) o de un edificio de cuatro pisos, de
alcanzándose las especificaciones de 13 metros de longitud y 4 de
resolución inicialmente previstas. diámetro, y un peso superior a las 12
toneladas.
La cámara más sofisticada del
telescopio espacial Hubble ha
El HST es un telescopio de tipo creado una imagen mosaico de un
reflector y su espejo primario tiene un gran pedazo del cielo, que incluye al
diámetro de 2,4 m. Para la menos 10.000 galaxias.
exploración del cielo incorpora en la Con el telescopio Espacial Hubble
actualidad cuatro instrumentos con se han observado aproximadamente
capacidad de obtener imágenes y un millón de objetos. En
espectros, un espectrógrafo y tres comparación, el ojo humano tan sólo
sensores de guiado fino que pueden puede ver unas 6.000 estrellas a
actuar como interferómetros. Para la simple vista.
generación de electricidad se
Las observaciones del HST,
emplean dos paneles solares que
incluyendo unas 500.000 fotografías,
alimentan las cámaras, los cuatro
ocupan 1.420 discos ópticos de 6,66
motores empleados para orientar y
GB (8,34 terabytes).
estabilizar el telescopio, los equipos
de refrigeración de los instrumentos y El Hubble tiene un índice con la
la electrónica del telescopio. Así posición detallada de 15 millones de
mismo, el HST dispone de baterías estrellas (catálogo H.G.S.C. o
recargables a partir de los paneles Hubble Guide Star Catalogue) que le
solares que le permiten utilizar la permite apuntar con gran precisión a
sus objetivos.
530
El Hubble ha dado la vuelta a la interferómetro que se usa para
Tierra cada 97 minutos, viajando observaciones con resolución más
casi 3.000 millones de km, una alta. Los telescopios han sido
distancia superior a la que supondría nombrados según algunos objetos
hacer un viaje de ida a Neptuno. astronómicos en mapudungun (es el
Astrónomos de más de 45 países idioma de los mapuches, un pueblo
han publicado los descubrimientos amerindio que habita en Chile y en
hechos con el Hubble en 4.800 Argentina): Antu (el Sol), Kueyen (la
artículos científicos. Luna), Melipal (la Cruz del Sur) y
El Hubble da una vuelta a la Yepun (Venus).
Tierra cada 97 minutos a una
velocidad de 28.000 kilómetros por
hora. Aun así es capaz de apuntar a El VLT puede operar de tres modos:
un astro con enorme precisión (la
desviación es inferior al grosor de un * Como cuatro telescopios
cabello humano visto a una distancia independientes
de un kilómetro y medio).
* Como un único instrumento
incoherente, que recoge cuatro veces
El Very Large Telescope Project la luz de uno de los telescopios
(VLT, literalmente Telescopio Muy individuales
Grande) es un sistema de cuatro
telescopios ópticos separados, * Como un único instrumento
rodeados por varios instrumentos coherente en modo interferométrico,
menores. Cada uno de los cuatro para una resolución muy alta.
instrumentos principales es un
telescopio reflector con un espejo de
8,2 metros. El proyecto VLT forma En el modo de cuatro telescopios,
parte del European Southern cada uno de los telescopios se
Observatory (ESO), la mayor encuentra entre los más grandes del
organización astronómica de Europa. mundo y opera exitosamente. El gran
l VLT se encuentra en el Observatorio espejo de 8,2 metros es mantenido
Paranal sobre el cerro Paranal, una en posición por un sistema de óptica
montaña de 2.635 metros localizada activa, mientras que un sistema de
en el desierto de Atacama, al norte de óptica adaptativa llamado NAOS,
Chile. Al igual que la mayor parte de elimina la escasa aberración
los observatorios mundiales, el lugar introducida por la atmósfera sobre el
ha sido elegido por su ubicación ya cerro Paranal.
que dista mucho de zonas de
contaminación luminica y posee un
clima desértico, en el que abundan
En el modo interferométrico, los
las noches despejadas.
cuatro telescopios poseen la misma
capacidad de recolección de luz de
un único telescopio de 16 metros de
El VLT consiste en un grupo de diámetro, convirtiéndose en el
cuatro telescopios grandes y de un instrumento óptico más grande del
531
mundo. La resolución, en este modo interferométricas a la mayoría de los
de observación, es similar a la de uno objetos del Sistema Solar.
que posea un diámetro semejante a
la distancia entre los telescopios
(alrededor de 100 metros). El VLT
El Gran Telescopio Canarias
tiene como objetivo una resolución
(conocido también como GTC o
óptica de 0,001 segundos de arco a
GRANTECAN) es un proyecto
una longitud de onda de 1 µm, cerca
español, que culminó con la
del infrarrojo. Es un ángulo de
construcción del mayor telescopio
0.000000005 radianes, equivalente a
óptico del mundo. Liderado por el
resolver un objeto de 2 metros a la
Instituto de Astrofísica de Canarias.
distancia que separa la Tierra de la
El 24 de julio de 2009 fue inaugurado
Luna.
oficialmente por los Reyes de
España. Las obras comenzaron en el
año 2000 en el Observatorio del
Teóricamente el VLT debería resolver Roque de Los Muchachos, La Palma,
fácilmente los módulos lunares (5 Islas Canarias, España. Dichas
metros de ancho) dejados sobre la instalaciones, que se encuentran a
superficie lunar por las misiones 2.396 msnm (metros sobre el nivel
Apollo. Sin embargo, existen algunas del mar) de altitud, junto con el
dificultades. Debido a la gran Observatorio del Teide, constituyen el
cantidad de espejos involucrados en Observatorio Norte Europeo (O.N.E.).
el modo interferométrico, una En este lugar se reúnen condiciones
importante fracción de la luz se pierde óptimas para la observación, debido a
antes de llegar al detector. La técnica la calidad del cielo y a la existencia
de interferometría es muy eficiente de una ley que lo protege.
sólo para observar objetos lo
suficientemente pequeños como para
que toda su luz esté concentrada. No
En 1994 se creó la sociedad anónima
es factible observar un objeto con un
GRANTECAN, S.A. para el fomento
brillo superficial relativamente bajo,
del proyecto y la construcción del
como la Luna, porque su luz es muy
GTC. Esta empresa fue impulsada
tenue. Sólo objetos con temperaturas
por el gobierno autonómico de
superiores a 1000 °C tienen un brillo
Canarias y el gobierno de España. El
superficial lo suficientemente elevado
GTC tiene carácter internacional,
como para ser observados en la
habiéndose firmado acuerdos para la
región del infrarrojo medio, y deben
participación en el proyecto de
estar a varios miles de grados Celsius
México, a través del Instituto de
para poder observarlos en el
Astronomía de la Universidad
infrarrojo cercano con el VLT. Esto
Nacional Autónoma de México y del
incluye a la mayoría de las estrellas
Instituto Nacional de Astrofísica,
en la vecindad del Sol y muchos
Óptica y Electrónica de Puebla,
objetos extragalácticos, como núcleos
México. Además de estas
brillantes de galaxias activas, pero
instituciones también Estados Unidos
deja fuera de las observaciones
es socio de este proyecto a través de
la Universidad de Florida. La
532
participación extranjera está limitada Primera generación:
a un máximo de un 30%.
* OSIRIS: cámara y espectrógrafo
de resolución baja e intermedia,
operando en el rango visible.
Con este telescopio se podrá conocer
más sobre los agujeros negros, las * CanariCam: cámara y
estrellas y galaxias más alejadas del espectrógrafo en el infrarrojo térmico.
Universo y las condiciones iniciales
tras el Big Bang. Se espera que el
telescopio realice importantes
Segunda generación:
avances en todos los campos de la
astrofísica. * EMIR: espectrógrafo multiobjeto
para trabajar en el infrarrojo.
* FRIDA: cámara espectrógrafo
Datos técnicos
para el infrarrojo cercano que
El telescopio observa la luz visible e aprovechará el haz corregido por el
infrarroja procedente del espacio y sistema de óptica adaptativa.
tiene un espejo primario de 10,4
metros, segmentado en 36 piezas
hexagonales vitrocerámicas, de 1,9 m El telescopio Hale es un telescopio
entre vértices, 8 cm de grosor, y 470 de 508 cm de diámetro instalado en
kg de peso cada uno. El sistema el Observatorio Palomar, Estados
óptico se completa con dos espejos Unidos; entró en funcionamiento en el
(secundario y terciario) que forman año 1948. Fue financiado gracias al
imagen en siete estaciones focales. esfuerzo de George Hale. Tiene un
Los espejos están construidos con un único espejo de silicato de boro
material especial fabricado en (Pyrex (tm)), que fue notoriamente
Alemania por la empresa Schott difícil de construir.
llamado Zerodur, un tipo de
vitrocerámica que apenas sufre
alteraciones con los cambios de
temperatura y, por lo tanto, evita que Gracias a su enorme tamaño y
las imágenes sufran deformaciones. potencia, se pudieron medir los
Su pulido se hizo con un límite de espectros y velocidades radiales de
error superficial de 15 nanómetros gran cantidad de galaxias: gracias a
(millonésima de milímetro), es decir, ellos Milton Humason y Edwin Hubble
un tamaño 3.000 veces más fino que pudieron determinar la ley que rige el
un cabello humano. desplazamiento de estos cuerpos
celestes, midiendo de modo
aproximado el valor de la constante
de Hubble.
Para recoger los datos estará
equipado con los siguientes Sus cinco metros de diámetro
instrumentos: significaron un hito en la historia de la
Astronomía, siendo el telescopio de
mayor tamaño hasta que, años
533
después, los soviéticos lograron
construir uno con un espejo de seis
metros de diámetro (telescopio de Se levanta a 32 km, al Noreste de
Zelenchuskaya). Sin embargo, las Los Ángeles, a una altura de 1.740
dificultades para construir espejos msnm. y está dotado de un
macizos de mayor tamaño forzaron a instrumento principal con un espejo
desarrollar otras tecnologías distintas: de 254 cm. de diámetro, llamado
los telescopios de espejos telescopio Hooker, en honor del
segmentados, buena muestra de los magnate californiano John D. Hooker
cuales es el Telescopio de Monte que, en 1906, donó los 45.000
Hopkins. Hace unos años se dólares necesarios para su
denominaba Telescopios de Nueva construcción. Otros instrumentos
Generación (Next Generation importantes son dos torres solares de
Telescopes, NGT) a los telescopios 18 y 46 metros de altura y un
reflectores cuyos espejos primarios telescopio reflector de 150 m.
serían de más de seis metros de
diámetro El primer telescopio de esta
generación fue el Keck I, de diez En los años 1930, a causa de la
metros de diámetro, ubicado en expansión de Los Ángeles y de la
Mauna Kea, Hawai, que empezó a contaminación atmosférica producida
funcionar a finales de 1990. por esta ciudad, el observatorio entró
en una crisis progresiva, por lo cual
se hizo necesario proyectar y
Entre sus muchas hazañas cabe construir otro gran observatorio más
destacar, a modo de anécdota, que al Sur, el Observatorio Palomar, obra
en 1982 fue el primer telescopio del a la cual se dedicó hasta su muerte el
mundo en localizar el todavía inerte propio Hale.
cometa 1P/Halley en ese ciclo,
bastantes meses antes de que
comenzase a activarse y a brillar al Ambos observatorios están desde
emitir gas y polvo: esta hazaña pudo 1970 reunidos en una organización
conseguirse tanto por el diámetro de de investigación astronómica dirigida
su enorme espejo primario como por por el California Institute of
haber usado una cámara CCD Technology y toman el nombre de
(Charge-Coupled Device, "dispositivo Hale Observatories, en honor a su
de carga acoplada", un tipo de sensor fundador. En este observatorio
electrónico). trabajaron Humason, Hubble y otros
importantes astrónomos
norteamericanos.
El Observatorio astronómico de
Monte Wilson (Mount Wilson) es uno
de los observatorios astronómicos El Solar and Heliosferic Observatory
más grandes de Estados Unidos, (SOHO) es una sonda espacial
fundado en 1904 por el astrofísico lanzada el 2 de diciembre de 1995
George Ellery Hale (1868-1938). para estudiar el sol, comenzando sus
operaciones científicas en mayo de
534
1996. Es un proyecto conjunto entre En 2003 la ESA comunicó el fallo de
la ESA y la NASA. Aunque uno de los motores necesarios para
originalmente se planeó como una reorientar la antena hacia la tierra
misión de sólo dos años, SOHO para transmitir los datos, lo que causa
continúa en funcionamiento tras más entre dos y tres semanas de bloqueo
de diez años en el espacio. Además de datos cada tres meses. De todos
actualmente es la fuente principal de modos, los científicos de la ESA y de
datos del sol en tiempo real tan la Red de espacio profundo (DSN)
necesarios para la predicción del usan la antena de baja ganancia junto
tiempo espacial. Hoy por hoy es una con las antenas más grandes de las
de las dos sondas (junto con el estaciones terrestres del DSN para
Advanced Composition Explorer) que evitar la pérdida de ningún dato,
se encuentran en la vecindad del solamente una ligera reducción del
punto L1, uno de los famosos Puntos flujo de datos una vez cada tres
de Lagrange. meses.
Instrumentos.
Dicho punto se define como aquel en
que la gravedad de la tierra
contrarresta la del sol, por lo que una SOHO contiene doce instrumentos
sonda en dicho lugar quedaría en principales, cada uno capaz de
equilibrio dinámico, por tanto la órbita observar de manera independiente el
será mucho más estable. Sol o alguna de sus partes. Estos
son:
535
los flujos de plasma, temperatura y exclusivamente en longitudes de
densidad de la corona. onda no visibles, se muestran (no
Coronial Diagnostic Spectrometer sólo en SOHO, sino cualquier imagen
(CDS): mide densidad, temperatura de este estilo) en falso color.
y flujos coronales.
Extreme UV Imaging Telescope
(EIT): mide la estructura y actividad Como consecuencia de su
de la zona baja de la corona. observación del Sol, SOHO ha
UV Coronagraph and descubierto cometas que bloqueaban
Spectrometer (UVCS): mide la luz del Sol por un instante.
densidades y temperaturas de la Aproximadamente, la mitad de los
corona. cometas conocidos han sido
Solar Wind Anisotropies (SWAN): descubiertos por el SOHO. Hasta
Usa un telescopio sensible a la junio de 2008 ha descubierto ya
longitud de onda característica del 1.500 cometas.
hidrógeno para medir el flujo
másico del viento solar, mapear la
densidad de la heliosfera y
observar las estructura de las El Gran Telescopio Milimétrico (GTM)
corrientes de viento solar a gran es el radiotelescopio más grande del
escala. mundo en su rango de frecuencia, y
fue construido para observar ondas
Charge, Element, Isotope
de radio en la longitud de onda de 1 a
Analysis (CELIAS): estudia la
4 milímetros. El diseño contempla
composición iónica del viento solar
una antena de 50 metros de diámetro
Suprathermal & Energetic y un área de recolección de 2000 m².
Particle Analyser (COSTEP): Está localizado en lo alto del volcán
Estudia la composición iónica y Sierra Negra (aproximadamente a
electrónica del viento solar. 4,600 msnm), que se encuentra junto
Energetic Particle Analyser al Pico de Orizaba, el pico más alto
(ERNE): Estudia la composición de México ubicado entre los estados
iónica y electrónica del viento solar. de Puebla y Veracruz. El GTM es un
proyecto binacional mexicano (80%)
Las observaciones de algunos de - estadounidense (20%) del Instituto
estos instrumentos pueden tener Nacional de Astrofísica, Óptica y
formato de imagen, la mayoría de las Electrónica (INAOE) y la Universidad
cuales esta disponible en internet de Massachusetts en Amherst.
para uso público o de investigación.
Otras series de datos, como
espectros y medidas de partículas en Las observaciones milimétricas a
el viento solar, no se prestan a este llevarse a cabo con el GTM permitirán
tipo de difusión. Las imágenes a los astrónomos ver regiones del
publicadas suelen estar en el rango espacio que han sido previamente
de longitudes de onda o frecuencias oscurecidas por polvo interestelar,
de visible hasta ultravioleta. Las incrementando nuestro conocimiento
imágenes tomadas parcial o de la formación de estrellas, además
536
está particularmente adaptado para aspectos de transmisión y
observar planetas y planetoides del programación de televisión. A veces
Sistema Solar y discos se abrevia como TV. Este término fue
protoplanetarios fuera del mismo, los utilizado por primera vez en 1900 por
cuales son relativamente fríos y Constantin Perski en el Congreso
emiten la mayoría de su radiación en Internacional de Electricidad de París
forma de ondas milimétricas. Existen (CIEP).
también propuestas para observar
fluctuaciones en el fondo cósmico de El Día Mundial de la Televisión se
microondas, así como núcleos de celebra el 21 de noviembre en
galaxias activas. conmemoración de la fecha en que
se celebró en 1996 el primer Foro
Mundial de Televisión en las
Naciones Unidas.
El conjunto de instrumentos del GTM
se compone de cámaras bolométricas
de banda ancha y arreglos
heterodinos, un receptor de un solo
elemento de resolución o píxel y un
versátil espectrómetro autocorrelador
digital multi-propósit
*Un televisor
Philips de LCD.
Televisión
La televisión es un sistema para la
transmisión y recepción de imágenes
en movimiento y sonido a distancia.
537
inauguración de la Exposición
Universal de Nueva York. Las
• emisiones programadas se
interrumpieron durante la Segunda
Historia
Guerra Mundial, reanudándose
cuando terminó.
El concepto de televisión (visión a
distancia) se puede rastrear hasta
Televisión electrónica
Galileo Galilei y su telescopio. Sin
embargo, no es hasta 1884, con la
En 1937 comenzaron las
invención del Disco de Nipkow de
transmisiones regulares de TV
Paul Nipkow cuando se hiciera un
electrónica en Francia y en el Reino
avance relevante para crear un
Unido. Esto llevó a un rápido
medio. El cambio que traería la
desarrollo de la industria televisiva y a
televisión tal y como hoy la
un rápido aumento de
conocemos fue la invención del
telespectadores, aunque los
iconoscopio de Vladimir Zworkyn.
televisores eran de pantalla pequeña
Esto daría paso a la televisión
y muy caros. Estas emisiones fueron
completamente electrónica, mayor
posibles por el desarrollo de los
definición de imagen e iluminación
siguientes elementos en cada
propia.
extremo de la cadena: el tubo de
rayos catódicos y el iconoscopio.
Primeros desarrollos
La señal de vídeo
En 1910, el disco de Nipkow fue
utilizado en el desarrollo de los
La señal translucida de la imagen
sistemas de televisión de los inicios
contiene la información de ésta, pero
del siglo XX y en 1925 el inventor
como hemos visto, es necesario, para
escocés John Logie Baird efectúa la
su recomposición, que haya un
primera experiencia real utilizando
perfecto sincronismo entre la
dos discos, uno en el emisor y otro en
deflexión de exploración y la deflexión
el receptor, que estaban unidos al
en la representación.
mismo eje para que su giro fuera
síncrono y separados 2 m.
La exploración de una imagen se
realiza mediante su descomposición,
Las primeras emisiones públicas de
primero en fotogramas a los que se
televisión las efectuó la BBC en
llaman cuadros y luego en líneas,
Inglaterra en 1927 y la CBS y NBC en
leyendo cada cuadro. Para
Estados Unidos en 1930. En ambos
determinar el número de cuadros
casos se utilizaron sistemas
necesarios para que se pueda
mecánicos y los programas no se
recomponer una imagen en
emitían con un horario regular.
movimiento así como el número de
líneas para obtener una óptima
Las emisiones con programación se
calidad en la reproducción y la óptima
iniciaron en Inglaterra en 1936, y en
percepción del color (en la TV en
Estados Unidos el día 30 de abril de
color) se realizaron numerosos
1939, coincidiendo con la
estudios empíricos y científicos del
538
ojo humano y su forma de percibir. Se igualan los tiempos de cada uno de
obtuvo que el número de cuadros ellos.
debía de ser al menos de 24 al
segundo (luego se emplearon por El sonido, llamado audio, es tratado
otras razones 25 y 30) y que el por separado en toda la cadena de
número de líneas debía de ser producción y luego se emite junto al
superior a las 300. vídeo en una portadora situada al
lado de la encargada de transportar la
La señal de vídeo la componen la imagen.
propia información de la imagen
correspondiente a cada línea (en el El desarrollo de la TV
sistema PAL 625 líneas y en el NTSC
525 por cada cuadro) agrupadas en
dos grupos, las líneas impares y las
pares de cada cuadro, a cada uno de
estos grupos de líneas se les
denomina campo (en el sistema PAL
se usan 25 cuadros por segundo
mientras que en el sistema NTSC
30). A esta información hay que
añadir la de sincronismo, tanto de Control Central en un centro
cuadro como de línea, esto es, tanto emisor de TV.
vertical como horizontal. Al estar el
cuadro dividido en dos campos
tenemos por cada cuadro un
sincronismo vertical que nos señala el
comienzo y el tipo de campo, es
decir, cuando empieza el campo
impar y cuando empieza el campo
par. Al comienzo de cada línea se
añade el pulso de sincronismo de
línea u horizontal (modernamente con
la TV en color también se añade
Vieja televisión blanco y negro.
información sobre la sincronía del
color).
La codificación de la imagen se
realiza entre 0 V para el negro y 0,7 V
para el blanco. Para los sincronismos
se incorporan pulsos de -0,3 V, lo que
da una amplitud total de la forma de
onda de vídeo de 1 V. Los
sincronismos verticales están
constituidos por una serie de pulsos
de -0,3 V que proporcionan Cámaras en un plató de TV.
información sobre el tipo de campo e
539
Es a mediados del siglo XX donde la máquinas permitía el montaje de
televisión se convierte en bandera salas de postproducción que,
tecnológica de los países y cada uno combinando varios elementos, podían
de ellos va desarrollando sus realizar programas complejos.
sistemas de TV nacionales y
privados. En 1953 se crea Eurovisión El desarrollo de la televisión no se
que asocia a varios países de Europa paró con la transmisión de la imagen
conectando sus sistemas de TV y el sonido. Pronto se vio la ventaja
mediante enlaces de microondas. de utilizar el canal para dar otros
Unos años más tarde, en 1960, se servicios. En esta filosofía se
crea Mundovisión que comienza a implementó, a finales de los años 80
realizar enlaces con satélites del siglo XX el teletexto que transmite
geoestacionarios cubriendo todo el noticias e información en formato de
mundo. texto utilizando los espacios libres de
información de la señal de vídeo.
La producción de televisión se También se implementaron sistemas
desarrolló con los avances técnicos de sonido mejorado, naciendo la
que permitieron la grabación de las televisión en estéreo o dual y dotando
señales de vídeo y audio. Esto al sonido de una calidad excepcional,
permitió la realización de programas el sistema que logró imponerse en el
grabados que podrían ser mercado fue el NICAM.
almacenados y emitidos
posteriormente. A finales de los años La televisión en color
50 del siglo XX se desarrollaron los
primeros magnetoscopios y las
cámaras con ópticas intercambiables
que giraban en una torreta delante
del tubo de imagen. Estos avances,
junto con los desarrollos de las
máquinas necesarias para la mezcla
y generación electrónica de otras
fuentes, permitieron un desarrollo
muy alto de la producción.
543
principio analógicos, aumentaban el Una imagen de 16/9 que se vaya a
número de líneas de la imagen y ver en una pantalla de 4/3, de forma
cambiaban la relación de aspecto similar, tiene tres formas de verse:
pasando del formato utilizado hasta
entonces, relación de aspecto 4/3, a • Con barras horizontales arriba
un formato más apaisado de 16/9. y abajo de la imagen
Este nuevo formato, más agradable a (letterbox). Se ve toda la
la vista se estableció como estándar imagen pero se pierde tamaño
incluso en emisiones de definición de pantalla (hay varios
estándar. formatos de letterbox
dependiendo de la parte visible
La relación de aspecto se expresa de la imagen que se vea
por la anchura de la pantalla en (cuanto más grande se haga
relación a la altura. El formato más se recorta), se usan el
estándar hasta ese momento tenía 13/9 y el 14/9).
una relación de aspecto de 4/3. El • Agrandando la imagen hasta
adoptado es de 16/9. La ocupar toda la pantalla
compatibilidad entre ambas verticalmente, perdiéndose las
relaciones de aspecto se puede partes laterales de la imagen.
realizar de diferentes formas. • Deformando la imagen para
adaptarla a la relación de
Una imagen de 4/3 que se vaya a ver aspecto de la pantalla. Se ve
en una pantalla de 16/9 puede toda la imagen en toda la
presentarse de tres formas diferentes: pantalla, pero con la geometría
alterada (los círculos se ven
• Con barras negras verticales a elipses con el diámetro mayor
cada lado (pillarbox). orientado de arriba a abajo).1
Manteniendo la relación de 4/3
pero perdiendo parte de la El PALplus
zona activa de la pantalla.
• Agrandando la imagen hasta En Europa Occidental, y donde el
que ocupe toda la pantalla sistema de televisión de la mayoría
horizontalmente. Se pierde de los países es el PAL, se
parte de la imagen por la parte desarrolló, con apoyo de la Unión
superior e inferior de la misma. Europea, un formato a caballo entre
• Deformando la imagen para la alta definición y la definición
adaptarla la formato de la estándar. Este formato recibió el
pantalla. Se usa toda la nombre de PALplus y aunque fue
pantalla y se ve toda la apoyado por la administración no
imagen, pero con la geometría logró cuajar.
alterada (los círculos se ven
elipses con el diámetro mayor El PALplus fue una extensión del PAL
orientado de derecha a para transmitir imágenes de 16/9 sin
izquierda). tener que perder resolución vertical.
En un televisor normal se recibe una
imagen de apaisada con franjas
negras arriba y abajo de la misma
544
(letterbox) de 432 líneas activas. El y las diferencias de color, fue el que
PALplus mandaba información resultó más idóneo. En un principio
adicional para rellenar las franjas se desarrollaron los sistemas de
negras llegando a 576 líneas de señales en paralelo, con gruesos
resolución vertical. Mediante señales cables que precisaban de un hilo para
auxiliares que iban en las líneas del cada bit, pronto se sustituyó ese
intervalo de sincronismo vertical se cable por la transmisión multiplexada
comandaba al receptor PALplus en tiempo de las palabras
indicándole si la captación había sido correspondientes a cada una de las
realizada en barrido progresivo o componentes de la señal, además
entrelazado. El sistema se amplió con este sistema permitió incluir el audio,
el llamado "Colorplus" que mejoraba embebiéndolo en la información
la decodificación del color. transmitida, y otra serie de utilidades.
546
ondas de radio en las bandas de VHF ventaja del cable es la de disponer de
y UHF. Pronto salieron las redes de un camino de retorno que permite
cable que distribuían canales por las crear servicios interactivos
ciudades. Esta distribución también independientes de otros sistemas
se realizaba con señal analógica, las (normalmente para otros sistemas de
redes de cable pueden tener una emisión se utiliza la línea telefónica
banda asignada, más que nada para para realizar el retorno). El satélite,
poder realizar la sintonía de los de elevado costo en su construcción
canales que llegan por el aire junto y puesta en órbita permite llegar a
con los que llegan por cable. Su lugares inaccesibles y remotos.
desarrollo depende de la legislación También tiene la ventaja de servicios
de cada país, mientras que en disponibles para los televidentes, que
algunos de ellos se desarrollaron posibilitan la explotación comercial y
rápidamente, como en Inglaterra y la rentabilidad del sistema. La
Estados Unidos, en otros como comunicación vía satélite es una de
España no han tenido casi las más importantes en la logística
importancia hasta que a finales del militar y muchos sistemas utilizados
siglo XX la legislación permitió su en la explotación civil tienen un
instalación. trasfondo estratégico que justifican la
inversión económica realizada. La
El satélite, que permite la llegada de transmisión vía radio es la más
la señal a zonas muy remotas y de popular y la más extendida. La
difícil acceso, su desarrollo, a partir inversión de la red de distribución de
de la tecnología de los lanzamientos la señal no es muy costosa y permite,
espaciales, permitió la explotación mediante la red de reemisores
comercial para la distribución de las necesaria, llegar a lugares remotos,
señales de televisión. El satélite de índole rural. La señal es mucho
realiza dos funciones fundamentales, menos inmune al ruido y en muchos
la de permitir los enlaces de las casos la recepción se resiente. Pero
señales de un punto al otro del orbe, es la forma normal de la difusión de
mediante enlaces de microondas, y la las señales de TV.
distribución de la señal en difusión.
Difusión digital
Cada uno de estos tipos de emisión
tiene sus ventajas e inconvenientes,
mientras que el cable garantiza la
llegada en estado óptimo de la señal,
sin interferencias de ningún tipo,
precisa de una instalación costosa y
de un centro que realice el embebido
de las señales, conocido con el
nombre de cabecera. Solo se puede
entender un tendido de cable en Ba
núcleos urbanos donde la rras de color EBU en formato YUV.
aglomeración de habitantes haga
rentable la inversión de la Estas formas de difusión se han
infraestructura necesaria. Otra mantenido con el nacimiento de la
547
televisión digital con la ventaja de que modificación para su adecuación la
el tipo de señal es muy robusta a las norma del cable.
interferencias y la norma de emisión
está concebida para una buena En EE.UU. se ha desarrollado un
recepción. También hay que decir sistema diferente de televisión digital,
que acompaña a la señal de el ATSC Advanced Television System
televisión una serie de servicios Committee que mientras que en las
extras que dan un valor añadido a la emisiones por satélite y cable no
programación y que en la normativa difiere mucho del europeo, en la TDT
se ha incluido todo un campo para la es totalmente diferente. La deficiencia
realización de la televisión de pago del NTSC ha hecho que se unifique lo
en sus diferentes modalidades. que es televisión digital y alta
definición y el peso de las compañías
La difusión de la televisión digital se audiovisuales y cinematográficas ha
basa en el sistema DVB Digital Video llevado a un sistema de TDT
Broadcasting y es el sistema utilizado característico en el que no se ha
en Europa. Este sistema tiene una prestado atención alguna a la
parte común para la difusión de inmunidad contra los ecos.
satélite, cable y terrestre. Esta parte
común corresponde a la ordenación Televisión terrestre
del flujo de la señal y la parte no
común es la que lo adapta a cada La difusión analógica por vía
modo de transmisión. Los canales de terrestre, por radio, está constituida
transmisión son diferentes, mientras de la siguiente forma; del centro
que el ancho de banda del satélite es emisor se hacen llegar las señales de
grande el cable y la vía terrestre lo vídeo y audio hasta los transmisores
tienen moderado, los ecos son muy principales situados en lugares
altos en la difusión vía terrestre estratégicos, normalmente en lo alto
mientas que en satélite prácticamente de alguna montaña dominante. Estos
no existen y en el cable se pueden enlaces se realizan mediante enlaces
controlar, las potencias de recepción de microondas punto a punto. Los
son muy bajas para el satélite (llega transmisores principales cubren una
una señal muy débil) mientras que en amplia zona que se va rellenando, en
el cable son altas y por vía terrestre aquellos casos que haya sombras,
son medias, la misma forma tiene la con reemisores. La transmisión se
relación señal-ruido. realiza en las bandas de UHF y VHF,
aunque esta última está
Los sistemas utilizados según el tipo prácticamente extinguida ya que en
de canal son los siguientes, para Europa se ha designado a la
satélite el DVB-S, para cable el DVB- aeronáutica y a otros servicios como
C y para terrestre (también llamando la radio digital.
terrenal) DVB-T. Muchas veces se
realizan captaciones de señales de La difusión de la televisión digital vía
satélite que luego son metidas en terrestre, conocida como TDT se
cable, para ello es normal que las realiza en la misma banda de la
señales sufran una ligera difusión analógica. Los flujos de
transmisión se han reducido hasta
548
menos de 6 Mb/s lo que permite la grandes cadenas nacionales. Esto
incorporación de varios canales. Lo hace que la ventaja del sistema
normal es realizar una agrupación de europeo que puede crear redes de
cuatro canales en un Mux el cual frecuencia única para cubrir un
ocupa un canal de la banda (en territorio con un solo canal no sea
analógico un canal es ocupado por un apreciada por los norteamericanos. El
programa). La característica principal sistema americano no ha prestado
es la forma de modulación. La atención a la eliminación del eco. La
televisión terrestre digital dentro del deficiencia del NTSC es una de las
sistema DVB-T utiliza para su causas de las ansias para el
transmisión la modulación OFDM desarrollo de un sistema de TV digital
Orthogonal Frecuency Division que ha sido asociado con el de alta
Multiplex que le confiere una alta definición.
inmunidad a los ecos, aún a costa de
un complicado sistema técnico. La EL ATSC estaba integrado por
OFDM utiliza miles de portadoras empresas privadas, asociaciones e
para repartir la energía de radiación, instituciones educativas. La FCC
las portadoras mantienen la Federal Communication Commission
ortogonalidad en el dominio de la aprobó la norma resultante de este
frecuencia. Se emite durante un comité como estándar de TDT en
tiempo útil al que sigue una EE.UU. el 24 de diciembre de 1996.
interrupción llamada tiempo de Plantea una convergencia con los
guarda. Para ello todos los ordenadores poniendo énfasis en el
transmisores deben estar síncronos y barrido progresivo y en el píxel
emitir en paralelo un bit del flujo de la cuadrado. Han desarrollado dos
señal. El receptor recibe la señal y jerarquías de calidad, la estándar (se
espera el tiempo de guarda para han definido dos formatos, uno
procesarla, en esa espera se entrelazado y otro progresivo, para el
desprecian los ecos que se pudieran entrelazado usan 480 líneas activas a
haber producido. La sincronía en los 720 pixeles por línea y el progresivo
transmisores se realiza mediante un 480 líneas con 640 pixeles por línea,
sistema de GPS. la frecuencia de cuadro es la de
59,94 y 60 Hz y el formato es de 16/9
La televisión digital terrestre en los y 3/4) y la de alta definición (en AD
EE.UU., utiliza la norma ATSC tienen dos tipos diferentes uno
Advanced Television System progresivo y otro entrelazado, para el
Committee que deja sentir la diferente primero se usan 720 líneas de 1.280
concepción respecto al servicio que pixeles, para el segundo 1.080 líneas
debe tener la televisión y el peso de y 1.920 pixeles por línea a 59,94 y 60
la industria audiovisual y cuadros segundo y un formato de
cinematográfica estadounidense. La 16/9 para ambos). Han desarrollado
televisión norteamericana se ha dos jerarquías de calidad, la estándar
desarrollado a base de pequeñas y la de alta definición. Utiliza el ancho
emisoras locales que se unían a una de banda de un canal de NTSC para
retransmisión general para ciertos la emisión de televisión de alta
programas y eventos, al contrario que definición o cuatro en calidad
en Europa donde han primado las estándar.
549
Los sistemas de difusión digitales La dificultad de tender la red de cable
están llamados a sustituir a los en lugares de poca población hace
analógicos, se prevé que se dejen de que solamente los núcleos urbanos
realizar emisiones en analógico, en tengan acceso a estos servicios.
Europa esta previsto el apagón
analógico para el 2012 y en EE.UU. La transmisión digital por cable está
se ha decretado el 17 de febrero de basada en la norma DVB-C, muy
2009 como la fecha límite en la que similar a la de satélite, y utiliza la
todas las estaciones de televisión modulación QAM.
dejen de transmitir en sistema
analógico y pasen a transmitir Televisión por satélite
exclusivamente en sistema digital. El
día 8 de septiembre de 2008 al La difusión vía satélite se inició con el
mediodía se realizó la primera desarrollo de la industria espacial que
transición entre sistemas en el permitió poner en órbita
poblado de Wilmington, Carolina del geoestacionaria satélites con
Norte. transductores que emiten señales de
televisión que son recogidas por
antenas parabólicas.
La televisión de 3D
La visión estereoscópica o
estereovisión es una técnica ya
conocida y utilizada en la fotografía
de principios del siglo XX. A finales
de ese mismo siglo el cine en 3D, en Cámar Vista Imagen
tres dimensiones, era ya habitual y a defrontal deVista de TV en
estaba comercializado. A finales de la TV enuna trasera de3D en
primera década del siglo XXI 3D. cámara una una
comienzan a verse los primeros Dispos de TV encámara depantalla
sistemas comerciales de televisión en ición 3D. TV en 3D. de TV.
3D basados en la captación, vertica
transmisión y representación de dos l.
imágenes similares desplazadas la
una respecto a la otra y polarizadas.
Aunque se experimentó algún
sistema sin que se necesitaran gafas
con filtros polarizados para ver estas
Tipos de televisores
imágenes en tres dimensiones, como
el de la casa Philips, los sistemas
Se conoce como televisor al aparato
existentes, basados en el mismo
electrodoméstico destinado a la
principio que el cine en 3D, precisan
551
recepción de la señal de televisión.
Suele constar de un sintonizador y de
los mandos y circuitos necesarios
para la conversión de las señales
eléctricas, bien sean analógicas o
digitales, en representación de las
imágenes en movimiento en la
pantalla y el sonido por los altavoces. Algunos tipos de televisores
Muchas veces hay servicios
asociados a la señal de televisión que • Televisor blanco y negro: la
el televisor debe procesar, como el pantalla sólo muestra
teletexto o el sistema NICAM de imágenes en blanco y negro.
audio. • Televisor en color: la pantalla
es apta para mostrar imágenes
Desde los receptores mecánicos en color.
hasta los modernos televisores • Televisor pantalla LCD: plano,
planos ha habido todo un mundo de con pantalla de cristal líquido
diferentes tecnologías. El tubo de (o LCD)
rayos catódicos, que fue el que • Televisor pantalla de plasma:
proporcionó el gran paso en el plano, usualmente se usa esta
desarrollo de la televisión, se resiste tecnología para formatos de
a desaparecer al no encontrarse, mayor tamaño.
todavía, quien lo sustituya,
manteniendo la calidad de imagen y Durante una conferencia de prensa
el precio de producción que éste en Berlín, dentro de la feria de
proporciona. Las pantallas planas de muestras industriales y electrónica de
cristal líquido o de plasma no han consumo IFA 2009, Sony anunció sus
logrado sustituirlo al dar una imagen planes de presentar avances en la
de inferior calidad y tener un elevado experiencia de visualización 3D para
precio, su gran ventaja es la línea los hogares. Sony se refiere a la
moderna de su diseño. Los tecnología 3D de algunos de sus
televisores preparados para la alta televisores, como BRAVIA, que
definición tampoco están abriéndose además de su pantalla LCD
paso al carecer de horas de incorporaría un sistema para
programación en esa calidad y al reproducir contenidos en alta
contentarse el usuario con la calidad definición, las imágenes 3D se verían
de la emisión estándar. mediante unas gafas especiales.
552
desde el televisor del hogar, como Antes de la aplicación de un campo
películas, series o incluso eléctrico, la orientación de las
videojuegos. Aunque empezó como moléculas de cristal líquido está
avance aprovechando la feria IFA determinada por la adaptación a las
alemana, en el año 2010 ya salieron superficies. En un dispositivo twisted
a la venta los primeros modelos. nematic, TN (uno de los dispositivos
más comunes entre los de cristal
Pantallas LCD líquido), las direcciones de alineación
de la superficie de los dos electrodos
Una pantalla de cristal líquido o LCD son perpendiculares entre sí, y así se
(acrónimo del inglés Liquid Crystal organizan las moléculas en una
Display) es una pantalla delgada y estructura helicoidal, o retorcida.
plana formada por un número de Debido a que el material es de cristal
píxeles en color o monocromos líquido birrefringente, la luz que pasa
colocados delante de una fuente de a través de un filtro polarizante se
luz o reflectora. A menudo se utiliza gira por la hélice de cristal líquido que
en dispositivos electrónicos de pilas, pasa a través de la capa de cristal
ya que utiliza cantidades muy líquido, lo que le permite pasar por el
pequeñas de energía eléctrica. segundo filtro polarizado. La mitad de
la luz incidente es absorbida por el
Características
primer filtro polarizante, pero por lo
Cada píxel de un LCD típicamente demás todo el montaje es
consiste de una capa de moléculas transparente.
alineadas entre dos electrodos
Cuando se aplica un voltaje a través
transparentes, y dos filtros de
de los electrodos, una fuerza de giro
polarización, los ejes de transmisión
orienta las moléculas de cristal líquido
de cada uno que están (en la mayoría
paralelas al campo eléctrico, que
de los casos) perpendiculares entre
distorsiona la estructura helicoidal
sí. Sin cristal líquido entre el filtro
(esto se puede resistir gracias a las
polarizante, la luz que pasa por el
fuerzas elásticas desde que las
primer filtro sería bloqueada por el
moléculas están limitadas a las
segundo (cruzando) polarizador.
superficies). Esto reduce la rotación
La superficie de los electrodos que de la polarización de la luz incidente,
están en contacto con los materiales y el dispositivo aparece gris. Si la
de cristal líquido es tratada a fin de tensión aplicada es lo suficientemente
ajustar las moléculas de cristal líquido grande, las moléculas de cristal
en una dirección en particular. Este líquido en el centro de la capa son
tratamiento suele ser normalmente casi completamente desenrolladas y
aplicable consiste en una fina capa la polarización de la luz incidente no
de polímero que es es rotada ya que pasa a través de la
unidireccionalmente frotada capa de cristal líquido. Esta luz será
utilizando, por ejemplo, un paño. La principalmente polarizada
dirección de la alineación de cristal perpendicular al segundo filtro, y por
líquido se define por la dirección de eso será bloqueada y el pixel
frotación. aparecerá negro. Por el control de la
tensión aplicada a través de la capa
553
de cristal líquido en cada píxel, la luz está dirigida al dispositivo (la
se puede permitir pasar a través de respuesta de la capa de cristal líquido
distintas cantidades, constituyéndose es idéntica, independientemente de la
los diferentes tonos de gris. polaridad de los campos aplicados)
Pantalla LCD en un despertador.
Cuando un dispositivo requiere un
gran número de píxeles, no es viable
conducir cada dispositivo
directamente, así cada píxel requiere
un número de electrodos
independiente. En cambio, la pantalla
es multiplexada. En una pantalla
multiplexada, los electrodos de la
El efecto óptico de un dispositivo parte lateral de la pantalla se agrupan
twisted nematic (TN) en el estado del junto con los cables (normalmente en
voltaje es mucho menos dependiente columnas), y cada grupo tiene su
de las variaciones de espesor del propia fuente de voltaje. Por otro
dispositivo que en el estado del lado, los electrodos también se
voltaje de compensación. Debido a agrupan (normalmente en filas), en
esto, estos dispositivos suelen usarse donde cada grupo obtiene una
entre polarizadores cruzados de tal tensión de sumidero. Los grupos se
manera que parecen brillantes sin han diseñado de manera que cada
tensión (el ojo es mucho más píxel tiene una combinación única y
sensible a las variaciones en el dedicada de fuentes y sumideros. Los
estado oscuro que en el brillante). circuitos electrónicos o el software
Estos dispositivos también pueden que los controla, activa los sumideros
funcionar en paralelo entre en secuencia y controla las fuentes
polarizadores, en cuyo caso la luz y la de los píxeles de cada sumidero.
oscuridad son estados invertidos. La
tensión de compensación en el
estado oscuro de esta configuración
aparece enrojecida debido a las
pequeñas variaciones de espesor en
todo el dispositivo. Tanto el material
del cristal líquido como el de la capa
de alineación contienen compuestos
iónicos. Si un campo eléctrico de una
determinada polaridad se aplica
durante un período prolongado, este
material iónico es atraído hacia la
superficie y se degrada el rendimiento
del dispositivo. Esto se intenta evitar,
Pantalla de cristal líquido Twisted
ya sea mediante la aplicación de una
Nematic (TN).
corriente alterna o por inversión de la
polaridad del campo eléctrico que
554
1. Film de filtro vertical para
polarizar la luz que entra.
2. Sustrato de vidrio con Los componentes de color pueden
electrodos de Óxido de Indio colocarse en varias formas
ITO. Las formas de los geométricas de píxeles, en función
electrodos determinan las del uso del monitor. Si el software
formas negras que aparecen sabe qué tipo de geometría se está
cuando la pantalla se enciende usando en un LCD concreto, ésta
y apaga. Los cantos verticales puede usarse para aumentar la
de la superficie son suaves. resolución del monitor a través de la
3. Cristales liquidos "Twisted presentación del subpixel. Esta
Nematic" (TN). técnica es especialmente útil para
4. Sustrato de vidrio con film texto anti-aliasing.
electrodo común (ITO) con los
cantos horizontales para
alinearse con el filtro Matrices activas y pasivas dirigidas a
horizontal. LCDs.
5. Film de filtro horizontal para
bloquear/permitir el paso de Las pantallas LCD con un pequeño
luz. número de sectores, tales como los
6. Superficie reflectante para que se utilizan en relojes digitales y
enviar devolver la luz al calculadoras de bolsillo, tienen
espectador. En un LCD retro contactos eléctricos individuales para
iluminado, esta capa es cada segmento. Un circuito externo
reemplazada por una fuente dedicado suministra una carga
luminosa. eléctrica para el control de cada
segmento. Esta estructura es difícil
de visualizar para algunos
dispositivos de visualización.
El color en los dispositivos
Las pequeñas pantallas monocromo
En las pantallas LCD de color cada como las que se encuentran en los
píxel individual se divide en tres organizadores personales, o viejas
células, o subpíxeles, de color rojo, pantallas de ordenadores portátiles
verde y azul, respectivamente, por el tienen una estructura de matriz
aumento de los filtros (filtros de pasiva donde emplean tecnologías
pigmento, filtros de tinte y filtros de como la super-twisted nematic (STN)
óxido de metal). Cada subpíxel puede o la de doble capa STN (DSTN),
controlarse independientemente para (DSTN corrige el problema del
producir miles o millones de posibles cambio de color de STN), y la STN de
colores para cada píxel. Los color (CSTN) (una tecnología donde
monitores CRT usan la misma el color se añade usando un filtro de
estructura de ‘subpíxeles' a través del color interno). Cada fila o columna de
uso de fósforo, aunque el haz de la pantalla tiene un solo circuito
electrones analógicos empleados en eléctrico. Los pixeles se dirigen a la
CRTs no dan un número exacto de vez por direcciones de fila y de
subpíxeles. columna. Este tipo de pantalla se
555
denomina matriz pasiva–dirigida
porque el pixel debe conservar su
estado entre los períodos de refresco
sin beneficiarse de ¿Por una qué carga
un monitor LCD?
eléctrica constante. A medida que el
número de píxeles (y, en
consecuencia, columnas y filas) se
incrementa, este tipo de pantalla se
vuelve menos apropiada. Tiempos de
respuesta muy lentos y un contraste
bastante pobre son típicos en las Ventajas de los monitores LCD
matrices pasivas dirigidas a LCDs.
En dispositivos de color de alta Sin taza de refresco: Imagen estática,
resolución como los modernos no hace mal a la vista, al contrario de
monitores LCD y televisores utilizan esto, los CRT actualizan su imagen
una estructura de matriz activa. Una varias veces por segundo lo que a 60
matriz de thin-film transistors (TFTs) Hz / 75 Hz puede molestar luego de
se agrega a la polarización y a los un rato de uso.
filtros de color. Cada píxel tiene su Menor consumo eléctrico: Respecto a
propio transistor dedicado, que un CRT, consume hasta 1/3 de lo que
permitirá a cada línea de la columna consume este.
acceder a un píxel. Cuando una línea Espacio físico: El tamaño de los LCD
de fila está activada, todas las líneas es mucho más chico que un CRT, en
de la columna están conectadas a lo que a profundidad se refiere.
una fila de píxeles y una correcta Vida útil: Un LCD dura entre 50000 ~
tensión de alimentación es impulsada 60000 horas, un CRT entre 10000 ~
a todas las líneas de la columna. 20000 horas.
Cuando la línea de fila se desactiva,
la siguiente línea de fila es activada. Desventajas de los monitores LCD
Todas las líneas de la fila se activan
secuencialmente durante una Más caros para obtener calidades de
operación de actualización. La matriz imagen como los CRT.
activa está dirigida a dispositivos con Resolución nativa.
un mayor brillo y tamaño que a los Ángulos de visión.
que se dirige la matriz pasiva (dirigida Tiempo de respuesta.
a dispositivos de pequeño tamaño, y,
en general, que tienen tiempos de Matriz LCD: ¿Qué es?
respuesta más pequeños,
produciendo imágenes mucho Son la base de la imagen. Las
mejores). matrices incluyen los cristales,
transistores, componentes, la matriz
es la encargada de crear la imagen.
Las más populares son:
556
ventaja es su bajo costo de nadie los compraría. Es aquí donde
producción y su gran desarrollo. El entra el FRC en juego. El FRC es
“Film” es un agregado para mejorar Frame Rate Control. Este lo que hace
los ángulos de visión, hoy en día no es “emular” los colores que la matriz
se menciona ya que todos los TN lo no puede hacer. Por lo general, al ver
incluyen. Su principal desventaja es 16.2 millones de colores es que es un
la calidad de los colores. La mayoría panel de 18-bits con FRC, pero
de estos paneles no puede lograr 24 algunos fabricantes indican 16.7
bit (16.7 millones) solo hace 6 bit por millones de todas formas.
canal RGB (total 18 bit = 262K).
-IPS (In-Plane Switching): Panel Ángulos de visión: ¿A qué se refiere?
desarrollado por Hitachi para eliminar
los 2 problemas básicos de los TN: Los paneles LCD sufren de los
Los ángulos de visión y la calidad de ángulos de visión, esto se puede ver
color. Estos paneles son capaces de cuando se mira un monitor desde
hacer 8 bit por canal RGB. S-IPS abajo/arriba o desde la
(Super-IPS), es igual al IPS, pero con derecha/izquierda. Problemas de
mejoras, la reproducción de color se color y contraste se pueden observar
acerca a la de un CRT. al realizar esto. Por eso es importante
-MVA (Multidomain Vertical a la hora de comprar que el monitor
Alignment): Desarrollado por Fujitsu. tenga un amplio ángulo de visión, así
Tienen un tiempo de respuesta muy se asegura que al estar mirando por
bueno, y ángulos de visión bastante ejemplo la parte superior de la
amplios, lo que les permite competir pantalla se vea bien, sino se torna
con los IPS. Además de esto, los gris lo que este fuera del ángulo.
MVA tienen un gran contraste, pero al
costo de brillo y reproducción de Tiempo de respuesta: ¿Menos
color... milisegundos es mejor?
-PVA (Patterned Vertical Alignment):
Desarrollado por Samsung. Era una El tiempo de respuesta es lo que
alternativa al MVA. Su ventaja es tarda un píxel en cambiar de color
mejor contraste. Los PVA para tener negro a blanco y después a negro
precios más bajos usan técnicas de (BtWtB) (Inactivo > Activo > Inactivo).
FRC. Y los S-PVA (Super-PVA) son O también una trampa para que este
de 8 bit por canal RGB. tiempo sea menor es indicar el tiempo
que tarda en ir de gris a gris (G2G).
Colores: ¿18-bit, 24-bit?
¿ Qué problemas puede ocasionar un
La profundidad de color es muy monitor con tiempo de respuesta muy
importante. Muchos paneles son de alto ?
18-bit (262K colores) y de 24-bit
(16.7M de colores). Lo ideal son 16.7 Si un monitor tiene tiempo de
millones. Pero la realidad es que a respuesta muy alto se producirá
veces son de 18-bits. Pero si los ghosting, esto significa que en
fabricantes venden LCD’s de 18-bits, movimientos rápidos o cambios
cualquiera se daría cuenta, con solo rápidos de la imagen, queda imagen
leer ya no tendrían sentido, ya que de cuadros anteriores, y se
557
desprenden como “fantasmas” de los Para ver películas es ideal, ya que
objetos en pantalla. estas vienen en WideScreen o
Entonces, ¿los monitores de 2 ms resoluciones similares, pero siempre
son los mejores? No, de hecho la relación de aspecto es similar a
monitores con 16 ms no tienen 16:9 / 16:10.
problemas de ghosting, por lo que 2 Lo único malo, puede ser que a la
ms, 5 ms, 8 ms, es puro marketing, y hora de jugar, algunos juegos no
por lo general esos valores son de pueden poner resoluciones
G2G, cuando el que realmente widescreen nativamente.
importa es el BtWtB.
Interfaz de video: VGA, DVI, HDMI
Resoluciones nativas: ¿ Pueden
ocasionar conflictos ? VGA es el más antiguo, análogo,
usado en monitores CRT y algunos
Los LCD tienen un gran problema LCD. La interfaz de video ya va de
que es que tienen una resolución X, y acuerdo a la placa de video que se
si se usa otra la imagen ya no es tenga, pero lo ideal sería que tenga
nítida. Esto ocurre debido que a DVI hoy en día, y usarlo al DVI si se
diferencia de los CRT, los LCD ya tiene, porque sino la conversión DVI >
tienen un número de píxeles fijo, VGA, VGA > DVI es una perdida de
entonces al no usar la resolución calidad, de otra forma el DVI > DVI no
nativa la imagen se interpola. realiza conversión ya que
Básicamente la idea es siempre usar nativamente trabajan en digital el
la nativa, donde más se nota el monitor y la placa de video. HDMI es
cambio de resolución es en escritorio. un nuevo sistema para asegurar el
DRM, este es necesario para ver
Relación de aspecto: ¿ 4:3 / 5:4 o películas Blu-ray por ejemplo, pero
16:9 / 16:10 ? necesita tanto un OS que lo soporte,
una lectora que soporte Blu-ray, una
La relación de aspecto va por gusto placa de video acorde y el monitor
totalmente. Hoy en día encontramos que también lo soporte.
2 distintas:
560
Caracteristicas generales de las televisores de plasma que han
pantallas de plasma reducido el consumo de energía y
han alargado la vida útil del televisor.
En concreto, éste es el tiempo de
vida medio estimado para la pantalla,
Las pantallas de plasma son
el momento en el que la imagen se
brillantes (1000 lux o más por
ha degradado hasta la mitad de su
módulo), tienen un amplia gama de
brillo original. Se puede seguir
colores y pueden fabricarse en
usando pero se considera el final de
tamaños bastante grandes, hasta 262
la vida funcional del aparato.
cm de diagonal. Tienen una
luminancia muy baja a nivel de Los competidores incluyen LCD,
negros, creando un negro que resulta CRT, OLED, AMLCD, DLP, SED-tv,
más deseable para ver películas. etc. La principal ventaja de la
Esta pantalla sólo tiene cerca de 6 cm tecnología del plasma es que
de grosor y su tamaño total pantallas muy grandes pueden ser
(incluyendo la electrónica) es menor fabricadas usando materiales
de 10 cm. Los plasmas usan tanta extremadamente delgados. Ya que
energía por metro cuadrado como los cada píxel es iluminado
televisores CRT o AMLCD. El individualmente, la imagen es muy
consumo eléctrico puede variar en brillante y posee un gran ángulo de
gran medida dependiendo de qué se visión.
esté viendo en él. Las escenas
brillantes (como un partido de fútbol)
necesitarán una mayor energía que
las escenas oscuras (como una Relación de contraste
escena nocturna de una película).
El contraste es la diferencia entre la
Las medidas nominales indican 400
parte más brillante de la imagen y la
vatios para una pantalla de 50
más oscura, medida en pasos
pulgadas. Los modelos relativamente
discretos, en un momento dado.
recientes consumen entre 220 y 310
Generalmente, cuanto más alto es el
vatios para televisores de 50
contraste más realista es la imagen.
pulgadas cuando se está utilizando
Las relaciones de contraste para
en modo cine. La mayoría de las
pantallas de plasma se suelen
pantallas están configuradas con el
anunciar de 15.000:1 a 30.000:1.
modo «tienda» por defecto, y
Esta es una ventaja importante del
consumen como mínimo el doble de
plasma sobre otras tecnologías de
energía que con una configuración
visualización. Aunque no hay ningún
más cómoda para el hogar.
tipo de directriz en la industria acerca
de cómo informar sobre el contraste,
la mayoría de los fabricantes siguen
El tiempo de vida de la última el estándar ANSI o bien realizan
generación de pantallas de plasma pruebas «full-on full-off». El estándar
está estimado en unas 100.000 horas ANSI usa un patrón para la prueba de
(o 30 años a 8 horas de uso por día) comprobación por medio de la cual se
de tiempo real de visionado; sin miden simultáneamente los negros
embargo, se han producido más oscuros y los blancos más
561
luminosos, y se logra una A continuación se muestra una
clasificación más realista y exacta. pequeña comparación entre las dos
Por otro lado, una prueba «full-on full- tecnologías:
off» mide el contraste usando una
pantalla de negro puro y otra de Ventajas de las plasma frente a las
blanco puro, lo que consigue los LCD
valores más altos pero no representa
* Mayor contraste, lo que se
un escenario de visualización típico.
traduce en una mayor capacidad para
Los fabricantes pueden mejorar
reproducir el color negro y la escala
artificialmente el contraste obtenido
completa de grises.
incrementando el contraste y el brillo
para lograr los valores más altos en * Mayor ángulo de visión.
las pruebas. Sin embargo, un
porcentaje de contraste generado * Ausencia de tiempo de respuesta,
mediante este método sería lo que evita el efecto «estela» o
engañoso, ya que la imagen sería «efecto fantasma» que se produce en
esencialmente imposible de ver con ciertos LCD debido a altos tiempos de
esa configuración. refresco (mayores a 12 ms).
562
* Brillo: el monitor de LCD es capaz LED, porque no es lo mismo ya que
de producir colores más «brillantes», los televisores LED puros son,
más saturados que el de plasma. bastante más caros a día de hoy,
aunque como ventaja es que ofrecen
* Mayor durabilidad: la pantalla de una mejor imagen. Sin embargo los
plasma suele tener menos vida útil y televisores LCD con retroiluminación
variar su funcionamiento con las LED son más baratos, pero
condiciones de altura, dado que consumen más energía y dan una
posee gases que se modifican por menor calidad de imagen.
variaciones físicas. Los LCD no
poseen este inconveniente y tienen Una pantalla de televisión LED
mayor vida útil. dispone a día de hoy de más
conexiones de las que probablemente
Un defecto de la tecnología de se necesiten pero seguramente en un
plasma es que si se utiliza futuro serán necesarias.
habitualmente la pantalla al nivel
máximo de brillo se reduce HDMI será casi con toda probabilidad
significativamente el tiempo de vida el estándar de conexión FULL HD de
del aparato. Por este motivo, muchos alta definición, por eso los modelos
consumidores usan una configuración de LED ya disponen de hasta cuatro
de brillo por debajo del máximo. conexiones de este tipo. Respecto a
los puertos USB también son un
estándar ya en estos televisores, con
el objetivo de que se puedan conectar
Pantalla LED
todo tipo de periféricos o incluso
El televisor LED cada vez tiene más guardar y grabar contenidos de la
presencia en el mercado y poco a televisión a Internet.
poco sus características van siendo
Es conveniente saber también si el
más conocidas entre los
modelo de LED TV ya lleva
consumidores.
incorporado Wifi o puerto Ethernet, ya
Son televisores que pueden emitir que sin ellos no podrá acceder a
con una gran calidad de imagen, su internet desde el televisor sin tener
profundidad es mínima ya que que utilizar un ordenador.
gracias a la tecnología LED, las
pantallas LED son extremadamente
delgadas y además tiene muy bajo
gasto energético.
MATERIALES DE UNA LED
En este sitio web veremos una serie
de artículos con consejos prácticos Materiales especiales e innovadores
con el propósito de ayudar en la en Led Samsung
búsqueda y compra de una televisión
de pantall LED. Las nuevas televisiones LED están
realizadas con materiales muy
Antes de comprar una pantalla LED especiales e innovadores, ya que
hay que saber si es un televisor de descartan el uso de una serie de
LED o un LCD con retroiluminación
563
elementos peligrosos, como el plomo, Entre estos aspectos destacan la
el mercurio y el amoniaco. calidad de las señales analógicas, el
mejor conversor entrelazado a
De esta forma, estas tecnologías progresivo, la autodetección de
hechas a base de materiales muy resolución de la señal de entrada y la
poco voluminosos, suponen un detección del nivel de negro.
importante ahorro en otro tipo de
materiales, como los cables y otros
elementos eléctricos. Para la pantalla,
Samsung LED TV utiliza el cristal Tecnologia en las Leds
líquido como bisel y un doble
modelado por inyección que Pantallas Oled: finas, ahorradoras y...
comienza en un negro profundo y se flexibles
va convirtiendo en un marco
transparente.
Además, como los televisores de LED
no necesitan de retroiluminación
CCFLs, son completamente libres de
mercurio. Así, los componentes con
los que se fabrica Samsung LED TV
permiten eliminar y reciclar los
televisores con un impacto mínimo
para el medio ambiente.
De hecho, durante la fabricación de
estos televisores se ha eliminado Oled es la tecnología de diodos
definitivamente la emisión de orgánicos que darán vida a la nueva
compuestos orgánicos volátiles y generación de pantallas con un
otras sustancias nocivas para el menor grosor, menor consumo, más
entorno. calidad de imagen y flexibilidad
La tecnología Oled no es
Además, para crear los acabados de precisamente nueva, ya que lleva a
cristal no se utiliza pintura en aerosol sus espaldas más de 10 años de
nocivo, lo cual reduce la cantidad de investigaciones, pero hasta ahora
CO2 liberado a la atmósfera durante sólo estaban disponibles en algunos
su fabricación. De la misma forma, el aparatos que incluyen pantallas Oled,
menor peso y el menor tamaño como cámaras de fotos, móviles,
mejora la eficiencia logística y reduce reproductores multimedia portátiles o
los materiales desechados de teclados de ordenador entre otros.
embalaje. Sin embargo, recientemente los
fabricantes han presentado algunos
Por otro lado, Samsung será la única prototipos de televisores Oled y se
marca que dispondrá de un único espera que a finales de 2007, o a
chip propietario para sus televisiones. principios de 2008, se puedan ver ya
Este chip es muy potente y rápido y en las tiendas, al menos en las de
controla todos los procesos de alta Japón.
definición del televisor. Los diodos led orgánicos (Oled por
564
sus siglas en inglés) se diferencian de
otros tipos de diodos emisores de luz
en sus componentes, que mejoran las
prestaciones de muchos de los
aspectos de otras tecnologías
aplicadas a las pantallas. El
funcionamiento de una pantalla Oled
se basa en una serie de puntos
situados sobre una superficie que se
iluminan y cambian de color en
función de la intensidad del estímulo
eléctrico que reciban.
565
pueden dar mayor un tiempo de uso tecnologías que están reemplazando
en dispositivos que funcionen con a las clásicas pantallas de TV que
baterías como las agendas PDA, aparecieron allá por 1922.
ordenadores portátiles, consolas o
teléfonos móviles. Todos hemos oído hablar de TFT,
LCD, Plasma y OLED, e incluso
combinaciones de ellas, como TFT
LCD, y muchas mas sin saber en que
se diferencian unas de otras. Con
esta guía pretendemos explicar las
ventajas e inconvenientes de estas
tecnologías, así como aclarar
conceptos.
DESVENTAJAS
TFT: En primer lugar hay que aclarar
que TFT no es una tecnología de
Desventajas Led
visualización en sí, sino que
La tecnología Oled también planteaba
simplemente se trata de un tipo
inicialmente algunos retos que los
especial de transistores con el que se
fabricantes han tenido que ir
consigue mejorar la calidad de la
superando, como las limitaciones en
imagen. Su uso más frecuente es
la vida útil de los leds, especialmente
junto con las pantallas LCD, como lo
en la obtención de colores azules.
explicaremos a continuación.
El proceso de fabricación es todavía
costoso y aunque el precio de este LCD y TFT LCD: La tecnología LCD
tipo de pantallas se irá reduciendo a utiliza moléculas de cristal líquido
medida que aumente su producción y colocadas entre diferentes capas que
puedan llegar a ser más baratas que las polarizan y las rotan según se
otros tipos, puede plantear problemas quiera mostrar un color u otro. Su
de reciclaje en el futuro, por el tipo de principal ventaja, además de su
componentes que se utilizan. reducido tamaño, es el ahorro de
energía. Cuando estas pantallas usan
Otra desventaja de la tecnología Oled transistores TFT entonces estamos
es el deterioro en que sufren sus hablando de TFT LCDs, los cuales
elementos, especialmente si se utiliza son los modelos más extendidos en
en condiciones de humedad la actualidad.
PLASMA: Al contrario que las
pantallas LCD, las pantallas de
RESUMEN DE LAS 3 PANTALLAS
plasma utilizan fósforos excitados con
ANALIZADAS
gases nobles para mostrar píxeles y
dotarles de color. Aunque se inventó
en 1964 se trata de la tecnología mas
Led,lcd,plasma: diferencias retrasada, en cuanto a nivel de
implantación, de las 3 que hemos
Desde hace algunos meses, el mencionado debido a que su precio
mercado de las pantallas se está es mas elevado (aunque cada vez la
viendo invadido por nuevas diferencia es menor) y sin embargo
566
su calidad es mucho mejor. En
concreto ofrece mayor ángulo de
visión que una pantalla LCD, mejor
contraste y más realismo entre los
colores mostrados.
OLED: Por ultimo, esta tecnología
que también tiene muy pocos años y
que poco a poco también iremos
viéndola mas constantemente. Se
trata de una variante del LED clásico,
pero donde la capa de emisión tiene
un componente orgánico.
Seguramente habrás escuchado que
las pantallas OLED tienen la ventaja
de no necesitar luz trasera, con lo
que ahorran mucha mas energía que
cualquier otra alternativa. Además, su
costo también es menor. Sin
embargo, su tiempo de uso no es tan
bueno como el de las anteriores
tecnologías que les hemos
comentado.
567
Referencias
http://www.misrespuestas.com/que-es-el-internet.html
http://www.aulapc.es/internet_lared_definicion.html
http://www.gestiopolis.com/administracion-estrategia/seguridad-transacciones-
internet-ecommerce.htm
http://www.abcpedia.com/diccionario/definicion-internet.html
http://sociedadinformacion.fundacion.telefonica.com/DYC/SHI/seccion=1188&id
ioma=es_ES&id=2009100116310136&activo=4.do?elem=6832#
http://www.configurarequipos.com/doc1028.html
http://www.maestrosdelweb.com/editorial/internethis/
http://jlarienza.blogspot.com/2006/06/el-futuro-de-internet.html
http://www.euroresidentes.com/Blogs/internet/2004/11/el-internet-
del-futuro.htm
http://alt1040.com/2007/09/las-10-tendencias-para-el-internet-del-
futuro
http://axxon.com.ar/not/145/c-1450032.htm
http://www.cad.com.mx/historia_del_internet.htm
http://www.monografias.com/trabajos14/internet-hist/internet-
hist.shtml
http://www.tudiscovery.com/internet/interactivo.shtml
http://www.paralibros.com/passim/p20-tec/pg2058dr.htm
http://angelmaria.com/2007/09/04/libro-sobre-la-historia-de-internet-
en-espana/
http://www.ucm.es/BUCM/ghi/histor.htm
http://www.biografiasyvidas.com/biografia/e/edison.htm
http://www.blogpocket.com/2005/04/19/la-mejor-aportacin-de-albert-einstein/
http://es.wikipedia.org/wiki/Albert_Einstein
http://ciencia-explicada.blogspot.com/2009/06/einstein-su-aportacion-menos-
conocida.html
http://html.rincondelvago.com/vida-e-inventos-de-edison.html
http://aula2.el-mundo.es/aula/noticia.php/2002/11/14/aula1037207114.html
http://www.biografiasyvidas.com/monografia/leonardo/
http://www.practiciencia.com.ar/personas/varios/davinci/aportes/ciencia/index.html
http://es.wikipedia.org/wiki/Fibra_%C3%B3ptica
http://www.textoscientificos.com/redes/fibraoptica
http://guiamexico.com.mx/cableado-estructurado-y-fibra-optica/empresas-guia.html
http://www.textoscientificos.com/redes/fibraoptica1 (2005).
http://www.comoves.unam.mx/articulos/fibraoptica. Ing. José de la Herrán2
(UNAM).
http://www.teoveras.com.do/la-fibra-optica.3 (2010).
http://rtfogrupo18.blogspot.com/2008/03/el-costo-y-mantenimiento-de-la-fibra.html4
(2008).
Page1
http://www2.udec.cl/~jdupre/fibra/fibraop.html5 (2002)
Farley, Tom (2007), “The Cell-Phone Revolution”
Cortés, Ángel (2003). “30 años del primer móvil”Martín Inzaurralde, Jorge Isi,
Javier Garderes, “Funcionamiento de la telefonía celular”
Amaury E. del Valle. “Telefonía celular en Cuba. El futuro pasa por el móvil”
http://www.asocel.org.co/conferencias/conferencia_3.pdf
Page1