Vous êtes sur la page 1sur 21

ACEROS ESPECIALES

LA FABRICACIÓN de piezas, equipos y estructuras se hace con herramientas.


Se necesitan guillotinas para cizallar; dados para forjar; brocas para perforar;
moldes para conformar; martillos y cinceles para golpear. Hay un acero para
cada uso.

A un contemporáneo y colaborador de Bessemer en Inglaterra, de nombre


Robert Mushet, se le suele atribuir la paternidad de los aceros especiales para
fabricar herramientas. Esto, obviamente, es injusto, porque la búsqueda de
mejores herramientas ha sido tarea de la humanidad por siglos. Tres décadas
antes de los desarrollos de Mushet, el ingeniero ruso Pavel Anosof había
publicado, en dos tomos, su redescubrimiento del arte legendario de la
producción del acero de Damasco y propuso su aplicación para fabricar una
gran variedad de herramientas. Sin embargo, lo cierto es que Mushet tuvo
mejor suerte porque las ideas de Anosof nunca se aplicaron.

Robert Mushet fue lo que hoy en día se conoce como un diseñador de


aleaciones. En realidad, los diseñadores de aleaciones son metalurgistas con
"intuición educada" o colmillo largo. Se la pasan con uno o más problemas en
mente, generando nuevas aleaciones a base de prueba y error. Eso de la
"intuición educada" les sirve para proponer los elementos de aleación que van
a considerar ante un problema dado y los intervalos de composiciones donde
se van a mover. Habiendo tantos elementos en la naturaleza y siendo infinitas
las combinaciones posibles, los diseñadores de aleaciones dependen
(exactamente en ese orden, dirían los maliciosos) de su suerte, de su "intuición
educada" y de su capacidad para producir y caracterizar el máximo número de
combinaciones posibles.

Robert Mushet se basaba en el sistema hierro-carbono y experimentaba con


adiciones de aleantes. Su primer gran éxito fue la sugerencia de adicionar
manganeso durante la aceración en los convertidores de arrabio en acero de
Bessemer. En el plano comercial, esto representó uno de los mayores
impulsos al desarrollo tecnológico de Bessemer: El manganeso ayuda en el
proceso de fabricación de acero y repercute positivamente en sus propiedades
finales. Cuando el acero está procesándose en el estado líquido, el manganeso
ayuda a desoxidarlo y captura al azufre, formando partículas alargadas que
hacen al acero más maquinable. El manganeso, además, incrementa la
resistencia del acero. Hoy en día casi todos los aceros comerciales, incluyendo
los aceros simples al carbono, se fabrican con adiciones de manganeso.

En uno de sus múltiples experimentos, Mushet detectó barra de acero se


templó cuando la extrajo del horno al rojo vivo y la dejó enfriar en el aire
lentamente. Esto llamó mucho su atención porque normalmente los aceros
requieren de un enfriamiento muy rápido para templarse, cuando al rojo vivo
se sumergen en agua. Mushet verificó la composición química de la barra de
acero y encontró que, además de hierro, carbono y manganeso, había
tungsteno.

De inmediato Mushet se dedicó a explorar cientos de combinaciones alrededor


de la composición de su barra inicial, hasta que decidió salir al mercado con
un acero con 2% de carbono, 2.5% de manganeso y 7% de tungsteno,
aproximadamente. La primera compañía que comercializó al flamante "acero
especial de Robert Mushet" fracasó. Algunos años después otra compañía
inglesa logró establecerse con este producto. Transcurrían entonces los años
setenta del siglo pasado.

Fue necesario esperar varias décadas para que se descubrieran las


propiedades más interesantes del acero de Mushet. Inicialmente, la atención
se centró en la gran dureza de este acero y en su extraordinaria capacidad de
resistir al desgaste. Se hicieron muchas herramientas para maquinar aceros
que podían trabajar por horas sin necesidad de aliarse con frecuencia. Muchos
años después se descubrió que la velocidad de corte de las herramientas
podía incrementarse notablemente. El acero de Mushet es el antecedente de
los modernos aceros de "alta velocidad".

Hoy las herramientas para maquinar, llamadas herramientas de corte, se


hacen con aceros de alta velocidad. A principios del presente siglo los aceros
de alta velocidad llevaban un alto porcentaje de tungsteno, alrededor del 18%.
Contenían cromo, en un 4%; además del carbono, el manganeso y el silicio.
Durante la segunda Guerra Mundial y la Guerra de Corea hubo una tremenda
escasez de tungsteno. Como no era fácil en esos días pasar enfrente de Japón
con el tungsteno de las minas de China y de Corea hacia América, se
financiaron muchas investigaciones para sustituirlo. El molibdeno pronto
destacó como sustituto y, para cuando los conflictos bélicos se habían
apaciguado, el molibdeno estaba completamente firme en el mercado. En la
actualidad, la mayoría de los aceros de alta velocidad emplean al molibdeno
en lugar del tungsteno.

Los aceros de alta velocidad a base de tungsteno se designaban con una letra
"T" y uno o dos dígitos. Por ejemplo, los aceros TI y T2 fueron muy populares
en los años veinte y treinta. Ahora, las brocas y los cortadores de los talleres
mecánicos se hacen con aceros de la serie "M", llamada así por el molibdeno.

Aparte de los aceros para herramientas de corte existen aceros especiales


para el conformado de piezas en forjas y troqueles donde, además de la
resistencia al desgaste, por fricción, se logra una gran tenacidad para absorber
muchísimos golpes. Propiedades similares se esperan de las herramientas
para cizallar y agujerar, las cuales, además, deben tener una gran estabilidad
dimensional en los tratamientos térmicos.

La selección del acero apropiado para cada tipo de herramienta es todo un


arte. No es nada fácil establecer una relación directa entre la adición de un
aleante específico y la característica del acero que se modifica.

Además, hay que tomar en cuenta variables como el procesado y los


tratamientos térmicos, que suelen tener gran influencia. Sin embargo, en
términos generales, puede decirse que las características enunciadas en la
columna izquierda del cuadro 2 se ven afectadas, en orden decreciente, por
los elementos que se enlistan en la columna derecha.

El dominio de los elementos que aparecen en el cuadro 2 ha sido causa de


conquistas, colonizaciones, guerras y golpes de Estado. Lamentablemente la
madre naturaleza distribuyó de manera muy desigual estos elementos, que se
han vuelto estratégicos para muchos países. No son estratégicos por su
cantidad, pues el volumen de acero fabricado con estos aleantes es inferior al
1% del total. Lo estratégico reside en que la transformación del total de acero
fabricado, en equipos y estructuras, requiere de herramientas hechas a base
de aceros especiales. Todavía más estratégico es el uso de aceros especiales
en la manufactura de instrumental bélico.

CUADRO 2. Efecto de los


elementos aleantes en las
características de los aceros para
herramientas

Características Elemento*

tungsteno,
Dureza a alta molibdeno, cobalto,
temperatura vanadio, cromo,
manganeso.
Resistencia al vanadio, tungsteno,
desgaste por molibdeno, cromo,
fricción manganeso.
manganeso,
Endurecimiento molibdeno, cromo,
profundo silicio, níquel,
vanadio.
Distorsión
molibdeno, Cromo,
mínima en el
manganeso.
temple
vanadio, tungsteno,
Resistencia al
molibdeno,
impacto
manganeso, cromo.

El cromo, que influye en todos los renglones que se mencionan en el cuadro


2, está sumamente concentrado. El 88% de la producción mundial se localiza
en la URSS (33%), Sudáfrica (23%), Filipinas (,9%), Turquía (9%) y Zimbawe
(7%). Otro ejemplo es el cobalto, pues solamente Zaire, Finlandia y Cuba
concentran el 64% del total. Una idea global de la distribución de estos
elementos aleantes se presenta en la figura 31.
Figura 31. Principales zonas geográficas de extracción de minerales que contienen los
elementos aleantes más importantes para la fabricación de aceros especiales. Su distribución
sobre la corteza terrestre está sumamente concentrada en unos cuantos países. El número entre
paréntesis que sigue al símbolo de cada elemento representa al porcentaje de la producción
mundial localizada en la zona.

Los datos empleados para construir el mapa de la figura 31 corresponden a


los centros más importantes de producción a finales de la década de los
sesenta. En los últimos años se han abierto grandes expectativas debido a los
descubrimientos de enormes yacimientos localizados en los lechos marinos y
en la Antártida. Es probable que el mapa geoeconómico de los minerales
estratégicos sufra cambios importantes en un futuro no muy lejano.

EL ENDURECIMIENTO SUPERFICIAL

La competencia entre la dureza de los aceros y su tenacidad es casi tan vieja


como el acero mismo. Es fácil hacer que un acero sea duro aunque frágil, o
que un acero sea dúctil y tenaz, pero blando. Que sea duro, dúctil y tenaz ya
no es tan fácil. Siempre se tiene que llegar a un compromiso porque, de lo
contrario, una propiedad se come a la otra.

Muchas herramientas dependen de su filo para poder trabajar en forma


continua. Al perforar un acero, la broca sufre el desgaste de sus filos. Como la
resistencia al desgaste de los aceros es casi siempre proporcional a su dureza,
entre más dura sea la broca, mayor duración tendrá su filo. No sería difícil
conseguir aceros y otros materiales durísimos con los cuales fabricar las
brocas; el problema sería enfrentar su fragilidad. Por un lado hay que fabricar
la broca misma, lo que impone al acero la necesidad de dejarse cortar y
maquinar. Luego, la broca debe ser capaz mientras opera, de transmitir la
energía de movimiento del taladro hacia el material que se perfora. La broca
debe ser tenaz para soportar esfuerzos de flexión y torsión de manera
permanente, además de impactos ocasionales.

Durante cientos de años los metalurgistas le han dado vueltas a este problema
y también desde hace cientos de años han sabido que las herramientas de
corte solamente necesitan enfrentar el problema del desgaste en la superficie
y no en su interior. Visto así, el problema se simplifica un poco porque se puede
endurecer considerablemente una capa de una a dos décimas de milímetro en
el exterior de una herramienta mientras se mantiene su interior menos duro
pero sumamente tenaz.

Hay técnicas de endurecimiento superficial de los aceros que se han


practicado desde tiempo inmemorial. Aquí y allá, en el espacio y en el tiempo,
se han localizado vestigios que indican los esfuerzos de los antiguos por lograr
superficies duras para sus herramientas y armas. Los herreros antiguos
empleaban el carbono y el nitrógeno para endurecer la superficie de sus
aceros. Al carbono lo tomaban de la leña y lo metían al acero al rojo vivo por
contacto. También por contacto con la orina de las cabras, o la sangre de los
esclavos, se lograba la penetración de nitrógeno en el acero candente.

En la segunda mitad del siglo XX, la metalurgia ha recurrido a la física de los


plasmas para lograr el endurecimiento termoquímico de la superficie de los
aceros. El endurecimiento es termoquímico porque el proceso ocurre a
temperaturas elevadas y porque se emplean agentes químicos como
endurecedores.

La física de los plasmas no se refiere al plasma de la sangre que se empleaba


para nitrurar a los aceros en la antigüedad. El plasma, en la física, se refiere,
a un cuarto estado de la materia constituido por un gas ionizado. Aquí, ionizado
quiere decir que los átomos o las moléculas que constituyen al gas no tienen
carga eléctrica neutra: son iones. Normalmente los átomos en el estado
gaseoso tienen carga neutra porque el número de electrones negativos que
rodean al núcleo del átomo es igual al número de protones positivos que tiene
dicho núcleo. Los átomos se convierten en iones cuando sueltan uno o más
electrones, desequilibrando así su carga.

El gas en el interior de la flama de un cerillo está en el estado de plasma y lo


mismo ocurre con el gas de una lámpara de neón que está encendida. En
ambos casos los gases contienen una gran cantidad de iones, aunque no
necesariamente todos los átomos o moléculas están ionizados en el interior de
un plasma.

Para que un gas se convierta en plasma se requiere de algún agente que


rompa la neutralidad de los átomos o moléculas. Por ejemplo, en una lámpara
de gas es el flujo de una corriente eléctrica a través del gas lo que mantiene el
estado de plasma. En este caso, parte de la energía eléctrica se convierte en
energía luminosa, en luz.

El paso de una corriente eléctrica a través del nitrógeno en estado gaseoso


produce muchos iones positivos de nitrógeno. Son iones positivos porque la
descarga eléctrica induce la separación de electrones, que tienen carga
negativa, de las capas exteriores de los átomos. Este fenómeno se aprovecha
para atraer a los iones positivos de nitrógeno hacia el acero, por la vía de
conectar al acero a un polo eléctrico negativo.

El esquema de una cámara de plasma para la nitruración iónica de aceros se


presenta en la figura 32. Es una cámara muy bien sellada que se evacua, es
decir, se le saca el aire con una bomba de vacío, una especie de aspiradora
muy efectiva. Cuando la presión de aire es bajísima en la cámara (algo así
como una millonésima de la presión atmosférica), se introduce, por una válvula
muy bien regulada, una mezcla de gases de nitrógeno e hidrógeno. El flujo de
nitrógeno e hidrógeno debe ser muy reducido para que, con la bomba de vacío
en operación, la presión en la cámara se mantenga en una milésima de la
presión atmosférica. La pieza de acero cuya superficie se desea nitrurar se
instala sobre un portamuestras que tiene una conexión eléctrica al exterior pero
a la vez está aislada de la cámara. Esta instalación permite conectar a la pieza
de acero por el lado negativo, y al cuerpo de la cámara por el lado positivo, a
los polos de una fuente eléctrica de alto voltaje. Usualmente el polo positivo se
conecta también a tierra para dar seguridad al sistema.

Figura 32. Diagrama de un sistema de plasmas para la nitruración iónica de los aceros. La pieza
de acero se coloca sobre un portamuestra adentro de una cámara sellada herméticamente. Con
una bomba de vacío se extrae el aire y, posteriormente, se inyecta un flujo muy pequeño de una
mezcla de gases de nitrógeno e hidrógeno. La pieza de acero, a través del portamuestras, se
conecta al polvo negativo de una fuente eléctrica de alto voltaje. El flujo de corriente eléctrica a
través de la mezcla de gases enciende un plasma luminoso con alto contenido de iones positivos
de nitrógeno que son atraídos hacia la pieza de acero conectada al polo negativo.
Figura 33. Metalografía de una superficie de un acero de ultra alto carbono endurecida con
nitruración iónica. Las partículas en forma de fibras son nitruros de hierro. Fotografía del
ingeniero José Luis Albarrán y de Alfredo Sánchez Ariza.

Figura 34. Fotografía del sistema de plasmas para nitruración iónica del IFUNAM.

Cuando el voltaje de la fuente eléctrica se eleva hasta los 300 voltios, se forma
una aureola luminosa alrededor de la pieza de acero, que indica que la mezcla
gaseosa se encuentra en el estado de plasma. Al subir hasta los 500 voltios,
la luminosidad del plasma aumenta y se produce una mayor concentración de
iones de nitrógeno.

Aparte de producir iones, la descarga eléctrica libera energía térmica capaz de


elevar la temperatura del acero hasta 500°C o más. A estas temperaturas, los
iones de nitrógeno, que constantemente golpean la superficie del acero,
encuentran condiciones muy favorables para penetrar al interior del acero por
difusión. Es factible que en cosa de horas el nitrógeno se haya difundido y
formado una corteza nitrurada de varias décimas de milímetro.

El nitrógeno, al entrar al acero, tiende a formar, con el hierro y con los


elementos que contenga en su aleación, partículas de varias composiciones,
tamaños y formas. Es común que se formen nitruros de hierro en forma de
fibras, como se muestra en la micrografía de la figura 33. Ésta corresponde a
la superficie de un acero de ultra alto que fue nitrurado en la cámara que se
muestra en al figura 34.

El incremento de la dureza superficial de los aceros puede medirse empleando


un instrumento llamado microdurómetro. Es un microscopio óptico que tiene
como aditamento una punta de diamante en forma de pirámide que se ilustra
en la figura 35. Al aplicar una carga definida, la punta de diamante se hace
incidir sobre una superficie de acero. Luego se retira la punta y se mide, con la
ampliación del microscopio, la diagonal de la huella que se dejó sobre la
superficie. La dureza del acero se calcula con la siguiente fórmula:
Figura 35. Puntas de pirámide de diamante y la huella que deja en un metal. Si la carga se
mantiene invariable la punta de diamante hará una huella grande en un metal blando. En un
metal más duro, por el contrario, la punta penetrará menos y la huella será menor.

donde P es la carga que se aplicó sobre la punta de diamante, L es la diagonal


y K es una constante propia del equipo de medición. Si la carga aplicada no se
cambia, la dureza de un material es inversamente proporcional al cuadrado de
la diagonal de la huella. Si la huella es grande, la dureza es pequeña porque
se trata de un material blando. Por el contrario, un material duro deja penetrar
poco al diamante y sólo se forma una huella pequeña.

Usualmente la muestra de acero se corta en la dirección perpendicular a la


superficie nitrurada y se pule con abrasivos muy finos hasta quedar como
espejo. La punta de diamante se aplica en puntos cercanos a la cara nitrurada
hasta puntos en el interior del material, y deja el tipo de huellas como las que
se muestran en la figura 36. Abajo, en la misma figura, se presentan los
resultados de una determinación de dureza en un acero de alta velocidad, M2,
nitrurado iónicamente.
Figura 36. (a) Corte de una muestra para medir el incremento de dureza que se logra con la
nitruración iónica de los aceros. Las huellas del microdurómetro serán más pequeñas cerca de
la superficie nitrurada y mayores en el interior del acero. (b) Perfil de dureza de un acero de alta
velocidad nitrurado iónicamente. En la capa exterior la dureza se incrementó notablemente.

Figura 37. Muestra preparada para hacer una fractografía de un acero endurecido
superficialmente.

El endurecimiento superficial de los aceros también puede observarse en una


"fractografía". La forma de la superficie que deja una fractura de un acero
endurecido superficialmente es muy peculiar. Para hacer esta observación se
corta una muestra en forma de paralelepípedo ranurado, como se indica en la
figura 37. La superficie opuesta a la ranura es la que se expone a la nitruración
iónica por varias horas. Cuando la muestra se extrae de la cámara se moja en
nitrógeno líquido para que su temperatura baje hasta 196°C bajo cero. La
ranura de la muestra se aprovecha para inducir la fractura, aplicando un
esfuerzo de flexión (Figura 37). La superficie, de la fractura se examina
después en un microscopio electrónico de barrido donde se obtiene la
"fractografía" de la figura 38. Cerca de la superficie nitrurada la fractura es más
brillante porque el acero no se deformó mucho. Más adentro, el material se
fracturó de una manera más dúctil porque se observa mayor desgarramiento.
La frontera, no muy bien definida, entre la zona endurecida y aquella que se
mantiene dúctil se señala en la figura 38.

Figura 38. Vista de la fractura de un acero nitrurado iónicamente. Cerca de la superficie nitrurada
la fractura se ve más brillante, porque es poco profunda y frágil. En el interior del acero hay
mayor desgarramiento porque el acero es más dúctil. Fotografía de José Luis Albarrán y Alfredo
Sánchez Ariza.

MATERIALES INTELIGENTES
SISTEMAS MICROELECTROMECANICOS
Sistemas Microelectromecánicos (Microelectromechanical Systems, MEMS) se refieren
a la tecnología electromecánica, micrométrica y sus productos, y a escalas
relativamente más pequeñas (escala nanométrica) se fusionan en sistemas
nanoelectromecánicos (Nanoelectromechanical Systems, NEMS) y Nanotecnología.
MEMS también se denominan 'Micro Máquinas' (en Japón) o 'Tecnología de Micro
Sistemas' - MST (en Europa). Los MEMS son independientes y distintos de la hipotética
visión de la nanotecnología molecular o Electrónica Molecular. MEMS en general varían
en tamaño desde un micrómetro (una millonésima parte de un metro) a un milímetro
(milésima parte de un metro). En este nivel de escala de tamaño, las construcciones de
la física clásica no son siempre ciertas. Debido a la gran superficie en relación al
volumen de los MEMS, los efectos de superficie como electrostática y viscosidad
dominan los efectos de volumen tales como la inercia o masa térmica. El análisis de
elementos finitos es una parte importante del diseño de MEMS. La tecnología de
sensores ha hecho progresos significativos debido a los MEMS. La complejidad y el
rendimiento avanzado de los sensores MEMS ha ido evolucionando con las diferentes
generaciones de sensores MEMS.1

El potencial de las máquinas muy pequeñas fue apreciado mucho antes de que existiera
la tecnología que pudiera construirlas - véase, por ejemplo, la famosa lectura de 1959
de Feynman "Hay mucho espacio en lo pequeño". Los MEMS se convirtieron en
prácticos una vez que pudieran ser fabricados utilizando modificación de tecnologías de
fabricación de semiconductores, normalmente utilizadas en electrónica. Estos incluyen
moldeo y galvanoplastia, grabado húmedo (KOH, TMAH) y grabado en seco (RIE y
DRIE), el mecanizado por electro descarga (EDM), y otras tecnologías capaces de
fabricar dispositivos muy pequeños.

Existen diferentes tamaños de empresas con importantes programas MEMS. Las


empresas más grandes se especializan en la fabricación de componentes de bajo costo
alto volumen o paquetes de soluciones para los mercados finales como el automotriz,
biomedicina, y electrónica. El éxito de las pequeñas empresas es ofrecer valor en
soluciones innovadoras y absorber el costo de fabricación con altos márgenes de
ventas.Tanto las grandes como las pequeñas empresas realizan trabajos de I + D para
explorar la tecnología MEMS.

Uno de los mayores problemas de los MEMS autónomos es la ausencia de micro


fuentes de energía con alta densidad de corriente, potencia y capacidad eléctrica.

7 Notas
MEMS descripción
Los avances en el campo de los semiconductores están dando lugar a circuitos
integrados con características tridimensionales e incluso con piezas móviles. Estos
dispositivos, llamados Sistemas Micro electromecánicos (MEMS), pueden resolver
muchos problemas que un microprocesador más el software o configuración no ASIC
(Chip integrados de aplicación específica) no pueden. La tecnología MEMS puede
aplicarse utilizando un sin número de diferentes materiales y técnicas de fabricación; la
elección dependerá del tipo de dispositivo que se está creando y el sector comercial en
el que tiene que operar.

Silicio
El silicio es el material utilizado para crear la mayoría de los circuitos integrados
utilizados en la electrónica de consumo en el mundo moderno. Las economías de
escala, facilidad de obtención y el bajo costo de los materiales de alta calidad y la
capacidad para incorporar la funcionalidad electrónica hacen al silicio atractivo para una
amplia variedad de aplicaciones de MEMS. El silicio también tiene ventajas significativas
que han surgido a través de sus propiedades físicas. En la forma mono cristalina, el
silicio es un material Hookeano (cumple la ley de Hooke) casi perfecto, lo que significa
que cuando está en flexión prácticamente no hay histéresis y, por lo tanto, casi no hay
disipación de energía. Así como para hacer movimientos altamente repetibles, esto hace
también que el silicio sea muy fiable, ya que sufre muy pequeña fatiga y puede tener
una duración de vida de servicio en el rango de billones o trillones de ciclos sin romper.
Las técnicas básicas para la producción de todos los dispositivos MEMS basados en
silicio son la deposición de capas de material, produciendo un patrón en estas capas
por fotolitografía y luego grabando para producir las formas necesarias.
Polímeros
A pesar de que la industria de la electrónica proporciona una economía de escala para
la industria del silicio, el silicio cristalino es todavía un material complejo y relativamente
costoso de producir. Los polímeros por el contrario se pueden producir en grandes
volúmenes, con una gran variedad de características materiales. Los dispositivos MEMS
pueden hacerse de polímeros, por los procesos de moldeo por inyección, estampado o
estéreo litografía y son especialmente adecuados para aplicaciones micro fluídicas tales
como los cartuchos desechables para análisis de sangre.

Metales
Los metales también se pueden usar para crear elementos MEMS. Aunque los metales
no tienen algunas de las ventajas mostradas por el silicio en términos de propiedades
mecánicas, cuando se utilizan dentro de sus limitaciones, los metales pueden presentar
grados muy altos de fiabilidad.

Los metales pueden ser depositados por galvanoplastia, por evaporación, y mediante
procesos de pulverización.

Los metales comúnmente utilizados incluyen al oro, níquel, aluminio, cromo, titanio,
tungsteno, plata y platino.

Procesos MEMS
Procesos de Deposición
Uno de los elementos básicos en el procesamiento de MEMS es la capacidad de
depósito de películas delgadas de materiales. En este texto asumimos que una fina
película puede tener un espesor de entre unos pocos nanómetros a unos 100
micrómetros. Los procesos de deposición de uso común son: Electroenchapado
(Electroplating), Deposición pulverizada (Sputter deposition), la deposición física de
vapor (PVD) y deposición química de vapor (CVD).

Fotolitografía
Artículo principal: Fotolitografía
Litografía en el contexto MEMS es, por lo general la transferencia de un patrón a un
material fotosensible por exposición selectiva a una fuente de radiación, como la luz. Un
material fotosensible es un material que experimenta un cambio en sus propiedades
físicas cuando es expuesto a una fuente de radiación. Si nosotros exponemos
selectivamente un material fotosensible a la radiación (por ejemplo, mediante el
enmascaramiento de algo de la radiación) el patrón de la radiación sobre el material es
transferido al material expuesto, resultando en que las propiedades de las regiones
expuestas y no expuestas difieren.
Esta región expuesta puede luego ser eliminada o tratada proveyendo una máscara
para el sustrato subyacente. La Fotolitografía es típicamente usada con metal u otra
deposición de película delgada, en procesos de grabado secos o mojados.

Procesos de grabado
Hay dos categorías básicas de procesos de grabado: grabado mojado y seco. En el
primer caso, el material se disuelve cuando se sumerge en una solución química. En el
último, el material se pulveriza o disuelve utilizando vapor iones reactivos o un grabado
de fase vapor. Véase Williams y Muller [1] o Kovacs, Maluf y Peterson [2] para un poco
de visión de conjunto de las tecnologías de grabado MEMS.

Grabado húmedo o mojado


Artículo principal: Grabado húmedo
El grabado por mojado químico consiste en una eliminación selectiva de material por
inmersión de un sustrato dentro de una solución que la pueda disolver. La naturaleza
química de este proceso proporciona una buena selectividad, lo cual significa que la
tasa de grabado del material a grabar es considerablemente más alta que la del material
de la máscara si se selecciona cuidadosamente.

Algunos materiales mono cristalinos, como el silicio, tendrán diferentes tasas de


grabados dependiendo en la orientación cristalográfica del sustrato. Esto se conoce
como grabado anisotrópico y uno de los ejemplos más comunes es el grabado del silicio
en KOH (hidróxido de potasio), donde los planos<111> del Silicio se graban
aproximadamente 100 veces más lento que otros planos (orientaciones cristalográficas).
Por lo tanto, grabando un agujero rectangular en un (100)- una oblea de silicio resulta
en un grabado de ranuras en forma de pirámide con paredes en ángulo de 54.7°, en
lugar de un agujero con paredes curvas como podría ser el caso del grabado isotrópico,
donde los procesos de grabado progresan a la misma velocidad en todas las
direcciones. Agujeros largos y estrechos en una máscara producirán surcos en el silicio.
La superficie de estas ranuras puede ser automáticamente suavizadas si el grabado se
lleva a cabo correctamente, con las dimensiones y los ángulos siendo extremadamente
precisos.

El grabado Electroquímico (CEPE) para una eliminación selectiva del dopante del silicio
es un método común para automatizar y controlar selectivamente el grabado. Se
requiere un diodo de juntura p-n activo, y cualquier tipo de dopante puede actuar como
material resistente al grabado ("detención del grabado"). El Boro es el dopante más
común de detención del grabado. En combinación con el grabado mojado anisotrópico
como se ha descrito anteriormente, el ECE se ha utilizado con éxito para el control del
espesor del diafragma de silicio en sensores de presión piezo-resistivos de silicio. Las
regiones selectivamente dopadas pueden ser creadas tanto por implantación, difusión,
o deposición epitaxial de silicio.
Grabado por iones reactivos (RIE)
Artículo principal: Grabado por iones reactivos
En el grabado por iones reactivos (RIE), el sustrato se coloca dentro de un reactor en el
que se introducen varios gases. El plasma es pulsado en la mezcla de gases utilizando
una fuente de energía de RF, rompiendo las moléculas del gas en iones. Los iones son
acelerados y reaccionan con la superficie del material siendo grabado, formando otro
material gaseoso. Esto se conoce como la parte química del grabado por iones
reactivos. También hay una parte física que es de naturaleza similar al proceso de
deposición por pulverización. Si los iones poseen energía suficientemente alta, pueden
impactar a los átomos fuera del material a ser grabado sin una reacción química. Es una
tarea muy compleja desarrollar procesos de grabado en seco que equilibren grabado
químico y físico, ya que hay muchos parámetros a ajustar. Al cambiar el equilibrio es
posible influir en la anisotropía del grabado, ya que la parte química es isotrópica y la
parte física altamente anisotrópica, la combinación puede formar paredes laterales, que
tienen formas desde redondeadas a verticales.

Grabado profundo de iones reactivos (DRIE)


Artículo principal: Grabado profundo de iones reactivos
Una subclase de la RIE, que continúa creciendo rápidamente en popularidad es la RIE
profunda (DRIE). En este proceso, las profundidades de grabado de cientos de
micrómetros pueden ser alcanzados con paredes casi verticales. La principal tecnología
se basa en el llamado "proceso de Bosch" [3], llamado luego de que la empresa alemana
Robert Bosch, presentara la patente original, donde dos composiciones de gases
diferentes se alternan en el reactor. Actualmente hay dos variaciones de la DRIE. La
primera modificación consiste en tres pasos (el proceso de Bosch, tal como se utiliza en
la herramienta UNAXIS), mientras que la segunda variación sólo consiste en dos pasos
(ASE utilizado en la herramienta de STB). En la 1 ª Modificación, el ciclo de grabado es
el siguiente: (i) SF6 grabado isotrópico; (ii) C4F8 pasivación; (iii) SF6 grabado
anisoptrópico para limpieza de suelo. En la 2 ª variación, los pasos (i) y (iii) se combinan.

Ambas variaciones funcionan de manera similar. El C4F8 crea un polímero sobre la


superficie del sustrato, y en el segunda, la composición del gas (SF6 y O2) graba el
sustrato. El polímero es inmediatamente pulverizado lejos por la parte física del grabado,
pero sólo en las superficies horizontales y no en las paredes laterales. Desde el polímero
sólo se disuelve muy lentamente en la parte de la química de grabado, se acumula en
las paredes laterales y los protege de grabado. Como resultado de ello, el grabado se
pueden alcanzar relaciones de aspecto de 50 a 1. El proceso puede ser utilizado
fácilmente para grabar completamente a través de un sustrato de silicio, y las tasas de
grabado son 3-4 veces más altas que el grabado mojado.

Grabado por difluoruro de xenón


El difluoruro de xenón (XeF2) es un grabador por fase de vapor seco isotrópica para
silicio originalmente aplicada en MEMS en 1995 en la Universidad de California, Los
Ángeles [4] [5]. Originalmente usada para la liberdarión de estructuras de metal y
dieléctricas por medio del cortado del silicio, XeF2 tiene la ventaja de no tener pegado
por viscosidad a diferencia del grabado mojado. Su selectividad de grabado es muy alta,
lo que le permite trabajar con fotoresistencia, SiO2, nitruro de silicio, y diversos metales
para enmascarar. Su reacción al silicio es "libre de plasma", es puramente químico y
espontáneo y a menudo es operado en modo pulsado. Se encuentran disponibles
modelos de la acción del grabado están disponibles[6], y laboratorios universitarios y
diversas herramientas comerciales ofrecen soluciones utilizando este enfoque.

Paradigmas de los MEMS de Silicio


Micromaquinado volumétrico
Artículo principal: Micromaquinado volumétrico
Micromaquinado volumétrico es el paradigma más antiguo de los MEMS basado en
silicio. Todo el grosor de una oblea de silicio se utiliza para la construcción de las micro-
estructuras mecánicas. [2] El silicio es mecanizado utilizando diversos procesos de
grabado. La unión anódica de placas de vidrio u obleas de silicio adicionales se utilizan
para añadir características tridimensionales y para encapsulación hermética. El
micromáquinado volumétrico ha sido esencial para que los sensores de presión de alto
rendimiento y acelerómetros que han cambiado la forma de la industria de los sensores
en los 80's y 90's.

Micromaquinado superficial
Artículo principal: Micromaquinado superficial
El micromáquinado superficial utiliza deposición de capas sobre la superficie de un
sustrato como material estructural, en lugar de utilizar el sustrato mismo. [7] El
micromaquinado superficial se creó a fines de los 80 para hacer el micromáquinado de
silicio más compatibles con la tecnología de circuito integrado plano, con el objetivo de
la combinación de MEMS y circuitos integrados en la misma oblea de silicio. El concepto
original del micromaquinado superficial se basa en delgadas capas de silicio
policristalino modelado como estructuras mecánicas móviles y expuestas por grabado
de sacrificio de las subcapas de óxido. Electrodos en peine interdigital son utilizados
para producir fuerzas en plano y detectar movimientos en plano de forma capacitiva.
Este paradigma MEMS ha permitido a la manufactura de acelerometros de bajo costo,
por ejemplo sistemas de Bolsas de aire para automóviles (Air-bags) y otras aplicaciones
donde bajos rendimientos y/o altos rangos de "g" son suficientes. Mecanismos
Analógicos han sido pioneros en la industrialización del micromaquinado superficial y
han realizado la co-integración de los MEMS y los circuitos integrados.

Micromaquinado de Alta relación de aspecto (HAR)


Ambos micromaquinados volumétrico y superficial son todavía usados en la producción
industrial de los sensores, las boquillas de chorro de tinta y otros dispositivos. Pero, en
muchos casos, la distinción entre estos dos ha disminuido. La nueva tecnología de
grabado, el grabado profundo por iones reactivos ha hecho posible combinar el buen
desempeño típico del micromaquinado volumétrico con estructuras en peine y
operaciones en plano típicas de micromaquinado superficial. Si bien es común en el
micromaquinado superficial tener espesores de capa estructurales en el rango de 2 μm,
en el micromaquinado HAR el espesor es de 10 a 100 μm. Los materiales comúnmente
utilizados en el micromaquinado HAR son silicio policristalino denso, conocido como epi-
poly, y las obleas pegadas de silicio-sobre-aislante (SOI), si bien los procesos para las
obleas de silicio volumétricas también han sido creadas (SCREAM). Pegando una
segunda oblea mediante fritura de vidrio, la unión anódica o unión de aleación se utiliza
para proteger las estructuras MEMS. Los circuitos integrados están normalmente no
combinados con el micromaquinado HAR. El consenso de la industria en este momento
parece ser que la flexibilidad y la reducción en complejidad obtenidos teniendo las dos
funciones separadas parece pesar más que la pequeña penalidad en el envasado. pipi

Aplicaciones
Aplicaciones comunes incluyen:

Impresoras de inyección de tinta, que utilizan piezoeléctricos o burbuja térmica de


eyección para depositar la tinta sobre el papel.
Acelerómetros en los automóviles modernos para un gran número de finalidades, entre
ellas el despliegue de colchón de aire (airbag) en las colisiones.
Acelerómetros en dispositivos de electrónica de consumo, tales como controladores de
juegos (Nintendo Wii), reproductores multimedia personales y teléfonos móviles (Apple
iPhone) [8] y una serie de Cámaras Digitales (varios modelos Canon Digital IXUS).
También se usa en ordenadores para estacionar el cabezal del disco duro cuando es
detectada una caída libre, para evitar daños y pérdida de datos.
Giroscopios MEMS modernos utilizados en automóviles y otras aplicaciones de
orientación para detectar, por ejemplo, un rolido y desplegar una cortina air-bag más o
activar el control dinámico de estabilidad.
Sensores de presión de Silicio, por ejemplo, en sensores de presión de neumáticos de
automóviles, y en sensores de presión arterial desechables.
Pantallas por ejemplo, el chip DMD en un proyector basado en la tecnología DLP posee
en su superficie varios cientos de miles de microespejos.
Tecnología de conmutación de fibra óptica que se utiliza para tecnología de conmutación
y alineación para comunicaciones de datos.
Proyector de cine digital : Philippe Binant2 realizó, 2000, la primera proyección de cine
numérico público de Europa, fundada sobre la aplicación de un MEMS desarrollado por
Texas Instruments.3
Aplicaciones Bio-MEMS aplicaciones en medicina y tecnologías relacionadas con la
salud desde Lab-On-Chip (laboratorios en un chip) a Análisis Micro Total (biosensores,
sensores químicos) para MicroTotalAnalysis (biosensor, chemosensor).
Aplicaciones IMOD en la electrónica de consumo (sobre todo pantallas en los
dispositivos móviles). Se utiliza para crear tecnología pantalla de modulación
interferométrica - reflexiva.
El Adams Golf DiXX Digital Instrucción Putter usa MEMS, concretamente un
microsistema de navegación inercial para analizar los factores del movimiento del swing,
incluyendo el camino, el tiempo, la velocidad y los niveles de vibración de la mano.
Microscopia de fuerza atómica o AFM: Los sensores de fuerza (micropalancas) usados
en AFM son en sí sistemas microelectromecánicos producidos con técnicas de
microfabricación. Con estos pueden obtenerse medidas de fuerzas en el rango de pN
(piconewton) a nN (nanonewton), así como levantar topografías de superficies a escala
atómica.
Aceleración drámatica del tiempo de mezclado en micro fluidos.4

NANOMATERIALES
Nanomateriales
¿QUÉ ES LA NANOTECNOLOGÍA?
Para hablar de nanotecnología, primero es preciso saber qué es un nanómetro.
El prefijo nano quiere decir 10-9, es decir, una milmillonésima (0,000000001) parte. Un
nanóme-tro (nm) es una milmillonésima parte de un metro. Un nanómetro es decenas
de miles de veces más pequeño que el diámetro de un cabello humano. En esta
publicación utilizaremos la palabra nanotecnología como término colectivo que abarque
las distintas ramas de las nanociencias y de las nanotecnologías.
Aunque muy a menudo se hace referencia a la ciencia de lo pequeño, la nanotecnología
no implica simplemente estructuras y productos muy pequeños. A menudo, se
incorporan a materiales volumétricos y a grandes superficies algunos rasgos y
características de la nano escala.
Conceptualmente, la nanotecnología se refiere a las actividades científicas y
tecnológicas llevadas a cabo a escala atómica y molecular, a los principios científicos y
a las nuevas propiedades que pueden comprenderse y controlarse cuando se interviene
a dicha escala. Estas propiedades pueden observarse y explotarse tanto a escala
microscópica como macroscópica, por ejemplo, para el desarrollo de materiales e
instrumentos con nuevas funciones y prestaciones.
Nanotecnología. Un poco de historia ,En la conferencia que dictó en 1959, el físico
(premio Nobel) Richard Feynman dijo que hay mucho espaio en la parte inferior (el título
original de la conferencia fue There’s plenty of room at the bottom) y pronosticó que, si
en un futuro se pudieran fabricar y manipular materiales de dimensiones atómicas o
moleculares, se podrían realizar una asombrosa cantidad de nuevos descubrimientos.
En aquella conferencia, Feynman abordo los beneficios que supondría para la sociedad
el hecho de que fuéramos capaces de manipular la materia y fabricar artefactos con una
precisión de unos pocos átomos, lo que corresponde a una dimensión de 1 nm,
aproximadamente.
Cuarenta años después de aquella conferencia, los expertos que trabajan en el campo
de la nanotecnología están empezando a poner en práctica algunas de las ideas
propuestas originalmente por Feynman, y muchas más que en ese entonces no se
tenían previstas.
Hubo que esperar algunos años más para que el avance en las técnicas experimentales,
culminado en los años 80 con la aparición de la Microscopía Túnel de Barrido (STM) o
la de Fuerza Atómica(AFM), hiciera posible, primero, observar los materiales a escala
atómica y, después, manipular átomos individuales.
El gran impulso del mundo de la nanotecnología fue la manipulación atómica realizada
por parte del equipo de IBM. En 1981, creó un instrumento llamado microscopio de
barrido de efecto túnel que permitía captar una imagen de la estructura atómica de la
materia.
La capacidad de manipulación de la materia en esta escala abre nuevas posibilidades
en el campo de la ciencia de los nuevos materiales y en la construcción de máquinas
moleculares. Esta ciencia nace con una vocación eminentemente práctica: utilizar el
conocimiento físico y químico de esta región de escalas para hacer cosas útiles.
En el área de la nanotecnología se diferencian dos tipos de métodos de fabricación o
enfoques:
• Top-down, “reducción del tamaño”. Logra la miniaturización de estructuras a escala
nanométrica.
Es el tipo de nanotecnología más frecuente en la actualidad.
• Bottom-up, “Auto ensamblado”. Parte de una estructura nanométrica y comienza un
proceso de montaje que crea un mecanismo mayor. Comúnmente, se conoce este auto
ensamblado como nanotecnología molecular. Fue desarrollada por el investigador Eric
Drexel.
Si bien, actualmente, el método de fabricación top-down permite la producción de gran
variedad de microsistemas o micromáquinas, la mayoría de estos métodos de
fabricación provienen de la industria microelectrónica. Se considera que la carrera en la
miniaturización de los componentes empieza cuando en septiembre de 1958, Jack Kilby,
que trabajaba para Texas Instruments, presentó el primer circuito integrado. Tenía el
tamaño aproximado de la mitad de un clip e integraba en el mismo material
semiconductor distintos elementos electrónicos. En el año 2000, Jack Kilby a los 76
años de edad recibió el premio Nobel de Física.
Desde entonces, la microelectrónica integra en los chips cada vez más transistores por
unidad de superficie. Esto permite, en la actualidad, la gran capacidad de procesamiento
que tienen las computadoras, particularmente, los sistemas portátiles. El Dr. en química
Gordon Moore fue muy importante en esta revolución tecnológica hacia lo pequeño.
Además de ser uno de los fundadores de Intel, es conocido por la ley que formuló en
1965. La ley de Moore dice que el número de transistores que pueden integrarse en un
chip (en 1965) se duplicarán cada 18 meses. Antes de esa ley se consideraba que la
duplicación ocurría cada 2 años. Algunos estudiosos del fenómeno, consideran que la
Ley de Moore jamás ha predicho con exactitud ningún desarrollo en el campo de la
microelectrónica y que se trata, en realidad, de un mito y una atribución sin sentido, dado
que varios científicos de la época conocían también este crecimiento exponencial y
predijeron con mayor exactitud los futuros niveles de integración. Más que como una
ley, debería considerarla como una tendencia.
Pero independientemente de la justicia en la atribución o la exactitud de la afirmación
original, lo cierto es que la famosa ley se ha convertido, durante estos últimos 40 años,
en la impulsora de la industria informática, un objetivo autoimpuesto por los fabricantes
como Intel o AMD a la hora de desarrollar sus productos. Intel fabricó su primer
procesador en 1971, seis años después de la publicación del artículo de Moore. Fue el
modelo 4004. En su interior se apilaban 2.250 transistores.
En la actualidad, un solo chip tiene decenas de millones de transistores, y los
microprocesadores con tecnologías multi-core, de más de 100 millones de transistores,
son cada vez más comunes.
Ahora, sin embargo, científicos de la propia Intel pronostican que la barrera física, es
decir la limitación impuesta por las características de la materia, será alcanzada a más
tardar en el año 2021. A partir de entonces, el desarrollo de los chips no podrá continuar
al ritmo acostumbrado.
Los actuales procesadores están basados en una arquitectura de 130 nanómetros.
Recientemente, Intel anunció los primeros prototipos de chips de 65 nanómetros, y se
espera que en el 2018 se inicie la producción de chips de 16 nanómetros.
A juicio de los científicos de Intel, tal arquitectura representa el comienzo del fin de la
Ley de Moore. Los chips de 16 nanómetros representan las proximidades de la frontera
física de la compresión material que puede darse a un transistor porque esas
dimensiones implicarían que los electrones superen los límites del transistor que, de esa
forma, no podría ser controlado. En teoría, sería incluso posible construir un transistor
de 1,5 nanómetros. Tales características aumentarían considerablemente el consumo
energético del procesador y harían necesario usar un sistema de refrigeración de alta
potencia.
Aquí aparecen las ventajas del bottom-up que permite ir construyendo de abajo hacia
arriba átomo a átomo, molécula a molécula. La futura nano-electrónica llegará
desarrollada con las técnicas del bottom-up. Así como las micromáquinas o
microsistemas que se fabrican hoy en día son mucho más que microelectrónica, se
prevén desarrollos de nano-máquinas mediante la utilización de las técnicas del bottom-
up.
En la actualidad, ya existen algunos productos nanotecnológicos a nuestro alrededor,
como raquetas de tenis más resistentes y ligeras gracias al empleo de nanotubos de
carbono, cosméticos con nanopartículas que facilitan su absorción y recubrimientos que
gracias a las nanopartículas impiden la deposición de suciedad.
Importancia de la Nanotecnología
La nanotecnología permite la creación de nuevos materiales, dispositivos y sistemas,
útiles y funcionales, mediante el control de la materia en la escala del nanómetro, y el
aprovechamiento de nuevos fenómenos y propiedades físicas, químicas y biológicas a
esa escala de longitudes.
Es común decir que la nanociencia es una ciencia “horizontal” porque se puede
considerar que influye en, prácticamente, todos los sectores. Con frecuencia, reúne
distintas áreas científicas y se ve favorecida por enfoques interdisciplinarios o
convergentes. Se espera que permita introducir innovaciones que den respuesta a
muchos de los problemas que enfrenta la sociedad en la actualidad.
La fabricación a nanoescala exige un nuevo enfoque interdisciplinario tanto en la
investigación como en los procesos de fabricación conceptualmente, se consideran dos
vías de trabajo. La primera consiste en la miniaturización de los microsistemas,
denominado enfoque de arriba abajo o top-down. La segunda, en imitar a la naturaleza
mediante el desarrollo de estructuras a partir de los niveles atómico y molecular,
denominado enfoque de abajo arriba o bottom-up.
En el caso de los dispositivos, se tiende a miniaturizar porque esto permite minimizar el
uso de energía y materiales durante la manufactura. Además, se pueden tener sistemas
redundantes y arreglos integrados con la electrónica, lo que permite simplificar los
sistemas y reducir el consumo de potencia. También se tienen ventajas competitivas en
relación al costo / beneficio funcional y, por último, resultan poco invasivos.
12.1.3. Aproximación a la Nanotecnología
La nanotecnología involucra a varias ramas de la ciencia por lo que es difícil de definir.
Podría decirse que es el diseño, fabricación y aplicación de nanoestructuras o
nanomateriales y el conocimiento
de las relaciones entre las propiedades o fenómenos físicos y las dimensiones del
material. Se refiere a materiales o estructuras en escala nanométrica, entre décimas y
centenas de nanometros (1nm = 10-9m).
Es un nuevo campo o dominio científico debido a que los materiales o estructuras en
escala nanométrica poseen propiedades físicas distintas del material micrométrico, o
exhiben nuevos fenómenos físicos.
A través de la nanotecnología se imagina la posibilidad de acceder a nanoestructuras
de fases metaestables con propiedades tales como superconductividad o magnetismo,
o de crear instrumentos miniaturizados, como sensores biológicos que alerten de
enfermedades en estadios tempranos, nanorobots que puedan reparar un daño interno
y remover toxinas de nuestro organismo, o llevar a escala nanométrica sensores de
toxinas en el ambiente.
En todo caso, la síntesis y procesamiento de nanomateriales es el punto esencial para
el desarrollo de la nanotecnología. El estudio de nuevas propiedades físicas y
aplicaciones de nanomateriales sólo es posible cuando estos materiales son sintetizad
Esta escala de tamaños está bastante alejada de nuestra percepción sensorial.
Si pensamos en construir sensores pequeños, se requiere que cada uno de sus
componentes sea lo más pequeño posible, lo que obliga a encontrar nuevos métodos
de síntesis para la obtención de los compuestos deseados.
12.2. NANOSISTEMAS Y MICROSCOPÍA ELECTRÓNICA DE TRANSMISIÓN
12.2.1. El dominio de lo nano Por Horacio Troiani (CAB y CONICET)
Desde hace ya varios años los estudios en ciencia de materiales han sido
revolucionados por la aparición de los nanomateriales. Cuando se fabrican materiales
de dimensiones muy pequeñas, del orden del nanómetro (nm), se hacen evidentes
propiedades muy interesantes en los mismos.
Tratemos de hacernos una idea de lo que significa “1 nm” (1nm = 10-9 m).
Todos tenemos una idea aproximada de lo que significa 1 milímetro (mm) porque somos
capaces de verlo en una regla común. Si dividimos la distancia de 1 mm por 1.000,
tenemos 1 micrón. Si
ahora dividimos este micrón por 1.000, tenemos 1nm.
Un transistor, cuyas dimensiones típicas esté en la escala del micrón, tendrá 1.012
átomos. Pero si lográramos construir un transistor en la escala del nm tendría sólo 1.000
átomos. Los materiales nano presentan una variedad importante de geometrías y, por
ende, de aplicaciones.
El prefijo nano indica que por lo menos alguna de las dimensiones características del
material está reducida a tamaños en la escala de los nm o menor. Encontramos en este
ámbito nanopartículas, nanotubos, nanoalambres, etc.
12.2.2. El microscopio electrónico de transmisión (TEM)
La forma usual de “ver” objetos se basa en la interacción de la luz visible, que proviene
de estos, con nuestros ojos. Pero esta no es la única forma. Podemos hacer interactuar
electrones con la ateria y reconstruir una imagen de la misma, basados en la interacción
de estos electrones con el objeto bajo observación.
Los equipos que proveen este tipo de imágenes son los denominados microscopios
electrónicos. Hay de varios tipos.
En un microscopio electrónico de transmisión, un haz de electrones atraviesa una
muestra delgada. Pero como nuestros ojos no ven electrones, hacemos que estos
incidan sobre una pantalla de fósforo, que emite luz y nos permite recrear una imagen
del sistema bajo estudio.
Hoy en día, la mejor resolución posible es la de un microscopio electrónico de
transmisión. Permite resolver y armar imágenes de átomos.
Además, un microscopio electrónico de transmisión es una herramienta muy versátil.
Usualmente, en un TEM moderno se acoplan otras técnicas posibles que permiten
conocer propiedades como la composición química de un material, propiedades
electrónicas etc.
• Algunos ejemplos
Las propiedades de los materiales nano son distintas de la propiedades de los
materiales de tamaños usuales. Para entender que las propiedades se ven tan
drásticamente modificadas debemos analizar los tamaños implicados.
Pongamos el caso del cobre. La distancia entre planos atómicos en un cristal de Cu
puro es 0.25 nm. Esto indica que si el nanomaterial bajo estudio tiene, a lo largo de una
dimensión, algunos nm o decenas de nm, este material tendrá un número muy reducido
de planos cristalinos o átomos. Este hecho automáticamente genera un material donde
una gran proporción de los
átomos estará en la superficie. En un sólido, los átomos superficiales tienen propiedades
diferentes a los del interior, lo que se conoce como bulk. Esto indica que la proporción
de átomos con propiedades diferentes para el caso de los nanomateriales es mucho
mayor que para el caso convencional.
En consecuencia, los materiales nano tendrán propiedades que se apartarán
notablemente de los materiales masivos convencionales.

Vous aimerez peut-être aussi