Vous êtes sur la page 1sur 14

Microscopia del Crio- electrón para el análisis estructural de macromoléculas

biológicas dinámicas.

Palabras claves:
- Criomicroscopia electrónica
- Tomografía crio-electron
- Reconstrucción 3D de una sola partícula
- Estructura de la proteína
- Dinámica molecular
-
Resumen:
Fondo: Desde la introducción de lo que se convirtió en el estándar de hoy para
la incorporación criogénica de macromoléculas biológicas en condiciones nativas
hace más de 30 años, las técnicas y los equipos han mejorado drásticamente y
la estructura de las biomoléculas ahora se puede estudiar a una resolución casi
atómica mediante microscopía crioelectrónica (cryo-EM) al capturar múltiples
estados dinámicos. Aquí revisamos el progreso reciente en cryo-EM para
estudios estructurales de macromoléculas biológicas dinámicas.

Ámbito de aplicación de la revisión: Ofrecemos una descripción general del


método crio-EM e introducimos estudios contemporáneos para investigar la
estructura y dinámica biomolecular, incluidos ejemplos de la literatura reciente.

Mayores conclusiones:
El Crio-EM es una herramienta poderosa para la investigación de las estructuras
biológicas macromoleculares incluyendo el análisis de sus dinámicas mediante
el uso de algoritmos avanzados de procesamiento de imágenes. El método se
ha vuelto aún más aplicable con el análisis actual de partículas individuales y la
tomografía electrónica.

Importancia general: el método crio-EM se puede usar para determinar la


estructura tridimensional de las biomacromoléculas en condiciones casi nativas
con una resolución atómica cercana, y tiene el potencial de revelar
conformaciones de complejos moleculares dinámicos. Este artículo es parte de
un número especial titulado "Exploración biofísica de Ordenamiento dinámico de
sistemas biomoleculares "editado por el Dr. Koichi Kato.

1. Introducción:

La microscopía crioelectrónica moderna (crio-EM) comenzó con la introducción de un


método único de preparación de muestras por Dubochet y sus compañeros de trabajo
en la década de 1980 [1,2], resultando en la preservación de especímenes en
condiciones casi nativas dentro de una delgada película de hielo amorfo, que permitió
la observación directa en un microscopio electrónico de transmisión de dosis baja que
funciona a una temperatura de nitrógeno líquido o inferior. Se ha convertido en una de
las herramientas más poderosas para resolver la estructura de las biomoléculas a una
resolución casi atómica, acompañada de la cristalografía de rayos X y la espectroscopia
de resonancia magnética nuclear (RMN). Con el método crio-EM, que no requiere
cristales tridimensionales (3D), las macromoléculas orgánicas se pueden observar
directamente en múltiples conformaciones en su entorno nativo.
Esto hace que el análisis sea más desafiante pero proporciona una visión más rica del
comportamiento dinámico de estas entidades biológicas.
El Cryo-EM se puede usar para la determinación de la estructura de complejos
biomoleculares aislados en un amplio rango de masa molecular, desde proteínas con
varias decenas de kilo-Dalton hasta partículas víricas con muchos megaDaltons (Fig. 1)
y células completas. A diferencia de la cristalografía de rayos X y la espectroscopia de
RMN, el crio-EM requiere una cantidad mucho menor de muestra y acepta una mayor
variación de tipos de especímenes, tales como las moléculas de proteínas, complejos
de proteínas grandes, cristales de proteínas delgadas, virus partículas, complejos de
fibras helicoidales, bacterias, células e incluso secciones de tejidos completos.
El tamaño máximo del objeto observable está esencialmente limitado únicamente por el
espesor de la muestra que se puede penetrar con el haz de electrones, que depende de
la trayectoria libre media y es de aproximadamente 500 nm en el caso de los
microscopios electrónicos de transmisión de 300 kV (TEMs).
En el caso de las células eucariotas, las áreas de observación pueden limitarse a la
periferia del cuerpo celular o puede ser necesario adelgazar la muestra antes de la
observación mediante un criocorte o molienda con FIB.
La limitación de menor peso molecular es un desafío para el Cryo-EM en la actualidad.
Se espera que alrededor de 38 kDa se calcule a partir de las estimaciones de la SNR
para tales proteínas considerando la tasa de dosis límite [3].
El tamaño mínimo detectable de biomoléculas aisladas está restringido por el contraste
de la imagen generado con la dosis de electrones tolerada a la muestra. La dosis de
electrones permitida está limitada por el daño de la radiación a la muestra, que depende
del voltaje de aceleración y la resolución espacial, así como de las propiedades de la
muestra. Se estima en menos de 20 e− / Å2 a un voltaje de aceleración de 200 kV para
una resolución casi atómica [4].

Merk et al. informó la estructura de la isocitrato deshidrogenasa 1 (IDH1; 93- kDa) por
el Crio-EM de partícula única a una resolución de 3.8 Å [5] (Fig. 1). La baja relación
señal-ruido (SNR) es debido a la pequeña masa que da lugar a la dispersión de
electrones lo que generalmente dificulta la identificación y la alineación sin errores de
dichas partículas en imágenes de dosis bajas. Sin embargo, en la actualidad, la
resolución de la estructura rutinaria de moléculas tan pequeñas no es la norma.
Khoshouei et al. analizó la estructura de la partícula de hemoglobina humana de 64 kDa
a una resolución de 3.2 Å mediante el Crio-EM con contraste, utilizando una placa de
fase Volta (VPP) [6] (Fig. 1).

El límite inferior de peso molecular accesible por el Crio-EM ahora se ha extendido hacia
el molecular superior. El rango de peso de la RMN, que se encuentra alrededor de 50
kDa. El Cryo-EM es una técnica adecuada para visualizar muestras sensibles a la
radiación como macromoléculas biológicas o materiales de materia blanda que
consisten en átomos ligeros como polímeros orgánicos. En general, las moléculas
biológicas forman una estructura intacta totalmente hidratada o parcialmente hidratada
(por ejemplo, cuando están incrustadas en una membrana lipídica) y generalmente
realizan su función con grandes áreas de su superficie expuestas a un ambiente acuoso.
Esto predestina al Cryo-EM como una herramienta para observar tales estructuras en
su entorno casi nativo. En el procedimiento del crio-EM, las muestras se crean por
congelación rápida de biomoléculas en solución y se cargan en la columna de un
microscopio electrónico que opera a alto vacío y a baja temperatura para mantener el
hielo en estado amorfo y para reducir el efecto del daño por radiación [7]. El hielo puede
existir en diversas modificaciones dependientes de la temperatura, principalmente, en
forma cúbica (−123 ° C a −148 ° C, 115 a 150 K) y en forma de cristal hexagonal (por
encima de −103 ° C, 170 K) [8]. Durante la congelación rápida, la formación de estas
fases cristalinas se desvía para formar hielo amorfo, pero la muestra debe mantenerse
a una temperatura por debajo de la temperatura de transición cristalina.
Aunque el espécimen de inclusión en el hielo amorfo es el más utilizado en la actualidad,
el crio-EM del virus del mosaico del tabaco se ha llevado a cabo en el hielo cúbico y la
conclusión fue que se podían obtener mejores imágenes que en el hielo amorfo [9].
En el pasado, las imágenes de dos cristales bidimensionales a temperatura de helio
líquido (−269 ° C, 4 K) se han utilizado con éxito con el objetivo de reducir aún más el
daño por radiación. La hipótesis subyacente es que la radiación ionizante conduce a
reacciones químicas secundarias y a un "efecto de jaula", que ralentiza el
desplazamiento de los fragmentos moleculares y que su velocidad de difusión se rige
por la temperatura. Se encontró que el nitrógeno líquido proporciona la calidad de datos
más consistente con una protección contra daños casi equivalente a una temperatura
más baja [12]. La temperatura intermedia entre el nitrógeno líquido y el helio líquido
puede cambiar las propiedades electrónicas del hielo (por ejemplo, la conductividad) y,
por lo tanto, reducir otros efectos de degradación de la imagen, como la carga de
muestras, sin embargo, los requisitos técnicos y la complejidad experimental se reducen
mucho a la temperatura del nitrógeno líquido (-193 ° C, 80 K), que se ha convertido en
la condición más comúnmente utilizada para la obtención de imágenes Crio-EM.

Los avances recientes del Cryo-EM son proporcionados por dos innovaciones
importantes, Uno es el empleo de un detector de electrones directo (DED) para
microscopía electrónica. El DED puede detectar electrones directamente y leerlos a una
velocidad de cuadro alta sin un obturador mecánico. Su mayor rendimiento se debe a
una eficiencia cuántica enormemente mejorada en comparación con las generaciones
anteriores de detectores. La corrección de movimiento se ha convertido en el estándar
para compensar el efecto borroso de la deriva de la etapa y el movimiento inducido por
el haz [15,16]. , y el Cryo-EM se convierte en una herramienta para poder analizar la
estructura de biomoléculas dinámicas.

La Fig. 2 ilustra el flujo de trabajo del Crio EM. El área no etiquetada superior e inferior
es común en todos los tipos de Crio-EM, que incluye la preparación de muestras, la
adquisición de datos de dosis bajas y la construcción de modelos. El área marcada en
azul central incluye dos modalidades para la adquisición y reconstrucción de datos 3D,
análisis de partículas individuales (SPA) y promediado de subtomogramas (STA). Aquí
revisamos los procedimientos básicos, las dos modalidades y la construcción de
modelos, incluidos los avances recientes en el Cryo-EM para estudios estructurales de
macromoléculas biológicas dinámicas.

2. Preparación de muestras y adquisición de imágenes para cryo-EM.

2.1. Muestra de vitrificación para crio-EM.


Las macromoléculas en solución se aplican típicamente a un *rollo de carbón* que
cubre una rejilla EM especial (Fig. 3). Estas rejillas de malla disponibles comercialmente
están hechas de una variedad de materiales conductores (cobre, oro, molibdeno, nitruro
de silicio, óxido de silicio y otros) y están cubiertas con un rollo de soporte perforado
(generalmente un rollo de carbón delgado de 10–50 nm, una rollo de oro delgado de 5–
10 nm o rollos delgados de varios espesores hechas de derivado de silicio) con arreglos
de orificios regulares de forma, tamaño y paso definidos (por ejemplo, Quantifoil)
(Quantifoil Micro Tools), o C-flat (Protochips Inc.)). Se aplican de 2 a 3 ml de espécimen
hidratado sobre la rejilla perforada, que se trata previamente mediante descarga
luminosa. Después de eliminar la solución excesiva con papel de filtro en condiciones
ambientales fuertemente controladas, la rejilla se sumerge rápidamente en un criógeno,
que generalmente se enfría previamente con nitrógeno líquido (Fig. 3). Dependiendo de
las propiedades de adhesión molecular de las partículas de muestra, la superficie de
este rlollo de soporte debe tratarse previamente antes de la aplicación de la muestra
para producir una distribución de partículas uniforme. Para la mayoría de las muestras
solubles, esto requiere una superficie hidrófila, que se puede crear con bombardeo de
iones en un dispositivo de descarga de luz o por limpieza con plasma (esencialmente,
descarga de luz en presencia de un gas o una mezcla de gases como hidrógeno /
oxígeno). Este último también puede eliminar contaminantes orgánicos hidrófobos no
deseados (por ejemplo, carbohidratos precipitados de la atmósfera durante el
almacenamiento o transporte de la rejilla). Si bien estos métodos suelen generar una
carga superficial predominantemente negativa, los aditivos como la polietilenimina o la
polilisina crean una carga superficial positiva [18].
La variación de estos parámetros se puede usar para influir en las orientaciones de las
partículas o para conducir las partículas a los orificios para una mayor concentración
local. En el caso de que se desee una superficie hidrófoba (por ejemplo, para cristales
bidimensionales incrustados en lípidos o ciertos tipos de células), se pueden agregar
aditivos como la amilamina a la cámara de evaporación. Sin embargo, esto tiende a
contaminar permanentemente una cámara de descarga luminiscente y se recomienda
un dispositivo dedicado. Además, Kelly et al. han introducido “rejillas de afinidad”
modificadas en la superficie, que presentan un rollo de monocapa lipídica con grupos
de cabeza funcionalizados que pueden capturar y orientar partículas con una alta
afinidad de unión específica para una purificación eficiente de las rejillas a partir de
concentraciones de partículas ultra bajas [20]. Su desventaja consiste en antecedentes
adicionales del rollo de soporte de afinidad.
El criógeno más común es el etano líquido, una mezcla de etano y propano fue más fácil
de usar que el etano con dispositivos de congelación por inmersión que no controlan la
temperatura del criógeno. La ventaja de usar una mezcla de etano propano sobre etano
puro es su temperatura de congelación reducida, que permite el contacto térmico directo
entre el nitrógeno líquido y el criógeno sin congelar la mezcla. Por el contrario, el etano
puro se congela a la temperatura del nitrógeno líquido y requiere descongelación y
reenfriamiento constantes [21].
La rejilla congelada se conserva en almacenamiento de nitrógeno líquido hasta su uso.
Desde su inicio, el método se ha convertido en un método estándar de preparación de
muestras para Crio-EM. En la actualidad, la incrustación de muestras en hielo se puede
hacer de manera reproducible con un robot de transferencia (por ejemplo, FEI Vitrobot,
Leica EM GP o Gatan CP3), que elimina el exceso de líquido mediante la acción de la
mecha con un papel de filtro mientras controla múltiples parámetros ambientales como
el tiempo de transferencia y la transferencia Fuerza además de la temperatura y la
humedad. El procedimiento requiere solo unos pocos microlitros de solución de proteína
a una concentración moderada (0.1–2.0 mg / ml, dependiendo del peso molecular).

Incluso la congelación por inmersión semiautomática con asistencia robótica sigue


siendo un proceso que requiere mucha mano de obra y requiere un operador calificado.
Por lo tanto, la preparación de muestras para Crio-EM en la era de la adquisición de
imágenes de alto rendimiento se está convirtiendo constantemente en un factor
limitante, que ha sido reconocido dentro de la comunidad. Actualmente se están
investigando y desarrollando activamente nuevos enfoques para la criointegración.
[22,23].

2.2. Colección de imágenes de baja dosis

Las imágenes de Crio-EM de alta resolución de biomoléculas incrustadas en hielo en


rejillas de EM de Holey Carbon se toman utilizando procedimientos de dosis bajas para
evitar daños por radiación y se registran en un detector digital o en una película
fotográfica. La rejilla congelada se monta en un soporte de transferencia criogénica
equipado con nitrógeno líquido Dewar en una estación de trabajo criogénica para evitar
la contaminación del hielo (Fig. 4).
Luego, el espécimen incrustado en hielo se carga en estado congelado libre de
contaminación en el microscopio electrónico criogénico por medio de un soporte de
transferencia criogénica. Algunos microscopios electrónicos de gama alta, que están
dedicados específicamente para el uso de Crio-EM, tienen casetes de crio-espécimen
especialmente diseñados para contener una docena de rejillas congeladas montadas
en cartuchos simultáneamente dentro de un cargador automático adjunto al microscopio
(por ejemplo, FEI Titan Krios, FEI Talos Arctica, JEOL CryoARM). En general, los
soportes de transferencia de entrada lateral, el escenario generalmente se estabiliza en
decenas de minutos después de cargar el soporte en la columna. Las rejillas crio-EM
disponibles comercialmente contienen un patrón de orificio uniforme espaciado
regularmente bordeado en un rollo delgado de soporte de carbono (10–50 nm).
Un rollo acuoso cuyo grosor acomoda las macromoléculas solubilizadas en una sola
capa se forma en el rolllo de soporte de carbono de Holey después de la transferencia
y se conserva como hielo amorfo mediante congelación por inmersión (Fig. 3).
Las imágenes de los agujeros se toman en modo de dosis baja. El modo de dosis baja
puede minimizar el daño por irradiación a la muestra al navegar a la posición del objeto
con un aumento bajo o en el modo de difracción. El enfoque se ajusta en las
proximidades sin exponer el área objetivo y luego se adquiere una exposición del
objetivo con el aumento preestablecido deseado.

3. Análisis de partículas individuales (SPA)

3.1. Principio de SPA

La determinación estructural por SPA se ha convertido en una poderosa técnica que


rivaliza con la cristalografía de rayos X para la determinación exitosa de estructuras
biológicas que han eludido la cristalización. El principio de SPA no es la reconstrucción
de la estructura a partir de una única molécula biológica, sino un promedio de múltiples
vistas de muchas copias de la misma molécula (Fig. 5A). Esta es la razón por la que a
veces también se hace referencia a SPA como promedio de partículas individuales. El
supuesto subyacente es que los objetos tridimensionales, que están representados por
sus proyecciones bidimensionales capturadas en el sensor de imagen, son idénticos. A
diferencia de la tomografía, que registra múltiples vistas del mismo objeto biológico y,
por lo tanto, acumula la dosis completa de electrones de una serie completa de
tomografías en esta muestra de proteína sensible a la radiación, la estrategia de
recolección de datos del SPA distribuye la dosis de electrones entre las muchas copias
de biomoléculas idénticas.
Debido a que cada molécula está congelada en una orientación aleatoria, no es
necesario inclinar la etapa de la muestra para completar el Muestreo rotacional. Sin la
necesidad de exposiciones múltiples debido a la inclinación de la muestra, la dosis
máxima de electrones tolerada antes de que se produzca un daño significativo por
radiación, es 1-2 órdenes de magnitud más alta para una exposición a SPA que lo que
es aceptable para un solo marco de inclinación tomográfica. Además, los conjuntos de
datos de SPA típicos consisten en miles de imágenes, cada una de las cuales contiene
hasta mil proyecciones de la molécula biológica en diferentes orientaciones. Cuando se
suman vistas idénticas del mismo objeto, la SNR de la proyección promediada resultante
aumenta dramáticamente, porque las pequeñas variaciones de intensidad de píxeles
causadas por la dispersión del objeto de proteína durante su exposición al haz de
electrones se acumulan de manera coherente, mientras que el ruido se distribuye
aleatoriamente (todavía sigue una distribución) y esto tiende a suprimirse promediando.

El flujo de trabajo típico de reconstrucción de imágenes alterna entre dos pasos: la


búsqueda de orientación para todas las proyecciones y la reconstrucción 3D, en la que
todas las proyecciones alineadas se acumulan en una matriz 3D, lo que da como
resultado un mapa de potencial electrónico en 3D. Este ciclo generalmente se itera hasta
que la resolución no mejora más.

3.2. Procesamiento de imágenes para SPA


Las imágenes Cryo-EM generalmente se recolectan en condiciones desenfocadas para
aumentar el contraste de fase. Estas imágenes se modulan en el espacio de frecuencia
mediante la fase CTF (función de transferencia de contraste). Se debe estimar el CTF
de la imagen para su posterior deconvolución. Actualmente, hay varios programas para
la estimación de CTF disponibles (por ejemplo, ctffind [24], gctf [25], e2ctf.py [26]). Las
posiciones de las partículas deben seleccionarse de las micrografías. Después de la
estimación de CTF, se recogen imágenes de partículas orientadas al azar. Actualmente,
hay varios programas de recolección automática de partículas basados en correlación
disponibles (por ejemplo, e2boxer.py [27], Relion-autopick [28], Scipion [29], FindEM
[30], Signature [31]). Imágenes de partículas grabadas en diferentes.
Las orientaciones están alineadas y clasificadas.
El mayor impacto en la mejora general de los resultados se debió probablemente a la
posibilidad de que la clasificación 2D y 3D basada en ML (Máxima probabilidad),
incluidas las estadísticas bayesianas, sea prácticamente factible mediante una
implementación inteligente en el hardware informático actual. Si bien el trabajo anterior
era indispensable para señalar el camino [32], solo los algoritmos posteriores fueron lo
suficientemente optimizados para el uso práctico (Frealign [33], Relion [28], EMAN2 [27],
Frealing / cisTEM [34], Spire [35], y cryoSPARC [36]). Sin embargo, la mayor atracción
para usuarios novedosos se puede atribuir a una implementación fácil de usar mediante
la introducción de una interfaz gráfica de usuario fácil de usar. Estos programas ahora
cubren todo el flujo de trabajo desde la corrección de movimiento, la selección
automática de partículas, la clasificación de imágenes 2D, los navegadores de imágenes
con diversos parámetros estadísticos, hasta la reconstrucción y clasificación 3D.

3.3. Reconstrucción 3D de la estructura.


En el flujo de trabajo clásico, las imágenes clasificadas se utilizan para la reconstrucción
3D mediante un algoritmo de retroproyección después de determinar sus orientaciones
[37]. La clasificación previa aumenta la SNR, pero reduce el conjunto de datos a un
número discreto de clases con resolución limitada. El mapa 3D inicial se refina
iterativamente con un procedimiento de comparación de proyecciones. Los paquetes
modernos pueden operar en proyecciones individuales. El principio de la reconstrucción
3D a partir de proyecciones 2D es el teorema de la sección central [38,39] que establece
que las transformaciones de Fourier 2D de las proyecciones del mismo objeto 3D se
encuentran en planos centrados en el origen de la transformación 3D del objeto. En el
momento de la inserción de la transformación 2D en la matriz 3D (o algunas veces
antes), se aplica una corrección para la función de dispersión puntual de la imagen
desenfocada. Esto se conoce como corrección para el CTF del sistema óptico del
microscopio. Es una operación esencial para el restablecimiento de la información de
alta resolución, que se desplaza radialmente hacia el exterior y se acompaña de
desplazamientos de fase periódicos como en un disco Airy de una fuente puntual, y se
realiza mediante la desconsolación de la imagen desenfocada con la fase de ajuste
rápido CTF de la fuente del Microscopio . Esta imagen con corrección de fase a menudo
se escala, pesa y trata con un filtro de paso de banda antes de su inserción en la matriz
3D. Si bien no todos los métodos de reconstrucción se basan en Fourier, los
procedimientos son matemáticamente equivalentes. Sin embargo, los métodos de
Fourier son a menudo más fáciles de implementar y muy similares a los métodos
utilizados para la reconstrucción de imágenes de difracción. Después de todo, la
transformada de Fourier de la imagen de un objeto de fase delgada, que es el resultado
de la interferencia de matrices dispersadas por el objeto y el haz no dispersado después
de su recombinación por la lente objetivo es proporcional al patrón de difracción
registrado en el plano de difracción óptica. : las intensidades medidas en los puntos de
difracción de los datos cristalográficos son los cuadrados de las amplitudes y son
equivalentes a los puntos en la transformada de Fourier de una micrografía electrónica.
Pero, ¿no hay puntos en la transformación de imagen de una muestra no cristalina sin
periodicidad? Si bien esto es correcto, no importa para el propósito de la reconstrucción
3D, ya que la transformación de un objeto no periódico es continua, pero se muestrea a
intervalos de píxeles. El hecho de que esté alineado previamente con una referencia 3D
omite la indexación. La transformación inversa de la matriz de Fourier 3D simetrizada
en el mapa 3D normalizado resultante representa el potencial electrónico reconstruido.
Cuando se visualiza en un nivel de contorno apropiado (por ejemplo, a 3 desviaciones
estándar por encima del promedio, o “3 sigma”) y con una resolución suficientemente
alta, permite la construcción de un modelo atómico colocando coordenadas atómicas en
el mapa. Este proceso se puede automatizar parcialmente si la calidad del mapa es muy
alta. El proceso implica la incorporación de restricciones impuestas por el conocimiento
de las propiedades químicas como las longitudes de enlace y la geometría de péptidos.

4. Promedio de subtomogramas (STA)

4.1 Principio y practica

Un reciente desarrollo exitoso en tomografía es el promedio de subtomogramas.


Mientras que el SPA "clásico" se basa en la alineación, el promediado y la
reconstrucción 3D a partir de proyecciones 2D, el STA comienza a partir de tomogramas
de estructuras 3D casi idénticas congeladas en hielo vítreo. El proceso comienza con la
recopilación de datos por series de inclinación seguida de reconstrucción tomográfica
(Fig. 5B).
Antes de la STA, una de las desventajas de la tomografía convencional basada en series
de inclinación era el "efecto de cuña faltante". Dado que un soporte de muestra típico
no puede inclinarse más de ± 70 grados, hay una dirección perpendicular a la viga, que
no contiene ninguna vista del objeto. En el espacio recíproco, esto se puede visualizar
como una cuña de datos faltante. Se manifiesta en una resolución anisotrópica de la
reconstrucción tomográfica, con algunas características totalmente ausentes cuando se
ven desde la dirección de los datos faltantes. Las estrategias de adquisición de
inclinación de doble eje, en las que la muestra se gira 90 ° en plano antes de comenzar
otra serie de inclinación, pueden reducir significativamente este efecto a una "pirámide
faltante" de datos [40], o incluso a un cono faltante [41] .
. Sin embargo, la dosis debe aumentarse para adaptarse a las imágenes adicionales, lo
que aumenta el daño. O bien, el intervalo del paso de inclinación debe hacerse más
grueso mientras se mantiene la dosis constante, lo que aumenta el ruido. En la práctica,
la tomografía de inclinación única sigue siendo la técnica más utilizada a pesar de los
artefactos de cuña faltantes. La recopilación de datos de inclinación moderna puede
optimizarse para estrategias de adquisición eficientes "simétricas de dosis" [42], o seguir
el esquema clásico de recolección de datos de inclinación de un solo eje. En todos los
casos, cuyo objetivo es el seguimiento mediante métodos de promediación, se hace
mayor hincapié en los primeros cuadros, que han experimentado la menor cantidad de
daño por radiación. Desde el tomograma reconstruido, se seleccionan múltiples copias
de las partículas y se encajonan como volúmenes, lo que da como resultado una pila de
partículas 3D ya reconstruidas, o "subtomogramas" (en lugar de una pila de
proyecciones 2D como en SPA). Si la distribución de la muestra (es decir, la orientación
aleatoria de las partículas idénticas) y el tiempo de haz disponible permiten la
recolección de un mayor número de subtomogramas reconstruidos, la STA puede
aumentar la SNR del promedio del subtomograma final y reducir simultáneamente los
artefactos de cuña faltantes, porque las partículas son aleatorias Orientado con respecto
a la viga. Además, debido a que se conoce la ubicación de cada subtomograma dentro
del campo de cada imagen, se puede aplicar una corrección CTF más precisa a cada
proyección antes de su reconstrucción, al mismo tiempo que se aplica una máscara
sensible para reducir el sesgo de alineación por los datos de cuña faltantes [43] . Este
procedimiento, que incluye la alineación iterativa y la reconstrucción con el
procesamiento de fotogramas de películas individuales seguido de la clasificación ML-
3D, ahora se implementa en la última versión 2 de Relion [44]. Briggs et al. También
describieron un flujo de trabajo similar, lo que lleva al promedio de subtomograma más
alto en la actualidad de una proteína de la cubierta viral del VIH a una resolución de 3.9
Å [45]. Cada subtomograma dentro del campo de cada imagen es conocido, un CTF
más preciso La corrección se puede aplicar a cada proyección antes de su
reconstrucción, al mismo tiempo que se aplica una máscara sensible para reducir el
sesgo de alineación por los datos de cuña faltantes [43]. Este procedimiento, que incluye
la alineación iterativa y la reconstrucción con el procesamiento de fotogramas de
películas individuales seguido de la clasificación ML-3D, ahora se implementa en la
última versión 2 de Relion [44]. Briggs et al. También describieron un flujo de trabajo
similar, lo que lleva al promedio de subtomograma más alto en la actualidad de una
proteína de la cubierta viral del VIH con una resolución de 3.9 Å [45].

4.2. Ventaja del STA

Cuando resulta difícil o imposible reconocer las partículas individuales fácilmente, por
ejemplo, contra el fondo ruidoso de una célula, no hay alternativa a la tomografía. El
poder de la STA moderna se ilustra en un estudio histórico realizado por Asano et al.,
Quienes pudieron extraer, promediar y clasificar en 3D los subtomogramas de múltiples
formas del proteasoma in situ dentro de una célula de sección delgada, a resolución
nanométrica (Fig. 6 ) [46]. En última instancia, su tercera dimensión es una ventaja de
los subtomogramas sobre las proyecciones 2D que se utilizan en SPA, debido a que el
carácter absoluto de una estructura se pierde en la proyección. Esta pérdida de
información puede llevar a ambigüedades sobre qué lado está mirando hacia arriba o
hacia abajo. Si bien esta afirmación puede parecer trivial, la historia ha demostrado que
muchas estructuras se han reconstruido incorrectamente debido a la falta de información
3D [47]. STA puede superar este problema al tiempo que conserva la capacidad de
alcanzar una alta resolución. Briegel et al. (2005) introdujeron una forma inteligente de
determinar la habilidad absoluta con un esfuerzo limitado. [48] agregando un fiducial
único con mano conocida. Además, el STA es aplicable a estructuras completamente
nuevas con simetría desconocida o casos difíciles con alta flexibilidad de conformación
(por ejemplo, proteínas motoras como la miosina o la dineína) y puede dar como
resultado un conjunto correcto de conformaciones 3D, mientras que una referencia de
alineación incorrecta puede engañar al método SPA hacia un resultado sesgado a pesar
de una clasificación adecuada. Sin embargo, el inconveniente es un rendimiento mucho
menor debido a la adquisición de series de inclinación y los desafíos técnicos para un
control de etapa, seguimiento y corrección de CTF extremadamente precisos. Una vez
que estos son superados - por ejemplo. al agregar la adquisición rápida de tomografía
continua a la velocidad de la película en un detector de electrones directo [49], y las
correspondientes mejoras adicionales en el software de tomografía, no debe haber
mucha diferencia entre los resultados que el SPA y la STA pueden lograr. Junto con los
nuevos métodos en espectroscopia de RMN que pueden describir el rango
conformacional completo de una estructura [50], crio-EM se convertirá en una técnica
de elección para el análisis de moléculas flexibles. El futuro parece realmente brillante
para la determinación de la estructura de las estructuras dinámicas.

5. Estimación de resolución, construcción de modelos y validación.

La resolución de la reconstrucción generalmente se estima comparando dos


reconstrucciones de cada medio conjunto de imágenes (por ejemplo, todas las
imágenes de partículas con números pares y todas las imágenes con números impares)
en el dominio de la frecuencia, es decir, después de la transformación de Fourier del
volumen. Debido a su diferente contenido de datos, las dos reconstrucciones de medio
conjunto comienzan a diferir cada vez más a medida que aumenta el nivel de detalle (la
frecuencia espacial). Este coeficiente de correlación se representa como la correlación
de shell de Fourier (FSC). Si el algoritmo de alineación se ocupó de minimizar el sesgo
de referencia, originalmente se usó un umbral a FSC = 0.5 para indicar la resolución del
mapa [51]. Rosenthal y Henderson [52] introdujeron un umbral más bajo en FSC = 0.143
basado en el hecho de que la resolución de la reconstrucción final es más alta que sus
medias series utilizadas para FSC. Este valor es consistente con los criterios utilizados
en la cristalografía de rayos X. Se ha argumentado que no se debe usar un valor fijo, en
particular cuando la simetría se aplica a ambas reconstrucciones de medio juego (criterio
de "medio bit", [51]). En un intento por reducir aún más el posible sesgo de referencia,
la medición de resolución después de un refinamiento y reconstrucción totalmente
independientes se conoce como el "estándar de oro FSC" [52]. . Sin embargo, cuando
se han utilizado referencias 3D de inicio idénticas para ambas ejecuciones de
refinamiento desde el principio, tal sesgo de referencia no se evita y la ventaja del
método del estándar de oro se vuelve cuestionable. En cualquier caso, el FSC mide la
similitud entre dos conjuntos de datos y es solo un indicador para la resolución de la
reconstrucción, pero no la validación. Para los datos tomográficos, se debe tener
cuidado de no sesgar la medición de resolución por la presencia de efectos de borde en
el espacio recíproco causado por la falta de cuña de datos. Esto generalmente se logra
sustituyendo los valores perdidos con valores de densidad promedio.
El problema se reduce mucho después de STA. Si bien el valor medido para la
resolución del mapa no es una forma de validación, es un parámetro importante, que
debe informarse con cada deposición. Se ha convertido en una práctica habitual
documentar la calidad de un mapa mediante valores de resolución "locales" con códigos
de colores computados, que indican una anisotropía de resolución en la reconstrucción
del espacio real (por ejemplo, Resmap [53], Blocres [54]). El propósito final es entender
la estructura molecular y la dinámica estructural en las biomoléculas. Una vez que se ha
reconstruido una estructura de alta resolución más allá de 4 Å, a menudo es posible
construir un modelo atómico de toda la molécula de novo, o mediante el acoplamiento
de cuerpo rígido o el ajuste de las coordenadas del modelo existente. El flujo de trabajo
preferido depende de la resolución del mapa y, por lo general, se altera entre la
construcción manual (por ejemplo, Coot [55], O [56]) y el refinamiento automático (por
ejemplo, refmac [57], phenix_real_space_refine [58]) al incorporar el conocimiento
químico y los campos de fuerza. La mayoría de estos programas operan en mapas
espaciales reales. En condiciones favorables y, en particular, si se puede explotar la
simetría, a veces es posible generar conjuntos de modelos de forma totalmente
automática (por ejemplo, rosetta [59]). . A baja resolución (menos de 4–6 Å), se
requieren métodos que incorporen restricciones fisicoquímicas adicionales como la
dinámica molecular [60] o el análisis en modo normal [61]. Un modelo refinado debe
validarse con herramientas de validación de geometría cristalográfica, que producen
una variedad de estadísticas y comprueban valores atípicos estereoquímicos de las
coordenadas atómicas. Se ha convertido en un estándar común y ahora es un requisito
previo para depositar mapas en bases de datos públicas (por ejemplo, Electron
Microscopy Data Bank EMDB) junto con las coordenadas del modelo (RCSB Protein
Data Bank PDB).

6. Técnicas avanzadas

Para el avance actual de Crio EM para estudios estructurales de biomoléculas y


dinámica biomolecular, se han adoptado muchas innovaciones. En esta sección,
presentamos estas tecnologías de requisitos previos.

6.1. Detectores de electrones directos y “modo película”.


El gran éxito de SPA en los últimos diez años se basa principalmente en mejoras
concertadas en detectores, instrumentación y software. Los detectores de electrones
directos (DED) o los dispositivos de detección directa (DDD) basados en la tecnología
CMOS endurecida por radiación derivada de la física de alta energía, y las lecciones
aprendidas de los detectores de sincrotrón de rayos X han marcado el comienzo de una
nueva área de sensores de imagen casi sin ruido con alta Eficacia cuántica detective
(DQE). Han reemplazado por completo a las cámaras de placa basadas en una lámina
de película fotográfica recubierta con una emulsión de haluro de plata electrosensible,
así como a la generación anterior de detectores CCD acoplados con centelleador. Todos
los DDD pueden funcionar en moderado (20–40 cuadros por segundo, por ejemplo, FEI
Falcon 2, Direct Electron DE-20 y DE-64) a altas velocidades de cuadro (400–8000 fps,
por ejemplo, Gatan K2, Gatan K2-IS, PNDetector pnCCD ). Esto hace posible la
corrección de movimiento de los cuadros de imagen y la imagen de alta resolución [62].
Su funcionamiento en "modo de película" permite la compensación del movimiento de
la etapa residual, así como el movimiento de la imagen debido a la carga inducida por
el haz. El software, que puede realizar dicha corrección de movimiento, se basa en
promediar después de la alineación de trama y se puede utilizar sobre la marcha con el
hardware apropiado (por ejemplo, el procesador FEI Falcon3EC) o una computadora
potente dedicada (Appion [63], FOCUS [64]). Las distorsiones geométricas causadas
por el sistema de lentes del proyector pueden medirse y corregirse (desenfoque [15]).
Se ha convertido en una práctica común usar un filtro dependiente de la dosis, que pesa
las amplitudes de cada cuadro de película en el dominio de la frecuencia para retener
un contraste fuerte de baja resolución mientras retiene información de alta resolución de
cuadros tempranos que han sufrido menos daños por radiación (por ejemplo, motioncor
[16], motioncor2 [65], Unblur [15], utilidades de detección directa [66]). El conteo de un
solo electrón y la interpolación de súper resolución se han vuelto prácticos en la
operación en tiempo real implementada en arreglos de puertas programables de campo
dedicados (FPGAs (por ejemplo, Gatan K2 Summit, FEI Falcon 3EC). Imagen con señal
detectable más allá del límite de Nyquist de la matriz de píxeles físicos (Gatan K2
Summit). Las ventajas son una mejora en el rendimiento del DQE después del muestreo
descendente por el recorte de Fourier, que elimina el ruido adicional en forma de efectos
de alias, o un campo de visión más amplio . Esto último también se logra con un sensor
de píxeles nativo de 8 k × 8 k (Direct Electron DE-64), que tiene el beneficio de un
rendimiento mayor al capturar 4 veces el área y proporcionalmente más imágenes de
partículas individuales en comparación con un 4k × 4 k sensor.

6.2. Contraste de fase y placas de fase

La formación de contraste en el TEM es una combinación de contraste de amplitud, que


se debe principalmente a la inelástica
la interacción del haz con la muestra y el contraste de fase, que está fuertemente
modulado por la fase CTF del sistema óptico del microscopio. Desde la fracción de
el contraste de amplitud a las energías típicas de los TEM modernos (120–300 keV) es
solo del 5 al 10%, las imágenes generalmente se registran en estado desenfocado para
obtener contraste de fase, y el desplazamiento dependiente de la frecuencia de la
dispersión del punto desplazado radialmente se restaura posteriormente por
deconvolución con la fase determinada experimentalmente CTF. Sin embargo, el
desenfoque inducido por desenfoque de las características del objeto observado
dificulta la interpretación directa y atenúa la información de alta resolución al aumentar
el desenfoque debido a la coherencia limitada y las aberraciones.
La imagen en el TEM está formada por la interferencia entre la onda de electrones no
dispersada, que nunca ha interactuado con la muestra delgada, y las ondas dispersas
cuyas fases se alteraron como resultado de la interacción con el potencial eléctrico del
objeto. Cuando las ondas dispersas y no dispersas se combinan en el plano de la
imagen, surge una imagen con brillo variable y sus características se deben a estas
sutiles diferencias de fase y al CTF. Por lo tanto, la formación de imágenes en el TEM a
veces se denomina "holografía en línea". Hace más de 60 años, el físico holandés Fritz
Zernike se dio cuenta de que tales diferencias de fase podrían aumentarse
enormemente retrasando o acelerando sistemáticamente la fase de la onda dispersa.
Logró esto introduciendo un dispositivo de desplazamiento de fase en forma de anillo,
una placa de onda o placa de fase, en el plano focal posterior de un microscopio óptico
(el plano de difracción óptica), que le llevó a su Premio Nobel por el descubrimiento de
la fase. Microscopía de contraste en 1953 [67]. Durante el resto de su vida, trabajó en
la implementación práctica de su idea para el TEM, pero las dificultades técnicas solo
fueron superadas por Nagayama et al. con la placa de fase "Zernike", que es una
película de carbón de cambio de fase delgada montada en el plano focal posterior con
un orificio central para el haz central no disperso [68]. Sin embargo, este dispositivo
también sufrió una rápida acumulación de carga, la degradación del rendimiento por
pequeños contaminantes y el requisito de un posicionamiento muy preciso del orificio
central. Sólo recientemente, nuevos tipos de placas de fase han hecho práctico el uso
de este innovador efecto en la TEM: en particular, el VPP, que se basa en una película
de carbón continuo y caliente que se carga por el propio haz central no disperso, cuyo
la fase se desplaza [69].
Otros diseños electrostáticos (p. Ej., Estrella de Siemens, placa de fase media, placa de
fase de amperio) basados en potenciales eléctricos externos de forma precisa todavía
están en desarrollo y prometen procedimientos más fáciles de adquisición de imágenes
y procesamiento de datos debido al constante cambio de fase controlable por el
usuario¨[70]. En teoría, una imagen de contraste de fase enfocada con una placa de
fase de cuarto de onda (cambio de fase = 90 °) resulta en una transferencia plana de
alto contraste en todo el espectro de frecuencias. Dicha imagen representa
características grandes y pequeñas con el mismo contraste y, por lo tanto, hace que sea
fácil para un observador interpretar la estructura de la imagen directamente. Sin
embargo, una de las dificultades prácticas del contraste de fase enfocado es el enfoque
preciso dentro de 100 nm durante la recopilación automática de datos para SPA. Esto
se debe al hecho de que las láminas de carbono holey disponibles en el mercado
utilizadas como soporte de muestras no siempre son planas y pueden arrugarse debido
a la contracción unisotrópica al congelarse por inmersión. Debido a que no hay anillos
Thon visibles a un desenfoque tan bajo, la estimación de CTF no es práctica. A pesar
de múltiples puntos fuera del eje de enfoque, es difícil obtener una resolución más alta
que ~ 4 Å [69]. Las desviaciones tan pequeñas como 200 nm del enfoque real introducen
fuertes oscilaciones de la fase CTF en la parte de alta frecuencia del espectro y
deterioran la señal a alta resolución al promediar. Una alternativa a la imagen de la placa
de fase enfocada es la imagen de la placa de fase desenfocada, que da como resultado
anillos Thon visibles en el espectro de potencia de la imagen que se pueden utilizar para
el ajuste y la desconvolución de la fase CTF, incluido el astigmatismo y el
desplazamiento de fase inducido por la placa de fase. Con este método, se ha logrado
una resolución muy alta mejor que 3 Å [71] y una pequeña proteína de 64 kDa de masa
molecular se resolvió a una resolución de 3.2 Å [6] usando SPA con VPP. Sin embargo,
la estimación precisa del cambio de fase inducido por la carga variable de un VPP sigue
siendo un desafío y requiere una selección rigurosa de valores atípicos de la evolución
de la curva de cambio de fase esperada.
Las imágenes de contraste de fase con placas de fase inductoras de contraste tienen la
promesa de obtener reconstrucciones de alta resolución con una menor cantidad de
imágenes de partículas, ya que el contraste mejorado facilita la alineación y clasificación
de partículas. Para las estructuras dinámicas, cuyas imágenes se deben clasificar en
clases discretas, esto representa una clara ventaja. Lo mismo debería aplicarse a la
tomografía de placa de fase y al STA. En resumen, el uso de un dispositivo de placa de
fase para mejorar el contraste es un pequeño paso adelante por sí mismo, pero en
combinación con otras mejoras en los detectores de electrones directos, los filtros de
energía, la preparación de muestras y la recopilación de grandes cantidades de datos a
velocidad de película, estos los avances incrementales se suman y se traducen en
mejores datos con una SNR más alta para un análisis mucho más eficiente con técnicas
modernas de procesamiento de imágenes.
6.3. Filtros de energía
Los filtros de energía mejoran el contraste al filtrar las contribuciones perjudiciales de
los inelásticos fuera de fase y multiplicar los electrones dispersos. Un filtro de energía
en el EM actúa como un prisma óptico: cuando el haz de electrones se dobla en una
esquina cerrada, se expande de acuerdo con su espectro de energía (por lo tanto, su
longitud de onda). Usando una ranura mecánica de ancho variable, las imágenes se
pueden filtrar según el rango de energía y el desplazamiento seleccionado por el sistema
óptico del espectrómetro y el ancho de la ranura. Para aplicaciones biológicas,
normalmente solo se usa la imagen filtrada de pérdida cero (correspondiente a los
eventos de dispersión elástica sin pérdida de energía). Se utilizan dos tipos de filtro de
energía: uno está en la columna y el otro es el tipo de montaje inferior [72]. En
comparación con el filtro de energía en columna (tipo omega y tipo gamma), que tiene
un diseño óptico simétrico, el filtro de montaje inferior era más propenso a la distorsión
de la imagen debido a su diseño asimétrico. Sin embargo, se ha actualizado para
minimizar las distorsiones geométricas a menos del 0,5% de RMSD en todo el campo
de visión (Gatan Quantum GIF), lo que beneficia el promediado de grandes objetos de
partículas individuales como virus gigantes y tomografía celular [73]. La combinación de
filtro de energía y detector de electrones directos combina ambos efectos de mejora del
contraste (por ejemplo, Gatan K2 Quantum).

6.4. Avances en microscopios electrónicos, automatización y manejo de datos.


En el lado del microscopio, las mejoras más significativas fueron los autocargadores de
múltiples muestras, que permiten que las crio-muestras se mantengan durante hasta 5
días en el autocargador sin contaminación, las ópticas mejoradas añadiendo una tercera
lente de condensador (FEI Titan) para facilitar la realización paralela iluminación,
emisores de emisión de campo frío tipo Schottky de alta coherencia (JEOL crioARM),
estabilidad mejorada de la etapa de la muestra eliminando el soporte de entrada lateral
y conteniendo completamente el cartucho de muestra dentro de la columna del
microscopio, placas de fase de contraste que mejoran y finalmente capacidad de control
remoto completo todas las funciones del microscopio, incluido el control de apertura,
que elimina cualquier variación de temperatura o vibración inducida por un operador
humano.
Esta capacidad de control remoto ha habilitado una nueva generación de software, que
permite la recopilación de datos totalmente automatizada en un crio-TEM bien
mantenido y calibrado (por ejemplo, Leginon [74], SerialEM [75], FEI EPU /
Tomography4, UCSF-Image4 [76] , Latitud de Gatan, JEOL JADAS) y da como resultado
grandes cantidades de datos (generalmente entre 3 y −10 TB de datos de películas por
cada conjunto de datos de muestra). Dichos conjuntos de datos tan grandes deben
almacenarse en arreglos redundantes locales de discos (RAID), en redes de área de
almacenamiento (SAN) o en almacenamiento conectado a la red (NAS) y procesarse en
clusters de computadoras, que generalmente tienen varios miles de núcleos de CPU.
Como en otros campos de la computación de alto rendimiento (HPC), las unidades de
procesamiento de gráficos (GPU) se han utilizado para acelerar los cálculos altamente
paralelos numéricamente intensivos - para crio-EM, el procesamiento de GPU se ha
hecho popular para la corrección de movimiento de cuadros de películas (por ejemplo,
motioncor1 / 2) [16,65] y todo el flujo de trabajo de procesamiento de imágenes
(Frealign-GPU [77], Relion2 [44]) mediante el uso de tarjetas de "juego" baratas, cuyos
múltiplos pueden alcanzar el rendimiento de 100-1000 CPU en un solo chasis debajo
del escritorio, eliminando así la necesidad de un centro de datos con mantenimiento
central y ahorrando energía.
En el caso de cryo-ET, el soporte de especificación se gira en el objeto y se recoge una
serie de inclinación de la muestra con un incremento de ángulo de inclinación continuo
o variable. El software moderno para la adquisición automatizada de imágenes puede
crear un "atlas" en mosaico de toda la cuadrícula a un bajo aumento, que es seguido
por imágenes de los cuadrados utilizados para la indexación de las posiciones de los
orificios. Cada orificio está orientado secuencialmente para un ajuste preciso de la etapa
y se pueden tomar múltiples exposiciones usando el desplazamiento de la imagen
después del enfoque de compensación, maximizando así el rendimiento (por ejemplo,
EPU (Compañía FEI), Leginon [74], SerialEM [75], UCSF Image4 [76 ], Gatan Digital
Micrograph Latitude (Gatan Inc.), Tomography4 (FEI Company)). Dichos sistemas
permiten la recolección de hasta 3000 imágenes de partículas individuales por día y
pueden generar fácilmente más de 3 a 10 TB de volumen de datos durante este tiempo,
dependiendo del número de fotogramas de películas almacenados. El rendimiento real
depende de muchos parámetros, incluida la cantidad de cuadros de películas, la red y
la velocidad de almacenamiento de datos. Las actuales estrategias de recopilación de
datos para la tomografía requieren mucho más tiempo (por ejemplo, estrategia de
simetría de dosis [42]) y limitan la cantidad de tomogramas a aproximadamente 10 por
día. Esto podría mejorarse mediante una futura tomografía de inclinación de adquisición
continua, durante la cual se recoge un tomograma como una única película continua.
De hecho, en el campo de la ciencia de los materiales, tal adquisición continua de una
serie de inclinación de baja dosis que consta de 3487 cuadros de película a una
velocidad de cuadro de 1000 cuadros por segundo se ha demostrado en solo 3,5 s [49].
La adaptación de esta tecnología para muestras biológicas permitirá la recopilación de
datos para promedios de subtomogramas con un rendimiento comparable al método
actual de partículas individuales. Si bien la mayoría de los laboratorios utilizan
actualmente TEM, la transmisión de crio scan EM (cryoSTEM) tiene un gran potencial y
se ha aplicado con éxito a la tomografía celular de muestras gruesas [78].

7. Observación de la dinámica molecular.

Para el análisis de partículas individuales, los objetos deben ser homogéneos e


igualment dispersos en un rollo delgado de hielo, porque un requisito previo del
algoritmo de reconstrucción es que las imágenes de partículas representan una serie de
proyecciones diferentes de partículas idénticas. Sin embargo, el software reciente que
utiliza algoritmos sofisticados para la clasificación 3D puede separar pequeños cambios
conformacionales en imágenes de moléculas individuales [79]. Las partículas
heterogéneas se han separado con éxito utilizando tanto SPA como crio-ET / STA. Estas
mejoras innovadoras no pueden ser exageradas, ya que los resultados más recientes
que muestran las clases en 3D de la población de partículas demuestran que la
suposición de que todas las imágenes de partículas son proyecciones desde el objeto
3D idéntico es incorrecta. La observación de que existen subclases discretas de
estructura molecular se hace aún más pronunciada a medida que aumenta la resolución
de sus reconstrucciones. La mayoría de las proteínas y complejos de proteínas más
grandes contienen dominios flexibles, que pueden adoptar múltiples conformaciones.
Esta puede ser la razón por la cual tales estructuras dinámicas a menudo han eludido
la cristalización. Para obtener los niveles más altos de resolución alcanzados por SPA
alrededor de 2 Å para muestras biológicas a partir de hoy, incluso las imágenes de
pequeñas proteínas mostraron una variabilidad conformacional que requirió la
clasificación en sus formas menos variables por clasificación 3D [80,5]. La distribución
de sus conformaciones moleculares dinámicas en instantáneas capturadas por
diferentes clases puede explicar los estados de baja energía preferidos dentro de un
equilibrio termodinámico y la población total puede contener todo el espacio
conformacional accesible al plegamiento de la estructura de la proteína en las
condiciones de su entorno nativo en solución antes de la congelación instantánea. De
hecho, se ha propuesto un modelo cuantitativo de este tipo para los cambios
conformacionales dinámicos del ribosoma de levadura basado en el mapeo múltiple y
sofisticado de clases 3D representativas (Fig. 7) [81,82].
. Dichos modelos no solo pueden desentrañar la relación temporal entre clases 3D que
representan diferentes conformaciones de la estructura, sino que completan los huecos
entre las transiciones de los estados preferidos asignándolos a una trayectoria
multidimensional dentro de un paisaje energético realista y, por lo tanto, explican su
mecanismo de acción mediante Principios termodinámicos. Para otros ejemplos, Zhao
et al. informaron las estructuras de los tres estados de rotación de la levadura V-ATPasa
por crio-EM de partícula única en resolución casi atómica [79]. De acuerdo con los tres
estados de unión de ATP en el dominio V1 citoplásmico, la estructura completa del
complejo múltiple mostró diferentes estructuras, que se clasificaron con éxito en 3D
utilizando Relion [28]. En un reciente estudio histórico, Loveland et al. fueron capaces
de desentrañar estados clave del ribosoma durante la traducción del gen, dilucidando el
mecanismo de descodificación precisa mediante análisis de conjunto con crio-EM de
partículas individuales [83].
Como una nueva herramienta para estudiar la dinámica de las proteínas de membrana,
los nanodiscos están adaptados para crio-EM SPA. Gao et al. resolvió las estructuras
de alta resolución de los canales iónicos de TRPV1 incrustados en nanodiscos con y sin
ligandos e informó que las interacciones específicas de fosfolípidos mejoran la unión de
una toxina de araña a TRPV1 a través de la formación de un complejo tripartito. Además,
los lípidos del fosfatidilinositol ocupan el sitio de unión de la capsaicina y otros ligandos
vanilloides y regulan la apertura del canal [84]. Para cryo-ET / STA, se puede usar para
estudiar estados moleculares de complejos únicos en condiciones casi nativas, aunque
las resoluciones son más bajas que las de SPA [85,86]. Cryo-ET puede proporcionar la
estructura de partes de células, orgánulos y virus in situ. Liu et al. describió los cambios
estructurales de las glucoproteínas de la envoltura del virus de la inmunodeficiencia
humana (VIH) con y sin unión del ligando al receptor de la célula objetivo [87]. El modelo
dinámico de la maquinaria bacteriana tipo IVa pilus fue investigado por crio ET / STA
por Chang et al. [88], revelando el mecanismo de montaje y retracción del pilus. CryoET
/ STA también ayudó a dilucidar la dinámica de la quimiotaxis bacteriana [89,90] y la
infección por bacteriófagos [91-93], donde los cambios de conformación dinámica de los
complejos de proteínas causan las funciones biológicas.

8. Conclusión / perspectiva

Aquí, damos una revisión de Crio-EM e introducimos la técnica como una de las
modalidades para estudiar la dinámica molecular en proteínas y complejos de proteínas.
Los avances recientes en tecnología de hardware y software descritos en esta revisión
permiten la investigación de conjuntos de estructuras de proteínas y su dinámica
utilizando crio-EM a nivel molecular hasta casi atómico. Comparado con otros métodos,
cryo-EM cubre un rango más amplio de pesos moleculares y condiciones de muestra.
Incluso la estructura de las proteínas dentro de la célula ahora puede analizarse
mediante el FIB o criocorte. El Cryo-EM, es una técnica recién madurada, un competidor
fuerte para contribuir con nuevas ideas para el estudio de la dinámica molecular de las
proteínas en el futuro.

Vous aimerez peut-être aussi