Agentes de contraste en imagen por Resonancia Magnética (II)

En la anterior publicación del SAI de Resonancia Magnética de Investigación nos centramos en los agentes de contraste que producían un contraste positivo, concretamente en los agentes de Gadolinio. En esta nueva entrada, nos gustaría hablar de cómo podemos obtener un contraste positivo empleando partículas de óxido de hierro, ya que hasta ahora, estas partículas las incluíamos como una fuente de contraste negativo. Todo dependerá de ciertas propiedades fisicoquímicas: tamaño, morfología y superficie de las partículas.

Las partículas de óxido de hierro son uno de los nanomateriales más usados en biomedicina, y dos de sus propiedades más importantes son su biocompatibilidad y sus propiedades magnéticas.

Cuando son sintetizadas de manera “tradicional” muestran propiedades superparamagnéticas, cuando se les somete a un campo magnético muestran una fuerte respuesta magnética, pero vuelve a cero cuando se elimina el campo. Es decir, actúan como “pequeños imanes” eliminando la señal, y apareciendo un “punto negro” produciendo lo que se llama contraste negativo. Como su efecto es bastante acusado, para aplicaciones in vivo la dosis administrada suele ser baja.

Si os acordáis de la anterior newsletter, hablamos del contraste de Gd, que es el que se utiliza la mayoría de las veces, pero se ha visto que produce toxicidad con lo que las investigaciones se centran en estudiar nuevos compuestos que puedan producir contraste positivo empleando otros elementos.

Con estas partículas de hierro, el contraste negativo produce imágenes oscuras. En la mayoría de las enfermedades, la señal que se produce en la imagen de RM es oscura. Por tanto, si el contraste produce una señal oscura sobre un fondo oscuro, el diagnóstico va a ser complicado, de ahí que, en estos años, los investigadores estén buscando alternativas para mejorar las propiedades fisicoquímicas de las partículas de óxido de hierro para conseguir que las imágenes que se obtengan produzcan el mismo contraste que el que se produce cuando se emplean compuestos de Gadolinio.

La intención será sintetizar partículas muy pequeñas que sean más paramagnéticas que superparamagnéticas y que produzcan señales hiperintensas en imagen por RM.

Propiedades fisicoquímicas de las partículas de óxido de hierro

Para conseguir que las partículas de óxido de hierro actúen como agentes de T1: Los componentes de estas partículas: el núcleo y la envoltura desempeñarán un papel muy importante en el contraste. La composición, la forma y el tamaño son clave para determinar la fase de hierro-oxido, su cristalinidad, las propiedades magnéticas y su tamaño hidrodinámico.

Con respecto al tamaño, (considerando tamaño del núcleo y tamaño hidrodinámico): cuando más pequeño sea el núcleo mejor será el contraste positivo. Cuando el tamaño del núcleo es menor a <5nm los dominios magnéticos individuales disminuyen, produciendo un giro inclinado que produce 5 electrones orientados y desapareados Fe3+/Fe2+, haciendo a las partículas más paramagnéticas que superparamagnéticas. Los núcleos más pequeños tienen menos cristalinidad, con lo que se produce una disminución en la saturación de la magnetización (similar a los materiales paramagnéticos).

Imagen de hígado ponderada en T1: basal (izda) y después de administrar nanopartículas de hierro con un tamaño relativamente grande (dcha.) Se observa una hipointensidad en la señal. Angiografía en T1: antes de administrar el contraste (izda) y después de administrar nanopartículas de hierro con un tamaño muy inferior a las anteriores. Se produce una hiperintensidad en la señal.

Un aspecto muy importante que hay que tener en cuenta es la estabilidad de estas NPs (nanopartículas) para evitar que se agreguen entre ellas, pues esto produciría un aumento en el efecto T2. Serán cruciales una serie de aspectos durante su síntesis, ya no solo el tamaño en si, si no la envoltura, el tipo y tamaño, la hidrodinámica, etc… no hay una regla general que defina el mejor escenario para cada nanopartícula de T1. Hay otros factores, como la secuencia en sí de T1, la elección de los parámetros en diferentes campos magnéticos para que se puedan emplear estas NPS con unas propiedades fisicoquímicas y relaxométricas concretas.

Aplicaciones in vivo

Como ya comentamos, el principal uso de estas NPS de hierro es para servir de contraste T2, pero esta señal hace difícil distinguir las áreas hipointensas en varias enfermedades: cuando se producen depósitos de Calcio, hemorragias, presencia de otros metales o zonas con aire (pulmones, por ejemplo).

Lo que es más actual es el desarrollo de agentes de contraste duales, que produzcan tanto contraste T1, como contraste T2. En imagen de RM, las imágenes en T1 dan más resolución y las de T2 ayudan a detectar mejor la lesión. Por esta razón, estas sondas duales podrían dar una información muy valiosa para un diagnóstico mucho más preciso.

También se están desarrollando compuestos en los que puedan emplearse en distintas técnicas de imagen junto con la imagen de RM (PET: tomografía de emisión de positrones o SPECT: tomografía de emisión de fotón único). Serian compuestos tales como la combinación de nanopartículas de óxido de hierro con radionucleidos, como el Galio (68Ga) para PET o el Tecnecio (99Tc) para SPECT.

Imagen multimodal RM-SPECT. Al animal se le administró un compuesto dual marcado con Tecnecio y con partículas de óxido de Hierro. Para la imagen de RM se tomó la imagen en basal y después se fueron adquiriendo imágenes cada x minutos para ver el aumento de la señal tanto en los vasos como en el corazón. Para adquirir la imagen SPECT es necesario esperar un tiempo denominado captación. Las imágenes se obtuvieron a los 40 y 200 min. después de la inyección del compuesto.

Conclusiones

Terminamos la newsletter concluyendo que a día de hoy, el foco de investigación se centra en sintetizar compuestos biocompatibles de óxido de hierro, principalmente, que no produzcan toxicidad y que sean capaces de potenciar las propiedades o mejor dicho de equiparar o mejorar la resolución de las imágenes obtenidas con agentes de contraste T1, como el Gadolinio.

Si en un futuro no muy lejano conseguimos aplicar a la práctica clínica estos contrastes duales podremos utilizarlos tanto para conseguir contraste T1 y contraste T2 cuyo fin por supuesto será obtener un diagnóstico médico mucho más preciso con este tipo de sustancias.

AUTOR
Marina Benito Vicente
Responsable del Servicio de Resonancia Magnética de Investigación Hospital Nacional de Parapléjicos.
Toledo, España.


Referencia
Fernández-Barahona, I.; Muñoz-Hernando, M.; Ruiz-Cabello, J.; Herranz, F.; Pellico, J. Iron Oxide Nanoparticles: An Alternative for Positive Contrast in Magnetic Resonance Imaging. Inorganics 2020, 8, 28.
https://doi.org/10.3390/inorganics8040028

PROTEÓMICA CUANTITATIVA: CUANTIFICACIÓN BASADA EN MS2

En anteriores newsletters, os hemos ido introduciendo a las diferentes opciones de experimentos en proteómica cuantitativa y la importancia de la identificación y cuantificación integral de todas las proteínas en un sistema biológico, para revelar las funciones de las proteínas en los procesos biológicos, fisiológicos y patológicos. En esta nueva entrega nos enfocamos en los métodos basados en marcaje o proteómica cuantitativa multiplexada, con etiquetado o marcaje químico basada en métodos de adquisición de espectros de MS2.

Figure 1. Descripción esquemática de la cuantificación basada en MS1 y MS2. (Xiaobo Tian et al., Mass Spectrom Rev. 2021;1–31)


CUANTIFICACIÓN BASADA EN MS2
Los enfoques de cuantificación basados en MS2 permiten fácilmente una mayor capacidad de multiplexación sin la mayoría de los inconvenientes de los métodos de cuantificación basados en MS1. La cuantificación basada en MS2 generalmente se basa en el etiquetado de los mismos péptidos derivados de diferentes muestras con diferentes etiquetas isobáricas.
Las etiquetas isobáricas son reactivos que se utilizan para modificar péptidos de forma covalente, mediante la distribución de isótopos pesados en la etiqueta para codificar diferentes condiciones, generalmente se agregan después del proceso de digestión. Consisten en grupos de iones informadores (Reporter) y de iones de equilibrado de masas.

Cada variante de un conjunto de etiquetas isobáricas tiene una masa total idéntica. La única diferencia es cómo se distribuyen los isótopos pesados entre el ion “reporter” y el ion de balance de masa.
Así, un mismo péptido de diferente muestra eluye a un mismo tiempo y aparece como una única señal en el espectro MS1.
Esta es una gran ventaja porque la complejidad de los espectros de MS1 no aumenta significativamente con el número de muestras. Esto hace que las etiquetas isobáricas sean compatibles con una mayor multiplexación (actualmente hasta 16) en comparación con, por ejemplo, SILAC. Después de aislar un péptido y producir su escisión, en el espectro de MS2 observaremos los iones indicadores/informadores mostrando diferente masa, que se emplean en la cuantificación relativa; y los iones b e y que se utilizan para la identificación del péptido.

Figure 2 Esquema de proteómica multiplexada con etiquetas isobáricas. A) Las etiquetas isobáricas tienen la misma masa total, pero diferentes distribuciones de isótopos pesados entre el grupo informador y el balance de masas. Los isótopos pesados se muestran como asteriscos.


TIPOS DE ETIQUETAS
Las etiquetas isobáricas más utilizadas son la etiqueta de masa en tándem (TMT) y la etiqueta isobárica para cuantificación relativa y absoluta (iTRAQ), pero existen otras etiquetas isobáricas que han ido surgiendo para mejorar de este tipo de cuantificación.

Figure 3 Descripción general de las etiquetas isobáricas. La parte negra de la estructura indica la parte informadora; el grupo de balance de masa es azul; y el grupo saliente, que se elimina después de que la etiqueta reacciona con los péptidos, es rojo.


El diseño de estas nuevas etiquetas se basa en la distribución de isótopos pesados por su estructura. De esta forma al fragmentarse, se producen iones indicadores de m/z baja, pero también el péptido intacto con el grupo de balance de masa marcado que nos aportan información complementaria y que pueden utilizarse en la cuantificación.
Lo que se busca con estos nuevos marcadores isobáricos es encontrar métodos más selectivos para introducir la etiqueta, reducir el coste de síntesis y aumentar la sensibilidad de la medida.
Uno de los problemas o desventajas de la proteómica multiplexada es la distorsión de la relación de medida. Incluso para la ventana de aislamiento técnicamente más pequeña posible centrada en un péptido de interés, en un experimento real, se coaislarán otros péptidos con m/z y tiempo de retención similares. Por tanto, casi todas las mediciones están distorsionadas, aunque tiende a ser más significativa para los péptidos de baja abundancia.

Figure 4 El problema de la proteómica multiplexada: distorsión de la relación

El problema de la distorsión puede aliviarse con enfoques aplicables durante la preparación de la muestra (mayor fraccionamiento de la muestra por LC), el análisis de MS (fragmentación MS3) o el procesamiento computacional una vez adquiridos los datos.


PROTEÓMICA CUANTITATIVA CON MARCAJE ISOBÁRICO EN LESIÓN MEDULAR
Uno de los estudios más recientes en la literatura que implica lesión medular y marcaje isobárico es el de Hulme, C. H., et al Spinal Cord, 1-6 – October 2021 en el que caracterizan como cambia el proteoma del plasma después de una LME completa en comparación con una lesión simulada en modelos de rata. En el que identifican como vías reguladas diferencialmente, la señalización de la respuesta de fase aguda desencadena por citoquinas inflamatorias y cambios en la activación de LXR/RXR destacando la importancia de considerar el efecto de la LME en otros órganos como el hígado.
Otro estudio, es el Liu S et al Med Sci Monit 2020; 26:e924266, en el que examinan la expresión de proteínas en un modelo de LME por contusión después de una semana de provocar la lesión. Para ello realizan un marcaje isobárico con iTRAQ y posterior análisis por LC-MS/MS. Algunas de las proteínas diferenciadas en el estudio ya las habían detectado en un estudio anterior (Zhou H., et al 2018) en el que utilizaban iTRAQ para examinar los niveles de expresión de proteínas 14 días después de la LME describiendo el perfil proteómico de la fase de transición entre la fase subaguda a la fase intermedia de la LME.


Tabla 1 Las 10 mejores proteínas sobreexpresadas y disminuidas

Quizá, algunas de estas proteínas puedan ser potenciales biomarcadores para el diagnóstico y tratamiento una semana después de LME.


CONCLUSIÓN
En comparación con otros enfoques de etiquetado de isótopos estables, la tecnología de etiquetado isobárico tiene muchas ventajas. En primer lugar, el etiquetado isobárico tiene una mayor capacidad de multiplexación (hasta 16), lo que aumenta considerablemente el rendimiento de la cuantificación. En segundo lugar, la alta capacidad de multiplexación del marcaje isobárico hace posible manejar varias réplicas biológicas y ofrecer datos de validación estadística con un experimento de cromatografía líquida (LC)-MS/MS.
Los enfoques de marcado isobárico son compatibles con casi todos los sistemas biológicos, incluidas las células, los tejidos y los biofluidos.
Aunque la flexibilidad y las capacidades de multiplexación hacen que los métodos de marcaje isobárico sean particularmente adecuados para aplicaciones biológicas, sufren de precisión y exactitud reducidas. Los términos «precisión» y «exactitud» se refieren a la reproducibilidad de la medición y la proximidad al valor real de un cambio, respectivamente.

AUTOR

Gemma Barroso García, MSc.
Responsble SAI-Proteómica.
Hospital Nacional de Parapléjicos.
Toledo, España.
Referencias

  1. Pappireddi N., Martin L., Wühr M. A Review on Quantitative Multiplexed Proteomics. ChemBioChem 2019, 20, 1210-1224 https://doi.org/10.1002/cbic.201800650
  2. Tian X, Permentier HP, Bischoff R. Chemical isotope labeling for quantitative proteomics. Mass Spectrom Rev. (2021);1‐31. https://doi.org/10.1002/mas.21709

CITOMETRÍA DE FLUJO DEL SISTEMA NERVIOSO: ¿ES POSIBLE?

Una de las creencias más arraigadas en el mundo de la neurociencia es que la citometría de flujo es una técnica que sólo sirve para analizar células “de la sangre”. Nada más lejos de la realidad: cualquier célula es susceptible de ser analizada por citometría, pero es cierto que existen algunos requerimientos que pueden limitar la aplicación de la técnica, como es la necesidad de tener una suspensión de células individualizadas o la existencia de reactivos que permitan detectar las células de interés.

Y ese es el verdadero motivo por el que hacer citometría del sistema nervioso supone un reto que a veces culmina con el abandono de la técnica, muchas veces por el esfuerzo que supone poner a punto un experimento sobre todo a nivel de tiempo empleado, ya que existe la presión de obtener resultados de forma rápida e inmediata para poder mantener el ritmo de publicaciones exigido. Probablemente hemos olvidado que “la paciencia es la madre de la ciencia”.

En esta Newsletter pretendemos dar algunas claves para animaros a probar la citometría como técnica de análisis en Neurociencia.

  • PROBLEMAS

Existen tres problemas principales que limitan la aplicación de la citometría de flujo en el análisis del sistema nervioso:

  1. Elevada integración de las células neurales en el parénquima, lo que hace que los protocolos de disgregación de los tejidos deban poner especial cuidado en obtener una suspensión celular sin que las células sufran demasiado daño, y en que se mantenga la integridad de los antígenos que nos van a permitir identificarlas.
  2. Alto contenido en lípidos del tejido, siendo la mielina responsable de gran parte del debris celular que se detecta cuando analizamos células del sistema nervioso por citometría. A mayor incremento de mielina en la suspensión celular, más problemas de detección de la tinción van a ocurrir.
  3. Carencia de marcadores específicos de subtipos de células nerviosas, ya que, al tener un origen común, muchos de los marcadores son compartidos entre subtipos. Además, a veces es difícil encontrar anticuerpos específicos contra los antígenos concretos, que estén conjugados directamente con fluorocromos para citometría de flujo.

Estos problemas van a tener como consecuencia que, en algunos casos, no se puedan realizar todas las aplicaciones posibles de la citometría.

  • CÉLULA A CÉLULA

Al igual que los diferentes tipos celulares del sistema nervioso tienen diferentes funciones, no todos los problemas a los que nos enfrentamos les afectan a todos por igual.

Astrocitos

Una de las aplicaciones de la citometría más utilizadas en el estudio de los astrocitos es la separación celular activada por fluorescencia o FACS (“Fluorescence-Activated Cell Sorting”), a partir tanto de tejido neonatal como adulto. Dependiendo de la aplicación posterior que se quiera dar a los astrocitos separados (cultivo, congelación, análisis ómicos, etc), hay que tener en cuenta algunas consideraciones.

Si se quieren separar por FACS, hay que tener en cuenta que los astrocitos expresan marcadores en su superficie que no son totalmente específicos y se pueden encontrar tanto en NSCs como en oligodendrocitos (OLs) y/o neuronas. En ratón, el antígeno ACSA-2 se ha descrito como específico de astrocitos (se co-expresa con GLAST), mientras que en rata y humano el antígeno más utilizado para su detección es GLAST-1 (Fig.1).

Figura 1. Experimento de separación celular de astrocitos de corteza cerebral de rata neonatal. A) Estrategia de análisis pre-sort. Se aisló por FACS la población Glast-1+ B) Análisis post-sort. Resultados del Grupo de Reparación Neural

El marcador intracelular GFAP requiere la permeabilización celular para su detección, con lo que es incompatible con el cultivo posterior de los astrocitos aislados. Sin embargo, sí puede utilizarse en experimentos de fenotipado por citometría.

Neuronas

De todos los tipos celulares, las neuronas son las más sensibles a los métodos de aislamiento. La separación celular por citometría para obtener poblaciones enriquecidas en neuronas sería la técnica ideal, pero el primer problema lo encontramos con la limitada disponibilidad de marcadores y anticuerpos específicos de neuronas. Entre estos marcadores tenemos CD24, que es un marcador de superficie y se ha utilizado para separar neuronas. Sin embargo, la naturaleza del proceso FACS, que implica el sometimiento de la muestra a una elevada presión y a fuerzas electrostáticas, hace que se produzca una marcada disminución de la integridad celular y de la viabilidad de las neuronas. Por tanto, la obtención de neuronas viables para mantener posteriormente en cultivo por FACS, es prácticamente inviable.

Sin embargo, se han desarrollado protocolos que permiten la separación de núcleos de neuronas (u otros tipos celulares) mediante “Fluorescence Activated Nuclei Sorting” – FANS para el análisis posterior de perfiles genéticos, epigenéticos, de factores de transcripción y de expresión génica. Se utiliza un protocolo específico para la obtención de núcleos, junto con una tinción específica de neuronas como puede ser NeuN, y se purifican los núcleos NeuN+ para su posterior secuenciación (Nott, A. et al, 2021). La tinción con NeuN, que requiere permeabilización, puede utilizarse también en experimentos de fenotipado por citometría.

Oligodendrocitos

Después de las neuronas, los OLs son los tipos celulares que sufren más en los protocolos de disociación y FACS. Además, hay que tener en cuenta que el rendimiento celular es menor que para otros tipos celulares porque cuando se realizan gradientes (de sacarosa, Percoll u Optiprep) para eliminar la mielina de la muestra, muchos de los OLs se quedan atrapados en la fase de mielina.

En contrapartida, existen varios marcadores de superficie específicos de los distintos estadios de diferenciación, como pueden ser A2B5 (Fig.2) u O4, que permiten su separación por FACS y su caracterización por citometría (Robinson, AP et al 2014).

Figura 2. Análisis de precursores de OLs de corteza de rata. En este experimento se utilizó A2B5 como marcador de precursores de OLs. Resultados del Grupo de Neuroinflamación

Microglía

Debido a su origen hematopoyético, distinto de los otros tipos celulares que encontramos en el sistema nervioso, la microglía carece de la mayor parte de los problemas mencionados anteriormente. Se aísla fácilmente a través de disociación mecánica y gradiente de percoll, y existen varios marcadores que pueden ayudar a definirla, como son CD11b y CD45 (Fig.3)

Fig.3. Análisis de infiltrados y microglía en cerebro de ratón con daño traumático. El fenotipo de la microglía por citometría de flujo puedo definirse en función de los niveles intermedios de expresión de CD45 y CD11b, en comparación con los niveles de expresión elevados de estos marcadores presentes en las células infiltradas como causa de un daño traumático. Resultados del Grupo de Neurofisiología Experimental en colaboración con el Grupo de Neuroinmunoreparación (Rosa, JM et al 2021)

Fig.3. Análisis de infiltrados y microglía en cerebro de ratón con daño traumático. El fenotipo de la microglía por citometría de flujo puedo definirse en función de los niveles intermedios de expresión de CD45 y CD11b, en comparación con los niveles de expresión elevados de estos marcadores presentes en las células infiltradas como causa de un daño traumático. Resultados del Grupo de Neurofisiología Experimental en colaboración con el Grupo de Neuroinmunoreparación (Rosa, JM et al 2021)

  • ALGUNAS IDEAS PARA MEJORAR LOS PROBLEMAS

A los tres problemas principales que limitan la aplicación de la citometría de flujo en el análisis del sistema nervioso, proponemos pequeñas soluciones/ideas:

  1. Disgregación del tejido. Después de la disgregación mecánica es importante elegir una adecuada disgregación enzimática, teniendo en cuenta que puede afectarse la integridad de los antígenos que queremos identificar. Así, algunos antígenos soportarán mejor la digestión unas enzimas que con otras. Podéis revisar la tabla 1 para ayudaros a elegir.
  1. Alto contenido en lípidos del tejido. El modo de eliminar la mielina del homogenado puede favorecer la obtención de unos tipos celulares respecto a otros. La utilización de gradientes (de sacarosa, percoll, Optiprep) ha sido siempre el protocolo más utilizado, pero actualmente existen otras alternativas, como la de Miltenyi, que tiene un sistema con esferas magnéticas para eliminar la mielina de la suspensión celular (Myelin Removal Beads 130-096-731).
  1. Carencia de marcadores específicos de subtipos de células nerviosas. Es cierto que aún existe cierta dificultad para encontrar antígenos específicos de los distintos tipos celulares y que los que hay, no siempre nos permiten usarlos para realizar FACS. Como una pequeña ayuda podéis consultar la tabla 2 que contiene los marcadores utilizados habitualmente.

Tabla 1. Miltenyi Biotec

Tabla 2. Cossarizza A et al 2021

CONCLUSION

La citometría de flujo supone una potente herramienta en el estudio del sistema nervioso a pesar de las limitaciones expuestas en esta Newletter. Desde el CITF-SAI estamos dispuestas a ayudaros a establecer el mejor protocolo para ello, y por eso queremos ofreceros un descuento del 50 % en vuestro próximo experimento con Citometría de Flujo. Para ello, sólo tenéis que enviarnos un correo a citometría.hnp@sescam.jccm.es, solicitando dicho descuento. ¡Os esperamos!

AUTOR

Virginia Vila del Sol, PhD.
Responsable del Servicio de Citometría de Flujo
Hospital Nacional de Parapléjicos
Toledo, España.

Bibliografía

  1. Cossarizza A, et al. (2021) Guidelines for the use of flow cytometry and cell sorting in immunological studies (third edition). Eur J Immunol, 51(12), 2708-3145. https://doi.org/10.1002/eji.202170126
  2. Nott A, et al. (2021) Nuclei isolation of multiple brain cell types for omics interrogation. Nat Protoc., 16(3),1629-1646. 10.1038/s41596-020-00472-3
  3. Rosa JM, et al. (2021) TLR4 pathway impairs synaptic number and cerebrovascular functions through astrocyte activation following traumatic brain injury. Br J Pharmacol. Sep;178(17):3395-3413. https://doi.org/10.1111/bph.15488
  4. Robinson AP, et al (2014). Characterization of oligodendroglial populations in mouse demyelinating disease using flow cytometry: clues for MS pathogenesis. PLoS One.  23;9(9): e107649. https://doi.org/10.1371/journal.pone.0107649

INTELIGENCIA ARTIFICIAL MEDIANTE DEEP LEARNING CON EL SOFTWARE CELL SENS DE OLYMPUS

IA (Inteligencia Artificial), Deep Learning (aprendizaje profundo), Maching Learning (aprendizaje automático), Neuronal Netwoks (redes neuronales), son términos con los que debemos estar familiarizados. En anteriores Newsletter ya hemos introducido algunos de estos términos, pero en esta serie compuesta de tres Newsletter, esperamos aclarar definitivamente estos términos. Con este propósito, durante las próximas Newsletter, mostraremos los ejemplos de análisis de imagen con IA que venimos realizando en el SMAI (servicio de microscopía y análisis de imagen) del HNP. Esperamos que con esta serie de Newsletter podáis encontrar aplicaciones de la IA en el campo del análisis de imagen y por tanto utilizarla en vuestros proyectos de investigación.

Para comenzar con esta serie de Newsletter debemos hacer una introducción del equipo de Olympus que adquirimos el año pasado y que nos permite trabajar con IA.

NEWSLETTER 1

1. MICROSCOPIO IX83 DE OLYMPUS DEL SAMI

El microscopio IX83 de Olympus (Figura 1) está especialmente configurado para nuestras necesidades y es un microscopio completamente robotizado que nos permite la captura automática de imágenes a gran escala. Este tipo de captura masiva o a gran escala puede ser para realizar HCA (Hight Contant Analysis), o para fotografiar muestras de tejido macroscópico capturando imágenes a gran resolución en mosaico. Además este microscopio está preparado para poder ser actualizado en un futuro como VTL (video-time-Lapse).

Gracias a la robotización de este equipo podemos realizarla captura masiva y automática de imágenes a gran velocidad. Tanto la velocidad como la automatización de la captura, necesarias para captura masiva de imágenes, depende de varios dispositivos que conforman el microscopio y que describimos a continuación:

1. Platina Mazhauser con desplazamiento automático en XYZ. (Figura 1.A).

2. Cambio de filtros de emisión rápido para la captura con diferentes canales de fluorescencia mediante ruda de filtros (Fast filter Weel) (figura 1.B), apertura y cierre de shutter que nos permite cambiar la excitación rápidamente con longitudes de onda predefinidas durante las capturas complejas. Todo ello bajo el control del control box (figura 1.C). Además de la rueda de filtros y los shutters, el control box también permite el giro del carrusel de espejos dicroicos (tricroicos y pentacroicos) (figura 1.D).

3. Posibilidad de realizar autofoco (tanto por software como por compensador de deriva laser). El IX3-ZDC (compensador de deriva laser Z-Drift IX3) (figura 1.E) nos permite que las muestras estén siempre enfocadas, proporcionando imágenes más nítidas. Este laser infrarrojo enfoca instantáneamente las muestras de gran aumento y también mantiene el enfoque durante experimentos de lapso de tiempo largo, como puede ser el HCA, capturas de muchos cortes en varios porta-objetos a la vez o VTL (video-time-Lapse). De esta manera, el equipo permite la captura automática de imágenes a gran escala ya sea para HCA como para muestras de tejido.

4. Por último la velocidad de nuestro equipo también depende de las Controladora Microscopio/PC/Panel de control (figura 1.G) que traslada a gran velocidad las órdenes dadas en el PC o en el panel de control (figura 1.H) a el microscopio. El panel de control es un PC adicional, donde de forma rápida podemos actuar sobre el microscopio para las funciones más habituales, tales como, intercambio de objetivos, control del Z, ajuste fino o grueso etc.

Por otro lado, este equipo cuenta con una amplia batería de objetivos que van de 4X a 60X, tanto de corta como de larga distancia, que nos permiten capturar imágenes para todas nuestras muestras, tanto en porta como en placa. Además con algunos de estos objetivos podemos realizar técnicas especiales contraste de fase y/o DIC, para lo cual tenemos condensadores con los anillos pertinentes que nos permiten realizar estas técnicas de observación y captura (figura 1.I).

            Figura 1. Microscopio IX83 de Olympus completamente robotizado y sus componentes.

El sistema de iluminación está compuesto por un conjunto de 6 lámparas LED (lumencon) que nos permiten excitar las muestras fluorescentes en 7 rangos de excitación diferentes (figura 1.F) y (figura 2).

Una vez descritos los principales componentes del hardware es importante describir el software. Este microscopio lo hemos adquirido con dos softwares, el Cellsense y el ScanR, cada uno de ellos para unos propósitos concretos.

El Cellsense es óptimo para captura de imágenes, principalmente de tejido en porta objetos. Además el Cellsense lo complementamos con unos cuantos módulos adicionales que nos permiten analizar las fotos capturadas, procesarlas, incluso con deconvolución y por supuesto entrenar el equipo para realizar redes neuronales de inteligencia artificial (es en lo que nos centraremos en la tercera Newsletter de esta serie).

Por otro lado, el ScanR está diseñado principalmente para hacer HCA (Hight Contant Analysis), normalmente en placa de cultivo. El ScanR son dos Software, el de captura (para adaptar la captura a cualquier placa de cultivo) y el de Análisis (parecido a los de citometría, para analizar poblaciones con imagen) y donde podemos entrenar el equipo para crear redes neuronales que nos permitan analizar las imágenes aplicando inteligencia artificial (ver Nesletter de Javier Mazario del 3 de Mayo 2021 y Newsletter de Jose Angel Rodriguez el 28 de Junio 2021).

Figura 3. Software del nuevo equipo para HCA e inteligencia artificial

En esta primera Newsletter de la actual serie hemos descrito el equipo que nos permite realizar Deep Learning para entrenar redes neuronales que nos permitan analizar fotos a gran escala mediante IA. En la siguiente Newsletter de esta serie nos centraremos en explicar lo más claro posible, los conceptos más útiles de la IA aplicados al análisis de imágenes y en la última Newsletter nos centraremos en describir paso a paso el proceso que nos permite entrenar redes neuronales para analizar las fotos capturadas a gran escala.

AUTOR

José Ángel Rodríguez Alfaro.
Responsable del Servicio Microscopía y Análisis de Imagen.
Hospital Nacional de Parapléjicos.
Toledo, España.

CUANTIFICACIÓN LABEL-FREE (LFQ)

En esta newsletter profundizaremos sobre la cuantificación proteica diferencial sin marcaje, la estrategia denominada Label-Free Quantitation (LFQ).

La cuantificación de proteínas label-free es un método para identificar y cuantificar cambios relativos en dos o más muestras biológicas.

Flujo de trabajo

Hay varios pasos fundamentales involucrados en la proteómica cuantitativa label-free, incluida la preparación de muestras (extracción, reducción, alquilación y digestión de proteínas), separación de muestras por cromatografía líquida junto con el análisis por espectrometría de masas en tándem y análisis de datos (identificación de péptidos / proteínas, cuantificación y análisis estadístico). En este caso cada muestra se prepara por separado y luego se somete al análisis individual por LC-MS/MS.

Según el método utilizado para la extracción de datos, en general se pueden dividir en dos grupos distintos, por un lado, la cuantificación se puede inferir contando el número de péptidos o espectros asignados a una proteína determinada y, por lo tanto, se denominan genéricamente métodos de recuento espectral. Por otro lado, cuando la cromatografía líquida se combina con la espectrometría de masas, los valores cuantitativos se pueden medir mediante la extracción del área de los picos cromatográficos de los iones precursores, el área bajo la curva (AUC) o los métodos de intensidad de la señal MS1. (Figura 1)

Figura 1. Enfoques generales de proteómica cuantitativa. (a) Método shotgun de marcaje isotópico. Después del marcaje con isótopos estables (light / heavy), el control y la muestra se combinan y analizan mediante LC-MS / MS. La cuantificación se calcula en base a la relación de intensidad de pares de péptidos marcados con isótopos. (b) Proteómica cuantitativa sin marcaje. El control y la muestra están sujetos a análisis individuales de LC-MS / MS. La cuantificación se basa en la comparación de la intensidad máxima del mismo péptido o el recuento espectral de la misma proteína.

En cuanto a la estrategia de recuento espectral, la cuantificación relativa de proteínas se logra comparando el número de espectros MS/MS identificados de la misma proteína, donde se ha demostrado que se correlaciona directamente con la abundancia de proteínas. Algunos investigadores piensan que es posible porque un aumento en la abundancia de proteínas generalmente resulta en un aumento en el número de sus péptidos proteolíticos. Las cantidades crecientes de digestiones generalmente conducen a un aumento en la cobertura de la secuencia de proteínas, el número de péptidos únicos identificados y el número de espectros MS/MS totales identificados (recuento espectral) para cada proteína. Debido a la facilidad de implementación, no se han desarrollado herramientas o algoritmos específicos especialmente para métodos de conteo espectral. Pero la normalización y el análisis estadístico del conjunto de datos de conteo espectral es necesario para la detección precisa y confiable de cambios de proteínas en mezclas complejas.

Mientras que en la cuantificación mediante la intensidad de iones se ha observado que la intensidad de la señal de ionización por electrospray (ESI) se correlaciona con la concentración de iones. La altura o el área del pico en una relación masa-carga particular (m/z) de un espectro de masas refleja el número de iones para ese m/z detectado por el espectrómetro de masas en un momento dado, lo que generalmente se conoce como la abundancia de iones. Aunque la abundancia de iones no puede usarse para inferir directamente la concentración absoluta de proteína o péptido (debido a la diferente eficiencia de ionización para cada péptido), la comparación de la proporción de abundancias de iones entre péptidos idénticos obtenidos en diferentes ejecuciones de experimentos se puede usar para estimar la expresión diferencial.

Cuenta con ciertas ventajas frente a las estrategias con marcaje que hacen que sea uno de los métodos de cuantificación más en auge:

  • Se elimina la variabilidad que puede introducir el marcaje o etiquetado químico.
  • Se puede implementar en cualquier tipo de espectrómetro de masas, se usa ampliamente con buenos resultados debido a las mejoras en la reproducibilidad de los instrumentos y los esquemas avanzados de adquisición y procesamiento de datos.
  • Las etiquetas químicas y metabólicas suelen ser caras  con lo que el LFQ tiene un  menor coste.
  • El tiempo de preparación de la muestra se reduce significativamente mediante la eliminación de numerosos pasos.
  • No hay límite en el número de muestras y, en principio, es aplicable a cualquier tipo, incluidos los materiales que no pueden marcarse metabólicamente directamente (por ejemplo, muchas muestras clínicas) siendo ideal para análisis de muestreo grande en experimentos de detección clínica o de descubrimiento de biomarcadores.

También hay que tener en cuenta las limitaciones que este tipo de cuantificación conlleva:

  • La cuantificación Label-free tiene limitaciones inherentes en el rendimiento, ya que solo analiza una muestra por ejecución de LC‐MS, y en precisión, ya que no corrige la variabilidad analítica.
  • La cuantificación relativa se logra, como hemos visto, comparando el área del pico de iones precursores al nivel de MS1 o contando el número de espectros de MS2 por péptido, por lo tanto, es propenso a verse afectado por cambios en el tiempo de retención, cambios en la eficiencia de la ionización y variaciones en la pérdida de muestra durante el procesamiento de una inyección a otra, por lo que podría ser necesario un mayor número de réplicas técnicas.

CONCLUSIÓN

El rápido desarrollo de la proteómica cuantitativa label-free ha proporcionado una medición rápida y de bajo costo de los niveles de expresión de proteínas en muestras biológicas complejas.

La comparativa basada en la intensidad de pico y ​​en recuento espectral son los dos métodos más utilizados  de cuantificación sin marcaje. Comparado con los métodos de etiquetado isotópico, los experimentos label-free deben ser controlados más cuidadosamente debido a un posible error causado por variaciones entre carreras de LC y MS. Sin embargo, el desarrollo de separaciones altamente reproducibles por nano-HPLC, espectrómetros de masas de alta resolución y delicadas herramientas computacionales ha mejorado enormemente la fiabilidad y precisión de este tipo de abordaje. Software de procesamiento de datos comercialmente disponibles son capaces de detectar, emparejar y analizar péptidos de cientos de experimentos LC-MS diferentes simultáneamente, lo que proporciona una técnica de alto rendimiento para el descubrimiento de biomarcadores relacionados con enfermedades. La metodología label-free basada en conteo espectral se correlaciona positivamente con la cuantificación con marcaje isotópico y permite la cuantificación relativa y absoluta de proteínas. Estos enfoques cuantitativos label-free son una herramienta rigurosa y poderosa para analizar cambios proteicos en estudios proteómicos a gran escala.

AUTOR

Alba González Arandilla, MSc.
Especialista en espectrometría de masas.
Hospital Nacional de Parapléjicos.
Toledo, España.

Referencias

  1. Quantitative mass spectrometry in proteomics: a critical review. Anal Bioanal Chem (2007) 389: 1017–1031. DOI 10.1007/s00216-007-1486-6.
  2. Proteome Analyses of Hepatocellular Carcinoma Article in Journal of Clinical and Translational Hepatology. March 2014. DOI: 10.14218/JCTH.2013.00022
  3. Chemical isotope labeling for quantitative proteomics. Xiaobo Tian 1, Hjalmar P Permentier 1, Rainer Bischoff 1. PMID: 34091937. DOI: 10.1002/mas.21709.
  4. Mass Spectrometry-Based Label-Free Quantitative Proteomics. Wenhong Zhu,1 JeffreyW. Smith,1 and Chun-Ming Huang2.
  5. https://www.creative-proteomics.com/blog/index.php/label-free-quantitative-proteomics

CITOMETRIA DE FLUJO Y VEs EN LESIÓN MEDULAR Y ENFERMEDADES NEURODEGENERATIVAS

En anteriores entregas de newsletter de citometría os hablamos de las vesículas extracelulares (VEs) y de la información mínima que debe contener un estudio de VEs según establece la guía MiFlowCyt-EV. La Sociedad Internacional de Vesículas Extracelulares (ISEV) pretende asegurar con dicha guía una correcta identificación de VEs (NL20-CITF02 Vesículas Extracelulares 1 junio 2020).

Por tanto, en esta nueva entrega veremos cómo puede contribuir la citometría  en el estudio de VEs procedentes de diferentes células o fluidos biológicos. Concretamente, veremos 2 ejemplos en los que se emplean VEs para terapia en lesión medular o spinal cord injury (SCI) y  VEs  como fuente de biomarcadores en Esclerosis Múltiple (EM).

  • VEs PROCEDENTES DE CÉLULAS MADRE NEURALES COMO TRATAMIENTO EN SCI1

El trasplante de células madre neurales o Neural Stem Cell (NSC) es una estrategia prometedora tras una SCI ya que dichas células tienen la capacidad de autorrenovarse y producir neuronas, oligodendrocitos y astrocitos que promuevan la recuperación funcional. Sin embargo, el trasplante directo de NSC a los tejidos diana sigue siendo un desafío debido a la baja tasa de supervivencia de las células trasplantadas, así como los riesgos de desdiferenciación celular, rechazo inmunológico y formación de tumores.

En este artículo se estudian los efectos terapéuticos de las VEs procedentes de NSC (NSC-sEVs), como alternativa al trasplante directo de NSCs en SCI. Puesto que, tras una SCI surgen una serie de daños secundarios retardados debidos a la inflamación, entre los que destaca la apoptosis celular, estos autores utilizaron el tratamiento con glutamato (Glu; 100uM) en un cultivo primario de neuronas como modelo in vitro de muerte celular inducida por SCI, y miden el efecto del pretratamiento con NSC-EVs sobre la apoptosis inducida por Glu. Mediante citometría de flujo se observó que la exposición a Glu aumentaba significativamente la apoptosis neuronal en comparación con los controles sin dicho tratamiento. Por el contrario, al tratar el modelo in vitro de SCI con vesículas procedentes de células madre neurales (NSC-sEVs), vieron que la apoptosis se reducía considerablemente y que el tratamiento con inhibidores de la autofagia revertían parcialmente los efectos de las VEs, indicando que estas estaban ejerciendo sus efectos incrementando la autofagia celular.

Figura 1. Cultivo primario de neuronas teñido con Anexina V-FITC y PI para la detección de apoptosis inducida con glutamato con o sin tratamiento de NSC-EVs mediante citometría de flujo y cuantificación de los resultados. Los dot plot muestran como varía el porcentaje de células apoptóticas (Q2) entre las muestras tratadas con Glu (10,0%) frente a las pre-tratadas con VEs procedentes de células NSC (2,85%).

Por tanto, el tratamiento con NSC-sEVs presenta efectos neuroprotectores contra la excitotoxicidad ocasionada por el glutamato, además de efectos anti-inflamatorios, por lo que se postula como una prometedora y novedosa terapia para el futuro de los pacientes con lesión medular.

  • VEs COMO BIOMARCADORES EN LÍQUIDO CEFALORRAQUÍDEO (LCR) Y LÁGRIMA EN EM 2

Las vesículas están surgiendo como nuevos biomarcadores asociados a diversas enfermedades neurológicas como la Esclerosis Múltiple (EM). Además, se están buscando nuevas fuentes poco invasivas como las lágrimas que representan una interesante fuente de vesículas extracelulares debido a su relación con el sistema nervioso central (SNC).

Figura 2. Esquema de flujo de trabajo de la estrategia experimental utilizada para analizar y purificar  VEs  procedentes de líquido cefalorraquídeo y lágrima. Se recogen muestras de 7 pacientes sanos y 7 enfermos con EM, tanto de lágrima como LCR para realizar un pool.

En este artículo caracterizan y separan VEs de LCR y lágrimas (Fig. 2) mediante citómetría de flujo, y determinan por primera vez, la presencia de VEs derivadas de microglia y SNC en lágrimas de pacientes con EM y sujetos sanos. Para la detección de EVs en ambos fluidos biológicos, se utiliza un colorante catiónico lipofílico o lipophilic cationic dye (LCD) que emite en rojo (APC) y permite atravesar la doble capa lipidica de las vesículas y marcarlas. Para determinar la procedencia de dichas EV, las muestras se marcaron con marcadores específicos para microglía (CD45-APC Cy7 y CD11b-V500)ypara células neurales (CD171-V450  y CD56-PE).

Los gráficos de contorno resaltan la presencia de VE microgliales (CD11b+ CD45-) y neuronales (CD45- CD56- CD171+) tanto en muestras procedentes de lágrimas como de LCR, sugiriendo una conexión entre ambos fluidos biológicos que se confirmará mediante proteómica.

Figura 3. Análisis de las EVs procedentes de CFS y lágrimas. La estrategia de análisis consiste en una región “EVs” con los eventos positivos para LCD (dot plot FSC-H vs LCD-H) que se identificó como “EVs”. La región EV se representó en un gráfico CD11b V500-H vs CD45 APC-Cy7-H, donde se realizo la región “CD11b+” que corresponderá a VEs derivado de microglia. Por último, se representa en un grafico CD56 PE-H vs CD171 V450-H, la región «NOT-CD45» (EVs CD45 negativos), identificándose en dicha población las VEs  derivadas de neuronas con la región “CD171+” (eventos CD171+).

Para la realización del análisis proteómico, las EVs se purificaron empleando  citometría de flujo. Para ello, las EVs se marcaron con LCD (LCD-APC) y faloidina (faloidina-FITC), que se une a la actina del citoesqueleto en vesículas que tienen la membrana dañada. Por tanto, los eventos positivos para LCD y negativo para faloidina fueron los que se aislaron (región “EVs”), con una pureza mayor del 92% (gráfico derecha).

Figura 4. Análisis tras la separación de la pureza de la  muestra de EVs y eficiencia de la separación. El gráfico de la izquierda muestra la región “EVs que se ha separado (faloidina-  LCD +); mientras que el de la derecha es la muestra post-sort que contiene las EVs CD45+ que se han separado mediante citometría.

El análisis proteómico de estas vesículas obtenidas del LCR y de las lágrimas mostró resultados similares entre ambos fluidos. Esto demuestra que existe una intercomunicación molecular específica mediada por vesículas entre el LCR y las lágrimas,  lo cual abre la puerta a nuevas perspectivas diagnósticas para la EM.

CONCLUSIÓN

La citometría de flujo supone una potente herramienta en el estudio de las VEs ya que permite caracterizar una a una las vesículas presentes en una muestra, cuantificarlas, purificarlas, así como determinar su posible potencial terapéutico.

AUTOR

Ángela Marquina Rodríguez, MSc.
Bioquímica
Técnico Titulado Superior del Servicio de Citometría de Flujo
Hospital Nacional de Parapléjicos
Toledo, España.

Bibliografía

  1. Rong, Y., Liu, W., Wang, J., Fan, J., Luo, Y., Li, L., Kong, F., Chen, J., Tang, P., & Cai, W. (2019). Neural stem cell-derived small extracellular vesicles attenuate apoptosis and neuroinflammation after traumatic spinal cord injury by activating autophagy. Cell death & disease10(5), 340. https://doi.org/10.1038/s41419-019-1571-8
  • Pieragostino, D., Lanuti, P., Cicalini, I., Cufaro, M. C., Ciccocioppo, F., Ronci, M., Simeone, P., Onofrj, M., van der Pol, E., Fontana, A., Marchisio, M., & Del Boccio, P. (2019). Proteomics characterization of extracellular vesicles sorted by flow cytometry reveals a disease-specific molecular cross-talk from cerebrospinal fluid and tears in multiple sclerosis. Journal of proteomics204, 103403. https://doi.org/10.1016/j.jprot.2019.103403

¿CÓMO TRABAJAR CON IMÁGENES CIENTÍFICAS DE GRAN TAMAÑO? QUPATH PUEDE AYUDARNOS

Recientemente hemos adquirido en el SMAI un microscopio Olympus que se controla a través del software CellSens Dimensions. El programa nos permite capturar mosaicos de imágenes de grandes áreas a alta resolución espacial y con una profundidad de hasta 16-bit por canal. Esto nos ha abierto grandes posibilidades en cuanto a la capacidad de adquisición de imágenes pero también presenta nuevos retos ya que el tamaño resultante de estos archivos es masivo (varios GB por imagen).

Por defecto, las imágenes se guardan con el formato de Olympus «.vsi» (acrónimo de virtual slide image). Este formato es excelente para trabajar con imágenes de gran tamaño ya que almacena la información de un modo piramidal, es decir, la imagen se guarda con varias capas, cada una de ellas con menor resolución que la anterior de modo que no es necesario para el ordenador cargar la imagen completa en todo momento sino que se va adaptando según se va navegando por la imagen.

Figura 1: Ejemplo de la estructura de una imagen piramidal. Imagen obtenida de: https://en.wikipedia.org/wiki/File:Image_pyramid.svg

El análisis de las imágenes se puede realizar con el mismo programa que se usa para la captura (CellSens Dimensions). El inconveniente que presenta esta forma de trabajo es que es necesario tener licencias individuales que habiliten la parte de análisis de imagen del software, y estas licencias no son fácilmente trasladables entre equipos, aparte de tener un coste económico elevado.

Desde hace tiempo, el programa de análisis de imagen de referencia en nuestro centro es ImageJ/FIJI, tanto por su gran versatilidad como por el hecho de que es gratuito. Gracias al plugin «BioFormats», FIJI puede convertir fácilmente los archivos «.vsi» en archivos «.tif» que posteriormente se pueden analizar. El problema que surge es que el formato tif tiene varias limitaciones. La primera es que el tamaño máximo que pueden tener es de 2GB por capa por lo que si la imagen original tiene un tamaño mayor que ese, no se podrá convertir a formato tif. Además, el trabajo con estas imágenes tan grandes es poco fluido ya que operaciones sencillas como un cambio de canal o ajustes de brillo/contraste o de selección de umbrales pueden llevar decenas de segundos incluso cuando se emplean ordenadores potentes, lo que dificulta enormemente la capacidad de trabajar de un modo eficiente con ellas.

Figura 2: Esta imagen de dos canales pesa 2,9 GB (1,45 GB por canal) pero requiere el uso de casi 7,5GB de memoria RAM. El manejo de estas imágenes es poco fluido, lo que hace que sea complicado trabajar con ellas. Foto por cortesía de Patricia del Cerro (Grupo de Reparación Neural y Biomateriales, HNP).

Para poder visualizar de una manera práctica conjuntos de datos de gran tamaño (hasta del orden de TB) como los que se obtienen con los escaneadores de portas o los microscopios de light sheet, se está desarrollando dentro de FIJI un ecosistema de plugins, conocido como Big Data Viewer (BDV), en el que los datos se organizan con una resolución piramidal (como veíamos en la figura 1), lo que facilita la navegación por las imágenes, aunque la capacidad de procesado y análisis es todavía limitada dentro del ecosistema si la comparamos con la de FIJI (pero es algo que está en desarrollo y que mejorará con el tiempo), así que sigue sin darnos la herramienta que nosotros necesitamos.

Afortunadamente, existe un programa que, al igual que FIJI, es libre y que permite trabajar a la perfección con el tipo de imágenes que nos interesan. Se llama QuPath y está pensado para trabajar fácilmente con imágenes de alta resolución de portas enteros.

Siempre da un poco de vértigo enfrentarse a un nuevo programa, especialmente cuando (como es mi caso) se lleva años aprendiendo a manejar y usando otro para hacer el análisis de las imágenes, pero hay que resaltar que el autor de QuPath, Pete Bankhead (que se encuentra actualmente trabajando en el Departamento de Patología de la Universidad de Edimburgo), se confiesa un admirador de ImageJ (de hecho, el proyecto comenzó como una serie de plugins para ImageJ aunque luego evolucionó a un nuevo programa) y ha incorporado en QuPath muchos de los atributos y formas de trabajo que considera más útiles de ImageJ.

Un ejemplo de esto es que para abrir una imagen basta con arrastrarla sobre el programa para que este la abra automáticamente. Esta imagen conserva su formato piramidal, lo que hace que la navegación sobre la misma sea muy fluida incluso en equipos sin mucha potencia o cuando las imágenes están ubicadas en un servidor o en equipos conectados en red. Además, las regiones de interés que se seleccionen en QuPath se pueden exportar fácilmente a una versión de ImageJ que está incluida en el programa (Figura 3).

Figura 3: La región de interés (rectángulo amarillo) se puede exportar a ImageJ pulsando el botón señalado con la flecha amarilla. A continuación se puede decidir si se exporta con resolución completa o si se aplica un factor de reducción de resolución.

De este modo, operaciones que se sepan hacer en ImageJ, o incluso macros que se tengan ya escritas para este programa, se pueden ejecutar sin necesidad de aprender a hacerlas de nuevo en QuPath (Figura 4). Esta es una característica que facilita enormemente la toma de contacto con QuPath para los usuarios con experiencia con ImageJ/FIJI.

Figura 4: Análisis de partículas realizado sobre el canal 2 de la región exportada de QuPath a ImageJ. Los resultados se pueden exportar de nuevo a QuPath (flecha amarilla).

La comunicación entre QuPath e ImageJ funciona en los dos sentidos, de modo que los resultados obtenidos de esta manera se pueden enviar de nuevo a QuPath para continuar el análisis con este programa (Figuras 4 y 5).

Figura 5: Detalle de las células detectadas con ImageJ e importadas como anotaciones a QuPath.

Pero QuPath es mucho más que un navegador de imágenes de gran tamaño con integración con ImageJ. Es una potente herramienta de anotación de imágenes y contiene algoritmos propios para detección de tejido y células. También permite aplicar machine learning para la clasificación de píxeles (de una manera relativamente similar a la Trainable Weka Segmentation que explicamos hace tiempo) y objetos. Incluso permite el uso de modelos de deep learning desarrollados con StarDist para la detección de núcleos (también os hemos hablado de StarDist anteriormente).

En estos momentos estoy en proceso de aprendizaje del manejo del programa y en un futuro escribiré otra entrada explicando más en detalle cómo trabajar con él, pero quería que supierais de su existencia porque, si os habéis enfrentado al problema de trabajar con imágenes de gran tamaño, esta es una excelente herramienta. Y su capacidad de intercomunicación con ImageJ hace que comenzar a utilizarla para usuarios con experiencia en este último programa sea relativamente sencillo (algunos de nuestros usuarios ya están usando QuPath y están encantados). Además, espero que esto también sirva para que a algunos de vosotros os pique el gusanillo y decidáis darle una oportunidad.

Existe una excelente documentación online donde se explica claramente todo lo que hace falta saber para manejar este programa. Si estáis interesados en usarlo, os recomiendo que le echéis un vistazo:

https://qupath.readthedocs.io/en/latest/

En el siguiente enlace podéis descargar el programa:

https://qupath.github.io/

Aquí un webinar donde Pete Bankhead nos habla de sus posibilidades:

Tutoriales:

https://www.youtube.com/channel/UCqepVnS1QsB7B8nBA9T91EQ/videos

Y, por último, el enlace al artículo original, para que lo citéis en vuestras publicaciones con este programa:

https://doi.org/10.1038/s41598-017-17204-5

AUTOR

Javier Mazarío Torrijos
Responsable del Servicio de Microscopía y Análisis de Imagen
Hospital Nacional de Parapléjicos.
Toledo, España.

AGENTES DE CONTRASTE EN IMAGEN POR RESONANCIA MAGNÉTICA (I)

Una vez sentadas las bases teóricas sobre los mecanismos de relajación que existen en RM es momento de centrarse en los agentes de contraste. En estas nuevas entradas hablaremos de los dos tipos de contraste que se emplean en Imagen por Resonancia Magnética.

Prácticamente se pueden clasificar por el tipo de contraste que dan: o contraste positivo o contraste negativo. ¿Con esto a qué nos referimos?. El contraste positivo es el que produce un aumento en la intensidad de la señal (hiperintensa, más brillante) y el negativo es el que produce imágenes más oscuras (hipointensas).

Si bien se clasifican a groso modo de esta forma porque al fin y al cabo es lo que pretendemos realzar, el uso de un agente de contraste (AC) en particular, vendrá determinado por su comportamiento frente al campo magnético.

En la gran mayoría de los estudios de imagen (40%) se emplea el Gadolinio (Gd III) en forma de quelatos, podríamos decir que hasta el momento es el compuesto más utilizado sobre todo en neuroimagen (sobre un 60% de los casos) , pero se ha visto que se queda retenido en el organismo durante un largo periodo de tiempo y por eso genera toxicidad.

Por este motivo, se están empleando las denominadas SPION: Nanopartículas de Oxido de Hierro Superparamagnéticas que lo que buscan es sustituir a los compuestos de Gd (III).

Estas partículas se diferencian de las anteriores porque en función de su síntesis se podrían establecer unas características bastantes óptimas para su uso: buena biocompatibilidad, una fácil metabolización, un gran aumento del momento magnético jugando con el tamaño de la partícula y su composición y una funcionalización y especificidad en su superficie.  Su comercialización aún se está valorando.

Existen otros compuestos, como el Manganeso que generan también contraste positivo, pero los principales son los anteriores.

Como ya comentamos, los AC se emplean para mejorar las imágenes de RM tanto en órganos como en tejidos cambiando los tiempos de relajación de los protones del agua, modificando la magnitud de la señal en aquellas regiones donde se ha quedado retenido el agente de contraste.

El AC disminuye las velocidades de todos los procesos de relajación; sin embargo, cada sustancia influye principalmente en uno de ellos. Los AC que acortan los tiempos de relajación en la componente transversal son los denominados agentes T1 o contrastes positivos; mientras que los T2 o negativos reducen el tiempo de relajación en la componente transversal

Para evaluar un agente de contraste se tienen que estudiar dos parámetros: la relajatividad longitudinal (r1) o relajatividad transversal (r2). Así el valor de r1 está relacionando con el incremento de la señal que es capaz de producir el AC mientras que la relación r2/r1 se usa para definir como puede ajustarse la categoría del agente de contraste, o positivo (T1) o negativo (T2). Generalmente, aquellos contrastes que tienen una baja relación r2/r1 se clasifican como agentes T2.

Agentes de contraste T1

Los complejos de Gadolinio (Gd (III)), Manganeso (Mn(II)) y Hierro (Fe(III)) se clasifican como agentes de contraste paramagnéticos T1.

El Gd (III) tiene 7 e- desapareados en el orbital 4f, mientras que el Mn (II) y el Fe (III) tiene 5 en la capa d.  Sin embargo, todos presentan altos momentos magnéticos, largos tiempos de relajación longitudinal  (~10-8 s) pero no presentan magnetización en ausencia de un campo magnético externo. Hay alguna transición con los electrones desapareados en los lantánidos pero no son agentes de contraste eficientes, porque la relajación spin electrón del metal necesita coincidir con la frecuencia Larmor de los protones.

El principal problema asociado con estos iones paramagnéticos es que en su forma nativa (iónica)  son tóxicos. El Gd (III) libre, es muy tóxico y tiene que ser administrado en una forma acomplejada (más estable) para prevenir la liberación del ion libre in vivo.  En la figura que se muestra a continuación se quiere representar un esquema de como actuaría el proceso. El Gd (III) se administra quelado para que sus electrones desapareados estén formando un enlace estable con la molécula que forma el quelato, solo se queda una posición activa, esta es la posición que intercambia con los protones del agua (del tejido, o liquido circulante) y la que produce un contraste en presencia de un campo magnético. 

En la clínica lo que se emplea para usar el gadolinio son compuestos (quelatos) cuyos ligandos son estructuras tipo polyaminopolycarboxilatos donde presentan nueve sitios de coordinación para su intercambio con el agua.

Estos agentes de contraste (complejos de Gd(III)), se administran bien por vía oral o vía intravenosa y pueden dividirse en tres grupos diferentes: aquellos que actúan como agentes de contraste sanguíneo (blood pool), de fluido extracelular o agentes de contraste específicos de tejido.

Los primeros se administran para hacer imagen de venas y arterias mediante una técnica llamada angiografia de RM. En el caso del segundo grupo como tienen un bajo peso molecular primero viajan al corazón y de ahí, hacia el medio intravascular y celular.

En la siguiente tabla se muestran los agentes de contraste más empleados:

Para reducir la toxicidad de los iones metálicos libres y tener unos agentes de contraste que puedan atravesar la barrera hematoencefálica las investigaciones en este campo se están centrando en desarrollar nanoestructuras. La principal ventaja de emplear nanopartículas paramagnéticas es que se puede manipular el tamaño y la forma de éstas.

La síntesis de estos nuevos compuestos se centra en desarrollar nanopartículas que formen materiales nanoestructurados (Gd2O3, Mn3O4, Dy2O, MnO) incorporando los iones paramagnéticos y complejos de coordinación con lantánidos funcionalizados.

Las nanopartículas de hierro son los compuestos inorgánicos más utilizados en nanomedicina y algunos de ellos sí que se emplean en imagen por Resonancia Magnética. Al contrario que los contrastes de Gd, las partículas de óxido de hierro producen un contraste negativo, serían agentes T2. Estos tipos de contrastes producen un ruido de fondo y una baja resolución, de ahí que la síntesis se dirija al desarrollo de nanopartículas de óxido de hierro ultrapequeñas (USIO del inglés ultrasmall iron oxide nanoparticules) y filamentos magnéticos. El contraste T1 de las USIO y de los filamentos está influenciado por un aumento en su superficie, por sus efectos magnéticos en su superficie.

Adicionalmente, cuando las NPs son demasiado pequeñas, su magnetización puede ser volteada usando energía térmica. Bajo esta condición, su comportamiento es paramagnético.

CONCLUSIÓN

Mediante la administración de agentes de contraste podemos mejorar el contraste en los tejidos. No es que sea siempre necesaria su administración en todos los estudios de imagen pero si que nos puede ayudar a diagnosticar ciertas patologías cuyo contraste entre tejido sano y enfermo no esté muy definido. El contraste más ampliamente utilizado en clínica son los empleados con Gadolinio pero se ha visto que produce toxicidad por lo que el mundo de la síntesis en AC para RM se centra en sintetizar compuestos que mejoren la calidad de la imagen produciendo una buena relajatividad, baja toxicidad y buena biodistribución. El presente y futuro se centrará en la síntesis de compuestos diseñados específicamente para órganos diana.

AUTOR

Marina Benito Vicente.
Responsable del Servicio de Resonancia Magnética de Investigacion
Hospital Nacional de Parapléjicos.
Toledo, España.

Referencias

  • Caspani, S.; Magalhães, R.; Araújo, J.P.; Sousa, C.T. Magnetic Nanomaterials as Contrast Agents for MRI. Materials 2020, 13, 2586. https://doi.org/10.3390/ma13112586
  • Haroon Ur Rashid, Marco Antonio Utrera Martines, Juliana Jorge, Paula Martin de Moraes, Muhammad Naveed Umar, Kamin Khan, Hanif Ur Rehman, Cyclen-based Gd3+ complexes as MRI contrast agents: Relaxivity enhancement and ligand design, Bioorganic & Medicinal Chemistry,Volume 24, Issue 22, 2016, Pages 5663-5684, ISSN 0968-0896,https://doi.org/10.1016/j.bmc.2016.09.069.

PROTEÓMICA CUANTITATIVA: MARCAJE QUÍMICO CON ISÓTOPOS ESTABLES

En la anterior newsletter, hicimos una breve introducción a las diferentes opciones de experimentos en proteómica cuantitativa y la importancia de la identificación y cuantificación integral de todas las proteínas en un sistema biológico, para revelar las funciones de las proteínas en los procesos biológicos, fisiológicos y patológicos. En esta nueva entrega nos enfocamos en los métodos basados en marcaje o proteómica cuantitativa multiplexada, con etiquetado o marcaje químico. Estos métodos isotópicos se caracterizan por una mejor reproducibilidad y precisión comparado con los métodos “label-free”. Otra de sus principales ventajas es el multiplexado, que permite analizar en paralelo varias muestras, lo que ahorra tiempo de análisis y aumenta la fiabilidad general del método.

Las modificaciones químicas de los péptidos se obtienen por hidrólisis enzimática de las proteínas. Los reactivos utilizados están diseñados para unirse a los grupos amino, sulfhidrilo o carboxilo de los péptidos. Los isótopos pesados que incorporan estos reactivos son 13C, 15N, 18O y 2H. La incorporación de los marcajes hace que se formen péptidos que poseen las mismas propiedades químicas y cromatográficas, pero con diferente masa molecular para poder distinguirlos en el espectro de MS, permitiendo así la comparación entre péptidos marcados (Heavy) y sin marcar (Light). El deuterio es el menos utilizado ya que existe riesgo de variación de los tiempos de retención en LC de un mismo péptido cuando tiene diferente número de modificaciones.

Los métodos de marcaje isotópico podemos clasificarlos según diferentes criterios (Tabla 1).

Tabla 1. Clasificación de los enfoques de marcaje químico basados en diferentes criterios

a Aunque las etiquetas de las series iTRAQ y DiLeu tienen diferencias de mDa en las masas de precursores, se clasifican como isobáricas ya que las diferencias de mDa no se revelan a nivel de MS1 en el uso general y ya se las denomina habitualmente isobáricas.

Para intentar simplificarlo y que no os resulte tedioso, describiremos las aproximaciones como cuantificaciones basadas en MS1 y MS2 (Figura 1) centrándonos, en esta ocasión, exclusivamente en los ensayos basados en MS1.

Figura 1. Descripción esquemática de la cuantificación basada en MS1 y MS2. (Xiaobo Tian et al., Mass Spectrom Rev. 2021;1–31)

Antes de discutir estrategias de etiquetado específicas, os refresco las características principales de los dos modos principales de adquisición de espectros de MS2, a saber, adquisición dependiente de datos (DDA) y adquisición independiente de datos (DIA), ya que están estrechamente vinculadas a las ventajas y desventajas de los enfoques de cuantificación multiplexados.

En la mayoría de los métodos multiplexados, la recopilación de espectros de MS2 se realiza en modo DDA. Este método de adquisición tiene un sesgo hacia las especies de mayor abundancia y limita la detección de péptidos de baja abundancia y, en última instancia, proteínas (Figura 2). El número de picos que se pueden aislar para la fragmentación aumenta con la velocidad de exploración del espectrómetro de masas, pero generalmente hay más picos en los espectros MS1 de los que el instrumento puede aislar en el período de tiempo del análisis, dando como resultado que se ignoren los picos menores. Este problema aumenta con la complejidad de las muestras lo que lleva al hecho de que las muestras muy complejas a menudo deben fraccionarse antes del análisis LC-MS final.

Figura 2. Diferencia en el aislamiento en MS1 para los modos DDA y DIA

A pesar de estas limitaciones, la DDA sigue siendo la estrategia de adquisición de datos más utilizada en la proteómica de descubrimiento actual, debido a los flujos de trabajo de adquisición y procesamiento de datos bien desarrollados que se pueden implementar en casi cualquier instrumento de EM.

En contraste con DDA, el aislamiento de precursores para la fragmentación en DIA no se basa en las intensidades máximas en MS1. En cambio, todos los precursores presentes dentro de una ventana de aislamiento predefinida serán fragmentados y analizados juntos, como se muestra en la Figura 2. DIA aborda en gran medida el problema de los valores perdidos de DDA, sin embargo, se pierde el vínculo directo entre iones precursores y fragmentos.

Los datos de MS1 como de MS2 se pueden utilizar para la cuantificación en modo DIA. Si bien la aplicación del etiquetado de isótopos estables se usa ampliamente en el modo DDA, todavía está en sus inicios cuando se trata de DIA.

CUANTIFICACIÓN BASADA EN MS1

Los enfoques cuantitativos basados en MS1 consisten en la adición de distintas masas a los péptidos mediante marcaje isotópico, de modo que los mismos péptidos derivados de diferentes muestras tengan masas diferentes. La cuantificación se logra comparando las áreas o intensidades de los picos de iones peptídicos para cada marcaje a nivel de MS1. Posteriormente, la información cuantitativa a nivel de péptido debe transferirse al nivel de proteína, esta estrategia es común para DDA y DIA. Por lo general, se incorpora un desplazamiento de masa de al menos 4 Da en el marcaje para evitar la superposición entre las envolventes de isótopos de muestras Heavy y Ligth. La superposición resultante de cambios de masa más pequeños (<4 Da) hace que la cuantificación relativa sea más difícil ya que se requiere una etapa adicional de deconvolución.

Los distintos isótopos para la cuantificación basada en MS1 se pueden incorporar a las muestras mediante tres enfoques:

(1) Etiquetado químico (p. Ej., ICAT y mTMT) con etiquetas sintéticas dirigidas a grupos reactivos (amina o tiol).

(2) Marcaje enzimático, donde las proteínas se digieren enzimáticamente en presencia de agua marcada con 18O, incorporándose dos átomos de 18O a los grupos carboxilo C-terminales generados en el proceso de digestión.

ICAT

ICAT fue el primer marcador isotópico, consta de tres partes funcionales como se muestran en la figura 3:

(1) Un resto de biotina;

(2) Un enlazador isotópico, que contiene ocho átomos de 2H o 1H para marcar diferencialmente péptidos de diferentes muestras;

(3) Un grupo yodoacetamida, que reacciona específicamente con el grupo sulfhidrilo en la cadena lateral de los residuos de cisteína.

Figura 3 Diseño de estructuras y distribución de isótopos de ICAT 2 plex. ICAT, Isotope-Code Affinity Tag.

Este esquema en el diseño de la estructura de marcadores se ha mantenido en el desarrollo de nuevos ligandos marcados en los que se ha variado el tipo de grupo reactivo o el tipo de etiqueta. La mejora en el diseño de nuevas etiquetas surge de las principales limitaciones que se observaron con esta técnica. 

La principal ventaja que ofrecía era la capacidad de cuantificar simultáneamente dos muestras en una única inyección LCMS y la reducción de la complejidad de la muestra, porque la etiqueta se dirige específicamente a las cisteínas, un aminoácido relativamente raro que constituye solo el 1,42% de todos los aminoácidos.

Figure 4 Esquema de experimento ICAT

Las principales limitaciones que surgieron se deben: al marcaje con 2H ya que alteraba los tiempos de retención de la cromatografía (la nueva versión de ICAT, introduce nueve átomos de 13C en lugar de ocho 2H eliminando así el efecto isotópico del 2H en la cromatografía); a la fragmentación de la biotina (afectando a la identificación del péptido); debido a la gran masa de reactivo ICAT, las m/z de los péptidos marcados pueden desplazarse fuera del intervalo de m/z de detección; y en último lugar, solo hay dos formas de marcas disponibles, lo que podría dar como resultado múltiples ensayos si es necesario comparar más de dos estados aumentando el costo del experimento.

La necesidad de realizar comparaciones de un mayor número de tratamientos llevó al desarrollo de técnicas de etiquetado donde se pueden comparar más de una muestras en un solo análisis (2-plex ICPL, 3-plex mTRAQ, 2-plexmTMT, 6-plex NeuCode SILAC, 3-plex DiPyrO tag).

CONCLUSIÓN

Todos los enfoques de cuantificación basados en MS1 tienen la fortaleza común de analizar simultáneamente múltiples muestras en una sola carrera de LC-MS, lo que mejora la precisión de la cuantificación. Sin embargo, la capacidad de multiplexación suele estar limitada por dos razones:

  1. El etiquetado isotópico multiplica la complejidad de los espectros de MS1 con el número de muestras etiquetadas. El aumento de la complejidad de MS1 es una desventaja cuando se usa DDA.
  2. Aumento de la capacidad de multiplexación. La limitación radica en el requisito de más átomos marcados isotópicamente y el desplazamiento de masa de al menos 4 uma entre etiquetados para evitar la superposición de las envolventes.

AUTOR

Gemma Barroso García, MSc.
Responsable SAI-Proteómica.
Hospital Nacional de Parapléjicos.
Toledo, España.

Referencias

  1. Tian X, Permentier HP, Bischoff R. Chemical isotope labeling for quantitative proteomics. Mass Spectrom Rev. (2021);1‐31. https://doi.org/10.1002/mas.21709
  2. Bachor R, et al; Trends in the design of isobaric labeling reagents for quantitative proteomics. Molecules 2019, 24, 701; doi:10.3390/molecules24040701 http://www.mdpi.com/journal/molecules

ANÁLISIS DE LA EXPRESIÓN DE RNA POR CITOMETRÍA DE FLUJO: FlOW-FISH o RNA-FLOW

La cuantificación de la producción de RNA mensajero (mRNA) es clave para comprender las respuestas inmediatas de las células a cambios en el ambiente, o en respuesta a un tratamiento. La respuesta celular a diferentes estímulos puede ser muy heterogénea en diferentes células o incluso dentro de la misma población.

Tradicionalmente, la expresión génica se cuantifica analizando el mRNA correspondiente mediante técnicas de RT-PCR cuantitativa, Northern Blot o Hibridación in situ con fluorescencia (FISH), o más recientemente por RNAseq, todas ellas técnicas de punto final que en la mayor parte de los casos requieren la lisis de las células, o al menos la fijación y permeabilización de las mismas.

En el caso de la RT-PCR, vamos a cuantificar la cantidad media de mRNA dentro de una muestra completa, independientemente de las poblaciones y subpoblaciones celulares que la compongan, de forma que si una subpoblación pequeña de células responde a un tratamiento concreto incrementando la expresión de un determinado gen, este cambio puede verse enmascarado por la aportación al RNA total de otras subpoblaciones que pueden ser más abundantes en la muestra y que no están respondiendo al tratamiento, obteniendo, por tanto, datos sesgados.

Tal y como vimos el año pasado en la Newsletter de  Citometría Genómica, podemos analizar la expresión de RNA a nivel de célula única separando por FACS células únicas de las poblaciones de interés, y analizando su transcriptoma por secuenciación masiva (RNAseq). En esta Newsletter vamos a explicaros una aproximación diferente para analizar la expresión de determinados RNAs de interés en combinación con marcaje de proteínas, a nivel de célula única por citometría de flujo

FLOW FISH-RNA FLOW

La técnica de Flow-FISH o RNA Flow se basa en la utilización de sondas de oligonucleótidos específicos de una secuencia concreta de RNA (ya sea mRNA, miRNA, RNA viral, siRNAs, etc), que van a hibridar en el interior de la célula con sus RNA específicos. La determinación de la presencia del RNA de interés junto con la detección simultánea de proteínas en las células se realiza posteriormente por citometría de flujo, permitiendo incluso la separación de poblaciones celulares específicas que contienen el RNA de interés, para su utilización en experimentos posteriores. Además, nos va a permitir correlacionar la expresión de proteína y de RNA a nivel de célula única.

Actualmente existen dos tipos de ensayos que se diferencian principalmente en la utilización de células fijadas y permeabilizadas o de células vivas: Prime-Flow (ThermoFisher)/RNAscope (ACD) y SmartFlare (Millipore).

FLOW_FISH Prime-Flow/RNAscope

Esta técnica está basada en la técnica de hibridación in situ normal, con la diferencia de que se utiliza un sistema de amplificación de la señal fluorescente. En la realización de un FISH normal se utilizan altas temperaturas de anillamiento que provocan un aumento de la autofluorescencia, y los parámetros de dispersión de luz (FSC y SSC) se ven comprometidos. Además, al realizar marcaje de proteínas de interés con anticuerpos marcados fluorescentemente, la señal de estos puede dañarse con la temperatura de anillamiento utilizada.

Para mejorar todos los problemas relacionados con la Tª y con la baja intensidad de la señal, se desarrolló la técnica de “branched DNA” que va a permitir detectar incluso un pequeño nº de copias de un determinado RNA, utilizando una Tº de anillamiento baja (40ºC), lo que facilita la conservación de los fluorocromos acoplados a anticuerpos para detección simultánea de proteínas.

Esta técnica utiliza una batería de sondas que son diseñadas específicamente contra el RNA de interés y que tienen una forma de Z (Fig.1). Se utilizan pares de sondas complementarias a secuencias muy próximas en el RNA, que poseen una parte libre que contiene una secuencia complementaria a la secuencia de una molécula denominada pre-amplificadora, que va a ser el “tronco” de todo el “árbol” de amplificación de la señal.

Cada una de las moléculas pre-amplificadoras puede hibridar a su vez con hasta 20 secuencias amplificadoras a las que se van a unir sondas específicas marcadas fluorescentemente, de forma que podría amplificarse la señal entre 8.000 y 16.000 veces.

Fig.  1 DNA Branched Technique (Teong Soh K and Wallace P 2018)

Este tipo de aproximaciones permite monitorizar por ejemplo, la cinética transcripcional y traduccional de manera simultánea y a nivel de célula única (Fig.2).

Fig.  2 Detección simultánea de 2 mRNA diferentes y la expresión de proteína intracelular: PBMCs estimuladas a diferentes tiempos con PMA+ Ionomicina fueron teñidas con sondas específicas para mRNA de CD4 y de IFNg, junto con anticuerpos específicos de IFNg (proteína intracelular) y de CD14 (marcador de monocitos, no en la figura). La co-expresión del mRNA de CD4 e IFNg se corroboró por microscopía. (Van Hoof, D et al 2014)

En la actualidad con los sistemas disponibles, pueden detectarse hasta 4 transcritos diferentes junto con todos los epítopos proteicos detectables según la configuración del citómetro en que se analicen las muestras (en nuestros citómetros podríamos detectar hasta 5 epítopos más), de forma que en una muestra heterogénea podríamos analizar, por ejemplo, la expresión de 4 transcritos diferentes en hasta 5 poblaciones distintas.

Sin embargo, como esta aproximación también es de punto final, no podríamos hacer más investigaciones con las células que están expresando nuestro RNA de interés. Para eso, existe la siguiente técnica en el mercado.

SmartFlare

Para la realización de la técnica anterior se hace necesaria la fijación y permeabilización de las células a analizar. Sin embargo, podemos estar interesados en aislar una subpoblación específica que esté expresando un RNA de nuestro interés, para poder estudiarla en experimentos y análisis posteriores.

Esto implica, por tanto, la detección de RNA en células vivas. Y para ello se ha desarrollado esta técnica SmartFlare.

Esta aproximación experimental implica la utilización de unas partículas de oro que llevan unidos varios oligonucleótidos específicos que van a hibridar con el RNA de interés que se quiere analizar (Fig.3). A estas secuencias están unidas unas sondas reporteras que cuando se encuentran unidas a ellas no son fluorescentes, y que cuando el RNA diana está presente son desplazadas por él, liberándolas al interior de la célula y activándose la fluorescencia, con lo que las células que estén expresando nuestro RNA de interés serán fluorescentes y podremos detectarlas en base a esa fluorescencia.

Fig.  3. Estructura de las partículas de oro y su unión al RNA diana.

Estas nanopartículas se añaden al medio de cultivo y son tomadas por las células por endocitosis activa. Esto implica que no todas las células van a ser capaces de incorporarlas, con lo que hay que hacer pruebas previamente, para asegurarse de que están incorporándolas al citoplasma. (Fig.4)

Fig.4. Ejemplo de señales obtenidas con una baja incorporación y una incorporación optimizada

Una vez marcadas las células con las nanopartículas, se puede proceder a realizar la tinción para los epítopos de interés y a analizar la muestra por citometría de flujo. Además, como las células están vivas, pueden separarse por FACS y ser utilizadas en ensayos posteriores (Fig.5).

Esta técnica permite la detección de 2 RNA diferentes (marcados con Cy3 y Cy5), combinándose con la utilización de anticuerpos específicos o sondas como el Mitotracker, sondas para detección de especies reactivas de oxígeno (ROS), etc.

Fig. 5. Esquema del proceso completo

CONTROLES NECESARIOS

Como en toda aproximación experimental existen una serie de controles necesarios para validar la técnica. Algunos de esos controles son:

  • Medición de RNAs “housekeeping”. Se deben utilizar sondas específicas y comprobar que estamos detectándolas con nuestros métodos
  • Controles negativos o “scramble”. Sondas sin sentido que no se unen a ningún RNA
  • Control positivo o de “uptake”. Sólo para experimentos con SmartFlare uso de nanopartículas de oro con sonda fluorescente acoplada

Y por supuesto, todos los controles habituales en cualquier marcaje multiparamétrico: controles de compensación y FMO (“Fluorescence Minus One”).

CONCLUSIÓN

La técnicas presentadas en esta newsletter van a permitir examinar el contenido de RNAs específicos a nivel de célula única, así como identificar las distintas poblaciones presentes en una muestra heterogénea que están respondiendo a un tratamiento, lesión, etc, e incluso permitir la separación y enriquecimiento de estas poblaciones celulares de interés, para posteriores ensayos o aproximaciones experimentales.

Sin embargo, estos métodos aún presentan algunas desventajas, como el tiempo invertido en el procesamiento de las muestras y el control absoluto de la Tª en el caso del Prime-Flow, o que no todas las células van a incorporar las nanopartículas en los experimentos de SmartFlare y, sobre todo, el elevado coste de reactivos.

Aun así, estas técnicas son muy sensibles, ya que permiten detectar muy pocas copias de RNA, se pueden utilizar para analizar expresión de un gen cuando no haya anticuerpos disponibles contra la proteína producida e incluso, permite utilizarlas como método de detección de partículas virales.

Y para acabar, mencionar que existen otras posibilidades de analizar ácidos nucleicos por citometría de flujo como la determinación de cariotipos y separación por sorting de cromosomas concretos, la detección del acortamiento de telómeros por FISH o incluso la detección de miRNAs específicos mediante balizas moleculares (“molecular beacons”).

AUTOR

Virginia Vila del Sol, PhD
Responsable del Servicio de Citometría de Flujo.
Hospital Nacional de Parapléjicos.
Toledo, España.

Referencias

  1. Soh K.T., Wallace P.K. (2018) RNA Flow Cytometry Using the Branched DNA Technique. In: Hawley T., Hawley R. (eds) Flow Cytometry Protocols. Methods in Molecular Biology, vol 1678. Humana Press, New York, NY. https://doi.org/10.1007/978-1-4939-7346-0_4
  2. Van Hoof, D., Lomas, W., Hanley, M.B. and Park, E. (2014), Simultaneous flow cytometric analysis of IFN-γ and CD4 mRNA and protein expression kinetics in human peripheral blood mononuclear cells during activation. Cytometry, 85: 894-900. https://doi.org/10.1002/cyto.a.22521