IDENTIFICACIÓN DE NÚCLEOS RAROS MEDIANTE INTELIGENCIA ARTIFICIAL (CELLSENS) PARA HIGH CONTENT ANALYSIS

El high content analysis (HCA) es una técnica instrumental que emplea microscopía automatizada en combinación con análisis de imagen para obtener un gran número de datos del estudio realizado. En nuestro centro, esta técnica se emplea principalmente para el estudio cuantitativo de eventos celulares complejos. La última newsletter de nuestro servicio (3 Mayo 2021, Javier Mazario) explica como identificar el número de células mediante la segmentación de sus núcleos para realizar HCA. En la newsletter de hoy explicaremos una variante de ese proceso diseñada por el SMAI del HNP para contar células con núcleos complejos (células con núcleos raros).

Mediante HCA podemos capturar de forma automática gran cantidad de fotos de un mismo tratamiento (pocillo de placa en cultivo) y procesarlas para contar los núcleos y por tanto las células, para posteriormente analizar los diferentes eventos contados y obtener gran cantidad de datos de esos análisis. Mediante diferentes pasos de pre-procesado, segmentación y post-procesado podemos obtener el número total de núcleos presentes en las fotos capturadas automáticamente. Debido a la variabilidad de las muestras y a las diferentes intensidades de marcaje de los núcleos puede que no identifiquemos todos o que se solapen varios si están muy próximos. Este problema lo solucionamos gracias al módulo de análisis de imagen por inteligencia artificial con el que cuenta el programa informático ScanR de nuestro nuevo equipo Olympus para HCA. Con él, podemos entrenar una red neuronal convolucional que aprenda a identificar los núcleos tal y como queda explicado en la newsletter anterior (3 Mayo 2021, Javier Mazario).

En la Unidad de Investigación del HNP, algunos grupos estudian diferentes fármacos que pueden afectar a la proliferación, diferenciación o migración de las células. El caso que nos ocupa hoy, es el de un fármaco antimitótico, que además de reducir la división celular, provoca que un alto porcentaje de las células que crecen en cultivo con ese fármaco, desarrollen núcleos raros. Aparecen células plurinucleares o células con núcleos cuyas formas son heterogéneas y nada convencionales (Figura1B). ¿Qué ocurre cuando tenemos gran cantidad de núcleos raros?, ¿cómo son identificados estos núcleos que se salen de lo habitual? Normalmente, este tipo de núcleos es poco habitual, pero debido a tratamientos antimitóticos específicos no es tan raro, más bien es la norma en los pocillos con el tratamiento.


Figura 1. El software con el que hacemos HCA (SCANR de Olympus), nos permite hacer galerías de imágenes de los eventos seleccionados dentro de una región previamente definida con unas características concretas. En este caso los eventos son los núcleos de las diferentes fotografías de los pocillos de la placa de cultivo y las regiones están definidas por parámetros de tamaño y circularidad de los núcleos, identificando como núcleos raros aquellos de mayor tamaño y valores de circularidad alejados de la media.

Los núcleos raros presentan un problema a la hora de ser identificados con una red neuronal entrenada como se explicó en la Newsletter anterior (3 Mayo 2021, Javier Mazario). El problema está después de la segmentación, en el post-procesado de tipo watershed (Ver nota watershed a continucion).Este post-procesado separa núcleos adyacentes incorrectamente identificados como uno solo (Figura 2.A). Pero este tipo de post-procesado comete muchos errores cuando se trata de identificar núcleos raros ya que los trata como núcleos adyacentes y no como núcleos con formas diferentes a lo habitual (Figura 2.B).

NOTA (post-procesado de tipo watershed); La transformada Watershed es una técnica morfológica de segmentación de imágenes de niveles de grises. El concepto de Watershed procede del campo de la topografía. La imagen es interpretada como un relieve topográfico, donde se interpretan los diferentes niveles de grises como alturas. Las líneas Watershed son las fronteras de separación entre las cuencas de deyección de ríos y lagos. Además, cada cuenca está asociada a un mínimo local del relieve. De manera que utiliza esta técnica para identificar la frontera entre eventos (en nuestro caso núcleos).

Figura 2A. Después de la segmentación sin post-procesado tipo watershed se identifican 4 núcleos, ya que no distingue dos de ellos que están muy próximos (arriba). Pero si se utiliza post-procesamos con watershed distingue los 5 núcleos reales (abajo).  

Figura 2B. Pero lo que es correcto en las fotos de los pocillos sin tratamiento (núcleos normales, figura 2A), resulta un problema en las fotos de los pocillos con tratamiento antimitótico (núcleos raros). En este caso el post-procesado tipo watershed separa como núcleos diferentes partes de un mismo núcleo (abajo) contando 11 células. En este caso lo útil seria no hacer el post-procesado, de manera que se identifiquen 8 células correctamente y no 11 (arriba). Pero al no hacer el post-procesado tipo watershed asumimos el error de contar como un mismo núcleo aquéllos núcleos adyacentes o muy próximos entre sí.  

Para poder distinguir núcleos raros y además, separar los núcleos adyacentes de células diferentes, debemos enseñar a nuestro software de una manera más fina a identificar este tipo de núcleos. Para eso contamos con otra herramienta, el Software Cellsens de Olympus en el que nos permite hacer deep learning (aprendizaje profundo de la red neuronal), a partir de fotografías que le mostramos donde previamente hemos identificado (dibujado) lo que nos interesa contar.

Este sería el mismo proceso que seguimos para procesar las imágenes con inteligencia artificial (AI) donde las imágenes que utilizaremos para enseñar al software tienen eventos difíciles de segmentar automáticamente (ver figura 3).

En la figura 3 mostramos un esquema de los pasos a seguir para entrenar, crear una red neuronal, validar dicha red y procesar las fotos con la red neuronal creada para obtener los resultados. En futuras Newsletter nos centraremos en los diferentes pasos a seguir para realizar este proceso. En esta Newsletter introducimos este esquema explicando brevemente algunos pasos que se realizaron para la identificación de los núcleos raros.

En el paso 2 se seleccionaron 4 fotos de los tratamientos antimitóticos donde el porcentaje de núcleos raros es alto y 2 fotos de los pocillos sin tratamiento donde todos los núcleos son normales. De las 6 fotos seleccionadas (figura3, paso 2) se hizo una segmentación automática y se post-procesaron con watershed. Pero tras el post-procesado se revisaron una a una las 6 fotos, borrando la máscara de segmentación donde se producían los errores visto en la figura 2B (abajo). Es decir, se borraban las máscaras de segmentación donde un núcleo raro aparecía como varios núcleos. Posteriormente se dibujó a mano los perfiles de núcleos raros donde se habían cometido los errores (figura 3, paso 3). Con esas fotos donde todos y cada uno de los perfiles nucleares estaban bien dibujados se entrenó una red neuronal mediante deep learning. Una vez validada esa red neuronal con altos valores de coeficiente de validación se dio por concluido el entrenamiento. Con la red neuronal obtenida se procesaron las 348 fotos capturadas automáticamente con el equipo de HCA (16 fotos por pocillo, 9 pocillos con tratamiento y 9 pocillos control, ver figura 4). Así obtenemos el número real de núcleos y por tanto de células en cada foto. El sumatorio de los núcleos de las 16 fotos de cada pocillo nos permite tener una idea del número de células totales por pocillo y por tanto como afecta el tratamiento al número total de células.

Figura 4. Representación de la placa de cultivos 24 well donde se realizo el experimento. Se sembraron células en las filas B, C y D. Y los pocillos de las columnas 1, 2 y 3 son las células control, mientras que los pocillos de las columnas 4, 5 y 6 son los pocillos con tratamiento antimitótico.  

Los resultados obtenidos de procesar las fotos con la red neuronal creada, son los núcleos contados en las 16 fotos de cada uno de los pocillos de la placa de cultivo. En la siguiente tabla comparamos los resultados obtenidos tras procesar las imágenes con la red neuronal de IA realizando un entrenamiento semiautomatico con el software Cellsens (columna 3, rojo), con los resultados obtenidos con un proceso de segmentación con post-procesado watershed (columna 1) y con post-procesado sin watershed (columna 2). Las celdillas en verde son los núcleos contados en las 16 fotos de cada uno de los pocillos con tratamiento antimitótico.

Como podemos ver en la primera columna (post-procesado watershed) tenemos más núcleos y por tanto más células que en la segunda y en la tercera columnas, para todos y cada uno de los pocillos sean o no con tratamiento. Esto es debido a que separa los núcleos de células diferentes que están adyacentes (lo cual no pasa en la segunda columna) y además los núcleos raros los separa en varios núcleos como vimos en la figura 2B abajo.

En la segunda columna (post-procesado sin watershed) tenemos por lo general menos núcleos y por tanto menos células que en las otras dos columnas, puesto que comete el error de contar como un solo núcleo aquellos que son adyacentes, sin embargo los núcleos raros los cuenta bien mayoritariamente, puesto que no comete el error de separar en varios núcleos aquellos de formas extrañas.

Por último, en la tercera columna (IA software Cellsense) los núcleos adyacentes los cuenta como separados, además este tipo de núcleos son especialmente abundantes en las los fotos de los pocillos con alta confluencia de células (pocillos sin tratamiento donde las células se dividen constantemente). En esta tercera columna los núcleos raros de las fotos de los pocillos con tratamiento antimitótico los identifica perfectamente sin cometer el erro de separarlos en varios núcleos. De manera que utilizando el procesamiento de las fotos con la red neuronal creada en Cellsens de manera semiautomática (columna 3) podemos asegurar que son identificados todos los núcleos, tanto normales como raros y además separa los núcleos adyacentes de los pocillos con alta confluencia celular.

A partir de aquí, utilizando el procesamiento con la red neuronal de IA podemos seguir analizando la placa de cultivo y determinando el área media de las células, el número de núcleos raros por pocillo, los diferentes marcajes y sus intensidades tanto citosólicos como nucleares y muchos más parámetros de interés para el investigador mediante el programa ScanR de HCA.

AUTOR

José Ángel Rodríguez Alfaro.
Responsable del Servicio Microscopía y Análisis de Imagen.
Hospital Nacional de Parapléjicos.
Toledo, España.

INTRODUCCIÓN A LA CUANTIFICACIÓN PROTEICA DIFERENCIAL

Una de las técnicas más importantes y desafiantes en proteómica es la cuantificación de las diferencias entre dos o más estados fisiológicos de un sistema biológico.

La pregunta principal a la hora de enfrentarse a un experimento cuantitativo es saber qué método de todos los existentes es el más idóneo para nosotros, por eso en esta newsletter queremos presentar las diferentes opciones que existen.

Primero de todo debemos tener en cuenta que a pesar del increíble impacto de la espectrometría de masas y las técnicas de separación de péptidos en proteómica, la identificación y la cuantificación de todas las proteínas de un sistema biológico sigue siendo un desafío técnico no resuelto. La abundancia proteica y la complejidad de la muestra son factores significativos que afectan la disponibilidad de las proteínas para su cuantificación (Figura 1).

Figura 1. Representación esquemática de la fracción de un proteoma que puede identificarse o cuantificarse mediante espectrometría de masas. Las proteínas en las células abarcan una amplia gama de expresión y las tecnologías actuales basadas en espectrometría de masas suelen identificar solo una fracción de todas las proteínas presentes en una muestra. Debido a la limitada calidad de los datos, solo una fracción de todas las proteínas presentes en la muestra puede ser cuantificada de forma fiable.

Los péptidos proteolíticos exhiben una amplia gama de propiedades fisicoquímicas tales como tamaño, carga, hidrofobicidad, etc. que conducen a grandes diferencias en la respuesta por espectrometría de masas. Para una cuantificación precisa, por lo tanto, generalmente se requiere comparar cada péptido individual entre experimentos. En la mayoría de flujos de trabajo proteómicos, esto técnicamente se puede lograr de diferentes maneras (Figura 2).

Figura 2. Flujos de trabajo comunes en espectrometría de masas cuantitativa. Las cajas en azul y naranja representan dos condiciones experimentales distintas. Las líneas horizontales indican el momento en que se combinan las muestras. Las líneas discontinuas indican puntos en los que la variación experimental y, por tanto, los errores de cuantificación pueden ocurrir.

Un enfoque importante se basa en la teoría de la dilución de isótopos estables que establece que un péptido marcado con isótopos es químicamente idéntico a su nativo y por lo tanto los dos péptidos también se comportan de manera idéntica durante la cromatografía y/o el análisis por espectrometría de masas. Dado que un espectrómetro puede reconocer la diferencia de masa entre el péptido marcado y el no marcado, la cuantificación se logra mediante comparación de sus respectivas intensidades de señal.

El marcaje con isótopos se puede introducir como un estándar en aminoácidos de estas cuatro maneras:

  • Metabólicamente.
  • Químicamente.
  • Enzimáticamente.
  • Con péptidos sintéticos como estándares externos.

Más recientemente, han surgido estrategias alternativas sin marcaje como las denominadas “label free quantitation” (LFQ). El objetivo de los métodos sin marcaje es comparar dos o más experimentos:

  • Comparando el intensidad de la señal por espectrometría de masas directa para cualquier péptido.
  • Utilizando el número de espectros adquiridos coincidentes con un péptido/proteína como indicador de su cantidades respectivas en una muestra dada.

Como puede contemplarse tanto en la Figura 3, como en la Tabla 1 cada método de cuantificación cuenta con fortalezas y debilidades que en próximas newsletter iremos desarrollando una a una más detalladamente.

Figura 3. Representación esquemática de enfoques proteómicos cuantitativos. A la izquierda, flujos de trabajo simplificados de tres enfoques “bottom-up” ampliamente utilizados donde se muestran el marcaje metabólico, el marcaje químico y la cuantificación sin marcaje o “label free”. A la derecha, un experimento típico de proteómica “top-down” utilizando 2D-DIGE como método de cuantificación. Las ventajas y desventajas de los enfoques particulares se resumen en cuadros rojo y azul, respectivamente. Abreviaturas utilizadas en esta figura: SILAC: marcaje de isótopos estables por aminoácidos en cultivo celular; iTRAQ: marcajes isobáricos para cuantificación relativa y absoluta; TMT: etiqueta de masa en tándem; 2D-DIGE: electroforesis diferencial en gel bidimensional.

Tabla 1. Características y aplicaciones de los métodos de cuantificación por espectrometría de masas.

CONCLUSIÓN

Han surgido multitud de métodos a lo largo de los años para la cuantificación proteica de muestras simples y complejas utilizando la espectrometría de masas y cada vez se va refinando más tanto la parte metodológica como la estadística para el tratamiento de los datos obtenidos.

Y aunque aún estamos lejos de tener una cobertura total en la cuantificación, el desarrollo de las nuevas tecnologías junto con un diseño experimental adecuado y las estadísticas correctas puede llevarnos a la generación de buenos y concluyentes resultados.

En las siguientes newsletter iremos desarrollando más en detalle cada una de las técnicas cuantitativas más utilizadas en proteómica donde veremos su desarrollo y aplicabilidad.

AUTOR

Alba González Arandilla, MSc.
Especialista en espectrometría de masas.
Hospital Nacional de Parapléjicos.
Toledo, España.

REFERENCIAS

  1. Quantitative mass spectrometry in proteomics: a critical review. Anal Bioanal Chem (2007) 389: 1017–1031. DOI 10.1007/s00216-007-1486-6.
  2. Proteome Analyses of Hepatocellular Carcinoma Article in Journal of Clinical and Translational Hepatology. March 2014. DOI: 10.14218/JCTH.2013.00022

CITOMETRÍA DE FLUJO PARA MONITORIZAR PROCESOS INTRACELULARES II: ROS y potencial de membrana

En la última newsletter de citometría mostramos cómo es posible medir la movilización de Ca2+, así como las concentraciones de magnesio (Mg) y zinc (Zn) mediante citometría de flujo.

En esta segunda entrega de citometría de flujo para monitorizar procesos intracelulares, veremos cómo medir especies reactivas de oxígeno (ROS) y el potencial de membrana mediante citometría de flujo.

  • ESPECIES REACTIVAS DE OXÍGENO o ROS

Las especies reactivas de oxígeno o ROS son moléculas muy pequeñas y altamente reactivas debido a la presencia de una capa de electrones de valencia no apareada  (figura 1). Estas especies se forman de manera natural como subproducto del metabolismo normal del oxígeno, actuando como mensajero secundario de las células al igual que el calcio.

Dependiendo de la concentración, las ROS pueden ser beneficiosas o perjudiciales para las células ya que participan en procesos de señalización celular, homeostasis y apoptosis.

Figura 1. Especies reactivas de oxígeno o ROS.

Algunas de las formas en las que  ROS puede causar daño en las células son:

  • Daño en ADN o ARN.
  • Oxidación de ácidos grasos poliinsaturados en lípidos.
  • Oxidación de aminoácidos en proteínas.
  • Desactivación oxidativa de enzimas especificas mediante la oxidación de co-factores.
  • Las células cancerígenas tienen mayores niveles de ROS que las células normales.
  • ROS puede jugar un papel determinante en el declive de la memoria con la edad.

Existen una gran variedad de sondas que se pueden emplear para medir diferentes especies ROS que se han recogido en la tabla 1.

FluorocromoEx máx.Em máx.Diana detectada
Dihidroetidio o hidroetidina (HE)518 nm606 nmAnión superóxido
Dihidrorodamina (DHR123)507 nm529 nmROS Anión superóxido
DCFH-DA495 nm529 nmH202 (NO directamente)
CellROX Green Orange Deep Red  485 nm 545 nm 640 nm  520 nm 565 nm 665 nmROS Nuclear Citoplasmático Citoplasmático

Tabla 1. Sondas para la detección de especies reactivas de oxigeno (ROS).

El seguimiento de los niveles de ROS en lesión medular es fundamental tanto para estudiar el mecanismo del daño secundario como para evaluar la eficacia de los antioxidantes. La citometría de flujo ha surgido como un método rápido y eficaz para detectar específicamente ROS en el interior celular, ya que, a diferencia de otros métodos disponibles, los niveles de ROS intracelulares pueden evaluarse célula a célula eliminando las interferencias del tejido.

Para utilizar este tipo de ensayo en tejido nervioso es recomendable añadir un paso de fijación con paraformaldehído entre la disociación del tejido a células individuales en suspensión y la tinción de la muestra. De esta forma, se eliminan los posibles errores que pueden ocurrir al eliminar células que generalmente tienen un nivel más alto de ROS o producen más ROS durante el proceso de disociación.

En este ejemplo se utilizó la sonda hidroetidina (HE), que emite a 606 nm y cuya diana es el anión superóxido (O2) (tabla 1),en un modelo animal de lesión medular. HE se oxida a etidio (ethidium) por acción del O2 producido en las células, ya que éste  no puede atravesar fácilmente la membrana, siendo la intensidad de fluorescencia del interior de la célula directamente proporcional a la producción total de O2.

Los resultados mostraron un aumento significativo de ROS en el protocolo que fija la muestra previamente a su disociación, respecto al protocolo sin fijación. Además, se encontró una disminución más pronunciada de ROS con el paso de fijación, en respuesta al tratamiento con MnTBAP, un mimético de la SOD (superóxido dismutasa) que inhibe la oxidación de HE (Figura 2C vs 2D).

Figura 2. Comparativa de un protocolo sin fijación frente a otro en el que se fija la muestra para el análisis mediante citometría de flujo de O2 intracelular. Se compararon 3 grupos donde se observa en B) y D) una disminución en la oxidación de HE (ethidium) con el tratamiento de MnTBAP (b) respecto al control (a) y a la muestra SCI sin tratar (c). Figura modificada de Luo, J et al., 2002.

  • POTENCIAL DE MEMBRANA

La pérdida del potencial de membrana mitocondrial es un marcador distintivo de apoptosis temprana. Por tanto, es posible evaluar la apoptosis determinando  cambios en el potencial de membrana mitocondrial (Δψm) mediante citometría de flujo, empleando para ello colorantes fluorescentes.

Un aspecto clave a tener en cuenta para realizar este tipo de ensayo es que el proceso de preparación de la muestra, ya que puede inducir la pérdida de células apoptóticas (tripsinización prolongada, disgregación mecánica o enzimática de los tejidos, etapas de centrifugación). Si se trabaja con cultivos celulares adherentes es importante recolectar las células que se han liberado en el medio. Y en la separación de células mediante gradiente de densidad también se puede perder selectivamente células apoptóticas debido a sus diferentes densidades.

SONDAS PARA MEDIR Δψm

Los fluorocromos utilizados en el análisis del potencial de membrana son lipofílicos para poder atravesar las bicapas lipídicas. Además, tienen carga positiva mientras que la cara interna de la membrana mitocondrial presenta carga negativa. Tras la tinción con la sonda pueden ocurrir dos cosas:

  • Despolarización, es decir, un descenso de la diferencia de potencial de la membrana mitocondrial por el cual el fluorocromo es enviado hacia el medio celular.
  • Hiperpolarización o aumento de la diferencia de potencial, lo que da lugar a una entrada masiva de fluorocromo hacia el interior de la mitocondria.
FluorocromoEx máx.Em máx.
TMRM,TMRE553 nm576 nm
Mitotracker Red580 nm600 nm
Rodamina 123 (R123)507 nm529 nm
DiOC6 (3)488 nm506 nm
JC-1500 nm520/590 nm

Tabla 2.  Sondas para la detección del potencial de membrana (Δψm).

JC-1 es un ejemplo de sonda mitocondrial que se excita a 500 nm y emite a 520/590 nm (ver tabla 1). A medida que se pierde el potencial mitocondrial durante el proceso de apoptosis, la emisión de JC-1 cambia de rojo a verde, lo que da lugar a una disminución de la proporción de fluorescencia rojo/verde. El principio de este fenómeno es que la sonda se acumula a altas concentraciones en mitocondrias sanas, formando agregados o multímeros (J-agregados) y emitiendo a 590 nm (rojo). Al romperse la membrana mitocondrial, la sonda se libera al citoplasma y pasa a ser un monómero al reducir la concentración de la sonda, lo que conlleva el cambio de su espectro máximo de emisión a 520 nm (verde) (ver figura 3).

Figura 3. Espectros de excitación (azul) y emisión (rojo) del fluorocromo JC-1. Si JC-1 se encuentra formando agregados su emisión será a 590 nm, es decir, rojo; mientras que, cuando se encuentra en estadío monomérico, emite a 514nm, en verde.

CONCLUSIÓN

La medida de ROS y  el potencial de membrana, junto con los iones intracelulares Ca2+, Mg y Zn  mediante citometría de flujo nos demuestra el poder de la citometría de flujo en la monitorización de procesos intracelulares. Permitiéndonos evaluar célula a célula cambios en las concentraciones de iones intracelulares.

Las posibilidades que oferta esta gran herramienta a los investigadores son infinitas, con el fluorocromo adecuado todo es posible.

AUTOR

Ángela Marquina Rodríguez, MSc.
Bioquímica
Técnico Titulado Superior del Servicio de Citometría de Flujo
Hospital Nacional de Parapléjicos
Toledo, España.

REFERENCIAS

  1. Luo, J., Li, N., Paul Robinson, J., & Shi, R. (2002). Detection of reactive oxygen species by flow cytometry after spinal cord injury. Journal of neuroscience methods120(1), 105–112. https://doi.org/10.1016/s0165-0270(02)00193-0.
  2. Perry, S. W., Norman, J. P., Barbieri, J., Brown, E. B., & Gelbard, H. A. (2011). Mitochondrial membrane potential probes and the proton gradient: a practical usage guide. BioTechniques, 50(2), 98–115. https://doi.org/10.2144/000113610.
  3. Cossarizza, A., Chang, H. D., Radbruch, A., Akdis, M., Andrä, I., Annunziato, F., Bacher, P., Barnaba, V., Battistini, L., Bauer, W. M., Baumgart, S., Becher, B., Beisker, W., Berek, C., Blanco, A., Borsellino, G., Boulais, P. E., Brinkman, R. R., Büscher, M., Busch, D. H., … Zimmermann, J. (2017). Guidelines for the use of flow cytometry and cell sorting in immunological studies. European journal of immunology47(10), 1584–1797. https://doi.org/10.1002/eji.201646632.

SEGMENTACIÓN DE NÚCLEOS MEDIANTE INTELIGENCIA ARTIFICIAL EN LA PLATAFORMA DE HIGH CONTENT ANALYSIS SCANR

El high content analysis (HCA) es una técnica instrumental que emplea microscopía automatizada en combinación con análisis de imagen en un formato de alto rendimiento. En nuestro centro, esta técnica se emplea principalmente para el estudio cuantitativo de eventos celulares complejos. Como tal, uno de los primeros pasos en el análisis es identificar correctamente cada una de las células en las imágenes capturadas. Para ello tenemos que ser capaces de identificar algún tipo de estructura que tengan todas las células y que solo esté presente una vez en cada una de ellas. Habitualmente, la estructura que cumple este requisito es el núcleo celular (aunque existen, no solemos trabajar con células multinucleadas).

La identificación de los núcleos normalmente implica realizar un preprocesado de la imagen para reducir el fondo (Figura 1) seguido de una segmentación por intensidad y un postprocesado (de tipo watershed) para separar núcleos adyacentes incorrectamente identificados como uno solo (Figura 2).

Figura 1: Imagen original (izquierda) y resultado de aplicar una substracción del fondo (derecha).

Figura 2: Resultado de la segmentación de la imagen preprocesada. Objetos detectados (izquierda) y máscara de los objetos detectados (derecha).

Debido a la variabilidad de las muestras, puede ocurrir que, si se emplean umbrales de intensidad bajos para poder detectar correctamente los núcleos con menor intensidad, no se puedan separar correctamente los núcleos adyacentes, especialmente en zonas de alta densidad celular mientras que si se emplean valores de umbral más altos que permitan separar bien los núcleos próximos, podemos perder aquellos que sean menos intensos (Figura 3).

Figura 3: Los parámetros para la segmentación usados en la figura 2 no producen una buena segmentación en esta otra imagen ya que no detecta los núcleos con menor intensidad y no separa correctamente núcleos que están muy próximos.

Este problema se puede reducir gracias al módulo de análisis de imagen por inteligencia artificial con el que cuenta el programa informático ScanR de nuestro nuevo equipo Olympus para HCA. Con él, podemos entrenar una red neuronal convolucional que aprenda a identificar los núcleos.

Para realizar el entrenamiento necesitamos partir de una serie de imágenes de los núcleos junto con su solución en forma de imágenes etiquetadas, que serían lo que se conoce como ground truth. Aunque, en general, para este tipo de entrenamiento es necesario que la ground truth sea lo más precisa posible, en este caso no es tan importante que sea perfecta. De este modo, podemos utilizar como ground truth el resultado de la segmentación descrita anteriormente. Esto se debe a que lo primero que hace el programa antes de empezar a entrenar es una normalización de las imágenes. Así, los modelos resultantes son insensibles a la intensidad total de la fluorescencia. Durante las primeras iteraciones del entrenamiento, la red neuronal solo tiene tiempo de fijarse en los aspectos más característicos de la ground truth por lo que hará una buena predicción de lo que es fondo y de lo que es señal. Según vayan avanzando las iteraciones, la red neuronal tratará de predecir como fondo todos aquellos núcleos que no están anotados en la ground truth (Figura 4).

Figura 4: Una de las imágenes de validación de la red neuronal (superior izquierda) con su ground truth superpuesta (superior derecha). Con solo 2000 iteraciones de entrenamiento (inferior izquierda) la red ha aprendido a reconocer núcleos no marcados en la ground truth (azul) a la vez que separa mejor núcleos que no se segmentaron correctamente. Tras 30.000 iteraciones (inferior derecha), vemos cómo la capacidad de la red para detectar núcleos no marcados ha empeorado y, a la vez, separa peor los núcleos que teníamos problemas para separar originalmente.

El resultado del procesamiento de las imágenes con el modelo de red neuronal que hemos entrenado es una imagen en la que la intensidad de cada píxel vendrá determinada por la probabilidad de que ese píxel pertenezca a un núcleo. Esto nos proporciona imágenes con un contraste muy alto donde la segmentación es mucho más sencilla y precisa que en las imágenes originales, permitiendo una mejor identificación de los núcleos (Figura 5).

Figura 5: Segmentando sobre la imagen de probabilidad obtenida tras el procesamiento con la red neuronal convolucional que hemos entrenado, podemos hacer una mejor identificación de los núcleos, tanto los de menor intensidad como los que están muy próximos entre sí. Comparar con la figura 3.

Con los núcleos correctamente identificados podemos continuar con el análisis de nuestras muestras para poder responder a las cuestiones que plantea nuestro estudio.

En el artículo de hoy os hemos enseñado uno de los posibles usos de los modelos de inteligencia artificial que incluye ScanR, pero se pueden usar para muchas más cosas. En el siguiente enlace podéis ver un informe técnicode Olympus en el que explican cómo usar la inteligencia artificial para identificar núcleos en condiciones de muy baja iluminación:

https://www.olympus-lifescience.com/es/resources/white-papers/ultra-low_light_exposure_analysis/

Y en este otro enlace nos demuestran que se puede entrenar una red neuronal para reconocer la posición del núcleo celular en muestras sin marcaje:

https://www.olympus-lifescience.com/es/resources/white-papers/label-free_segmentation/

AUTOR

Javier Mazarío Torrijos
Responsable del Servicio de Microscopía y Análisis de Imagen
Hospital Nacional de Parapléjicos.
Toledo, España.

EL CONTRASTE EN IMAGEN DE RESONANCIA MAGNÉTICA

Como ya sabréis muchos de vosotros, la Imagen por Resonancia Magnética es una de las técnicas más potentes de la imagen médica debido a que es una técnica no invasiva no ionizante. Comparada con otras técnicas, posee una buena resolución espacial, proporciona un buen contraste en los tejidos blandos y permite obtener una información bastante valiosa de la circulación sanguínea. Sin embargo, su principal desventaja es la de tener una baja sensibilidad, por eso el desarrollo y administración de los agentes de contraste ha hecho que esta baja sensibilidad se vea aumentada.

En esta nueva entrada, el Servicio de Resonancia Magnética de Investigación os quiere introducir en el mundo de los agentes de contraste, pero para ello es necesario antes de nada daros unas pinceladas de los mecanismos de relajación para que podáis entender la base del contraste.  De esta manera, en un primer capítulo estudiaremos los mecanismos de relajación para que en posteriores ediciones podamos comprender como pueden clasificarse los agentes de contraste.

MECANISMOS DE RELAJACIÓN EN RESONANCIA MAGNÉTICA

A la hora de adquirir una imagen, lo primero que tenemos que tener en cuenta es que tenemos que diseñar nuestro protocolo para intentar conseguir un contraste adecuado. Las propias casas comerciales, y en especial, en clínica, la mayoría de las secuencias vienen preajustadas, tan solo hay que ajustar la ventana y quizá algún que otro parámetro.  Pero en imagen preclínica, estas secuencias tienen que ajustarse mucho más, ¿en qué? Os estaréis preguntando, no solo hay que ajustar el tamaño de la ventana de la región deseada (se denomina FOV: field of view) si no también los tiempos de adquisición, número de cortes, espesor del corte, resolución deseada. Todos estos parámetros influyen en el tiempo de repetición, el cual de un modo u otro va a determinar el tipo de contraste que obtengamos, a parte por supuesto, del tiempo total de adquisición total que especialmente en clínica es un factor muy a tener en cuenta.

Pero ¿por qué hablamos de relajación T1 y T2? Estos términos son ampliamente utilizados en resonancia magnética, de hecho, podríamos decir que es la base de la Resonancia en términos coloquiales, ¿por qué? Porque a la hora de visualizar una imagen compararemos contrastes entre los tejidos, y lo que pretendemos justamente es eso, conseguir el mayor contraste posible porque así podremos obtener una buena resolución.

En resonancia magnética, podemos definir la relajación bien desde el punto de vista físico-quimico (o mecano-cuántico) porque son fenómenos que les pasa a los spines o bien, podemos estudiarla como el resultado de aplicar unos parámetros en la secuencia cuyo fin es la de obtener nuestro contraste: nuestras imágenes potenciadas en T1 y en T2.  ¿Cuál será nuestro objetivo final? ¿Qué nos interesa a nosotros? Obtener un diagnóstico, caracterizar un tejido. Entonces, estudiaremos en esta Newsletter como podemos obtener este contraste. Aunque antes tendremos que definir estos dos tiempos.

Fenómenos de Relajación Longitudinal y Transversal

Cuando queremos adquirir una imagen, tenemos que excitar los protones de nuestra muestra, en una región específica. Para ello, tendremos que aplicar un pulso de radiofrecuenca justamente en ese FOV, los protones que se encuentren en esa región determinada serán los que experimenten esa excitación. Después de esto, se producirá la relajación mediante este mecanismo, los protones volverán a su estado inicial. Bien por un proceso de relajación longitudinal (T1) y por una relajación transversal (T2). Existe un tercer parámetro que es el T2* que se relaciona con las inhomogeneidades en el campo magnético principal, que pueden ser el resultado de defectos intrínsecos en el propio imán o de las distorsiones de campo inducidas por susceptibilidad producidas por el tejido u otros materiales colocados dentro del campo.  Estos procesos se producen bien por mecanismos de agitación térmica e internucleares. Sin entrar en muchos detalles de ecuaciones (Ecuaciones de Bloch) cada protón va a tener un valor de T1 y T2 en función del tejido (entorno) y del campo magnético en el que se encuentren, aunque para el T2 no se ve muy influenciado por este último.

Los valores de T1 serán más altos cuando mayor sea el campo magnético, se necesita más tiempo para alcanzar el equilibrio. En general los valores de T1 van a ser más altos (más lentos en su relajación) que los valores de T2.

Fig.  1. Curvas de relajación T1 y T2 definidas por las ecuaciones de Bloch. EL T1 de cada tejido se define como el tiempo que tarda en recuperarse el 63% de la magnetización Mz y el T2 como el tiempo requerido para que la magnetización transversal caiga a aproximadamente el 37% de su valor inicial.

Fig. 2. Curvas de T1 y T2.  El T1 dependerá del contenido relativo de agua y de la forma en la que se encuentra formando parte de las estructuras Macromoleculares. Al igual que ocurre con el T1, los valores de T2 van a ser distintos en función del contenido de agua y el estado en el que se encuentren. Apenas se ve influenciado por el campo magnético.

IMÁGENES POTENCIADAS EN T1,  EN T2 y EN DENSIDAD PROTONICA

Una vez que entendemos de donde proceden estos términos, ¿cómo lo podemos aplicar a la imagen? ¿Qué significa contraste positivo y contraste negativo?

A la hora de diseñar un experimento, tenemos que pensar que queremos ver, nos interesa ver simplemente anatomía, inflamación, tumores, necrosis, edema, hemorragia, etc.. Todos estos procesos van a poder distinguirse empleando la secuencia adecuada, y con ello, empleando los parámetros adecuados para una buena caracterización del tejido.

La imagen potenciada en Densidad protónica apenas proporciona contraste, solo da cuenta de la cantidad/ concentración de protones en el tejido. También se utiliza pero si queremos obtener contraste, la tendremos que descartar en el experimento.

Una imagen potenciada en T1 nos va a dar información anatómica, en ella vamos a obtener una imagen cuyas zonas intensas (brillantes) serán las que corresponden a protones en tejidos con movilidad restringida, protones que no circulan libremente, a diferencia del líquido cefalorraquideo (justo éste, tiene unos valores de T1 muy elevados y por tanto el LCR aparecerá negro en la imagen).

Una imagen potenciada en T2 nos va a proporcionar buena caracterización anatómica y muy buena información sobre diferentes lesiones: edema, hemorragia, tumores, necrosis, etc… Porque los protones que encontramos tienen una movilidad diferente. En este caso, las regiones hiperintensas corresponden a los protones con mayor movilidad. En este caso, el líquido cefalorraquideo aparecerá brillante.

Fig. 3. A y B) corte coronal y axial potenciado en T1, C y D) corte axial y coronal potenciado en T2. 

Si estudiamos la figura 3, tenemos 4 imágenes, dos de las cuales están potenciadas en T1 (A y B) y en T2 (Cy D). La lesión corresponde a una isquemia cerebral producida por oclusión de la Arteria Cerebral Media. La lesión es hipointensa en T1 pero sin embargo es hiperintensa en T2. ¿Cuál de las dos proporciona mayor información? La imagen potenciada en T2. Ya que con esta se puede distinguir perfectamente la lesión con respecto a los tejidos de alrededor.

Para finalizar, y esto aunque se ve mucho mejor en la práctica una regla que viene muy bien es la definida por la siguiente figura (Fig. 4). Como tenemos que elegir los parámetros de la secuencia, Tiempo de Repetición (TR) y Tiempo de Eco (TE) para obtener nuestro contraste deseado. Para obtener imágenes potenciadas en T1 los tiempos tienen que ser cortos y para las imágenes potenciadas en T2 los tiempos han de ser largos.

Fig. 4. Obtención del contrate en función del TR y TE empleados en la secuencia. 

Una vez que entendemos como son los contrastes que obtenemos y los parámetros que debemos elegir, lo siguiente es introducir los agentes de contraste. ¿Qué son? ¿Cómo se sintetizan? ¿Cómo se caracterizan? Y ¿Cómo se clasifican?. Lo explicaremos en la siguiente edición aunque adelantamos una breve introducción:

Los agentes de contraste son administrados para mejorar las imágenes de RM de los órganos y tejidos por cambio en los tiempos de relajación de los protones del agua, es por que se modifica la magnitud de la señal en la región del cuerpo donde se ha administrado el contraste. Normalmente acortan la velocidad de todos los procesos de relajación; sin embargo, cada sustancia influye de una manera especial. Los agentes de contraste que normalmente acortan los tiempos de relajación en la componente longitudinal son llamados agentes T1 o agentes de contraste positivos, mientras que los agentes T2, o contrastes negativos reducen los tiempos de relajación en la componente transversal.

CONCLUSIÓN

Entendiendo los fenómenos de relajación de los diferentes protones que tenemos en el cuerpo, podemos obtener una información muy valiosa para poder estudiar y diferenciar el tejido patólogico del normal. Seleccionando los parámetros y eligiendo las mejores secuencias, podremos adquirir imágenes con muy buen contraste. Sin embargo, a veces es necesario administrar agentes de contraste para poder intensificar ese contraste. Ya no solo por el aumento del contraste si no por la información adicional que nos puede proporcionar el compuesto administrado. 

AUTOR

Marina Benito Vicente.
Responsable del Servicio de Resonancia Magnética de Investigación
Hospital Nacional de Parapléjicos.
Toledo, España.

Referencias

Caspani, S.; Magalhães, R.; Araújo, J.P.; Sousa, C.T. Magnetic Nanomaterials as Contrast Agents for MRI. Materials 202013, 2586. https://doi.org/10.3390/ma13112586

MEJORA DE IMÁGENES RUIDOSAS MEDIANTE INTELIGENCIA ARTIFICIAL

En un nuevo capítulo de cómo la inteligencia artificial puede ayudaros a sacar el máximo partido de vuestras imágenes científicas, hoy os presentamos distintos métodos para eliminar o reducir el ruido que se puede introducir durante la captura de estas imágenes.

El ruido suele aparecer cuando, por el motivo que sea (normalmente relacionado con las características de la muestra), tenemos que aumentar mucho la sensibilidad del sensor de la cámara y/o bajar mucho el tiempo de exposición. En otros casos, aparece debido al propio modo de funcionamiento del equipo. Un ejemplo muy claro lo tenemos en las imágenes que adquiere nuestro confocal Leica TCS SP5 equipado con una cabeza escaneadora resonante. La alta velocidad de escaneo hace que las imágenes sean muy ruidosas. Este problema lo solucionamos capturando varias veces la misma imagen (normalmente 8 o 16 veces) y haciendo una media de estas repeticiones para obtener una imagen mejorada. Por supuesto, esto implica un aumento en el tiempo de captura (p. ej., un mosaico de 64 imágenes con 27 Zs y dos canales se adquiere en 10 minutos sin medias, pero sube a 1 hora si se emplean 8 medias) y en el fotoblanqueo, así como en la fototoxicidad en el caso de muestras vivas. Para solucionar este tipo de problemas, se han desarrollado modelos de inteligencia artificial usando redes neuronales convolucionales (CNN en inglés) que ofrecen resultados prometedores.

Ejemplo de una imagen del rizoma de Convallaria sp. obtenida sin medias (izquierda) y con 8 medias (derecha).

El primer modelo de CNN del que vamos a hablar se llama CARE y tan solo necesita para su entrenamiento que se le provean pares de imágenes con y sin ruido. Existen versiones para trabajar tanto con imágenes 2D como 3D (stacks de Z) y, a diferencia de lo que ocurre con los modelos de inteligencia artificial de los que hemos hablado en artículos anteriores, no es necesario hacer un etiquetado previo de las imágenes.

Los resultados que hemos obtenido en las pruebas de CARE son espectaculares y hacen que se pueda considerar como una alternativa para reducir el tiempo de captura de mosaicos de grandes áreas, de horas a minutos, optimizando, por lo tanto, el uso del confocal.

Imagen obtenida sin medias (izquierda), con 8 medias (derecha) y el resultado del entrenamiento de una CNN CARE (centro). Se puede observar cómo la calidad de la imagen procesada con CARE es similar a la obtenida haciendo 8 medias.

En el caso de que no sea posible obtener imágenes de alta calidad (con una buena relación señal/ruido), también se puede entrenar CARE utilizando pares de imágenes ruidosas [Noise2Noise (N2N) image restoration]. Por sorprendente que parezca, este método también ha aportado unos resultados prometedores en las primeras pruebas que hemos realizado y que indican que probablemente se puedan mejorar ajustando las condiciones de captura de las imágenes ruidosas.

Aquí podemos comprobar cómo el entrenamiento de una CNN CARE suministrando pares de imágenes ruidosas (N2N) produce un resultado (imagen central) similar al que se obtiene haciendo 8 medias a la imagen (derecha) en las zonas de mayor intensidad, mientras que las zonas de menor intensidad parecen perderse. Probablemente este artefacto se pueda evitar ajustando mejor las condiciones de captura cuando esto sea posible.

Por último, puede ocurrir que ni siquiera se puedan adquirir pares de imágenes ruidosas. En este caso, existe otra CNN que puede venir en nuestra ayuda. Se llama Noise2Void (N2V) y lo único que hay que hacer para entrenarla es proporcionarle imágenes ruidosas. Por supuesto, el tiempo de entrenamiento para obtener un buen modelo va a ser mucho mayor que cuando se usa CARE y los resultados más modestos. Aun así, y teniendo en cuenta que se parte únicamente de imágenes con una mala relación señal/ruido, la mejora es considerable y puede ser una opción cuando no se puedan obtener pares de imágenes para el entrenamiento de la CNN.

La imagen procesada con N2V (centro), aunque no llega a los niveles de una imagen adquirida con 8 medias (derecha), mejora considerablemente cuando se compara con la imagen original (izquierda).

Como veis, existen distintas formas en las que la inteligencia artificial puede ayudarnos a mejorar la calidad de nuestras imágenes ruidosas. Si estáis interesados en saber más o hacer alguna prueba, no dudéis en poneros en contacto con nosotros. También podéis aprender más en este webinar sobre restauración de imagen:

Por último, aquí tenéis los artículos originales que describen los modelos:

CARE (https://www.nature.com/articles/s41592-018-0216-7)

Noise2Void (https://arxiv.org/abs/1811.10980)

AUTOR

Javier Mazarío, PhD.
Responsable del Servicio de Microscopía y Análisis de Imagen
Hospital Nacional de Parapléjicos
Toledo, España.

CRITERIO DE PUNTO FINAL

Se establece la siguiente tabla de signos y el consiguiente protocolo de actuación.

La evaluación de estos signos se hará siempre por dos personas, un representante del laboratorio de investigación y por el especialista en bienestar animal del hospital.

La eutanasia humanitaria se llevará a cabo bajo las siguientes premisas:

  • el total de la puntuación diaria es mayor de 15 puntos, durante dos días consecutivos.
  • puntuación de 5 mantenida 24 horas en los signos A,C y D , a pesar del tratamiento
  • primeros signos de autotomía:

La alteración de cualquiera de estos signos será causa suficiente para que el cuidador traslade al animal a la zona de cuarentena y avise al servicio veterinario, que , tras su reconocimiento informará al responsable del proyecto en el que se esté utilizando el animal. Se someterá a observación diaria por el especialista en bienestar animal y/o veterinario y un responsable del laboratorio, y si con el tiempo reúne las condiciones anteriormente descritas se procederá a su eutanasia, o será dado de alta y se le devolverá a su sala. Si por alguna causa se decidiera la eutanasia, se informará siempre previamente al investigador.

CITOMETRÍA DE FLUJO PARA MONITORIZAR PROCESOS INTRACELULARES I: Ca2+, Mg y Zn

La técnica más conocida en citometría de flujo es, sin duda, el inmunofenotipaje.  En él se emplean anticuerpos conjugados con fluorocromos que se unen a proteínas celulares y las marcan, permitiendo determinar los diferentes tipos de células presentes en una muestra. Sin embargo, siempre que exista un marcador fluorescente, la citometría de flujo nos va a permitir medir diferentes procesos biológicos.

 El más común de estos ensayos es el de movilización de Ca2+. Además del calcio, mediante citometría de flujo es posible medir concentraciones de magnesio (Mg), zinc (Zn), especies reactivas de oxígeno (ROS) e, incluso, el potencial de membrana. En esta primera entrega de citometría de flujo para monitorizar procesos intracelulares, nos centraremos en cómo lograr mediciones precisas de Ca2+ intracelular y hablaremos de las sondas que nos permiten medir Mg y Zn.

  • MOVILIZACIÓN DE CALCIO (Ca2+)

Los iones de calcio juegan un papel especialmente crítico en la señalización celular. Como mensajero secundario, está involucrado en una gran variedad de procesos celulares: neurotransmisión, contracciones musculares, expresión génica, actividad enzimática, apoptosis… Los niveles de calcio, tanto en la sangre como en las células, están estrechamente regulados para garantizar que la concentración citoplasmática se encuentre en el rango de 100nM, ya que el calcio es un potente desencadenante de procesos biológicos. Los mecanismos de la homeostasis del Ca2+ incluyen secuestrarlo en diferentes orgánulos, así como secretar activamente el exceso de Ca2+ de la célula.

Existen varios compuestos capaces de emitir fluorescencia en respuesta a Ca2+ (incremento y disminución). Algunos ejemplos se muestran en la Tabla 1.

Las dos primeras sondas, Indo-1 y Fura Red, se usan típicamente para medir cambios en la concentración de calcio intracelular mediante la monitorización de la excitación o la emisión de dicha sonda ya que permiten realizar mediciones ratiométricas. Esto significa que podemos monitorizar el ratio calcio unido/no unido gracias a sus propiedades espectrales, ya que les permiten responder de manera diferente tanto al incremento del Ca2+ intracelular como a la disminución del mismo. Por ejemplo, la sonda Indo-1 que se excita con un láser UV,  en ausencia de Ca2+ emite fluorescencia a 495 nm, y cuando tiene lugar un incremento en los niveles de Ca2+ intracelulares, deja de emitir a esa longitud de onda y comienza a emitir fluorescencia a 390 nm (ver figura 1). Haciendo el ratio entre las medidas de fluorescencia a ambas longitudes de onda, podemos monitorizar el incremento en los niveles de Ca2+ (ver figura 4).

 En el caso de no contar con citómetro con láser UV, podemos utilizar Fura-Red como colorante ratiométrico (ver figura 2).

El empleo de estas sondas ratiométricas aumenta la precisión de la medida de las concentraciones de calcio intracelular, proporcionando resultados más sólidos y reproducibles.

Figura 1. Espectros de excitación y emisión de Indo-1. El marcador ratiométrico más utilizado es Indo-1, que se excita mediante el láser UV  emitiendo a 390 nm  (violeta) y cambia su espectro de emisión cuando no se une al calcio, emitiendo a 495 nm (verde). Al evaluar la relación de Ca2+ unido/no unido, se puede medir una reacción cinética más precisa e independiente de la carga de sonda en las células.

Figura 2. Espectros de excitación y emisión de Fura Red. Esta sonda emite fluorescencia a 640 y 670 nm, pero difiere en su capacidad de excitación. Cuando no está unida a Ca2+ es excitada por el láser violeta (405nm), mientras que cuando los niveles de Ca2+ aumentan, la sonda pasa a excitarse con el láser azul (488nm), produciéndose un aumento de la fluorescencia en el detector correspondiente para este láser. A su vez, disminuye la señal en el detector del láser violeta. La relación entre la fluorescencia producida por la excitación a 405 nm y la producida a 488 nm, nos permitirá monitorizar el incremento de los niveles de Ca2+.

El resto de los indicadores de la tabla, conocidos como sondas sensor, sóolo responden a un aumento de calcio aumentando su emisión de fluorescencia. Por tanto, las mediciones se realizan con un solo color. Con este tipo de sondas deben tenerse en cuenta diferentes efectos como son: la tinción desigual de las células como consecuencia de diferencias en el grosor de la membrana celular de distintos tipos celulares presentes en la muestra, el fotoblanqueo o photobleaching (destrucción fotoquímica de un fluoróforo), , así como  las posibles fugas de sonda del interior celular.

CONSIDERACIONES PARA DISEÑAR EL EXPERIMENTO

En el diseño general de un experimento de monitorización de calcio, existen una serie de factores que deben tenerse en cuenta:

  1. Láseres disponibles. La mayoría de los indicadores de calcio se excitan con el láser de 355 nm, 405 nm o 488 nm. Por tanto, en caso de querer acoplar el ensayo de calcio al de inmunofenotipaje, con el objetivo de ver qué células están respondiendo a un estímulo dado, se debe elegir una sonda que solo responda a un incremento de Ca2+ (sonda “sensor”).
  2. Tipo de sonda: se recomienda utilizar una sonda ratiométrica, cuyo pico de excitación o emisión cambia en presencia de calcio.
  3.  Mantener la temperatura a 37ºC para favorecer la cinética de la reacción.
  4. Capturar la respuesta inicial al Ca2+. Una limitación de estos ensayos era que no se podía captar el flujo justo al instante de agregar el agonista, ya que la adquisición en el equipo debía interrumpirse para agregarlo. Sin embargo, en el servicio de Citometría contamos con el citómetro CytoFlex S, que nos permite añadir el agonista sin detener la adquisición gracias a su bomba peristáltica, lo que permite obtener un registro completo e ininterrumpido de los datos de cada muestra (ver figura 3).

Figura 3. Comparación de las mediciones de Ca2+ usando dos tipos de citómetros. El citómetro Beckman Coulter Cyan APD requiere detener la adquisición para agregar el ionóforo A23187, de esta manera se pierden los datos de calcio de la respuesta inmediata. Sin embargo, Accuri C6 de Beckman Coulter, consta de un sistema de fluidos que trabaja mediante bombas peristáltica (al igual que el CytoFlex S) donde no es necesario interrumpir la adquisición de muestra, evitando así la pérdida de datos.

EJECUCIÓN DEL EXPERIMENTO

Las células se tiñen con la sonda seleccionada para el experimento. El flujo se controla mediante el cambio de fluorescencia de la sonda. Los tubos que contienen las muestras se adquieren en el citómetro de flujo durante unos 30-60 segundos para establecer unos valores de referencia antes de agregar el antagonista.  

Una vez que la señal se ha estabilizado, se agrega un ionóforo de calcio (ionomicina o A23187) rápidamente al tubo, que transportará iones de calcio a través de la membrana plasmática causando la máxima respuesta en las células y ocasionando la liberación de Ca2+.En la Figura 4 se muestra un ejemplo de análisis de un experimento de monitorización de Ca2+.

Figura 4. Ejemplo de análisis de un experimento de movilización de calcio. Se comienza con la adquisición de datos durante 30-60 segundos, tras lo que se añade iononomina 1 µM a la población celular. Las gráficas de puntos de la izquierda muestran la emisión de fluorescencia a 390 nm (indo-1 unido a Ca2+, gráfico superior) y 495 nm (indo-1 libre, gráfico inferior). Por último, en el gráfico de la derecha, se representa la relación entre la emisión a 390nm y 495nm. 1

La técnica de movilización de calcio mediante citometría supone una herramienta muy útil a la hora de medir cambios en la concentración de iones en células definidas fenotípicamente.

  • MAGNESIO

El Magnesio es un cofactor enzimático importante en los procesos biológicos, incluida la producción de energía, la fosforilación oxidativa y el transporte de iones. Su déficit puede aumentar el riesgo cardiovascular y la resistencia a la insulina. Fox et al., (2007), utilizaron una sonda fluorescente, Magnesium Green, para calcular el magnesio intracelular en las plaquetas.2

  • ZINC

El Zinc es un oligoelemento necesario que utilizan más de 300 proteínas implicadas en procesos como el metabolismo de los ácidos nucleicos, la replicación celular o la reparación de tejidos. La deficiencia de Zn puede conducir a una variedad de problemas que van desde el deterioro de la inmunidad hasta el desarrollo neuronal atrofiado y el cáncer. Existe una sonda permeable a las células que permite la medida del Zn mediante citometría de flujo. Zinpyr-1 tiene una excitación máxima de 515 nm y una emisión máxima de 525 nm, lo que lo hace adecuado para aplicaciones de citometría de flujo. Malavolta et al., (2006) utilizaron esta sonda para estimar la disponibilidad de zinc en las células T CD4 y CD8.3

CONCLUSIÓN

Estos ensayos demuestran el poder de la citometría de flujo como herramienta para medir cambios en la concentración de iones intracelulares. Y, por tanto, la posibilidad de evaluar diferentes procesos de señalización celular en poblaciones definidas fenotípicamente.

En la próxima newsletter nos centraremos en análisis de las especies reactivas de oxígeno (ROS) y el potencial de membrana, como otros procesos intracelulares que somos capaces de monitorizar mediante citometría de flujo.

AUTOR

Ángela Marquina, MSc.
Bioquímica
Técnico Titulado Superior del Servicio de Citometría de Flujo
Hospital Nacional de Parapléjicos
Toledo, España.

REFERENCIAS

  1. https://bcf.technion.ac.il/portfolio/calcium-flux/.
  2. Chester H Fox et al., (2007). A method for measuring intracellular free magnesium concentration in platelets using flow cytometry. Magnesium Research. 2007;20(3):200-207. doi:10.1684/mrh.2007.0105. 
  3. Malavolta, M. et al., (2006). Single and three-color flow cytometry assay for intracellular zinc ion availability in human lymphocytes with Zinpyr-1 and double immunofluorescence: relationship with metallothioneins. Cytometry. Part A : the journal of the International Society for Analytical Cytology69(10), 1043–1053. doi: 10.1002/cyto.a.20335.

ANÁLISIS MULTIDIMENSIONAL

Durante la última década el campo de la citometría de flujo ha desarrollado nuevos avances tecnológicos que han dado como resultado el aumento del número de parámetros que se pueden estudiar, incluso a nivel de célula única.

Tal y como mostramos en las newsletter anteriores, las nuevas técnicas de citometría de masas, citometría espectral, las plataformas de análisis ómicos en célula única y, cómo no, la citometría multiparamétrica convencional (de 8 parámetros en adelante), generan sets de datos muy grandes y con muchas dimensiones, tantas como parámetros se midan (“High Dimensional Data”). Esto hace que el análisis manual con técnicas clásicas manuales se complique.

Tradicionalmente, los datos de citometría de flujo se visualizan como un set de gráficos de 2 dimensiones, donde se dibujan una serie de regiones de interés (gates) que definen poblaciones, las cuales se examinan en nuevos plots 2D con el fin de identificar nuevas subpoblaciones, realizar medidas cualitativas (si la población está presente o ausente o cuál es su proporción relativa) o cuantitativas (intensidad de fluorescencia de un determinado marcador). Al aumentar el nº de parámetros a estudio, el nº de plots 2D que tenemos que realizar para cubrir el análisis de todos los parámetros aumenta muchísimo. Por ejemplo: en un experimento con 18 colores deberían hacerse un total de 154 gráficos 2D para poder visualizar cada combinación de marcadores presentes en la muestra.

Fig.1. Para poder analizar poblaciones y subpoblaciones presentes en una muestra tenemos que analizar todos los marcadores de dos en dos. En el ejemplo, dónde se usan 5 marcadores de fluorescencia, para analizar las relaciones entre todos ellos tendríamos que realizar 10 plots. Si además lo comparamos con parámetros de dispersión, el nº de plots aumentaría a 22.

Todo esto hace que aumente la complejidad y el tiempo dedicado análisis, se corre el riesgo de no identificar subpoblaciones y de establecer un sesgo por subjetividad y variabilidad entre las estrategias de gating realizadas por distintas personas. Esto puede hacer que información potencialmente relevante no sea reconocida y por tanto se ignore.

Para intentar paliar estos problemas y avanzar en el análisis de datos, se han desarrollado nuevos algoritmos automatizados que exploran la estructura de los datos y los agrupan en función de sus características.

En esta ocasión vamos a hablar de modelos de reducción dimensional y de clustering.

REDUCCIÓN DIMENSIONAL

Las técnicas de reducción dimensional permiten visualizar los datos encontrando una representación de menores dimensiones, normalmente dos, preservando la estructura del espacio multidimensional.

Uno de los métodos más utilizado en citometría es el tSNE: t-distributed Stochastic Neighbour Embedding. El otro método de reducción dimensional más utilizado es el UMAP: Uniform Manifold Approximation and Projection.

Estos algoritmos encuentran las similitudes de células en el espacio multidimensional, es decir, encuentran células que son similares en cuanto a los todos los marcadores (dimensiones) que expresan, así como en los niveles de expresión de estos, y las muestra en un plot de 2 dimensiones denominado mapa tSNE (o UMAP). La proximidad de las células en este mapa refleja sus distancias en el espacio multidimensional, de forma que células que tienen patrones de expresión similares están localizadas muy cerca.

Fig.2: Ejemplo de tSNE maps. Cada nube o isla de puntos indica una población con patrones de expresión similares.

Lo primero que hacen es computar los datos que se encuentran más próximos entre sí en el espacio multidimensional mediante análisis por pares y a continuación, optimiza repetitivamente el posicionamiento en un espacio 2D.

Generalmente, las herramientas de reducción dimensional, aunque te permiten una visualización más sencilla del espacio multidimensional, no proporcionan una clasificación automática de las células o su pertenencia a un clúster concreto. Por eso, debemos después validar con gating manual a qué poblaciones corresponden las distintas islas.

Otra opción es utilizar un algoritmo de clustering para que, de forma no supervisada, nos muestre los distintos clústeres que encuentra en nuestra muestra.

CLUSTERING

Los algoritmos de clustering van a identificar poblaciones y subpoblaciones de células con expresión similar de marcadores, sin necesidad de intervención por parte del investigador. Aunque al igual que ocurre con el tSNE, será necesaria la validación de los clústeres identificados por el algoritmo mediante gating manual.

Estos algoritmos son objetivos, ya que no hacen asunciones de qué poblaciones estamos esperando, sino que analizan la expresión de todos los marcadores en cada una de las células de la muestra y a continuación las agrupan en clústeres según la expresión de los mismos. De esta manera van a permitir la detección de poblaciones no esperadas.

Existen diversos algoritmos: FlowMerge, FlowSOM, SPADE, Citrus, X-Shift etc. La elección de utilizar uno o de otro dependerá de cuál se ajusta mejor a los datos que nosotros conocemos en cuanto a poblaciones diferentes que podemos esperar. Es decir, el algoritmo debe encontrar las poblaciones básicas que existen en nuestra muestra.

Vamos a ver un ejemplo sencillo para mostrar estos algoritmos.

EJEMPLO

Tomamos unos datos obtenidos a partir de células de bazo de ratón C57BL/6 (sí….son células inmunes, pero esto se puede aplicar a células del sistema nervioso también), teñidas con 5 marcadores fluorescentes que nos van a definir varias poblaciones según el gating manual:

Fig. 3: Gating manual. Podemos definir 7 poblaciones únicas: Linfocitos T, linfocitos B, células NK, células NKT, granulocitos, monocitos y células CD45 neg.

Si aplicamos los algoritmos de reducción dimensional tSNE y UMAP sobre esta misma muestra obtenemos los siguientes gráficos:

Fig.4: Cada isla nos indica agrupación de células con las mismas características

Podemos analizar la expresión de cada marcador en estas representaciones para conocer dónde se encuentran nuestras poblaciones principales:

Fig. 5: Mapas de calor indicando la intensidad de fluorescencia de cada marcador (indicado en el recuadro de cada gráfico). Podemos identificar qué nube/isla expresa por ejemplo el marcador de células B CD19, o el marcador CD3 presente en células T.

Si utilizamos un algoritmo de clustering como FlowSOM sobre esta muestra, este algoritmo nos identifica hasta 8 clústeres diferentes:

Fig.6. A la izquierda, representación de los clústeres encontrados por el algoritmo FlowSOM representado sobre mapa tSNE. A la derecha, solapamiento de las poblaciones encontradas mediante gating manual, representadas sobre mapa tSNE.

Como se puede observar por los colores, el algoritmo FlowSOM es capaz de detectar las poblaciones principales sin supervisión, e incluso encontrar poblaciones que no definimos con gating manual (marcadas con un círculo rojo). Sin embargo, el algoritmo es mejorable porque no es capaz de diferenciar células NKT con respecto a la población total de células CD3+ (marcado en azul).

Si utilizamos estos algoritmos sobre muestras tratadas/no tratadas o procedentes de distintos pacientes o controles, podemos encontrar diferencias entre poblaciones que aparecen/desaparecen en las distintas condiciones. Como último ejemplo, esta comparativa entre muestras no tratadas y muestras tratadas

Fig.7: Representación tSNE. Se puede ver como el tratamiento induce la desaparición de la población 3 y la aparición de la población 1, entre otros cambios no mostrados. Esto indica un cambio en las características de esas poblaciones inducido por el tratamiento.

Lecturas recomendadas:

– Cossariza A et al (2019) Eur. J. Immunol:  https://doi.org/10.1002/eji.201970107

Galli E et al (2019) Eur.J. Immunol:  https://doi.org/10.1002/eji.201847758

BOTTOM-UP PROTEOMICS: VENTAJAS, INCONVENIENTES Y FUTURO DE ESTE CAMPO

El campo de la proteómica consta de una amplia gama de metodología, que ha sido impulsada en gran medida por el desarrollo moderno de la tecnología involucrada. El comienzo de la investigación proteómica se inició debido a desarrollos paralelos en cuatro áreas: (a) electroforesis en gel bidimensional (2D-PAGE), (b) métodos de espectrometría de masas, (c) bases de datos variadas con proteínas catalogadas, y (d) desarrollo de herramientas bioinformática. Hoy nos vamos a centrar en uno de los flujos de trabajo típicos en proteómica, “bottom-up proteomics”. En la revisión que realizan Emmalyn J. Dupree et al (1), presentan este enfoque desde una perspectiva de cromatografía líquida acoplada a espectrometría de masas, donde discuten su desarrollo multidisciplinario, lo bueno y lo malo, y el futuro con la mejora de la metodología actual.

BOTTOM-UP PROTEOMICS

Empecemos por recordar los pasos principales de los que consta este flujo de trabajo:

  1. Aislamiento de proteínas de la muestra a estudiar.
  2. Cuantificación de la concentración.
  3. Fraccionamiento de proteínas mediante electroforesis en gel o cromatografía líquida.
  4. Escisión enzimática (mediante tripsina generalmente) de las proteínas.
  5. Análisis de los péptidos generados por espectrometría de masas.
  6. Búsqueda en bases de datos para la identificación de proteínas.

Fig.  1 Flujo de trabajo para “bottom-up proteomics” (Sukumaran A., et al 2021)

En este tipo de enfoque, también denominado “shotgun”, se utiliza las ventajas que los péptidos tienen sobre las proteínas: separación fácil mediante cromatografía, buena ionización y fragmentación predecible. Nos proporcionan grandes listados de identificaciones de proteínas y se utiliza para resolver la mayoría de los proteomas completos, complejos y disponibles en la actualidad.

Los tipos de adquisición que se utilizan en este tipo de estrategias son dependientes de datos (DDA).

No obstante, la eficiencia de las proteasas utilizadas y la limitación en el número de péptidos para la identificación de una secuencia no siempre es suficiente para identificar proteoformas. Aunque es posible  que a través de la medición de cambios de masa, la identificación de isoformas y PTM sin conocimiento previo es extremadamente limitada en este tipo de aproximaciones.

Pasemos a revisar cada uno de los pasos y ver sus ventajas, inconvenientes y cuál puede ser su mejora en un futuro

PREPARACIÓN DE LA MUESTRA

Como hemos comentado en otras ocasiones, la preparación de la muestra es el primer y más importante paso. El principal cuello de botella ya que la sensibilidad y el rendimiento de los pasos posteriores están en juego.

A diferencia de otras “ómicas”, en proteómica no se dispone de un tampón universal para aislar proteínas. Los grupos funcionales de las cadenas laterales de aminoácidos permiten una diversidad tan grande en términos de carga proteica e hidrofobicidad que hace que las propiedades fisicoquímicas entre proteínas sean muy diversas y lo más importante, su variedad en abundancia.

Algunas proteínas se pueden encontrar en cantidades tan bajas como una proteína por célula, mientras que otras hasta varios millones por célula. A pesar de la gran selectividad y sensibilidad de los espectrómetros de masas, ningún instrumento disponible en la actualidad puede resolver tal complejidad de rango en una sola medición. Por lo tanto, se deben utilizar varias estrategias de fraccionamiento para mejorar la profundidad y cobertura del análisis proteómico.


Idealmente, lo que se necesita es un método confiable y universal para extraer y fraccionar proteínas; uno que sea rápido, no requiera detergentes, requiera pasos mínimos y manipulación de muestras, y se pueda automatizar.

FRACCIONAMIENTO CROMATOGRÁFICO

El acoplamiento de la cromatografía líquida a los espectrómetros de masas inició el desarrollo de nuevos métodos de ionización y condujo a una diversidad de interfases destinadas a separar mezclas biológicas. Actualmente, es la técnica analítica común e indispensable para la investigación proteómica.

La metodología HPLC/UHPLC-MS seguirá siendo muy útil en las ciencias «ómicas» y se desarrollarán métodos de referencia, pero lo más deseable es la transición a diversas aplicaciones clínicas.

ANÁLISIS DE MS: INSTRUMENTACIÓN

No os voy a volver a recordar en que consiste un espectrómetro de masas (2), pero brevemente puntualizar que la electropulverización (ESI) es la técnica de ionización con la que mejor se acoplan los cromatógrafos de líquidos y que los analizadores son la clave para mantener la sensibilidad, la precisión y la resolución de masa, así como para generar espectros de iones ricos en información a partir de fragmentos de péptidos.

Dependiendo de la técnica de disociación para producir esos fragmentos se obtendrá más o menos información de la secuencia peptídica.

Tipos de disociaciones:

  • CID: Disociación inducida por colisión. Es la más utilizada y común en la mayoría de las equipaciones.
  • ECD: Disociación por captura de electrones.
  • ETD: Disociación por transferencia de electrones.
  • HCD: Disociación por colisión de alta energía

ANÁLISIS DE DATOS DE MS

El análisis de datos es un factor limitante en muchos experimentos proteómicos. Existen muchos softwares diferentes que facilitan y ayudan en el procesado de datos, sin embargo, estos programas también tienen limitaciones.

Para poder comprender los problemas en el análisis de datos, es importante comprender los conceptos básicos de fragmentación de péptidos. La mayoría de los problemas surgen de la falta de información de secuencia completa.

Fig.  2 Correspondencia entre la secuencia de aminoácidos del péptido y los picos de iones de fragmentos que se producen en MS/MS (A) y los principales iones fragmento teóricos que se producen a partir de la fragmentación de un péptido (B).

Uno de los principales problemas que debe abordarse en el análisis de datos proteómicos es la falta de bases de datos de proteínas bien anotadas. Es necesario que los investigadores ayuden a desarrollar estas bases de datos para que puedan utilizarse en futuros estudios de proteómica. Cuando se utiliza una base de datos de referencia para análisis proteómicos, se deben seguir parámetros de búsqueda estrictos y relevantes para disminuir la probabilidad de falsos positivos.

Siempre que sea posible, deben usarse bases de datos de proteínas pequeñas en lugar de grandes para minimizar los falsos positivos, los umbrales de péptidos deben establecerse en una tolerancia razonable y deben tenerse en cuenta las PTM relevantes. Además, si las identificaciones de péptidos son particularmente importantes, es aconsejable verificarlas utilizando los espectros de datos sin procesar.

FALSOS POSITIVOS, FALSOS NEGATIVOS Y ESPECTROS SIN ASIGNAR

Nuestro objetivo final es la identificación de proteínas presentes en la muestra de interés y su relevancia biológica. Este es un proceso de dos pasos que incluye encontrar PSM y concluir la identidad de las proteínas en función de las alineaciones de secuencias. Cada paso depende de una base de datos y, en cada paso, a medida que la base de datos crece, aumenta la probabilidad de encontrar péptidos y, por tanto, proteínas debido al azar. Los resultados que no están realmente presentes en la muestra se denominan identificaciones de falso positivo y solían ser el problema más desafiante de la proteómica.

Los resultados falsos positivos, los falsos negativos y los espectros no asignados solo pueden resolverse mediante avances en la búsqueda de bases de datos y análisis bioinformático, es decir, software adicional que permita la identificación de péptidos que corresponden a espectros MS/MS no asignados previamente.

CONCLUSIÓN

La MS y los métodos proteómicos han avanzado mucho en el campo del análisis de proteínas para la investigación fundamental y clínica. Existen métodos bien establecidos para la preparación de muestras y una excelente instrumentación para el análisis de MS. También hay una variedad diversa de motores de búsqueda de bases de datos. Sin embargo, el mayor desafío al que aún nos enfrentamos es una búsqueda completa y exhaustiva en bases de datos de un conjunto de antecedentes de proteómica. Está claro que lo que más necesita la proteómica es un soporte bioinformático mejor y más potente para realización de las búsquedas.

AUTOR

Gemma Barroso-García, MSc.
Responsable del Servicio de Proteómica.
Hospital Nacional de Parapléjicos.
Toledo, España.

Referencias

  1. Emmalyn J. Dupree et al(2020). A critical review of bottom-up proteomics: The good, the bad, and the future of this field.
  2. NL-PTMC04_Guía para principiantes. 
  3. NL-PTMC01_SWATH-MS.
  • PTMC: PostTranslational Modifications
  • *SPEED: Sample Preparation by Easy Extraction and Digestion.
  • iST: in-Stage Tip.
  • Strap: Suspension Trapping.
  • SP3: Single-Pot Solid-Phase-enhaced Sample Preparation.
  • *PSM: peptide-spectrum match