LIBRERÍA Scikit-Learn DE Python PARA MACHINE LEARNING

Introducción

Como ya se mostró en newsletters anteriores el seguimiento de marcadores en registros de video de alta velocidad para el análisis cinemático de la locomoción en roedores es una labor tediosa que consume una gran cantidad de tiempo del operador. Por ello, en la Unidad de Ingeniería y Evaluación Motora (UIEM) actualmente se está implementando un algoritmo basado en inteligencia artificial que pretende realizar este seguimiento de manera automática. Además, con el software KineRAT, también desarrollado en la UIEM, se ha conseguido automatizar completamente todo el postprocesado de las variables cinemáticas de esta prueba, reduciéndolo a un clic de ratón. Cuando consigamos tener en marcha el seguimiento automático de marcadores, junto con el KineRAT dispondremos de una prueba de bajo coste con capacidad de aportar información fundamental del estado neurológico de nuestros animales de experimentación.

En esta newsletter se presenta una de las bibliotecas de aprendizaje automático ampliamente utilizada en Python: Scikit-Learn. Esto nos permitirá hacer una introducción práctica al Machine Learning y mostrar un ejemplo de uso.

Machine learning

El Machine Learning o Aprendizaje Automático es una rama de la inteligencia artificial que se centra en el diseño y desarrollo de algoritmos y modelos estadísticos que permiten a las computadoras aprender y mejorar su rendimiento en una tarea específica, sin ser explícitamente programadas para ello.

En lugar de utilizar reglas explícitas, el Machine Learning utiliza datos y algoritmos para identificar patrones y relaciones en los datos, lo que permite a la computadora realizar predicciones, clasificaciones o toma de decisiones basadas en esos patrones. A medida que se alimenta la computadora con más datos, el algoritmo puede ajustarse y mejorar su rendimiento en la tarea.

El Machine Learning tiene una amplia variedad de aplicaciones prácticas, incluyendo la detección de fraudes en las transacciones financieras, el análisis de imágenes médicas, la recomendación de productos en línea o la conducción autónoma de vehículos.

Aunque el Machine Learning es una técnica poderosa y prometedora en la resolución de problemas complejos, también tiene algunas limitaciones y desafíos que pueden afectar su aplicación en diferentes contextos. Algunas de las limitaciones comunes del Machine Learning son:

  1. Dependencia de los datos. El rendimiento de los modelos de Machine Learning depende en gran medida de la calidad y cantidad de los datos utilizados para entrenarlos. Si los datos son sesgados o incompletos, el modelo también lo será.
  2. Sobresimplificación.Los modelos de Machine Learning pueden simplificar en exceso un problema, lo que puede llevar a la omisión de detalles importantes y la subestimación de la complejidad.
  3. Interpretabilidad. A menudo, los modelos de Machine Learning son difíciles de interpretar, lo que puede hacer que sea difícil para los expertos entender cómo funcionan o cómo se toman las decisiones.
  4. Costo computacional. Los modelos de Machine Learning pueden requerir una gran cantidad de recursos computacionales para entrenar y aplicar, lo que puede ser costoso en términos de tiempo y recursos.
  5. Sesgo algorítmico. Los algoritmos de Machine Learning pueden perpetuar sesgos existentes en los datos de entrenamiento, lo que puede tener consecuencias negativas en la toma de decisiones y la equidad.

Es importante tener en cuenta estas limitaciones al utilizar técnicas de Machine Learning y ser consciente de cómo pueden afectar la precisión y la confiabilidad de los resultados.

Qué es Scikit-Learn

En primer lugar, hay que indicar que Python es un lenguaje de programación interpretado y de alto nivel, caracterizado por su simplicidad y legibilidad. Una de sus principales características es su sintaxis clara y concisa, que facilita la lectura y comprensión del código, lo que ayuda a los programadores a escribir programas más legibles y menos propensos a errores. Es un lenguaje orientado a objetos ymultipropósito, lo que significa que se puede utilizar en una amplia gama de aplicaciones.

Scikit-Learn es una biblioteca de aprendizaje automático extremadamente popular y ampliamente utilizada en la comunidad de Python. Ofrece una amplia gama de algoritmos y herramientas que facilitan la implementación y la aplicación de técnicas de aprendizaje automático en diversos problemas.

Una de las ventajas destacadas de Scikit-Learn es su facilidad de uso y su enfoque en la simplicidad. La biblioteca proporciona una interfaz coherente y bien documentada, lo que facilita a los desarrolladores el uso de los algoritmos sin la necesidad de entender los detalles de su implementación subyacente.

Otra fortaleza de Scikit-Learn es su integración con otras bibliotecas populares de Python. Por ejemplo, se integra de manera excelente con NumPy y SciPy, lo que permite un procesamiento eficiente de datos y cálculos numéricos. Además, se puede combinar fácilmente con Pandas para manipular y transformar datos, y con Matplotlib para visualizar los resultados.

Además de su facilidad de uso, Scikit-Learn también destaca por su rendimiento y eficiencia. Los algoritmos están implementados de manera optimizada, lo que permite trabajar con conjuntos de datos grandes y manejar la complejidad de los problemas de aprendizaje automático.

Otra característica importante de Scikit-Learn es su enfoque en la validación y evaluación de modelos. La biblioteca proporciona herramientas para realizar validación cruzada, ajustar los hiperparámetros y evaluar el rendimiento de los modelos utilizando diversas métricas. Esto es fundamental para tomar decisiones informadas sobre la elección del modelo y la optimización de sus parámetros.

En resumen, Scikit-Learn es una biblioteca sólida y confiable para el aprendizaje automático en Python. Su facilidad de uso, amplia gama de algoritmos y herramientas, rendimiento eficiente y enfoque en la evaluación de modelos la convierten en una elección popular para aquellos que desean aplicar técnicas de aprendizaje automático en sus proyectos.

Tipos de aprendizaje

El Aprendizaje Supervisado y el Aprendizaje No Supervisado son dos enfoques distintos dentro del Machine Learning que se utilizan para entrenar modelos y resolver diferentes tipos de problemas (Figura 1).

El Aprendizaje Supervisado se basa en la utilización de datos etiquetados para entrenar un modelo que pueda realizar predicciones precisas sobre datos no vistos. En este enfoque, el modelo se entrena utilizando un conjunto de datos de entrada y una etiqueta asociada a cada dato de salida, lo que permite al modelo aprender a predecir correctamente la etiqueta de nuevos datos. Por ejemplo, se puede utilizar el Aprendizaje Supervisado para predecir el precio de una casa en función de su tamaño, ubicación y características similares.

Por otro lado, el Aprendizaje No Supervisado se basa en la utilización de datos no etiquetados para identificar patrones o estructuras ocultas en los datos. En este enfoque, el modelo se entrena sin la ayuda de etiquetas explícitas, lo que permite que el modelo aprenda por sí solo a identificar patrones y relaciones en los datos. Por ejemplo, se puede utilizar el Aprendizaje No Supervisado para agrupar automáticamente a los clientes en segmentos de mercado similares en función de sus hábitos de compra.

Dentro del aprendizaje supervisado se puede dar un problema de regresión, si los valores asociados son continuos, o un problema de clasificación, si lo valores asociados son categorías. En el caso de clasificación, si se dan dos clases se denomina clasificación binaria y si se dan más de dos clases se denomina clasificación multiclase.

Scikit-Learn dispone de algoritmos de aprendizaje supervisado, tanto de clasificación binaria como multiclase, y no supervisado, destacando en este último caso los métodos de clustering o agrupamiento.

Figura 1. Diferencias entre los dos tipos de aprendizaje automático (imagen descargada de https://escuelafullstack.com/).

Datasets de Scikit-Learn

Dentro de Scikit-Learn están disponibles una gran cantidad de conjuntos de datos, cada uno para un problema diferente, con objeto de que el usuario diseñe y pruebe sus algoritmos de aprendizaje. Por ejemplo, el conjunto de datos iris, el cual es un datasetcreado por Ronald Fisher en el año 1936, en el que se encuentran contenidas 50 muestras de cada una de las especies de la flor iris (iris setosa, iris virginica, iris versicolor)(Figura 2). Se midieron 4 rasgos de cada muestra: el largo y el ancho de los sépalos y pétalos, en centímetros. Este conjunto de datos es muy adecuadocomo ejemplo de uso para problemas de clasificación.

Figura 2. Pétalo y Sépalo de una flor iris (imagen descargada de https://aprendeia.com).

Otro ejemplo de dataset es el denominado digits que se compone de 64 imágenes de 8×8 píxeles de dígitos escritos a mano (Figura 3).

Figura 3. Cuarenta primeras imágenes del datasetdigits de la librería Scikit-Learn (imagen descargada de https://scikit-learn.org).

Algoritmos de Scikit_Learn

A menudo, la parte más difícil en cuanto a resolver un problema de aprendizaje automático puede ser encontrar el estimador adecuado para el trabajo.Diferentes estimadores son más adecuados para diferentes tipos de datos y para diferentes problemas.

La Figura 4 muestra el diagrama de flujo que brinda Scikit-Learna los usuarios como guía aproximada sobre cómo abordar los problemas con respecto a qué estimadores probar en sus datos.Se puede comprobar que con menos de 50 datos no se puede hacer nada. Si el problema es de clasificación categórica y los datos están etiquetados se podrían aplicar algoritmos de clasificación, pero si no están etiquetados la opción es aplicar algoritmos de clustering. Si el problema es predecir un valor o cantidad habría que aplicar, dependiendo del número de muestras, algún algoritmo de regresión. Si no se pretende predecir un valor y lo que se quiere es reducir las variables se podrían aplicar algoritmos de reducción de la dimensionalidad.

Figura 4. Chuleta sobre las estrategias a seguirque ofreceScikit-Learn a la hora de elegir un algoritmo si se pretende resolver un problema determinado (imagen descargada de https://scikit-learn.org).

Como se aplica un clasificador o un estimador en Scikit-Learn

Uno de los principales usos que se puede hacer del Machine Learning es el desarrollo de clasificadores. Para poder entrenar un clasificador es necesario recopilar un conjunto de datos que contenga el mayor número de casos distintos que se pudieran dar. Cada caso estará representado por un conjunto de muestras diferentes que lo describen. De cada muestra se extrae la información de los rasgos que pudieran definir mejor la población,por ejemplo, si se pretende construir un clasificador de imágenes, se podrían utilizar los valores de cada pixel de la imagen o utilizar rasgos como dimensiones, formas, etc. calculados a partir de estas, y así reducir notablemente el tamaño de la información. A su vez, un especialista clasifica manualmente el conjunto de datos, asignando una clase a cada muestra mediante una etiqueta. Para evitar sesgos, es importante que tanto los casos como las muestras estén balanceados.

Determinado el conjunto de datos estos se dividen en un grupo de entrenamiento y en un grupo de validación. Una aproximación simple podría ser escoger de forma aleatoria 2/3 de los datos para el entrenamiento y el resto para la validación.

Una vez elegido el algoritmo clf que se va a utilizar se construye el clasificador, es decir, se entrena el algoritmo usando la función fit como se muestra en la ecuación 1. El proceso de entrenamiento implica alimentar al algoritmo los ejemplos de entrada Xy las salidas esperadas correspondientes, es decir su clase o etiqueta y. El algoritmo utiliza estos datos para ajustar sus parámetros internos, lo que le permite aprender y mejorar su capacidad para generalizar a nuevas situaciones.

Ecuación 1

Completado el proceso de entrenamiento, el algoritmo está listo para hacer predicciones (a) o tomar decisiones sobre nuevos datos (t) que no se utilizaron durante el entrenamiento mediante el uso de la función predict como se muestra en la ecuación 2.

Ecuación 2

A partir de aquí, introduciendo los datos de validación al clasificador se puede calcular la bondad del clasificador y si esta se ajusta a nuestras demandas consecutivamente se puede estimar la clase de cualquier espécimen o situación de la población introduciendo al clasificador los datos de entrada del mismo.

A continuación, mediante un sencillo ejemplo, se va a demostrar cómo de aplica un clasificador.

Ejemplo de redes neuronales para dataset iris

El objetivo es construir un clasificador que a partir de las medidas de ancho y largo de los pétalos y sépalos de una flor de iris cualquiera determine si esta es de la especie setosa, virgínica o versicolor.

Se importan las librerías que se van a necesitar.

Para calcular el clasificador se va a utilizar un algoritmo de redes neuronales llamado perceptron multicapa de tipo supervisado. Se carga el algoritmo en la memoria.

fromsklearn.neural_networkimportMLPClassifier

Se carga en la memoria el dataset iris

fromsklearn.datasetsimportload_iris

Se carga la librería numpy de cálculo y manejo de arrays.

importnumpyasnp

Se preparan los datos

Se crea la variable iris con el dataset.

iris=load_iris()

A partir de la variable iris se crean las variables de entrada del clasificador: X_train es un array con las dimensiones de cada una de las flores que componen la muestra, y_train es un arraycon las etiquetas que corresponden a cada una de las flores.

X_train=iris.data
y_train=iris.target

Se visualizan los datos de las etiquetas utilizadas en el dataset.

print(iris.target_names)
['setosa' 'versicolor' 'virginica']

En el siguiente código se realiza un preprocesamiento de los datos. En el caso de las redes neuronales, estas no se comportan adecuadamente cuando no se controla la escala de los datos. Se normalizan los datos de entrada.

fromsklearn.preprocessingimportStandardScaler
scaler=StandardScaler()
scaler.fit(X_train)
X_train=scaler.transform(X_train)

Se adecuan las etiquetas situándolas a continuación unas de otras.

y_train=y_train.ravel()

Se crea y se aplica el clasificador

Se crea el clasificador a partir de un perceptrón multicapa con tres capas ocultas de tamaño 10 y número máximo de iteraciones igual a 1000.

clf=MLPClassifier(hidden_layer_sizes=(10,10,10),max_iter=1000)

Se entrena el clasificador con los datos de entrada.

clf.fit(X_train,y_train)
MLPClassifier(hidden_layer_sizes=(10, 10, 10), max_iter=1000)

La función predict aplica el clasificador a cualquier conjunto de datos dimensionales de una flor y aporta la etiqueta correspondiente según el clasificador generado.La función reshape adecúa las dimensiones de los datos de entrada.

etiqueta = clf.predict(X_train[12].reshape(1,-1)
print('Etiqueta clasificador: ',etiqueta),
'Etiqueta de la flor: ',iris.target[12])
Salida:
Etiqueta clasificador:  [0] Etiqueta de la flor:  0

Se realiza una preevaluación con los mismos datos de entrenamiento. Esta evaluación ejemplifica el uso de la función predict, carece de ningún valor. No se deben utilizar los valores de entrenamiento para la evaluación.

tr_exactitud=np.mean(clf.predict(X_train)==y_train)
print("Exactitud:",tr_exactitud)
Salida:
Exactitud: 0.98

Se evalúa el clasificador

El código siguiente divide el dataset en cinco grupos. Toma un grupo para entrenar y utiliza los cuatro restantes para la validar el clasificador. Esto se realiza iterativamente para los cinco grupos de datos. De esta manera se podría evaluar cuáles el conjunto de datos que predice mejor los valores de entrada.

fromsklearn.model_selectionimportKFold
X=X_train
kf=KFold(n_splits=5,shuffle=True)
fortr,tstinkf.split(X):
X_train=X[tr,:]
y_train=iris.target[tr]
X_test=X[tst,:]
y_test=iris.target[tst]
clf.fit(X_train,y_train)
tr_exactitud=np.mean(clf.predict(X_test)==y_test)
print("Exactitud:",tr_exactitud)
Salida:
Exactitud: 0.9333333333333333
Exactitud: 0.9666666666666667
Exactitud: 0.9666666666666667
Exactitud: 0.9666666666666667
Exactitud: 0.9333333333333333

Referencias

Generación de algunas partes del texto: Modelo de lenguaje ChatGPT AI de OpenAI, ¿qué es machine learning? limitaciones de machine learning, ¿Qué es Scikit-Learn?, 09 de mayo de 2023.

Algunas ideas extraídas de: Apuntes de Miguel García Silvente del curso Python avanzado para Tratamiento de Datos e Inteligencia Artificial (V ed.) del Dentro Mediterráneo de la Universidad de Granada.

AUTORES

Enrique Pérez Rizo, M.E., PhD.

Ingeniero de Biomecánica.

Unidad de Ingeniería y Evaluación Motora

Unidad de Investigación – Hospital Nacional de Parapléjicos.

Toledo, España.

Arturo Fernández Mora.

Estudiante de Ingeniería Electrónica Industrial y Automática.

Grupo AppliedIntelligentSystems. Escuela de Ingeniería Industrial y Aeroespacial de Toledo.

Universidad de Castilla la Mancha.

Toledo, España.

Para más información puedes contactarnos en: enriquep@sescam.jccm.es

Si quieres conocer más sobre nosotros: Servicios de apoyo a la investigación HNP

Síguenos en:

www.linkedin.com/in/servicios-de-apoyo-a-la-investigación-sais-hnp

PREPARACIÓN RÁPIDA DE MUESTRAS PARA ESTUDIOS MULTIÓMICOS

Buscando una revisión sobre protocolos para el análisis multiómico (MPLEx), encontramos está revisión que presenta un enfoque simple, eficiente y unificado para preparar lípidos, metabolitos y proteínas para el análisis por espectrometría de masas (MS).
Por regla general, uno de los principales inconvenientes de los métodos MPLEx es el largo proceso de preparación de la muestra que implica la extracción de metabolitos y lípidos con disolventes orgánicos, la precipitación y la digestión durante la noche de las proteínas. Estos procesos son dispares y laboriosos.
La aproximación BAMM (Bead-enabled Accelerated Monophasic Multi-omics) que proponen Muelhlbauer, L. et al, parece una gran alternativa:

MÉTODOS DE EXTRACCIÓN:

Existe una gran diversidad de metodologías de extracción porque los tejidos biológicos no son similares al considerar su estructura, textura, sensibilidades y contenido molecular. Extraer el material de interés sin perder parte del mismo es un desafío complejo. Por lo general, los metabolitos y los lípidos se extraen con los sistemas de disolventes bifásico Matyash (MTBE) o Folch/Bligh-Dyer (CHCl3/MeOH/Agua) que requieren de numerosos pasos de pipeteo cuidadosos, vórtices, incubaciones y centrifugaciones. La fracción proteica se lava, se seca y se re-solubiliza. Este último paso puede ser difícil y requiere sonicación u otros métodos que faciliten su disolución.
Posterior digestión durante la noche seguida de un proceso de desalinización.
Más información: http://cyberlipid.gerli.com/techniques-of-analysis/extraction-handling-of-extracts/
Gonzalez-Gomez, L. et al Foods 2021, 10(7), 1557

FLUJO DE TRABAJO BAMM:

Flujo de trabajo para el método de preparación BAMM y comparación con flujos de trabajo publicados. (a) Para realizar el flujo de trabajo BAMM, primero se agregan a la muestra un solvente monofásico a base de n butanol y perlas magnéticas (1). Después de un breve vórtice, la muestra se incuba en hielo durante 5 minutos (2). A continuación, se eliminan los metabolitos y lípidos no unidos (3) y la proteína se digiere durante 40 min a 60 °C (4). Los metabolitos, lípidos y péptidos se preparan para el análisis (5-6). Comparación del número estimado de pasos (b) y horas (c) necesarios para preparar metabolitos, lípidos y proteínas con el método BAMM y varios métodos publicados.

CONCLUSIONES:

  1. BAMM combina extracción monofásica a base de n-butanol con tecnología de
    perlas paramagnéticas, acelerando la extracción de moléculas y la digestión de
    proteínas.
  2. Datos multiómicos de calidad.
  3. Reducción del tiempo de preparación para el análisis por MS.
  4. Susceptible de automatización.
  5. BAMM se ha optimizado para LCMS, debería adaptarse a otros métodos como GC-MS o
    Infusión directa.
  6. Beneficioso para aplicaciones en las que el tiempo de respuesta es una consideración
    importante.
  7. Amplificar los beneficios combinándolo con métodos como MOST (Multi-Omics Single-shot
    technology).

CONSEJO:

  • Elige tu método de preparación de muestra en función de su naturaleza, la técnica analítica y el objetivo de estudio.
  • Si el interés del estudio se centra en un tipo específico de molécula o analito, los métodos MPLEx quizá no sean los adecuados o habría que introducir modificaciones de disolventes.
  • RECUERDA: No existe un protocolo perfecto o universal que funcione bien para todo tipo de muestra.

AUTOR

Gemma Barroso García, MSc.
Responsble SAI-Proteómica.
Hospital Nacional de Parapléjicos.
Toledo, España.

Referencias:

Muehlbauer, L.K., et al (2023) https://pubs.acs.org/doi/10.1021/acs.analchem.2c02042

Él Y, Rashan EH, Linke V, et al. (2021) DOI: 10.1021/acs.analchem.0c04764.

Nakayasu ES, et al (2016) doi: 10.1128/mSystems.00043-16

ANÁLISIS DE LA PROLIFERACIÓN CELULAR

Una de las funciones celulares más importante es la proliferación celular, ya que es esencial tanto para la supervivencia de las células, como para la regeneración tisular y la reparación. Por tanto, evaluar la respuesta proliferativa a distintos estímulos y/o tratamientos puede ser fundamental para nuestras investigaciones.
La ventaja que supone el uso de la citometría de flujo radica en la rapidez de obtención de resultados, la capacidad de cuantificación y la posibilidad de medir varias propiedades y/o parámetros de forma simultánea.


Incorporación de análogos de nucleótidos durante la síntesis de ADN:

Durante la proliferación ocurre nueva síntesis de ADN, con lo que si añadimos análogos de nucleótidos como la BrdU o la EdU (5-ethynyl-2´deoxyuridine) al medio de cultivo, todas aquellas células que entren en proliferación incorporarán estos análogos a su ADN. Una vez transcurrido el tiempo de análisis, estos análogos se pueden detectar con anticuerpos específicos (en el caso de BrdU) o mediante una reacción “Click-IT” (EdU-Click-IT), que tiene como ventaja que no hace falta desnaturalizar el ADN para detectar la incorporación de EdU. Esto último implica que se pueden analizar otros parámetros de forma simultánea, ya sea por tinción con anticuerpos o analizando la presencia de proteínas fluorescentes (A). Además, se pueden analizar la fracción de células que se encuentran en las distintas fases del ciclo celular (B).


Método de la dilución de reactivo fluorescente:

Este método está basado en la utilización de reactivos que son fluorescentes cuando se unen a grupos amino en el interior celular. Cuando las células se dividen, la fluorescencia se distribuye a partes iguales entre las células hijas, con lo que se puede medir proliferación analizando la disminución de fluorescencia.
Algunos de estos reactivos son el carboxy fluorescein diacetate succinimidyl ester o CFSE, o los tintes tipo CellTrace, como el Tag-It-Violet.
La ventaja de estos reactivos es que se pueden utilizar junto con tinciones con anticuerpos contra proteínas de superficie o intracelulares, con el fin de analizar cómo proliferan diferentes poblaciones en un cultivo heterogéneo y en respuesta a un mismo tratamiento.


Uso de modelos:

Algunos programas de análisis permiten la utilización de plataformas para el ajuste a modelos matemáticos de los datos obtenidos. Estas plataformas nos permiten obtener datos como el nº de divisiones promedio que ha tenido cada célula o el porcentaje de precursores iniciales que han proliferado, entre otros.


Tips finales:
•Determina cuáles son los mejores tiempos de cultivo para analizar tu experimento.
•Optimiza la concentración de reactivo, ya que puede ser tóxico en exceso.
•Analiza tus datos con ajuste a modelos.

AUTOR

Virginia Vila del Sol, PhD
Responsable del Servicio de Citometría de Flujo.
Hospital Nacional de Parapléjicos.
Toledo, España.

Referencias

Roederer M (2011) https://onlinelibrary.wiley.com/doi/10.1002/cyto.a.21010

INTELIGENCIA ARTIFICIAL MEDIANTE DEEP LEARNING CON EL SOFTWARE CELL SENS DE OLYMPUS

IA (Inteligencia Artificial), Deep Learning (aprendizaje profundo), Maching Learning (aprendizaje automático), Neuronal Netwoks (redes neuronales), son términos con los que debemos estar familiarizados. En anteriores Newsletter ya hemos introducido algunos de estos términos, pero en esta serie compuesta de tres Newsletter, esperamos aclarar definitivamente estos términos. Con este propósito, durante las próximas Newsletter, mostraremos los ejemplos de análisis de imagen con IA que venimos realizando en el SMAI (servicio de microscopía y análisis de imagen) del HNP. Esperamos que con esta serie de Newsletter podáis encontrar aplicaciones de la IA en el campo del análisis de imagen y por tanto utilizarla en vuestros proyectos de investigación.
El 20 de enero de 2022 comenzamos con esta serie de Newsletter describiendo el equipo de Olympus que nos permite trabajar con IA. Hoy seguimos con una introducción a la IA (Inteligencia Artificial) en el análisis de imagen. En la próxima Newsletter nos centraremos en describir paso a paso el proceso que nos permite entrenar redes neuronales para analizar las fotos capturadas a gran escala.

  1. INTRODUCCIÓN A LA INTELIGENCIA ARTIFICIAL

Podemos definir la Inteligencia Artificial (IA, o AI en ingles) en informática, como aquella inteligencia que expresan las maquinas. Se diferencia, así, de la inteligencia natural que es la que poseen los seres humanos. Por tanto, la Inteligencia Artificial es la capacidad que tiene un dispositivo (como un móvil, ordenador o robot) para realizar tareas que generalmente requieren inteligencia humana. En informática, la Inteligencia Artificial es la disciplina donde se estudian y desarrollan estos sistemas.
Se considera que la investigación en IA empieza en 1956 a partir de una conferencia celebrada en la universidad de Darthmouth. La investigación en inteligencia artificial ha vivido muchos altibajos desde sus inicios. Entre 1956 y 1974 vivió años dorados: los científicos predijeron que en pocos años se podría conseguir un ordenador que tuviera la misma capacidad cognitiva que un ser humano. Se empleo mucho dinero en investigación con este propósito. Sin embargo, las estimaciones de los científicos fueron erróneas, no se pudieron cumplir las expectativas y desaparecieron las inversiones. El período entre 1974 y 1980 se considera el invierno de la inteligencia artificial. A parte de los problemas financieros, los proyectos se enfrentaban a una capacidad computacional y de almacenamiento de datos muy reducida que impedía llevar a cabo los procesos y experimentos necesarios.
Entre 1980 y finales de los años 90, el sector de la inteligencia artificial sufrió varios altibajos en popularidad acompañados por la consecuente aparición y desaparición de inversión. A finales de la década de los 90 los ordenadores empezaban a tener una capacidad suficiente como para llevar a cabo avances en el campo. Por ejemplo, el ordenador empleado para jugar al ajedrez en 1997 era 10 millones de veces más potente que el que se había usado para el mismo propósito en 1951.
A partir de finales del milenio pasado, ha habido un nuevo auge de la IA. El Big Data y la potencia de los ordenadores han permitido grandes avances. Se ha empezado a desarroyar el campo del aprendizaje automático (machine learning) y más recientemente en el campo del aprendizaje profundo (deep learning), así como en las redes neuronales (neural networks). Tanto el aprendizaje automático como el profundo son ramas de la inteligencia artificial que se aplican a multitud de campos de la Inteligencia Artificial como son:
-El reconocimiento del lenguaje natural (Natural Language Recognition), es la tecnología que utiliza Siri, alexa o Google asistant.
-El reconocimiento facial (Facial Recognition). El reconocimiento facial es una aplicación biométrica de la inteligencia artificial que es capaz de identificar el rostro de una persona analizando sus formas y texturas faciales. Sus usos son muy diversos; desde la seguridad, identificando a personas buscadas por la policía, a usos más comerciales, como el retargeting (además de reconocer caras también reconoce emociones y edades para mostrar publicidad acorde con el sexo, edad y estado de ánimo del usuario), también se utiliza en cadenas de producción para detectar piezas defectuosas. Facebook lo utilizaba hasta hace relativamente poco para identificar a las personas que aparecen en las fotos que subimos a la red antes de etiquetarlas, aunque ha suprimido este servicio por falta de legislación.
-El análisis predictivo. Se basa en modelos predictivos que explotan los patrones que se encuentran en los datos históricos y/ datos recopilados a gran escala para identificar riesgos y oportunidades. Con el análisis predictivo se pueden pronosticar con una elevada precisión eventos futuros, de forma que las organizaciones pueden prepararse de antemano. Por ejemplo, el análisis predictivo podría predecir el fallo de una máquina en una cadena de producción. Así, se podría arreglar el problema antes que desembocara en un fallo y así evitar o reducir la parada de la cadena de producción. Netflix, HBO, Amazon video y otras plataformas de entretenimiento utilizan el análisis predictivo para mejorar sus servicios, en este caso, en su motor de recomendaciones. El 80% de los usuarios de Netflix consumen únicamente las películas y series que la plataforma les recomienda, lo cual ha reducido la tasa de cancelación del servicio.
En realidad, y como dijimos anteriormente tanto el aprendizaje automático (machine learning) como el aprendizaje profundo (deep learning), se emplea para todas estas aplicaciones que hemos enumerado y muchas más. Podríamos resumirlo en la introducción de datos masivos, ya sea de valores numéricos, fotografías, voz etc. Creación de un proceso de aprendizaje y clasificación, que se traduce en respuestas, de manera que al añadir nuevos datos nos dará automáticamente un estudio de este acorde con lo que ha aprendido la maquina (figura 4).

Figura 4 Esquema de funcionamiento de la AI tanto para maching learning como para Deep Learning

Pero, entonces, ¿en qué se diferencia el aprendizaje automático del aprendizaje profundo? El deep learning como concepto es muy similar al machine learning, pero usa algoritmos distintos.
Mientras que el machine learning trabaja con algoritmos de regresión o con árboles de decisión, el deep learning usa redes neuronales que funcionan de forma muy parecida a las conexiones neuronales biológicas de nuestro cerebro (figura 5).

Figura 5. Diferencia entre Maching Learning y Deep Learning

El Machine Learning, utiliza una tecnología más antigua y sencilla que el Deep Learning, consiste en el uso de algoritmos que el propio sistema adapta después de recibir un feedback de una persona, aprende de esos datos y tomar decisiones basadas en lo aprendido, normalmente creando arboles de decisión. En otras palabras, esta tecnología requiere alimentar el sistema con datos estructurados y categorizados, para que este pueda deducir cómo clasificar los nuevos datos de ese tipo. A continuación, dependiendo de la clasificación, el sistema lleva a cabo ciertas acciones programadas. Por ejemplo, identifica si aparece un perro o un gato en las fotos y mueve los archivos a diferentes carpetas, clasificando y asignando categorías.
Por otro lado, el Deep Learning estructura los algoritmos en capas, creando una red neuronal artificial, que puede aprender y tomar decisiones por sí misma. El Deep Learning va mucho más allá que el Machine Learning, ya que busca emular la forma de aprendizaje de los humanos, imitando el comportamiento del cerebro humano, mediante la combinan diferentes algoritmos, lo que permite que el sistema procese incluso datos no estructurados. El enfoque del aprendizaje profundo es especialmente adecuado para las tareas complejas en las que no todos los aspectos de los objetos pueden clasificarse de antemano. El propio sistema se encarga de buscar los diferenciadores adecuados. En cada capa, se analizan las nuevas entradas en busca de otras características, que el sistema utiliza para decidir cómo clasificar las entradas. Es importante tener en cuenta que, en el aprendizaje profundo, el propio sistema encuentra los diferenciadores adecuados en los datos sin que se le deba proporcionar una clasificación externa. Por ello, no es necesario que intervenga un desarrollador. El sistema comprueba por sí mismo si se pueden generar nuevas clasificaciones o categorías a partir de las nuevas entradas.
Con todo esto podemos definir las redes neuronales de la IA como un método de la inteligencia artificial que enseña a las computadoras a procesar datos de una manera que está inspirada en la forma en que lo hace el cerebro humano. Se trata de un tipo de proceso de machine learning mas complejo llamado aprendizaje profundo (deep learning), que utiliza los nodos o las neuronas interconectados en una estructura de capas que se parece al cerebro humano. Crea un sistema adaptable que las computadoras utilizan para aprender de sus errores y mejorar continuamente. De esta forma, las redes neuronales artificiales intentan resolver problemas complicados, como la realización de resúmenes de documento, el reconocimiento de rostros o la clasificación de células con mayor precisión.


AUTOR
José Ángel Rodríguez Alfaro.

Responsable del Servicio Microscopía y Análisis de Imagen.
Hospital Nacional de Parapléjicos.
Toledo, España.

SOFTWARE KineRAT DE ANÁLISIS CINEMÁTICODEMOSTRACIÓN DE UN CASO

INTRODUCCIÓN
En la anterior newsletter de la Unidad de Ingeniería y Evaluación Motora (UIEM) de fecha 13/05/2022 se presentó un software que estamos desarrollando para el análisis de la cinemática de pequeños animales llamada KineRAT. Durante la prueba se registran unos vídeos de la rata pasando por un pasillo. Estos vídeos se tratan con otro software llamado Kinovea (Figura 1), que suministra los datos de los marcadores, de los ángulos de las articulaciones y de los eventos que definen los ciclos de marcha. Posteriormente, el software KineRAT divide los datos de cada pasada en ciclos y aporta una serie de estadísticos y de gráficas que el investigador aplicará en sus estudios. Las principales características de la herramienta KineRAT son las siguientes:

  • Herramienta cuantitativa y objetiva de evaluación cinemática de la locomoción de animales de experimentación.
  • Documenta el patrón del animal con un solo click de ratón.
  • A partir de los datos de ángulos articulares y eventos analiza la locomoción del animal.
    Independiente de cualquier tecnología, equipo o software de adquisición cinemática.
    Programado en lenguaje de código abierto.
  • Análisis de la locomoción basado tanto en el ciclo de marcha, como en el recorrido del animal.
    Análisis bilateral, por lo que aporta variables de paso y de coordinación entre miembros ipsi y contralateral.
  • Actualmente están implementados los miembros traseros: ángulos de la cadera, la rodilla y el tobillo, y los parámetros espaciotemporales y de coordinación entre miembros traseros y delanteros y entre traseros.
  • El software se puede escalar a los miembros delanteros, a otras variables o a otras especies animales.


La herramienta ha sido probada en dos proyectos de investigación liderados por la investigadora Vinnitsa Buzoianu y el doctor Jörg Mey, lo que ha permitido su depuración y puesta a punto. Para cubrir las necesidades del estudio de Jörg se han diseñado diversas variables para evaluar la coordinación entre miembros delanteros y traseros y entre miembros traseros.
Por otro lado, para desarrollar todo el protocolo de la prueba cinemática de evaluación de la locomoción se utilizaron 7 ratas sin ninguna intervención ni lesión. Los datos de 5 de estas 7 ratas son aprovechables y van a ser los primeros para crear una base de datos de normalidad de ratas sin ninguna afectación ni intervención.
En esta newsletter se presentan a modo de ejemplo los resultados de una prueba cinemática de locomoción de una rata analizada con el software KineRAT. Estos resultados son de una rata macho perteneciente al Laboratorio de Regeneración Neuronal, de 324 gr de peso y 12 semanas de edad. La rata fue lesionada por impacto a nivel de T9 y posteriormente recibió un tratamiento con células mesenquimales. En la quinta semana después de la lesión se le practicó una prueba de análisis cinemático. El día de la prueba esta rata tenía una valoración de 8 en la escala BBB [1]. Los resultados de la prueba cinemática de esta rata se presentan junto con los de una base de datos de 5 ratas sin intervenir, de las cuales 4 son macho y 1 es hembra, de 219 (+/-6) gr de peso y 9,0 (+/-1,1) semanas de edad.
Previamente a la adquisición de los vídeos, la rata ejemplo (igual que las ratas que no han recibido ninguna intervención) se rasuró y con un rotulador de color negro se pintaron marcas en la cresta ilíaca, cadera, rodilla, tobillo, cabeza del 5º metatarsiano y cabeza del 5º metacarpiano, en ambos lados del animal. La rata pasó 6 veces por un pasillo de marcha de 1,5 m, del cual se analizaron 0,47 m de la parte central para eliminar los efectos de aceleración y frenado del animal. De los 6 recorridos se seccionaron 3 para su análisis. Los videos se registraron a 125 Hz.

Figura 1. Software Kinovea de análisis cinemático.
La Imagen muestra dos fotogramas durante un recorrido correspondientes al mismo instante de tiempo de los lados derecho (izquierda) e izquierdo (derecha) del animal. Cada fotograma ilustra los ángulos de la cadera (azul), rodilla (rojo) y tobillo (verde), y la longitud (magenta) y duración (blanco) del ciclo.

RESULTADOS
Variables espacio-temporales
En cuanto a las variables espaciotemporales de las extremidades traseras, la rata ejemplo presenta una disminución en la longitud del ciclo, la velocidad, la longitud de paso y el apoyo monopodal, respecto de las ratas sin intervención (Tabla 1). Se observa un aumento en la frecuencia de ciclos, la duración de la fase de soporte derecha, la longitud de paso derecho, la frecuencia de pasos y el apoyo bipodal de la rata ejemplo respecto de las ratas sin intervención. Además aparecen fases del ciclo de locomoción donde no existe ningún contacto de ambos miembros traseros con el suelo, mientras que en el caso de ratas sin intervención, como cabría esperar, este comportamiento no se da.
En cuanto a la coordinación entre miembros traseros y delanteros, la variable ‘Desfase tras-del’ calcula el desfase de los contactos iniciales (CI) del miembro trasero respecto de los CI de los ciclos correspondientes del miembro delantero del mismo lado (Tabla 1). Los datos muestran una mayor dispersión en los desfases en el caso de la rata ejemplo respecto de las ratas sin intervención, lo que sugiere que esta variable podría ser útil para evaluar la coordinación ipsilateral [2]. Las variables de coordinación basadas en el contaje de los CI traseros dentro del ciclo delantero correspondiente (% BBB coord tras-del y % fallos coord tras-del) muestran un mejor comportamiento del lado derecho que el izquierdo [1]. Los CI de un miembro trasero que ocurrieron dentro del ciclo del miembro delantero del mismo lado fueron mayores en el del lado derecho de la rata ejemplo que en su lado izquierdo.
El software KineRAT calcula de manera similar la coordinación entre miembros traseros y delanteros que la coordinación entre los miembros traseros. Por tanto, la variable ‘Desfase iz-dr’ calcula el desfase de los CI del miembro trasero izquierdo respecto de los CI de los ciclos correspondientes del miembro trasero derecho (Tabla 1). Los datos muestran una mayor dispersión en los desfases en el caso de la rata ejemplo respecto de las ratas sin intervención. Las variables de coordinación basadas en el contaje de los CI traseros izquierdos dentro del ciclo trasero derecho correspondiente (% BBB coord iz-dr y % fallos coord iz-dr) muestran un mejor comportamiento del lado derecho que el izquierdo [1]. Los CI del miembro trasero izquierdo que ocurrieron dentro del ciclo del miembro trasero derecho fueron mayores en el caso de las ratas sin intervención que en la rata ejemplo.

Tabla 1. Datos espaciotemporales y de coordinación de los ciclos analizados
ME: valor medio. DE: desviación estándar.

Ángulos articulares
Respecto al desarrollo articular de los miembros traseros durante la locomoción del animal, para simplificar esta newsletter solo se van a comentar los rangos articulares (rang = max – min), aunque se muestran todas las variables que calcula el KineRAT para documentar su potencial.
No se observa una diferencia reseñable en cuanto al rango de flexoextensión de cadera de la rata normal respecto de las ratas sin intervención (Tabla 2, Figura 2). En cuanto a la rodilla se observa que la rata ejemplo tiene un rango de flexoextensión disminuido en comparación con las ratas sin intervención, mientras que el recorrido de flexoextensión del tobillo de la rata ejemplo es mayor que el de las ratas sin intervención.

Tabla 2. Estadísticos de los recorridos articulares de los ciclos analizados
max: valor máximo, tpmax: tanto por ciento del ciclo en el que ocurre el valor máximo, min: valor mínimo, tpmin: tanto por ciento de ciclo en el que ocurre el valor mínimo, rang: max – min.
ME: valor medio. DE: desviación estándar.

Figura 2. Ángulos articulares correspondientes a los ciclos analizados.
Línea continua: valor medio; línea discontinua: valor medio +/- desviación estándar; línea vertical: despegue de la pata; azul: lado izquierdo rata ejemplo; rojo: lado derecho rata ejemplo; negro: ratas sin intervención; valores ascendentes corresponden a movimientos de flexión.

Para completar de ilustrar los datos que aporta la herramienta KineRAT, el Anexo muestra los ángulos articulares y las barras de apoyo-oscilación de un recorrido de la rata ejemplo por el pasillo de marcha y la gráfica de stick-figure que describe el movimiento de los segmentos de la rata ejemplo durante el mismo recorrido.

ANEXO

Figura 3. Ángulos articulares de la pasada 2 de la rata ejemplo.
Las barras inferiores indican las fases de apoyo y oscilación durante el recorrido. Gris oscuro: patas traseras, gris claro: patas delanteras, superiores: lado izquierdo, inferiores: lado derecho.

Figura 4. Diagrama de segmentos del lado izquierdo de la pasada 2 de la rata ejemplo.
Punto amarillo: cadera, punto verde: rodilla, punto azul: tobillo.

CONCLUSIONES
El software KineRAT es una herramienta idónea para la evaluación de la locomoción de ratas de experimentación en estudios de lesión medular.

REFERENCIAS
[1] D. M. Basso, M. S. Beattie, and J. C. Bresnahan, “A Sensitive and Reliable Locomotor Rating Scale for Open Field Testing in Rats,” J. Neurotrauma, 1995, doi: 10.1089/neu.1995.12.1.
[2] A. D. Kloos, L. C. Fisher, M. R. Detloff, D. L. Hassenzahl, and D. M. Basso, “Stepwise motor and all-or-none sensory recovery is associated with nonlinear sparing after incremental spinal cord injury in rats,” Exp. Neurol., 2005, doi: 10.1016/j.expneurol.2004.09.016.

Agradecimientos
Al Dr. Jörg Mey del Grupo de Regeneración Neuronal por ceder los resultados de la rata ejemplo para la confección de esta newsletter.
Al Dr. Jorge Collazos del Grupo de Reparación Neural y Biomateriales por ceder el equipo de adquisición cinemática para el uso común de los diferentes laboratorios.

AUTORES
Enrique Pérez Rizo, M.E., PhD.
Ingeniero de Biomecánica.
Unidad de Ingeniería y Evaluación Motora
Unidad de Investigación – Hospital Nacional de Parapléjicos.
Toledo, España.
Marta Aguado Garrido.
Graduada en Bioquímica
Laboratorio de Regeneración Neuronal
Unidad de Investigación – Hospital Nacional de Parapléjicos.
Toledo, España.
Arturo Fernández Mora.
Estudiante de Ingeniería Electrónica Industrial y Automática.
Grupo Applied Intelligent Systems. Escuela de Ingeniería Industrial y Aeroespacial de Toledo.
Universidad de Castilla la Mancha.
Toledo, España.

IMAGEN DE RESONANCIA MAGNETICA MULTIPARAMÉTRICA EN LA LESIÓN MEDULAR

En esta ocasión el Servicio de Resonancia Magnética de Investigación quiere dar una introducción de como la combinación de diferentes técnicas de imagen en resonancia magnética pueden contribuir a seguir longitudinalmente la evolución de la lesión medular sin que ello implique el sacrificio del animal a distintos tiempos.
Como hemos estado viendo en anteriores publicaciones, cada secuencia o técnica de imagen en Resonancia Magnética nos va a aportar distinta información y es aquí, donde se persigue un objetivo final: explotar cada secuencia con su máximo contraste y así obtener la máxima información posible. Empleando la imagen multiparamétrica obtendríamos las ventajas de cada una de estas secuencias.
Sin entrar en detalles porque no es el objetivo de esta Newsletter. La imagen multiparamétrica en la lesión medular juega un papel muy importante para estudiar la lesión de manera longitudinal. Si bien el daño primario que se produce en la lesión es irreversible, el foco se centra en estudiar la cascada de acontecimientos que ocurren en las etapas posteriores. Empleando distintas técnicas multiparamétricas se pueden estudiar los procesos que ocurren de manera longitudinal sin que ello conlleve al sacrificio del animal a distintos días después de la lesión. De hecho, es una de las ventajas que proporciona esta técnica de RM.
A lo largo de las ediciones anteriores hemos visto distintas modalidades, contraste T1, contraste T2, imagen funcional. Todas estas proporcionan una valiosa información pero, si vemos esta revisión que os indico, vamos a ir viendo como las técnicas se complican cada día más en el procesamiento de los datos.
Es por eso que la imagen por RM multiparamétrica cuantitativa va a ser una técnica bastante interesante para estudiar los cambios en la composición , microestructura y función de la médula de forma no invasiva.
Como ya hemos comentado, todas estas técnicas de imagen merecen una explicación más detallada que se irá haciendo en sucesivas ediciones.
Esta entrega es introductoria pero antes de acabar, hay que plantearse ciertas preguntas a la hora de realizar un protocolo de imagen. ¿qué queremos ver? ¿solo anatomía? ¿volumen de la lesión? Hasta aquí, os diría protocolos “sencillos” ajustando los parámetros de las secuencias de T1 y T2. Con T2, podremos ver también el edema, solo habría que ver el cambio de contraste de la imagen en: la lesión, alrededor de la lesión y en una zona alejada para compararlos. Pero, funcionalmente ¿qué está ocurriendo? ¿Qué ocurre con la evolución de la lesión? ¿qué fenómenos están ocurriendo? ¿Qué está ocurriendo con los tractos, con las interacciones, hay continuidad en las fibras? ¿Se están regenerando con los tratamientos que les dais? Por supuesto, vosotros sabéis muchísimo más a nivel microscópico sobre la cascada de eventos que está ocurriendo a nivel celular, pero ¿ y si encontramos cambios anatómicos y funcionales a lo largo del tiempo en un mismo animal sin tener que sacrificarlos? ¿Y si aplicamos técnicas de imagen mediante las cuales podremos sacar datos a nivel cuantitativo?. En las siguientes ediciones iremos explicando estas técnicas.

CONCLUSIÓN
Cada vez son más los estudios que ya no solo se centran en una imagen anatómica, si no que persiguen ir más allá del contraste de un pixel. Este contraste ya no solo representa un valor cualitativo, representa un dato númerico. Un dato que tras su procesamiento aportará información muy valiosa y de manera no invasiva. Si aplicamos la imagen RM multiparamétrica obtendremos un conjunto de datos que podremos ir correlacionándolos con las observaciones obtenidas por ejemplo de los estudios de comportamiento.

AUTOR
Marina Benito Vicente.
Responsable del Servicio de Resonancia de Investigación.
Hospital Nacional de Parapléjicos.
Toledo, España.

Referencias
Vanessa Hubertus, Lea Meyer, Laurens Roolfs, Lilly Waldmann, Melina Nieminen-Kelhä, Michael G. Fehlings, Peter Vajkoczy, In vivo imaging in experimental spinal cord injury – Techniques and trends, Brain and Spine, Volume 2, 2022,100859,ISSN 2772-5294, https://doi.org/10.1016/j.bas.2021.100859.

FRACCIONAMIENTO PEPTÍDICO EN PROTEÓMICA

Los organismos biológicos, órganos, tejidos y células tienen un amplio rango dinámico de abundancia de proteínas. Aunque es importante saber qué proteínas se expresan en un determinado sistema como consecuencia de su genoma, estas proteínas están presentes en diferentes cantidades, y solo un número limitado se ve afectado durante un evento fisiológico. Esto puede incluir una etapa de desarrollo, diferenciación, episodio o trastorno degenerativo, entre otros. Por lo tanto, los estudios proteómicos ya no están interesados solo en qué proteínas están presentes en un momento dado, sino también qué proteínas y en qué cantidad tienen sus niveles de expresión afectados como consecuencia de un estímulo, lesión, enfermedad u otro evento.

Para abordar las preguntas de qué proteínas están implicadas, por cuánto y lo que es más importante, qué isoformas lo están, se pueden emplear técnicas de fraccionamiento de proteínas para aumentar el poder de resolución y discriminar aún más entre diferentes isoformas de proteínas, como son el 2D-PAGE, la cromatografía de exclusión por tamaño [SEC], la cromatografía líquida de fase reversa [RPLC], las columnas de intercambio catiónico [SCX] y el isoelectroenfoque [IEF]. Sin embargo, las técnicas de fraccionamiento de proteínas son desafiantes y el análisis de proteína intacta top-down en cromatografía líquida sigue siendo difícil.

Es importante destacar que las técnicas de separación de proteínas no deben modificar la muestra y el método debe ser sólido. El análisis de un proteoma de mamífero en tales condiciones produce una mezcla compleja de péptidos que supera ampliamente las capacidades de una separación por cromatografía 1D. La introducción de técnicas de resolución de péptidos multidimensionales tiene un valor incuestionable para la caracterización de proteomas complejos, con la identificación de miles de péptidos en experimentos de shotgun.

Cromatografía de intercambio de iones (IEC)
2D-LC-MS/MS se introdujo por primera vez utilizando la cromatografía de intercambio catiónico (SCX) en la primera dimensión, un tipo de IEC que implica la separación de péptidos según las diferencias en su carga eléctrica. El mecanismo de retención de analitos en estos enfoques implica la atracción electrostática entre los analitos y los grupos funcionales de la fase estacionaria, que tienen cargas opuestas. En la SCX, los grupos funcionales negativos atraen péptidos cargados positivamente a pH ácido, mientras que en la cromatografía de intercambio aniónico (SAX), los grupos funcionales positivos tienen afinidad por los péptidos cargados negativamente a pH básico. El principal inconveniente del uso de un soporte de sílice es la limitación del pH impuesta por la inestabilidad de la sílice a pH alto y bajo (es decir, por encima de pH 8 y por debajo de pH 2). De las diversas formas de IEC, SCX con un gradiente de sal o saltos de sal es la técnica de fraccionamiento más utilizada para la proteómica. En los enfoques SCX, los péptidos se resuelven en función de su carga total eluyendo primero el péptido con la carga neta menos positiva. Al aumentar la concentración de sal en un experimento SCX, el tiempo de retención disminuye debido a la disminución de las interacciones electrostáticas y al aumento de la fuerza iónica. Aunque se ha demostrado que SCX es una excelente combinación con fase reversa (RP) para separaciones proteómicas multidimensionales, la resolución limitada eventualmente restringirá la utilidad de esta técnica para mezclas complejas.

Cromatografía de fase reversa
La cromatografía de fase reversa es el modo cromatográfico más utilizado que permite la separación de moléculas neutras en solución en función de su hidrofobicidad. La separación se basa en el coeficiente de reparto de analitos entre la fase móvil polar y la fase estacionaria hidrófoba (no polar). En el caso de los péptidos, los péptidos más polares eluyen primero, mientras que los péptidos menos polares interactúan más fuertemente con los grupos hidrofóbicos que forman una capa «similar a un líquido» alrededor del soporte sólido de sílice.
La RPLC se ha aplicado ampliamente en la separación de péptidos por su facilidad de uso con gradientes de elución, compatibilidad con muestras acuosas y versatilidad del mecanismo de retención, lo que permite cambios en la separación provocados por cambios en el pH, modificadores orgánicos o aditivos. Varios factores influyen en la capacidad de los picos cromatográficos, como la temperatura, la longitud de la columna, la fase estacionaria, el tamaño de las partículas, el reactivo de emparejamiento iónico de la fase móvil, el modificador de la fase móvil y la pendiente del gradiente. La cromatografía de fase reversa es muy versátil y fácil de usar, y ha sido probada para la separación de péptidos en primera dimensión.

Cromatografía líquida de interacción hidrofílica
La cromatografía líquida de interacción hidrofílica (HILIC) es algo similar a la cromatografía de fase normal y se usa más comúnmente para separar analitos polares y péptidos hidrofílicos. Esta separación se caracteriza por el uso de una fase estacionaria hidrofílica, es decir, grupos ciano, diol, amino y otros modificando la resina cromatográfica, y una fase móvil orgánica hidrofóbica. El paso de elución ocurre aumentando la polaridad de la fase móvil, normalmente realizando un gradiente de agua que da como resultado un orden de elución invertido en relación con RPLC, es decir, los péptidos menos polares eluyen primero y los péptidos más polares eluyen después. También se ha descubierto que HILIC permite el enriquecimiento y el análisis dirigido de modificaciones postraduccionales, como glicosilación, N-acetilación y fosforilación, en aplicaciones proteómicas.

Cromatografía líquida 2D
Se requieren herramientas analíticas multidimensionales que tengan modos de separación ortogonales para superar el problema de resolución insuficiente en el análisis de matrices biológicas complejas y para reducir la complejidad de la muestra (Figura 1). En un sistema de separación 2D, se prefieren las separaciones ortogonales porque los diferentes mecanismos de retención de las dos columnas permiten la resolución de los componentes que coeluyen en la separación de la primera dimensión. Por lo tanto, SCX se ha utilizado ampliamente en combinación con RP. El uso de un pH alto en la separación de péptidos de primera dimensión también demostró ser útil para IEC. Sin embargo, debido a los residuos ácidos, la separación de péptidos trípticos por SAX demostró ser más exitosa que el enfoque SCX, donde se observó un aumento en el número de péptidos identificados. Sin embargo, durante la separación por intercambio de aniones, las sales indeseables siempre presentes en la fase móvil continúan siendo una desventaja para este enfoque. En la cromatografía RP-RP, los péptidos que eluyen temprano en la primera dimensión eluyen temprano en la segunda dimensión, al igual que los péptidos que eluyen más tarde. Aunque las separaciones a pH alto y bajo no son completamente ortogonales, se observa un alto grado de complementariedad, lo que convierte a esta combinación en un enfoque interesante tanto para la separación 2D off line como en línea de péptidos de mezclas complejas.
Un enfoque de separación 2D exitoso no se limita a la separación de péptido a péptido, sino que también se puede lograr mediante la separación de proteína a péptido. Se han aplicado varios métodos para la primera dimensión, incluida la electroforesis en gel y la RPLC. Un extracto de proteína de Escherichia coli se resolvió con éxito mediante RPLC o electroforesis en gel, y las fracciones posteriores se digirieron y analizaron mediante LC-MS/MS.
Los enfoques en línea dan como resultado menos manejo de muestras, menos pérdida de muestras y, en algunos casos, consumen menos tiempo. Por otro lado, requieren configuraciones integrales con más bombas, válvulas, trampas y fases móviles compatibles con MS (o extensos pasos de lavado entre la primera y la segunda dimensión). Los enfoques off-line son más simples de implementar, menos estrictos en la compatibilidad de la fase móvil, permiten la modificación química entre la primera y la segunda dimensión y también son más flexibles.

Figura 1. Flujo de trabajo de cromatografía líquida-espectrometría de masas 2D. Una mezcla compleja de péptidos se resuelve primero usando SCX (intercambio catiónico fuerte), donde los péptidos cargados positivamente interactúan con grupos de fase estacionaria cargados negativamente. Los péptidos se resuelven según su carga usando un gradiente de sal. Luego, cada fracción SCX se resuelve mediante cromatografía líquida RP (fase reversa), donde los péptidos interactúan con la fase estacionaria C18 y se resuelven según su hidrofobicidad con un gradiente orgánico. A continuación, los péptidos eluidos se analizan mediante espectrometría de masas en tándem en el modo IDA (adquisición dependiente de datos), en el que se seleccionan los iones más intensos del espectro de masas para una mayor fragmentación.

Enfoque isoeléctrico
El enfoque isoeléctrico (IEF) es una técnica de electroforesis de alta resolución para la separación y concentración de moléculas anfóteras según su punto isoeléctrico (pI). La IEF se lleva a cabo en una solución sin tampón, que contiene anfolitos portadores o un gel de gradiente de pH inmovilizado (IPG). El sistema permite que la separación de proteínas y péptidos tenga lugar en un sistema de dos fases con una fase líquida superior que se divide en compartimentos y una fase inferior que es una tira de IPG rehidratada convencional. Normalmente, la muestra se diluye en el tampón de enfoque y se carga en todos los pocillos. Debido a que no existe una conexión fluídica entre los pocillos, los péptidos se ven obligados a migrar a través del gel de IPG donde tiene lugar la separación real. Los péptidos al estar presentes en la fase líquida se pueden recuperar convenientemente de los pocillos para su posterior análisis mediante RPLC-MS/MS. El valor de pI proporcionado se puede utilizar como una herramienta de filtrado y validación independiente durante las búsquedas en bases de datos para la identificación de secuencias peptídicas de MS/MS. Algunas de las ventajas de usar tiras de IPG incluyen, entre otras, alta resolución, alta carga de muestras, control total de un rango de pH bien definido, capacidad de buffering o reguladora, fuerza iónica y la flexibilidad de elegir el gradiente de pH deseado. Una desventaja es el largo tiempo de ejecución del fraccionamiento en este tipo de sistemas (que varía de unas pocas horas a 2 o 3 días según la composición de la muestra) en comparación con otras técnicas off line, como SCX o RP.

Conclusión
Cada enfoque mencionado en esta newsletter se puede aplicar con éxito, pero el resultado depende en gran medida de la composición de la muestra que se analiza. De hecho, parece que la separación de péptidos en la segunda dimensión está más estandarizada debido a los requisitos de una buena ionización de péptidos para el análisis de MS. La separación de la primera dimensión se puede realizar a nivel de proteínas o de péptidos, donde las separaciones de proteínas basadas en gel son los enfoques más rentables y simples. Sin embargo, es importante tener en cuenta la pérdida de proteínas, ya que los enfoques cromatográficos para resolverlas pueden provocar una gran precipitación e insolubilidad de proteínas. Hasta la fecha, no existe un único enfoque de separación de péptidos que permita la identificación de todos los péptidos de una mezcla compleja. Si se desea una cobertura amplia del proteoma, se deben tener en cuenta múltiples enfoques.

AUTOR
Alba González Arandilla, MSc.
Especialista en espectrometría de masas.
Hospital Nacional de Parapléjicos.
Toledo, España.

Referencias
Peptide fractionation in proteomics approaches
Comparison of peptide and protein fractionation methods in proteomics

DISEÑO DE PANELES EN CITOMETRÍA DE FLUJO

Los últimos avances en citometría de flujo están permitiendo a los investigadores llevar a cabo experimentos multiparamétricos de gran complejidad con paneles de más de 40 colores. Para conseguir la mayor precisión y reproducibilidad de los datos obtenidos en citometría de flujo existen diferentes consideraciones que se deben tener en cuenta a la hora de diseñar un panel multicolor con éxito.

  1. CONOCER EL EQUIPAMIENTO

Un análisis multiparamétrico implica la utilización de diferentes fluoróforos o fluorocromos, cuya medida viene dada por la excitación de los mismos con diferentes láseres, y por la medida de su emisión de fluorescencia en detectores concretos. Por tanto, conocer la configuración de tu equipo es crucial para saber qué fluorocromos pueden ser medidos en él, y con qué detectores.

  • FILTROS

Son los que ayudan a dirigir la dispersión de luz y/o la fluorescencia emitida hacia detectores concretos. Existen dos tipos de filtro. Por un lado, los filtros de paso largo o Longpass (LP, Fig.1), que solo dejan pasar la luz de longitudes superiores a las de longitudes indicadas en el filtro. Y los filtros de banda o Bandpass (BP, Fig.2), los cuales sólo dejan pasar luz de un determinado intervalo de longitud de onda.

  • DETECTORES

Los detectores son los componentes del citómetro que van a convertir la señal luminosa en una señal eléctrica, es decir, gracias a la absorción de fotones van a emitir electrones. Hay 2 tipos principales: detector de FSC (dispersión frontal), que es un fotodiodo y los detectores de SSC (dispersión ortogonal) y fluorescencia, que son los fotomultiplicadores. En los citómetros más nuevos como el CytoFLEX (Beckman Coulter) se utilizan fotodiodos de avalancha, que al ser más sensibles permiten una mayor resolución.

  • LÁSER

Los citómetros puede tener los láseres en paralelo o ser co-lineales. Los láseres en paralelo tienen una separación espacial o “laser delay” entre los puntos de incidencia de los láseres en el punto de interrogación, de forma que primero incide un láser, después el láser de referencia (que suele ser el 488 nm), y así con los demás láseres sucesivamente (ver figura 3). Así, las señales excitadas por cada uno de los láseres se recogen a tiempos distintos, con lo que se pueden utilizar juntos en el mismo panel, fluorocromos que se exciten con varios láseres. Sin embargo, en los citómetros co-lineales, no existe esta separación espacial entre las líneas de láser (figura 4), con lo que hay una mayor limitación de fluoróforos que se pueden utilizar, ya que existen fluoróforos que se pueden excitar con diferentes líneas de láser, pero que se recogen en el mismo detector.

En función de la configuración de láseres, filtros y detectores que tenga cada modelo de citómetro, vamos a tener que diseñar nuestro panel con fluoróforos que puedan ser “leídos” por el equipamiento disponible.


En nuestro caso, el SAI Citometría de Flujo cuenta con 2 citómetros analizadores y 1 citómetro separador: BD FACS Canto II, citómetro analizador equipado con 3 Láseres (405 nm-488 nm-633 nm), que permite la detección de 8 colores; CytoFLEX S (Beckman Coulter), equipado con 4 láseres (405 nm-488 nm-561 nm-638 nm) que permite la detección de 13 colores, gracias a la actualización que hemos podido realizar mediante la obtención de una subvención en la convocatoria de infraestructuras del ISCIII de 2021; citómetro separador BD FACS ARIA IIu, 3 láseres (405 nm-488 nm-633 nm), que permite la detección de 9 colores. Todos los citómetros del CITF-SAI-HNP tienen los láseres en paralelo. Pinchando en el nombre de cada equipo accederéis a la configuración de cada uno de ellos donde encontraréis el conjunto de detectores y filtros de los cuales están compuestos: FACS Canto II, CytoFLEX S y FACS Aria II.

  1. SELECCIÓN DE ANTICUERPOS

En el caso de utilizar anticuerpos para caracterizar las poblaciones celulares que tenemos en una muestra (por ejemplo, caracterización de las poblaciones presentes en una médula espinal lesionada), es importante tener 2 cosas en cuenta:

  • MARCADORES: decidir qué marcadores son los que definen la población celular de interés
  • CLONES: determinar si hay clones descritos con mejor reactividad/mayor afinidad que otros en un determinado tejido/panel. Tened en cuenta que algunos clones no funcionan bien cuando las células son sometidas a un tratamiento.
  1. CLASIFICACIÓN DE ANTÍGENOS

En Citometría de flujo el antígeno es la molécula en una célula que intentamos identificar.
Los antígenos se clasifican de acuerdo a su densidad de expresión, es decir, a la abundancia relativa del Ag en la célula de interés, la cual nos ayudará en la elección del fluorocromo adecuado.
Podemos definir los antígenos según la población que nos permitan definir:

  • Prioritarios: Son aquellos absolutamente necesarios para definir los linajes principales presentes en nuestra muestra. Ej: GFAP como específico de astrocitos o CD3 como marcador específico de linfocitos T.
  • Secundarios: Nos ayudan a definir subpoblaciones. Ej: dentro de los linfocitos T (CD3+) podemos definir linf T helper por la expresión de CD4.
  • Desconocidos: Son nuestra hipótesis, aquellas moléculas que queremos estudiar.
  • De lujo/bonus: Antígenos no necesarios que nos ayudan a refinar nuestro análisis.

Por otro lado, se pueden clasificar de acuerdo al modo de expresión:

Continua: dentro de la población existen células con diferente nivel de expresión, de forma que el patrón de marcaje es continuo (Fig.5), no permitiendo definir fácilmente cuál es la población positiva (necesarios controles “Fluorescence Minus One” para el análisis)
Positivo/negativo = on/off: la población positiva expresa el marcador a una alta densidad y de forma homogénea, con lo que se pueden distinguir perfectamente del resto de poblaciones celulares (Fig.6).
dim (tenue): expresión muy débil del antígeno en cuestión.

Es muy importante conocer los antígenos o marcadores específicos de las células que queremos estudiar. Para ello, se pueden utilizar diferentes fuentes bibliográficas que permiten conocer dicho marcador, qué fluorocromos disponibles existen y el espectro de emisión de cada uno de ellos: https://www.biolegend.com/essential_markers; https://www.thermofisher.com/es/es/home/life-science/cell-analysis/labeling-chemistry/fluorescence-spectraviewer.html.

  1. SELECCIÓN DE FLUOROCROMOS

Una vez que sabemos qué fluorocromos podemos detectar en nuestro equipamiento, y que hemos categorizado los antígenos/marcadores en función de su expresión y la población que definen, tenemos que emparejar los marcadores con los fluorocromos, y para ello tenemos que tener en cuenta el brillo de los mismos.

  • MÁS BRILLANTES O BRIGHT FLUOROCHROMES se deben usar para antígenos de expresión desconocida (hipótesis), alguna población celular muy poco representada (eventos raros) o para antígenos de baja expresión (dim/tenue).
  • MENOS BRILLANTES O DIM FLUOROCHROMES se emplean marcadores con altos niveles de expresión, poblaciones muy representadas, marcadores que definen linajes con expresión de tipo on/off.

Cuando diseñamos un panel, si utilizamos un fluorocromo con menos brillo (fig. 8 panel izq, marcador CD25-FITC) para un antígeno que se expresa de forma tenue (dim), puede que no seamos capaces de distinguir adecuadamente la población del fondo/población negativa. En cambio, podemos usarlo para distinguir una población de linaje principal o secundario con expresión de tipo on/off, y utilizar el más brillante para analizar el antígeno tenue (Fig.8 panel dcho marcador CD25-PE)

  • SPILLOVER Y CO-EXPRESIÓN: el spillover se define como el solapamiento de la fluorescencia emitida por un fluorocromo en un canal secundario debido a la física de la fluorescencia, y que tiene que ver con el espectro de emisión de un fluorocromo. Cuando tenemos marcadores que se co-expresan, debemos elegir fluorocromos con el mínimo spillover el uno con el otro, es decir, que el solapamiento de fluorescencia sea el menor.
  • AUTOFLUORESCENCIA: algunos tipos celulares tienen una gran autofluorescencia basal (típicamente emisión en torno a 530 nm excitada por los láseres 405 nm y 488 nm). En este caso, para el análisis de marcadores tenues o los que son nuestra hipótesis, se debe elegir un fluorocromo que no se detecte en los detectores en los que se puede recoger más fácilmente la autofluorescencia.

Existen páginas web comerciales donde se puede consultar el índice de brillo de cada de cada fluorocromo: Fluorophore Brightness Index, así como visores de espectros que nos pueden ayudar a elegir los fluoróforos con menor solapamiento de fluorescencia (https://www.thermofisher.com/es/es/home/life-science/cell-analysis/labeling-chemistry/fluorescence-spectraviewer.html )
Además, debemos tener en cuenta que las células muertas pueden unir anticuerpos inespecíficamente, por lo que añadir un tinte de viabilidad celular que nos permita eliminar las células muertas del análisis es crítico.

CONCLUSIÓN
Aunque a primera visto os puede parecer misión imposible el diseño de paneles multiparamétricos, no debemos olvidar que existen multitud de páginas que permiten su automatización, incluyendo las principales casas comerciales como: Fluorofinder (https://www.fluorofinder.com) o Chromocyte (https://www.chromocyte.com/calculate).
Además, el SAI Citometría está a vuestra entera disposición, si necesitáis ayuda para el diseño de un panel o dudáis con la elección de algún fluoróforo no dudéis en contactar con nosotras. Os animamos a poner en práctica vuestras destrezas en citometría con el diseño del mayor panel realizado hasta la fecha en el SAI con la ampliación del Cytoflex S a 13 colores.


AUTOR
Ángela Marquina Rodríguez
Técnico Titulado Superior del Servicio de Citometría.
Hospital Nacional de Parapléjicos.
Toledo, España.

Referencias

  • FlowPost-Its “Panel design” Mayo 2022 Flow Cytometry Core Facility at Memorial Sloan Kettering Cancer Center (MSKCC).
  • “Curso teórico-práctico de Citometría de flujo 2022 (3ª edición)”. Junio 2022. Servicio de Citometría de Flujo del Hospital Nacional de Parapléjicos (CITF-SAI-HNP).

¿CÓMO TRABAJAR CON IMÁGENES CIENTÍFICAS DE GRAN TAMAÑO? PARTE 2: QUPATH PARA LA DETECCIÓN DE TEJIDO Y CÉLULAS

En la newsletter del 4 de octubre de 2021 os hablé del programa informático QuPath explicando su capacidad para trabajar con imágenes de gran tamaño y su sencilla integración con ImageJ. También indiqué entonces que habría una segunda parte en la que profundizaríamos más en las capacidades de este programa, que es mucho más que un simple navegador de imágenes de gran tamaño, y eso es lo que vamos a tratar en el artículo de hoy.
En primer lugar, os recuerdo que QuPath es un programa de código abierto para el análisis de bioimágenes desarrollado por Pete Bankhead (que se encuentra actualmente en la Universidad de Edimburgo). Aunque está pensado para aplicaciones de patología digital por su facilidad para trabajar con imágenes de alta resolución de portas enteros, realmente se puede utilizar para muchas más cosas.
El programa cuenta con potentes herramientas de anotación y visualización, algoritmos para la detección de tejido y células, machine learning interactivo para la clasificación de píxeles y objetos y es compatible con distintas herramientas de código abierto (como ImageJ, por ejemplo), a la vez que puede trabajar con una gran variedad de formatos de imagen.
En la anterior newsletter vimos un ejemplo de cómo utilizar QuPath para navegar fácilmente por una imagen de gran tamaño de una sección de la médula espinal de un cerdo y seleccionar una región de interés (en este caso el asta ventral) que se exportó a la versión de ImageJ integrada en el programa para hacer una detección y medición de las neuronas presentes en esa región. Ahora vamos a ver cómo hacer una detección similar en la misma muestra usando únicamente QuPath y sin necesidad de limitarnos a una región pequeña.
Para empezar, crearemos un proyecto donde añadiremos todas las imágenes que queremos analizar. Después elegiremos una de ellas y seleccionaremos un área que es la que emplearemos para poner a punto los parámetros de detección. Se podría hacer directamente en toda la muestra, pero si esta es de gran tamaño, el proceso será muy lento.
A continuación, desde Analyze>Cell detection>Cell detection (Figura 1) determinamos los parámetros que el programa va a utilizar para detectar nuestras células (motoneuronas). Aquí podemos indicar en qué canal hacer la detección (en este caso se llama «DAPI Pentacroico», aunque no es una tinción de DAPI la que estamos observando), la resolución a la que hacer la detección, el tamaño de los objetos (bajo Nucleus parameters, aunque en este caso los objetos que estamos detectando no son núcleos), la intensidad y otra serie de valores para ayudar a la detección.

Figura 1: Ventana para poner a punto los parámetros de detección de objetos (células)


Pulsando Run vemos el resultado de esa detección en la región que habíamos seleccionado previamente (Figura 2). Una vez estemos conformes, podemos pasar a analizar una región más grande o la imagen entera (Figura 3).

Figura 2: En rojo podemos observar los objetos detectados usando los parámetros definidos en la figura1. Los ajustes de tamaño de los objetos nos permiten excluir de la detección las neuronas demasiado pequeñas para ser motoneuronas. Muestra por cortesía de Patricia del Cerro (Grupo de Reparación Neural y Biomateriales, HNP).

Figura 3: Resultado de aplicar la detección de objetos a una región que incluye la sustancia gris de la sección de médula espinal estudiada. Los objetos detectados se ven en rojo.


Cuando se complete el análisis podremos ir a Measure>Show detection measurements para obtener una tabla con los valores de las mediciones realizadas en cada uno de los objetos detectados (Figura 4). Estos datos se pueden guardar fácilmente para trabajar posteriormente con ellos en una hoja de cálculo.

Figura 4: Tabla de resultados con las mediciones de los objetos detectados. Los datos se pueden representar en forma de histograma para los distintos parámetros. Además, se pueden exportar fácilmente para trabajar con ellos en una hoja de cálculo.


En otras ocasiones, más que detectar objetos en la muestra, nos puede interesar detectar áreas con distintos marcajes. A veces, este tipo de detección se puede hacer fácilmente utilizando un umbral de intensidad (especialmente en imágenes de fluorescencia) aunque en otras muchas ocasiones es difícil conseguir unos buenos resultados usando únicamente ese tipo de segmentación. Como os indicaba al principio del artículo, QuPath incorpora un sistema de machine learning interactivo para la clasificación de píxeles. Este sistema funciona de una manera similar al plugin de FIJI Trainable WEKA segmentation (del que ya hablamos anteriormente) y es muy fácil de entrenar.


Figura 5: Imagen con una tinción de eriocomo-cianina con anotaciones Myelinated (rojo), Non myelinated (amarillo) e Ignore* (gris). Muestra por cortesía del Grupo de Neuroinmuno-Reparación, HNP

De nuevo, partiremos de un proyecto de QuPath en el que habremos metido las imágenes que queramos analizar. En nuestro ejemplo serán unas secciones de médula espinal de rata teñidas con eriocromo-cianina en las que queremos medir el área de tejido mielinizado y no mielinizado.
Empezaremos anotando algunas regiones de una de las imágenes y asignando estas regiones a las distintas categorías que queramos clasificar. En este caso empleamos las categorías Myelinated, Non-myelinated e Ignore (Figura 5). Esta tercera categoría nos permitirá detectar los píxeles de fondo y que estos no se incluyan en los cálculos de las mediciones que se hagan posteriormente.
Desde Classify>Pixel classification>Train pixel classifier accedemos a la interfaz donde podemos ajustar los parámetros para entrenar el clasificador. Pulsando el botón Live prediction podremos ver en vivo cómo está funcionando el clasificador y el efecto que tienen los cambios en los distintos parámetros. Además, podremos seguir dibujando nuevas regiones para refinar las zonas en las que el clasificador no esté detectando correctamente (Figura 6).

Figura 6: Predicción en vivo de la clasificación de los píxeles basada en las regiones dibujadas y los parámetros empleados para el entrenamiento.


Cuando consideremos que el clasificador está funcionando de una manera adecuada, aplicaremos la clasificación para realizar mediciones por separado en cada una de las categorías detectadas (Figura 7). Además, este clasificador se puede guardar para aplicarlo al resto de imágenes del proyecto.
En el ejemplo que estamos viendo, cada píxel de la imagen quedará asignado a una de las tres categorías que hemos definido (Myelinated, Non-myelinated e Ignore), pero, como indicamos anteriormente, los píxeles clasificados como Ignore no se tendrán en cuenta para las mediciones.

Figura 7: Resultados obtenidos al aplicar el clasificador entrenado para detectar tejido mielinizado y no mielinizado. Los píxeles clasificados como Ignore no se tienen en cuenta a la hora de realizar las mediciones. En este caso, hemos restringido la medición al área definida por el cuadrado azul.


En esta newsletter os he mostrado cómo se puede usar QuPath para detectar, de una manera bastante sencilla, tanto objetos como regiones en distintas muestras de tejido. Espero que os haya resultado interesante y que os animéis a usarlo. Para una descripción mucho más detallada (paso a paso) de cómo realizar estos procesos, os recomiendo que le echéis un vistazo a la excelente documentación del programa en el siguiente enlace:
https://qupath.readthedocs.io/en/stable/index.html


Para descargar el programa podéis ir a:
https://qupath.github.io/


Aquí un webinar donde Pete Bankhead nos habla de sus posibilidades:
https://youtu.be/4An5n6Y_rRI


Tutoriales:
https://www.youtube.com/channel/UCqepVnS1QsB7B8nBA9T91EQ/videos


Y, por último, el enlace al artículo original, para que lo citéis en vuestras publicaciones con este programa:
https://doi.org/10.1038/s41598-017-17204-5

AUTOR
Javier Mazarío Torrijos
Responsable del Servicio de Microscopía y Análisis de Imagen
Hospital Nacional de Parapléjicos.
Toledo, España.

SOFTWARE PARA ANÁLISIS CINEMÁTICO DE PEQUEÑOS ANIMALES: KineRAT

Introducción
La locomoción es una función fundamental en todos los animales. El estado neurológico de los humanos y de los animales de experimentación afecta directamente a la calidad de la locomoción, por lo que esta debe ser analizada en los animales utilizados en los estudios que buscan avances en el conocimiento y tratamiento de la lesión medular. La locomoción en animales cuadrúpedos es un movimiento repetitivo que involucra principalmente a las extremidades y cuyo objetivo es el avance del centro de gravedad. Con técnicas de fotogrametría se pueden medir los ángulos de las principales articulaciones de las extremidades, además de otras variables como la velocidad, la longitud de la zancada o la frecuencia del paso, calculadas a partir del tiempo y de los desplazamientos de los segmentos corporales, denominadas variables espaciotemporales. Dado que se trata de un movimiento repetitivo, la unidad básica de estudio es un ciclo de marcha, definido por el período comprendido entre dos contactos iniciales consecutivos de la pata con el suelo. A su vez, cada ciclo se puede dividir en fase de apoyo, caracterizada por el contacto entre la pata y el suelo, y la oscilación que es la fase aérea durante la cual el animal avanza la pata hasta el siguiente contacto inicial.
La Unidad de Ingeniería y Evaluación Motora (UIEM) ha desarrollado un software para el análisis de la cinemática articular de pequeños animales durante la locomoción, basado en el estudio de los diferentes ciclos que se generan durante el desarrollo de esta función. Este software documenta completamente el patrón cinemático del animal con un solo click de ratón. Esto supone que a partir de ahora disponemos de una herramienta cuantitativa y objetiva capaz de describir completamente el comportamiento de los diferentes grupos de animales que participan en nuestras investigaciones. Con ello lograremos avalar mejor las conclusiones de nuestra investigación, profundizar en el impacto de la lesión neurológica en la función, documentar mejor nuestras publicaciones e incluso reducir el tamaño muestral de nuestros estudios.
En la newsletter anterior de la UIEM se describió el equipo para el registro de la cinemática de pequeños animales que tenemos en el animalario. Vimos cómo se pintan los marcadores, se registran los vídeos, se analizan estos y se exportan los datos. En esta newsletter veremos el software desarrollado para analizar los datos exportados.

Descripción del software
El software desarrollado se llama KineRAT, está desarrollado en Python, versión 3.9.7. Python es un lenguaje de alto nivel de programación, multiplataforma y multiparadigma (orientado a objetos). Cuenta con una licencia de código abierto que permite su utilización en distintos contextos de forma gratuita.
El software está en fase de desarrollo. Los miembros traseros están totalmente implementados.
El software utiliza como interface de usuario la consola del intérprete de programación.

Procedimiento
El software trabaja sobre los datos generados a partir de una sesión de grabación. Durante una sesión se registran varias pasadas de un animal, de cada pasada se toman un vídeo derecho y uno izquierdo que están sincronizados (Figura 1). Los vídeos se analizan con el software Kinovea (visto en la anterior newsletter del 22/11/2021) y se exportan las coordenadas de los marcadores, los ángulos y los instantes de contacto inicial y despegue de la pata (Figura 2).
Una vez abierto el software KineRAT, este nos pregunta sobre la ubicación de la carpeta que contiene los archivos de la sesión, el código, el peso y la edad del animal. A continuación, el programa lee el contenido de la carpeta, procesa los datos y guarda en la misma carpeta una serie de gráficas que describen movimientos articulares realizados durante la sesión y las hojas de datos con los ángulos, las variables espaciotemporales y los estadísticos.

Figura 1. Pasillo de locomoción y cámara rápida

Figura 2. Software Kinovea de análisis cinemático.
La Imagen muestra dos fotogramas de los lados derecho (izquierda) e izquierdo (derecha) durante un recorrido del animal correspondientes al mismo instante de tiempo. Cada fotograma ilustra los ángulos de la cadera (azul), rodilla (rojo) y tobillo (verde), y la longitud (magenta) y duración (blanco) del ciclo.

Variables analizadas y gráficas de representación
A continuación se relacionan las variables que aporta el software y, como ejemplo, se muestran algunos de los datos correspondientes a 3 recorridos de una sesión de grabación de una rata hembra normal, de 215,0 g de peso y 2,2 meses de edad.

  • Variables espaciotemporales (Tabla 1): longitud de ciclo (mm), duración de ciclo (s), velocidad (mm/s), frecuencia de ciclo (ciclos/segundo), soporte (%), longitud de paso (mm), duración de paso (s), frecuencia de paso (pasos/s), apoyo monopodal (%) y apoyo bipodal (%). Los valores se calculan para cada ciclo y se aportan en un archivo CSV (valores separados por comas) que se puede abrir y tratar con otros programas como EXCEL, SPSS, etc.
    Tabla 1. Variables espaciotemporales de 6 ciclos analizados del miembro trasero izquierdo.
  • Ángulos articulares (grados). Ángulos de cada articulación de las extremidades trasera derecha e izquierda, desarrollados a lo largo de cada recorrido, calculados en cada frame. Se aportan en un archivo CSV en el que cada columna corresponde a las siguientes variables: tiempo (s), flexoextensión de cadera, flexoextensión de rodilla, flexoextensión de tobillo y apertura (ángulo formado por la recta formada entre la cadera y el tobillo con la vertical).

Figura 3. Ángulos articulares de los miembros traseros durante un recorrido del animal.
L: izquierdo, R: derecho. La imagen muestra una porción de lo que muestra la pantalla cuando se abre un archivo de datos con el software EXCEL. Existe un retraso temporal de las variables derechas con respecto a las izquierdas debido a que el miembro izquierdo entró en el campo de visión de la cámara antes de que el derecho.

  • Estadísticos articulares (Tabla 2): máximo, momento en el cual ocurre el máximo, mínimo, momento en el cual ocurre el mínimo y rango. Los valores se calculan para cada ciclo y se aportan en un archivo CSV.


Tabla 2. Estadísticos articulares de 6 ciclos del miembro trasero izquierdo.

  • El software aporta varios gráficos que permiten la visualización de las variables.
  • Ángulos de la cadera, rodilla, tobillo y apertura de cada recorrido del lado izquierdo (Figura 5).
  • Ángulos de la cadera, rodilla, tobillo y apertura de cada recorrido del lado derecho.
  • Ángulos de la cadera derecha y de la cadera izquierda de cada recorrido.
  • Ángulos de la rodilla derecha y de la rodilla izquierda de cada recorrido (Figura 5).
  • Ángulos del tobillo derecho y del tobillo izquierdo de cada recorrido.
  • Ángulos de apertura derecho e izquierdo de cada recorrido.
  • Diagramas de segmentos del lado izquierdo de cada recorrido (Figura 6).
  • Diagramas de segmentos del lado derecho de cada recorrido.
  • Gráficas del patrón flexoextensor de la cadera derecha y de la cadera izquierda.
  • Gráficas del patrón flexoextensor de la rodilla derecha y de la rodilla izquierda (Figura 7).
  • Gráficas del patrón flexoextensor del tobillo derecho y del tobillo izquierdo.
  • Gráficas del patrón de los ángulos de apertura derecho e izquierdo.

Figura 4. Flexoextensión de las articulaciones del miembro trasero izquierdo. Las franjas verticales sombreadas representan las fases de apoyo de cada ciclo.

Figura 5. Flexoextensión de ambas rodillas.
Franja vertical roja: apoyo miembro derecho. Franja vertical azul: apoyo miembro izquierdo. Las franjas verticales más oscuras son períodos de solapamiento de apoyo derecho e izquierdo, cuando ocurre el apoyo bipodal.

Figura 6. Diagrama de segmentos del lado izquierdo del animal durante un recorrido.
Punto amarillo: cadera, punto verde: rodilla, punto azul: tobillo.

Figura 7. Patrón de flexoextensión de la rodilla izquierda.
Gris: ciclo normalizado 0 % al 100%, azul: media (continua) +/- DE (discontinua), línea vertical: despegue de la pata.

Conclusiones
La UdI dispone de un software, desarrollado en lenguaje de código abierto y, por lo tanto, gratuito, capaz de determinar el patrón de cinemática de pequeños animales.
El software se puede escalar a los miembros delanteros, a nuevas variables, a otras especies animales (humanos incluidos), a otros tipos y modelos de equipos de adquisición cinemática, etc.
Con los datos obtenidos y dentro del mismo entorno se podrían realizar otros análisis más avanzados como reconocimiento de patrones, análisis multivariable, etc.
Este software aspira a ser una plataforma que nutra de conocimiento a los grupos de investigación. Incluso un espacio donde los grupos puedan realizar sus propias investigaciones.

Os animamos a utilizar la valoración cinemática en vuestros estudios. Sin duda, una herramienta que será el gold standar de la valoración funcional.

Agradecimientos
Al Dr. Ernesto Doncel y la Dra. Vinnitsa Buzoianu del Grupo de Química Neuro-regenerativa por sus contribuciones en la puesta a punto del software.

AUTORES
Enrique Pérez Rizo, M.E., PhD.
Ingeniero de Biomecánica.
Hospital Nacional de Parapléjicos.
Toledo, España.
Andrés Pérez Valmaña.
Estudiante de Ingeniería Electrónica Industrial y Automática.
Escuela de Ingeniería Industrial y Aeroespacial de Toledo.
Universidad de Castilla la Mancha.
Toledo, España.