Informatica

Automatizan la Inteligencia Artificial para Mejorar los Diagnósticos Médicos

Inteligencia Artificial

El modelo reemplaza el laborioso proceso de anotar a mano conjuntos de datos masivos de pacientes.

Los científicos informáticos del MIT esperan acelerar el uso de la inteligencia artificial para mejorar la toma de decisiones médicas, al automatizar un paso clave que generalmente se realiza a mano, y que se vuelve más laborioso a medida que ciertos conjuntos de datos crecen cada vez más.

El campo de la analítica predictiva es cada vez más prometedor para ayudar a los médicos a diagnosticar y tratar pacientes. Los modelos de aprendizaje automático se pueden entrenar para encontrar patrones en los datos del paciente para ayudar en el cuidado de la sepsis, diseñar regímenes de quimioterapia más seguros y predecir el riesgo de un paciente de tener cáncer de mama o morir en la UCI, por nombrar solo algunos ejemplos.

Típicamente, los conjuntos de datos de entrenamiento consisten en muchos sujetos enfermos y sanos, pero con relativamente pocos datos para cada sujeto. Los expertos deben encontrar esos aspectos, o «características», en los conjuntos de datos que serán importantes para hacer predicciones.

Esta «ingeniería de características» puede ser un proceso laborioso y costoso. Pero se está volviendo aún más desafiante con el aumento de los sensores portátiles, porque los investigadores pueden monitorear más fácilmente la biometría de los pacientes durante largos períodos, siguiendo los patrones de sueño, la marcha y la actividad de la voz, por nombrar algunos ejemplos. Después de solo una semana de monitoreo, los expertos podrían tener varios miles de millones de muestras de datos para cada sujeto.

Los investigadores del MIT muestran un modelo que aprende automáticamente las características predictivas de los trastornos de las cuerdas vocales. Las características provienen de un conjunto de datos de aproximadamente 100 sujetos, cada uno con aproximadamente una semana de datos de monitoreo de voz y varios miles de millones de muestras; en otras palabras, una pequeña cantidad de sujetos y una gran cantidad de datos por sujeto. El conjunto de datos contiene señales capturadas desde un pequeño sensor acelerómetro montado en el cuello del sujeto.

En experimentos, el modelo utilizó características extraídas automáticamente de estos datos, para clasificar con alta precisión pacientes con y sin nódulos de cuerdas vocales. Estas son lesiones que se desarrollan en la laringe, a menudo debido a patrones de mal uso de la voz, como cantar canciones o gritar. Es importante destacar que el modelo realizó esta tarea sin un gran conjunto de datos etiquetados, y a mano.

El modelo se puede adaptar para aprender patrones de cualquier enfermedad o afección. Pero la capacidad de detectar los patrones diarios de uso de la voz asociados con los nódulos de las cuerdas vocales es un paso importante en el desarrollo de mejores métodos para prevenir, diagnosticar y tratar el trastorno, dicen los investigadores. Eso podría incluir diseñar nuevas formas de identificar y alertar a las personas sobre comportamientos vocales potencialmente dañinos.

En su trabajo, los investigadores recopilaron el valor de una semana de estos datos, llamados datos de «series temporales», de 104 sujetos, la mitad de los cuales fueron diagnosticados con nódulos de cuerdas vocales. Para cada paciente, también hubo un control de correspondencia, lo que significa un sujeto sano, de edad, sexo, ocupación y otros factores similares.

Tradicionalmente, los expertos tendrían que identificar manualmente las características que pueden ser útiles para que un modelo detecte diversas enfermedades o afecciones. Eso ayuda a prevenir un problema común de aprendizaje automático en la atención médica: el sobreajuste. Es entonces cuando, en el entrenamiento, un modelo «memoriza» los datos de los sujetos en lugar de aprender solo las características clínicamente relevantes. En las pruebas, esos modelos a menudo no pueden discernir patrones similares en sujetos nunca vistos anteriormente.

“En lugar de aprender características que son clínicamente significativas, un modelo ve patrones y dice: ‘Esta es Sarah, y sé que Sarah está sana, y este es Peter, que tiene un nódulo de cuerda vocal’. Entonces, es solo memorizar patrones de sujetos. Luego, cuando ve datos de Andrew, que tiene un nuevo patrón de uso vocal, no puede determinar si esos patrones coinciden con una clasificación”, dice González Ortiz.

Automatizan la Inteligencia Artificial

El principal desafío, entonces, era evitar el sobreajuste mientras se automatizaba la ingeniería manual de características. Con ese fin, los investigadores obligaron al modelo a aprender características sin información del sujeto. Para su tarea, eso significaba capturar todos los momentos en que los sujetos hablan y la intensidad de sus voces.

A medida que su modelo rastrea los datos de un sujeto, está programado para localizar segmentos de voz, que comprenden solo aproximadamente el 10 por ciento de los datos. Para cada una de estas ventanas de voz, el modelo calcula un espectrograma, una representación visual del espectro de frecuencias que varía con el tiempo, que a menudo se usa para tareas de procesamiento de voz. Los espectrogramas se almacenan como grandes matrices de miles de valores.

Pero esas matrices son enormes y difíciles de procesar. Entonces, un codificador automático, una red neuronal optimizada para generar codificaciones de datos eficientes a partir de grandes cantidades de datos, comprime el espectrograma en una codificación de 30 valores. Luego descomprime esa codificación en un espectrograma separado.

Básicamente, el modelo debe garantizar que el espectrograma descomprimido se parezca mucho a la entrada del espectrograma original. Al hacerlo, se ve obligado a aprender la representación comprimida de cada entrada de segmento de espectrograma sobre los datos de series temporales de cada sujeto. Las representaciones comprimidas son las características que ayudan a entrenar modelos de aprendizaje automático para hacer predicciones.

En el entrenamiento, el modelo aprende a asignar esas características a «pacientes» o «controles». Los pacientes tendrán más patrones de voz que los controles. Al realizar pruebas en sujetos nunca vistos anteriormente, el modelo condensa de manera similar todos los segmentos del espectrograma en un conjunto reducido de características. Entonces, son las reglas de la mayoría: si el sujeto tiene segmentos de voz mayormente anormales, se clasifican como pacientes; y, si tienen en su mayoría normales, se clasifican como controles.

En los experimentos, el modelo funcionó con la misma precisión que los modelos de vanguardia que requieren ingeniería manual de características. Es importante destacar que el modelo de los investigadores se desempeñó con precisión tanto en la capacitación como en las pruebas, lo que indica que está aprendiendo patrones clínicamente relevantes de los datos, no de información específica del sujeto.

Luego, los investigadores quieren monitorear cómo diversos tratamientos, como la cirugía y la terapia vocal, impactan el comportamiento vocal. Si el comportamiento de los pacientes pasa de anormal a normal con el tiempo, lo más probable es que estén mejorando. También esperan utilizar una técnica similar en los datos del electrocardiograma, que se utiliza para rastrear las funciones musculares del corazón.

Fuente: MIT News

SHARE
RELATED POSTS
FÍSICOS USAN LA SIMULACIÓN PARA ESTUDIAR LA TEORÍA DE LA INFORMACIÓN CUÁNTICA
La Inteligencia Artificial Dentro de las Aulas del Futuro
Los videojuegos pueden cambiar tu cerebro

Comments are closed.