Esta página ha sido traducida por una máquina. Otras páginas pueden seguir apareciendo en inglés.
View in English
Codificadores federados específicos de la modalidad y descodificadores de fusión parcialmente personalizados para la segmentación multimodal de tumores cerebrales
- Hong Liu 1, Dong Wei 2, Qian Dai 3, Xian Wu 2, Yefeng Zheng 4, Liansheng Wang 5
- 1National Institute for Data Science in Health and Medicine, Xiamen University, Xiamen, 361005, Fujian, China; Tencent Jarvis Lab, Tencent, Shenzhen, 518075, Guangdong, China.
- 2Tencent Jarvis Lab, Tencent, Shenzhen, 518075, Guangdong, China.
- 3Department of Computer Science at School of Informatics, Xiamen University, Xiamen, 361005, Fujian, China.
- 4Tencent Jarvis Lab, Tencent, Shenzhen, 518075, Guangdong, China; Medical Artificial Intelligence Lab, Westlake University, Hangzhou, 310030, Zhejiang, China.
- 5National Institute for Data Science in Health and Medicine, Xiamen University, Xiamen, 361005, Fujian, China; Department of Computer Science at School of Informatics, Xiamen University, Xiamen, 361005, Fujian, China.
- 0National Institute for Data Science in Health and Medicine, Xiamen University, Xiamen, 361005, Fujian, China; Tencent Jarvis Lab, Tencent, Shenzhen, 518075, Guangdong, China.
Videos de Experimentos Relacionados
Contact us if these videos are not relevant.
Contact us if these videos are not relevant.
Ver abstracta en PubMed
Resumen
Este resumen es generado por máquina.Este estudio presenta FedMEPD, un marco de aprendizaje federado (FL) para imágenes médicas multimodales. Maneja eficazmente las modalidades de datos que faltan y permite modelos personalizados, superando los métodos existentes.
Área De La Ciencia
- Inteligencia artificial
- Imágenes médicas
- Aprendizaje automático
Sus Antecedentes
- Los métodos de aprendizaje federado (FL) existentes a menudo fallan con las imágenes médicas multimodales debido a la falta de modalidades de datos entre los participantes.
- La heterogeneidad intermodal y la necesidad de modelos personalizados presentan desafíos significativos en el análisis colaborativo de imágenes médicas.
Objetivo Del Estudio
- Proponer un nuevo marco de aprendizaje federado, FedMEPD, que aborde tanto la heterogeneidad intermodal como la personalización en el análisis multimodal de imágenes médicas.
- Desarrollar un sistema capaz de entrenar un modelo global incluso cuando los participantes tienen modalidades de imagen incompletas.
Principales Métodos
- FedMEPD utiliza codificadores específicos de la modalidad y descodificadores de fusión multimodal parcialmente personalizados.
- Un servidor central con datos modales completos fusiona las representaciones, mientras que los clientes con modalidades incompletas utilizan la atención cruzada para alinearse con los anclajes globales.
- La personalización se logra mediante el ajuste dinámico de los filtros de decodificación basados en las discrepancias de actualización de parámetros.
Principales Resultados
- FedMEPD demostró un rendimiento superior en los puntos de referencia de segmentación de tumores cerebrales multimodal de BraTS 2018 y 2020.
- El marco manejó eficazmente la heterogeneidad intermodal, superando a los métodos FL multimodales y personalizados existentes.
- Los componentes de diseño novedosos de FedMEPD fueron validados como eficaces para mejorar el entrenamiento y el rendimiento del modelo.
Conclusiones
- FedMEPD ofrece una solución robusta para el aprendizaje federado en imágenes médicas multimodales, adaptándose a la heterogeneidad de los datos.
- El enfoque propuesto equilibra con éxito la necesidad de un modelo global con ideas personalizadas para los participantes individuales.
- Este marco avanza en la aplicabilidad del aprendizaje federado a escenarios complejos de imágenes médicas del mundo real.
Videos de Experimentos Relacionados
Contact us Si estos videos no son relevantes.
Contact us Si estos videos no son relevantes.

