Saltar al contenido
Enrique Tomás Martínez Beltrán
InicioInvestigaciónPublicacionesDocenciaBlog
ENES
Contacto
InicioInvestigaciónPublicacionesDocenciaBlog
ENES
Contacto

Enrique Tomás Martínez Beltrán

Estudiante de doctorado en la Universidad de Murcia, centrado en aprendizaje federado, ciberseguridad e IA que preserva la privacidad para sistemas reales.

  • Política de privacidad
  • Términos del servicio
  • Accesibilidad
  • GitHubse abre en una pestaña nueva
  • LinkedInse abre en una pestaña nueva
  • Google Scholarse abre en una pestaña nueva
  • RGse abre en una pestaña nueva
  • ORCIDse abre en una pestaña nueva
  • Scopusse abre en una pestaña nueva
  • DBLPse abre en una pestaña nueva
  • Web of Sciencese abre en una pestaña nueva

Enrique Tomás Martínez Beltrán. Todos los derechos reservados.

Volver arriba

Este sitio utiliza cookies analíticas para entender cómo los visitantes interactúan con el contenido. No se comparten datos personales con terceros.

  1. Inicio
  2. Blog y notas técnicas
  3. Aprendizaje federado: revolucionando la IA sin comprometer la privacidad
Aprendizaje federadoPrivacidadIADistributed SystemsCiberseguridad

Aprendizaje federado: revolucionando la IA sin comprometer la privacidad

Haciendo posible una IA colaborativa preservando la privacidad del dato

Enrique Tomás Martínez Beltrán

Investigador predoctoral en aprendizaje federado y ciberseguridad

29 de enero de 20248 min de lectura
  • LinkedInse abre en una pestaña nueva
  • Xse abre en una pestaña nueva
Aprendizaje federado: revolucionando la IA sin comprometer la privacidad

En el mundo de hoy, fuertemente impulsado por los datos, la demanda de modelos de IA potentes sigue creciendo exponencialmente. Sin embargo, este crecimiento viene acompañado de un desafío significativo: ¿cómo entrenamos modelos de aprendizaje automático sofisticados mientras respetamos la privacidad del usuario y la soberanía de los datos? Aquí es donde entra el Aprendizaje Federado (FL) - un enfoque revolucionario que está cambiando las reglas del juego.

¿Qué es el Aprendizaje Federado?

El Aprendizaje Federado es un paradigma de aprendizaje automático que permite entrenar un modelo a través de múltiples dispositivos descentralizados o servidores que guardan muestras de datos locales, sin intercambiar dichas muestras. En lugar de centralizar los datos en una única ubicación, el FL permite que los modelos se entrenen de manera colaborativa manteniendo los datos crudos distribuidos localmente.

El Principio Central

La idea fundamental detrás del aprendizaje federado es simple pero muy poderosa:

  1. Entrenamiento Local: Cada participante entrena un modelo con sus propios datos locales.
  2. Agregación del Modelo: Únicamente se comparten las actualizaciones del modelo (nunca los datos brutos).
  3. Modelo Global: Un servidor central agrega todas estas actualizaciones para crear un modelo global mejorado.
  4. Distribución: El modelo mejorado se envía de vuelta a todos los participantes para la siguiente ronda de entrenamiento.

Este proceso se iterará hasta que el modelo converja a un nivel de rendimiento satisfactorio.

¿Por qué es Importante el Aprendizaje Federado?

Preservación de la Privacidad

Los enfoques tradicionales de machine learning requieren que los datos estén centralizados, lo que plantea riesgos de privacidad significativos:

  • Brechas de Datos: Los repositorios de datos centralizados son objetivos muy atractivos para los ciberataques.
  • Cumplimiento Normativo (Compliance): El GDPR, CCPA, y otras normativas de privacidad hacen que compartir datos sea complejo y legalmente arriesgado.
  • Confianza del Usuario: Los usuarios están cada vez más concienciados del uso de sus datos.

El aprendizaje federado aborda y resuelve estas preocupaciones al mantener los datos en instancias locales mientras, en paralelo, habilita un aprendizaje colaborativo.

Aplicaciones del Mundo Real

El aprendizaje federado ya está causando un impacto disruptivo a través de múltiples industrias:

Ámbito de la Salud

  • Imágenes Médicas: Diversos hospitales pueden colaborar para obtener diagnosis exactas sin poner en riesgo historiales médicos.
  • Descubrimiento de Fármacos: Ayuda a que las empresas farmacéuticas aúnen ideas preservando descubrimientos privados.
  • Ensayos Clínicos: Los ensayos multi-sede pueden compartir lo aprendido pero blindar la confidencialidad de cada paciente.

Servicios Financieros

  • Detección de Fraude: Múltiples bancos pueden mejorar sus sistemas antiesfafa de forma colaborativa sin compartir las transacciones de sus clientes.
  • Puntuación Crediticia (Credit Scoring): Las instituciones financieras pueden crear evaluaciones de riesgo compartiendo inferencia, pero custodiando sólidamente las operaciones y métricas crudas.

Aplicaciones Móviles

  • Texto Predictivo: Los teclados de un smartphone pueden aprender a sugerir frases basándose en el historial tipográfico local, sin llegar jamás a compartir e infectar los mensajes personales de todos.
  • Sistemas de Recomendación: Las apps pueden proporcionar sugerencias a medida y fuertemente personalizadas sin comprometer las preferencias crudas del usuario subiéndolas a un servidor maestro.

Análisis Técnico en Profundidad

Arquitecturas de Aprendizaje Federado

Existen múltiples tipos de arquitecturas en la estructura FL, cada una se amolda mejor a un escenario distinto:

1. Aprendizaje Federado Horizontal (HFL)

También conocido como aprendizaje federado basado en muestras, el HFL se emplea cuando los participantes cuentan con datos definidos bajo las mismas features (características) pero diferentes muestras.

Snippet
Participante A: [datos_usuario1, datos_usuario2, datos_usuario3]
Participante B: [datos_usuario4, datos_usuario5, datos_usuario6]
Participante C: [datos_usuario7, datos_usuario8, datos_usuario9]

Caso de Uso: Múltiples hospitales con bases de datos con la misma estructura pero pacientes diferentes.

2. Aprendizaje Federado Vertical (VFL)

También conocido como aprendizaje federado basado en características (features), el VFL entra en juego cuando los participantes tienen las mismas muestras, pero diferentes features.

Snippet
Participante A: [features_usuario1_A, features_usuario2_A, features_usuario3_A]
Participante B: [features_usuario1_B, features_usuario2_B, features_usuario3_B]

Caso de Uso: Un banco y una cooperativa de comercio colaborando conjuntos de datos (diferentes atributos) sobre unos mismos clientes cruzados para analizar su comportamiento.

3. Aprendizaje Federado por Transferencia (FTL)

El FTL fusiona el aprendizaje federado clásico con diversas técnicas del Transfer Learning (aprendizaje por transferencia) para cubrir de forma fluida los posibles escenarios en que existan lagunas entre las distribuciones de los datos participantes.

El Algoritmo de Federated Averaging (FedAvg)

El algoritmo FL más empleado a día de hoy es, sin duda, FedAvg (Federated Averaging), propuesto por Brendan McMahan et al. en 2017:

Python
# Pseudocódigo simplificado de FedAvg
def federated_averaging(global_model, client_models, client_weights):
    """
    Agrega modelos locales usando una ponderación por promedios
    
    Args:
        global_model: Parámetros del modelo global maestro en esta ronda
        client_models: Lista de parámetros de lo aprendido por cada participante
        client_weights: Lista referida a los pesos que se aplican para ponderar cada participante (basado habitualmente en volumen de tuplas locales)
    """
    aggregated_model = {}
    
    for param_name in global_model.keys():
        weighted_sum = 0
        total_weight = sum(client_weights)
        
        for i, client_model in enumerate(client_weights):
            weighted_sum += client_weights[i] * client_model[param_name]
        
        aggregated_model[param_name] = weighted_sum / total_weight
    
    return aggregated_model

Retos Técnicos y Soluciones

Sobrecarga Adicional de Comunicaciones

Desafío: Entrenar algoritmos de manera federada dicta la estricta necesidad de una comunicación bidireccional continua entre participante y servidor. Puede degenerar en infraestructuras insostenibles operativamente y poco ágiles a la hora de actualizar los pesos si hay participantes de escasa red.

Soluciones:

  • Compresión de un Modelo: Estrategias de compresión matricial como la cuantización (quantization) del peso y las técnicas Poda y Pruning, reducen su ocupación espacial final.
  • Comunicación Dinámica o Selectiva: Compartir deltas (cambios) concretos o pesos cuyo nivel evolutivo justifique enviarse, evadiendo ruido parásito.
  • Actualizaciones Asíncronas: Mitigar el latido sincrónico permite a cada agente y dispositivo evolucionar a pasos distintos y con ciclos propios.

Heterogeneidad en los Sistemas (Agentes)

Desafío: Un teléfono no cuenta con las mismas prestaciones informáticas frente a ordenadores u otros dispositivos de edge computing.

Soluciones:

  • Agregación Dinámica Computada: Se trata de una medida correctiva donde, mediante cálculos adaptativos se valora de manera especial (multiplicador) las métricas y aprendizajes ofrecidos por participantes más poderosos para dar fluidez compensatoria al grueso formativo de IA.
  • Agregación Robusta: Técnicas de validación por mediana en lugar de por media contrarresta perturbaciones generadas por terminales no cooperativos (outliers).
  • FL Personalizado: Permitir la convergencia particular o retención temporal parcial antes del volcado ayuda a no atascar dispositivos con un hardware que exige una gran delicadeza.

Ciberamenazas y Ataques hacia la propia Privacidad

Desafío: Cientos de estudios documentan que observar las variaciones continuadas entre las actualizaciones al servidor global sirve para filtrar a la larga un calco invertido (ingeniería social algorítmica) de la data participante (ejemplo: Model Inversion Attacks).

Soluciones:

  • Privacidad Diferencial: Generación minuciosa de oscilaciones que difuminan (ruido intencional) los gradientes de manera temporal antes de hacerlos públicos y unirlos, oscureciendo las transacciones contra técnicas invertidas.
  • Agregaciones Seguras: Medidas de orquestación criptográfica fuertemente probadas para cifrar la cadena matemática temporal y salvaguardar los pesos resultantes de la suma compartida.
  • Cifrado Homomórfico: Trabajar con conjuntos de IA operables directamente estando en capa cifrada asilar. Evita dejar ningún frente expuesto.

Mi propia Línea Investigativa en FL

Como estudiante de Doctorado investigando técnicas adyacentes al aprendizaje federado, mi trabajo en este frente se distribuye:

Aprendizaje Federado Descentralizado (DFL)

El esquema tradicional de un coordinador maestro (servidor) resulta un cuello de botella o SPOF frente a infraestructuras ultra exigentes a nivel de autonomía. Mi principal trabajo disecciona y potencia infraestructuras de aprendizaje federado descentralizado (DFL), orquestaciones directas P2P que enlazan a todos los miembros de una red en flujos matemáticos que destronan el mando central y aseguran todo contra asaltos concretos de orquestadores externos.

Beneficios de este Enfoque Evaluado:

  • Tolerancia a fallos: No hay un simple servidor apagado al que apuntar y apagar las luces.
  • Escalabilidad: Mucho más natural incluir o desvincular entes formativos.
  • Privacidad Pura: No existe centro logístico que cuente con todos y cada uno de los deltas (updates) del modelo.

Ciberseguridad sobre Dispositivos de Internet dadas las Cosas (IoT)

El pilar sobre el ecosistema proyectual de DEFENDIS se afianza analizando estrategias a seguir en torno al uso de FL para prevenir e identificar las amenazas sobre dispositivos IoT de índole vulnerable o altamente susceptible:

  • Dispositivos de Fingerprinting: Identificación mediante "huellas" generadas asimilando datos con machine learning distribuido.
  • Detección Continua de Elementos de Anomalías: Escáner de seguridad e IA constante evaluando desviaciones en máquinas o equipos presuntamente infectados.
  • Planes de Seguridad Distribuida (Distribuion-based): Trazados donde ninguna fuerza unitaria controle todo un perímetro, sino sistemas en bloque solidario.

Nuevas Técnicas a favor de la Preservación de Privacidad del Usuario Final

Buscando constantemente enfoques nuevos, dedico parte a perfilar mecanismos no intrusivos orientados a anonimizar a todo individuo implicado pasivamente en recolección corporativa FL de un sistema particular.

  • Local Differential Privacy (LDP).
  • Generación y ejecución por Secure Multi-Party Computation (SMPC) orquestada en capas de extremo a extremo.
  • IA FL entrelazada con garantías absolutas DP.

Direcciones y Vertientes hacia el Futuro

La expansión transversal del Federated Learning vuela. Varios ejes pivotan y atraen todo interés formativo del mercado internacional y centros analíticos:

1. El Aprendizaje Federado a nivel de Borde (Edge AI)

Mientras el edge computing penetre la estructura de infraestructuras base, IA podrá ser adaptada sin salir del móvil, hardware, sensorización y equipos autónomos a ras de calle para crear y ejecutar localmente procesos altamente inteligentes (IA local).

2. Segmentación de Repositorios (Cross-Silo FL)

Poco a poco, entidades titánicas adoptarán la creación de estructuras inter-empresas mediante federación blindada, para nutrirse de las formaciones (pero no de los datos brutos ajenos) compartiendo sin exponer su estructura legal a normativas intrusivas.

3. Grandes Modelos de Lenguaje (LLMs) por Vías Distributivas FL

Alcanzar cotas de popularización alucinantes haciendo que los desarrolladores y la comunidad global pueda conformar masivamente colmenas para refinar el entrenamiento de un gran modelo IA a precio casi microscópico mediante clústers informáticos hogareños o no dependientes de laboratorios astronómicos será parte de su brillante futuro de democratización tecnológica.

4. Entrenando Foundation Models

Combinaciones formidables con IAs Fundacionales preentrenadas puede desatar un perfil individual altamente privado, y posibilitar sugerencias/asistencia extremadamente quirúrgicas basadas en nuestra cotidianidad de forma hermética.

Involúcrate y empieza a experimentar con FL

¿Con interés en el campo y con ganas de echar un vistazo formativo? Sumérgete desde la comunidad empleando estas vías e instrumentos Open Source:

Frameworks de Código Abierto (Open Source)

  • TensorFlow Federated (TFF): La aproximación de software de Google enfocada un framework puramente centrado en entrenamientos de carácter Federado de forma segura y accesible.
  • PySyft: Una biblioteca altamente orientada enfocada desarrollada desde la corporación madre y comunidad matriz OpenMined para ejecutar y procesar machine learning privado al 100%.
  • FedML: Con la estructura más amigable, incluye un conglomerado vasto a reabrir todas y cada una de las arquitecturas que te han enamorado a lo largo de este mismo post, con implementaciones preparadas y estandarizadas en todas las líneas.
  • Flower: Framework orientado a soluciones puras implementadas y empujadas de producción industrial donde haya necesidad real sobre federación algorítmica y orquestación multi-nodos sin límites base en Python 3+.

Recursos Didácticos Vitales de Aproximación Rápida

  • Papers Históricos Originales: Sumérgete y bucea en Communication-Efficient Learning of Deep Networks from Decentralized Data el documento del primer FedAvg original o artículos sobre DFL.
  • Tutoriales Integrativos Prácticos: Numerosos Frameworks disponen de documentación repleta en Jupyter Notebook paso a paso.
  • Conferencias del Gremio: ICML, NeurIPS y talleres puramente vinculados a cumbres globales FL (por ponerte varios de peso colosal en ejemplos presenciales).

Conclusión Final

El Aprendizaje Federado supone indiscutiblemente nada menos que un cambio total generacional y transversal de raíz sobre un modelo conceptual en como todo analítico debe engranar el actual ML en la sociedad y privacidad humana. Con el pilar férreo asentado en crear aprendizaje sobre un formato en el que jamás debamos enviar en claro y sobre la mesa nuestra huella de privacidad en datos brutos y sensibles de cada ser vivo o entidad, este formato nos deja ser parte fundamental del tren o nave que lideren las próximas grandes vías artificiales generativas sin renunciar al anonimato primario que por derecho rige frente al mundo abierto digital crudo. La epopeya e historia solo acaba de comenzar apenas y ha asoleado por la ventana, yo mismo ando muy ilusionado y extasiado por dedicar y sumergirme activamente todos los días sobre una vertiente donde converjen mi devoción a este trabajo la conjunción indisoluble por afianzar la seguridad vital cibernética que todos hemos de poseer antes del propio paso número cero.


¿Cuáles son tus sensaciones y enfoques sobre las aplicaciones y el horizonte de FL? ¿Las has puesto en práctica? Animaríamos a hablar y buscar conexiones por las vías donde haya margen por parte del mundo en colaborativas académicas y conjuntas en implementaciones.


Este post es parte y fruto de investigación doctoral en curso (Tesis y Documentación adyacente) del perfil autoral asociado sobre seguridad en IA para infraestructuras operadas por FL. Te sugiero darle de paso un vistazo transversal a lo aquí publicado visitando mi rama paralela de publicaciones académicas formales (investigación abierta bajo Open Access) al respecto del ecosistema que abordo e integramos.

Investigación relacionada

NEBULA: una plataforma para aprendizaje federado descentralizado

13 de marzo de 2025

NEBULA: una plataforma para aprendizaje federado descentralizado

Guía completa sobre NEBULA como plataforma para aprendizaje federado descentralizado, desde conceptos básicos hasta aplicaciones avanzadas en salud, IoT y ciberseguridad, con ejemplos prácticos.

Aprendizaje federado descentralizado: una nueva era en inteligencia artificial

15 de septiembre de 2023

Aprendizaje federado descentralizado: una nueva era en inteligencia artificial

Explora el mundo transformador del aprendizaje federado descentralizado, desde sus fundamentos matemáticos hasta sus aplicaciones reales en ciberseguridad y otros dominios.