Domina el ciclo completo del Machine Learning: desde la investigación hasta la producción. Combina modelos de IA con infraestructura cloud de clase enterprise para crear sistemas inteligentes que escalan.
Un viaje desde los fundamentos matemáticos del ML hasta el despliegue en producción con Kubernetes y monitorización de modelos en tiempo real.
Fundamentos matemáticos, regresión, clasificación, clustering, árboles de decisión, SVM, Random Forest, XGBoost. Feature engineering y selección de modelos con validación cruzada.
Redes neuronales profundas, CNNs para visión artificial, RNNs/LSTMs para series temporales, Transformers y atención. Fine-tuning de modelos preentrenados (BERT, ViT, Whisper).
ML pipelines con MLflow y DVC, versionado de datos y modelos, feature stores, model registry, A/B testing de modelos, monitorización de drift y re-entrenamiento automatizado.
Servicios gestionados de ML (SageMaker, Vertex AI, Azure ML), arquitecturas serverless, redes VPC, IAM avanzado, multi-region deployments y disaster recovery.
Clusters de producción con EKS/GKE, Helm charts, autoscaling de pods (HPA/VPA), network policies, secrets management con Vault y GitOps con ArgoCD.
Construye una plataforma de recomendaciones con ML en producción: ingesta de datos en streaming, entrenamiento automatizado, serving con FastAPI, despliegue en Kubernetes y monitorización con Grafana.
Trabajarás con las herramientas más demandadas en la industria de IA/ML en 2026:
Al terminar el módulo habrás construido y desplegado un sistema de IA completo en producción cloud. Tu proyecto estará listo para incluir en tu portfolio profesional.
La diferencia entre un proyecto de ML académico y uno de producción es enorme. La mayoría de los cursos de IA te enseñan a entrenar modelos en Jupyter Notebooks; nosotros te enseñamos a construir sistemas de IA que funcionan 24/7 con alta disponibilidad y bajo coste.
El módulo incluye situaciones reales: qué hacer cuando un modelo degrada en producción, cómo gestionar el reentrenamiento sin downtime, cómo balancear coste computacional con latencia de inferencia y cómo mantener la reproducibilidad de experimentos en un equipo grande.
Detección y respuesta al deterioro de modelos en producción.
Optimizar el coste de entrenamiento e inferencia en la nube.
Sesgo algorítmico, explicabilidad (XAI) y regulación AI Act.
Adversarial attacks, model stealing y protección de datos.
Las preguntas más habituales de quienes empiezan este módulo.
El módulo comienza con un bloque de repaso matemático de 3 días que cubre álgebra lineal (vectores, matrices, operaciones), cálculo diferencial (gradientes, regla de la cadena) y probabilidad estadística (distribuciones, máxima verosimilitud, Bayes). Si tienes nociones básicas de estas áreas, es suficiente para seguir el módulo con comodidad. La mayoría de las implementaciones usan librerías de alto nivel (scikit-learn, PyTorch) que abstraen las operaciones matemáticas, pero entender la intuición detrás de los algoritmos es fundamental para tomar buenas decisiones de modelado.
El módulo enseña conceptos multi-cloud y los ejemplos prácticos se desarrollan principalmente en AWS (la más demandada en el mercado laboral en 2026), con secciones específicas para GCP y Azure. Todos los proveedores principales ofrecen créditos gratuitos para estudiantes (AWS Educate, GCP Free Tier, Azure for Students) que son más que suficientes para completar los proyectos del módulo sin incurrir en costes significativos. También usamos LocalStack para emular servicios de AWS en local cuando sea conveniente. El conocimiento es transferible: los conceptos de IAM, VPC, load balancers y servicios gestionados son similares en todos los proveedores.
El módulo enseña ambos, ya que cada uno tiene su ecosistema y casos de uso. PyTorch ha ganado enorme tracción en investigación y academia gracias a su diseño "pythónico" y la facilidad de debugging con dynamic computation graphs. TensorFlow/Keras sigue siendo muy relevante en producción empresarial, especialmente con TensorFlow Serving y TensorFlow Lite para edge deployment. Para un profesional de 2026, conocer ambos es una ventaja competitiva clara. Comenzamos con PyTorch para los fundamentos de deep learning (más intuitivo) y usamos TensorFlow en la sección de MLOps y producción, donde su ecosistema de herramientas es más maduro.
Sí, el bloque 2 de Deep Learning incluye una sección dedicada a la arquitectura Transformer y al fine-tuning de modelos preentrenados. Cubrimos técnicas como LoRA, QLoRA y PEFT para fine-tuning eficiente de LLMs en hardware accesible. También se incluye una introducción práctica a sistemas RAG (Retrieval-Augmented Generation) y el uso de embeddings para búsqueda semántica. El módulo de IA avanzada del track de especialización profundiza más en estos temas, incluyendo agentes autónomos, llamadas a herramientas y la evaluación de LLMs en producción.
El proyecto final (plataforma de recomendaciones en la nube) está diseñado para completarse en 2 semanas dedicando unas 3-4 horas diarias. Está dividido en sprints bien definidos: ingesta de datos y feature engineering (3 días), entrenamiento y evaluación del modelo (3 días), empaquetado como API con FastAPI (2 días), contenerización y despliegue en Kubernetes (3 días) y monitorización y presentación (3 días). Cada sprint tiene una guía detallada y se puede obtener ayuda del equipo de mentores. El proyecto queda alojado en tu cuenta cloud (con costes mínimos) y tienes total libertad para adaptarlo a un dominio que te interese.