Líder de Soluciones IA/LLM/RAG
Líder de Soluciones IA/LLM/RAG (Senior Architect – MLOps & RAG Systems)
Ubicación: Presencial en Madrid
Experiencia: +5 años en desarrollo de software y +3 liderando soluciones IA/LLM
Tipo de contrato: Indefinido / Proyecto estable
🎯 Responsabilidades clave
Arquitectura LLM/RAG: definición de la referencia (ingesta, chunking, indexación, retrieval, re-ranking, guardrails) con FAISS/Chroma/Elasticsearch y embeddings adecuados al caso de uso.
Evaluación: métricas automáticas, LLM, golden sets y experimentación controlada para reducir alucinaciones.
Orquestación y agentes: diseño de planners/executors, function/tool calling y colas de trabajo (LangChain + Celery + RabbitMQ).
MLOps end-to-end: tracking de experimentos, versionado de artefactos/modelos, model registry, CI/CD, canary releases y A/B testing.
Despliegue y operación: APIs (FastAPI tras NGINX), jobs batch (Celery), contenedores (Docker/Kubernetes), IaC (Terraform) en Azure/AWS y on-prem.
Observabilidad: monitorización de drift, SLIs/SLOs (latencia p95, error rate, coste/consulta), alertas y dashboards.
Optimización: tuning de prompts/modelos, cuantización/cuotas, políticas de caching y costes.
Datos e índices: diseño de stores (PostgreSQL, MongoDB) y búsqueda (Elasticsearch); gobierno de esquemas y retención.
Buenas prácticas: seguridad y RGPD, control de acceso, auditoría; documentación viva, ADRs y transferencia de conocimiento al equipo.
✅ Requisitos esenciales
5+ años en desarrollo de software y 3+ liderando soluciones de IA/LLM en producción.
Experiencia probada diseñando y operando plataformas RAG (retrieval, re-ranking, guardrails y evaluación automática).
Sólidos conocimientos en Python y diseño de APIs (FastAPI/Django), colas (RabbitMQ) y procesamiento batch (Celery).
Experiencia en MLOps: tracking de experimentos, versionado, observabilidad, CI/CD y despliegue en Docker/Kubernetes tras NGINX.
Conocimiento práctico de Elasticsearch y almacenes vectoriales (FAISS/Chroma).
Experiencia en Cloud (Azure/AWS) y IaC (Terraform).
⭐ Deseables
Experiencia en recomendación y ranking (LightGBM/embeddings) y experimentación A/B.
Gobierno de prompts y catálogos; hardening de seguridad, cumplimiento (RGPD/AI Act) y gestión de PII.
🧩 Stack de referencia
Python, FastAPI, Celery, RabbitMQ, FAISS/Chroma, Elasticsearch, PostgreSQL, MongoDB, Docker, Kubernetes, NGINX, Terraform, Azure/AWS, LangChain, LangGraph.
- Ubicaciones
- Madrid
Madrid
Lugar de trabajo y cultura
La clave es contar con un equipo humano extraordinariamente preparado y motivado, que renueva constantemente sus conocimientos, y que basa su trabajo en el diálogo continuo, la proximidad a nuestros clientes y l profesionalidad
Acerca de TECDATA ENGINEERING
TECDATA ENGINEERING es un proveedor líder de soluciones y servicios tecnológicos especializado en proyectos globales de tecnología avalado por su portfolio de servicios y productos enfocados a generar valor añadido, aumentar la ventaja competitiva y reducir costes para sus clientes. Estamos presentes en los sectores económicos más importantes: Banca, Telecomunicaciones, Seguros.