Desarrollo de soluciones Big Data Analytics

  • Data Analytics
  • curso
  • 40
  • 20/09/2022
PRESENCIAL

APROVECHA ESTA NUEVA PROMOCIÓN:
→ 40% DTO.
¡sólo hasta el 11 de agosto!

Curso organizado dentro del marco del proyecto EUHubs4Data

Curso de formación realizado en colaboración con la Asociación de Tecnologías de la Información de la Comunitat Valenciana (SOMDIGITALS) y la Asociación Valenciana de Ingenieros de Telecomunicación (AVIT).

Son muchas las empresas que hoy en día se están preguntando por la viabilidad de implantar una estrategia Big Data Analytics en la empresa para la optimización de los procesos de fabricación, predicción de distintos indicadores de rendimiento (ventas, demanda, sentimiento), simulación de escenarios (financieros, precios), etc. Pero son también muchas las incertidumbres a las que se enfrentan antes de poder tomar una decisión informada de cara a dicha implantación.

Hablamos de Data Science, IoT, Business Intelligence, Big Data, Data Analytics, Machine Learning e Inteligencia Artificial, pero no todas estas herramientas participan en todas las soluciones, ni en la misma intensidad. Así nos encontramos casos en los que no se pueden aplicar técnicas de aprendizaje automático porque falta digitalizar los procesos (de negocio, de fabricación, etc.). A veces se piensa en digitalizar toda una planta cuando una extracción de datos históricos con unos pocos sensores es suficiente. Hay escenarios que requieren almacenar grandes cantidades de datos. En otros casos es suficiente con desarrollar herramientas auxiliares que capturen métricas para poder aplicar técnicas de aprendizaje automático. Hay mucha heterogeneidad y no hay una solución única.

Para los equipos de desarrollo es un dominio nuevo, por lo que es necesario tener una visión concreta de qué técnicas son necesarias en cada una de las etapas del ciclo de vida de una solución Big Data Analytics para hacerse una idea de la complejidad de estos proyectos y el impacto que tiene la introducción de estas tecnologías en los procesos de la empresa.

Este curso trata de dar visión completa del proceso de desarrollo de una solución de Big Data Analytics, desde el diseño de los procesos de digitalización a la construcción de los cuadros de mando de usuario para la monitorización y explotación de los resultados de los modelos estadísticos, pasando por la adquisición y preparación de los datos, modelado y entrenamiento de modelos, evaluación de resultados y empaquetado de los modelos como servicio.

 

Objetivos

El objetivo de este curso es resolver las principales dudas con las que se enfrentan los jefes de proyecto y desarrolladores a la hora de desarrollar una solución de Big Data Analytics en la empresa. Se cubre el ciclo de vida de la ciencia de datos (digitalización, adquisición y preparación de los datos, entrenamiento y evaluación de modelos predictivos, despliegue de modelos y generación de conocimiento) presentando las principales técnicas a aplicar en cada una de las etapas.

Público objetivo

Jefes de Proyecto y desarrolladores que estén interesados en iniciar desarrollos de soluciones Big Data Analytics.

Prerrequisitos

Conocimientos básicos de redes, sistemas operativos y programación.

Módulo 1. Introducción

La aparición de nuevos conceptos relacionados con la digitalización y la búsqueda del conocimiento a lo largo de estos últimos años hace que muchos equipos de desarrollo etiqueten equivocadamente su necesidad, lo que conduce a construir sistemas que no van a cumplir con las expectativas.

Nos encontramos casos en los que no se pueden aplicar técnicas de aprendizaje automático porque falta digitalizar los procesos (de negocio, de fabricación, etc.). A veces se desea digitalizar toda una planta cuando una extracción de datos históricos con unos pocos sensores en un cubo multidimensional es suficiente. Hay escenarios que requieren almacenar grandes cantidades de datos. Otros requieren desarrollar herramientas auxiliares que capturen métricas para poder aplicar técnicas de aprendizaje automático. Hay mucha heterogeneidad y no hay una solución única.

En este primer módulo introductorio se presentarán los conceptos clave del dominio y de los proyectos de Big Data Analytics. Se hablará sobre objetivos y expectativas, así como de la evaluación del riesgo asociado a la ejecución del mismo. También se considerarán aspectos transversales como el cambio de cultura en la organización que supone aplicar estas técnicas, el data governance.

  1. Introducción a Big Data Analytics
    • Motivaciones
    • Nuevos conceptos: IoT, BI, IA, Machine Learning, Deep Learning, Data Engineering, Data Science, Data Analytics, Data Governance
    • ¿Qué problema resuelvo con Big Data?
    • Escenarios y retos
  2. Tecnologías Big Data
    • Fundamentos técnicos
    • La era Hadoop
    • Apache Hive
    • La era Spark

Módulo 2. Estrategia de implantación Big Data

El objetivo de este módulo es resolver las principales dudas con las que se enfrentan los equipos de dirección técnica a la hora de implantar una estrategia de Big Data en su empresa. Así, se cubre desde un vistazo casos prácticos en materia de diseño de infraestructuras Big Data, explotación y analítica de datos, pasando por una revisión de las principales tecnologías que hoy en día pueblan el horizonte de Big Data (para ingesta masiva, consulta, análisis, visualización…), hasta un roadmap para la adopción de dichas técnicas y tecnologías en nuestras empresas.

  1. Quiero ser arquitecto Big Data
    • Ecosistema Hadoop
    • Nuestra pila de servicios
    • Por dónde empezar
    • Despliegue de modelos de Machine Learning
  2. Herramientas disponibles
    • Data Engineer
    • Data Scientist
    • Data Analyst
  3. Casos prácticos
    • La infraestructura de UBER
    • Graph Analytics
    • Procesamiento de Lenguaje Natural
    • Detección de Anomalías
    • Forecasting
  4. Definiendo una estrategia Big Data
    • El equipo Big Data
    • De los datos a las aplicaciones
    • Puesta en marcha

Módulo 3. Adquisición y estructuración de los datos

La aplicación de modelos requiere corpus de entrenamiento de calidad que se extraen de las redes de sensores y los sistemas transaccionales.

Se describirán posibles soluciones para capturar, obtener y almacenar la información, en función de la dimensión de los datos y su disponibilidad. Además, se explicarán técnicas de transformación de los datos, prestando especial atención al concepto de calidad del dato.

  1. Ciclo de vida del dato
  2. Digitalización del entorno
    • Instrumentación industrial
    • Sensorización IoT
  3. Extracción de datos
    • Diversidad de orígenes: No SQL, BBDD, ficheros, web, etc.
  4. Ingesta/Almacenamiento de los datos
    • Data Warehouse, Data Lake, Lakehouse
  5. Entendimiento de los datos
    • Análisis Inicial de los Datos (IDA)
    • Técnicas de formateo
    • Técnicas de limpieza (normalización, estandarización, fusión,...)
    • Adaptación de los datos (imputación de datos faltantes)
  6. Taller: Adquisición y preparación de datos

Módulo 4. Modelos predictivos

La construcción de los modelos que permiten realizar diagnósticos, pronósticos, simulaciones o prescripciones sobre los datos pasa por tres etapas claramente diferenciadas: diagnóstico y análisis exploratorio de datos, construcción y entrenamiento del modelo, y empaquetado para ser consumidos como servicio desde aplicaciones de usuario y cuadros de mando.

En este módulo se presentan las técnicas utilizadas en cada una de las etapas.

  1. Análisis de modelos predictivos
  2. Análisis Exploratorio de Datos (EDA)
  3. Pre-Procesado de datos
  4. Entrenamiento y evaluación de modelos predictivos
  5. Despliegue de modelos
  6. Taller: Realización de un EDA, entrenamiento y evaluación de un modelo predictivo

Módulo 5. Generación de conocimiento

La explotación de los resultados de los modelos es un punto fundamental en los proyectos tanto de BI, como de Data Analytics, dado que permite transformar los datos de entrada y los resultados de los modelos en información y potencialmente en conocimiento para el apoyo a la toma de decisiones. Por ese motivo, en este módulo se mostrarán distintas formas de generación de cuadros de mando para la monitorización en tiempo real de los datos y la explotación de los modelos predictivos.

  1. Automatización de los mecanismos de captura, limpieza e integración de las fuentes de datos
  2. Soluciones de usuario para el análisis de datos
  3. Integración de modelos predictivos en cuadros de mandos
  4. Taller: Generación de conocimiento

Raúl Hussein Galindo

Ingeniero Superior en Informática.

Responsable del Departamento de Servicios de Análisis de Datos Avanzados de ITI.

Raúl cuenta con con 15 años de experiencia en áreas Industria 4.0, Salud, Legaltech, Ecosistemas Digitales de Negocio y Gestión de la Innovación. Desempeña en ITI tareas de dirección de servicios de I+D a empresas en el ámbito de Big Data e Inteligencia Artificial, destacando su experiencia en el desarrollo e implantación de Gemelos Digitales para el mantenimiento predictivo.

David Todolí Ferrandis

Ingeniero en Telecomunicación y Máster en Gestión de Instalaciones Energéticas e Internacionalización de Proyectos.

Principal Engineer en el grupo I+D de Comunicaciones avanzadas e informática industrial de ITI.

Ha trabajado para el Departamento de Comunicaciones de la Universidad Politécnica y en el Instituto ITACA de Valencia en proyectos de I+D relacionados con telecomunicaciones en el sector de redes de sensores inalámbricas, comunicaciones WiMAX y modelado de sistemas de comunicaciones. Cuenta con más de 10 artículos publicados, relacionados con redes de sensores inalámbricas y modelado de redes y protocolos de comunicaciones.

Actualmente, trabaja en el Instituto Tecnológico de Informática en la línea de comunicaciones avanzadas e informática industrial, perteneciente a la línea de Servicios de R&D, estando involucrado en proyectos de sistemas y redes de sensores inalámbricos, modelado de redes de telecomunicaciones, y aplicaciones de Industrial Internet of Things (IIoT) para Industria 4.0, participando en proyectos de I+D a nivel europeo como DEWI, SCOTT, ORIGIN, BEinCPPS y ZDMP.

Manuel Llavador Campos

D.E.A. en Programación Declarativa e Ingeniería de la Programación y Master Oficial en Ingeniería del Software, Métodos Formales y Sistemas de Información por la Universidad Politécnica de Valencia.

Director del Departamento de Consultoría Tecnológica de ITI.

Trabaja desde mayo de 2010 en el Instituto Tecnológico de Informática de Valencia, realizando tareas de consultoría y asesoría, formación y desarrollo de aplicaciones software, sistemas corporativos y administración de sistemas. Entre otras tecnologías trabaja con .NET Framework, C#, VB .NET, Windows Forms, ASP .NET, WPF, WCF, WF, AJAX .NET, Silverlight, Windows Mobile, Windows Phone, BizTalk Server, SQL Server y SQL Server BI, MySQL, SharePoint Server, Windows Server.

Anteriormente trabajó como becario de investigación en Microsoft Research Cambridge y ha sido Técnico Superior de Investigación (FPU) del Ministerio de Educación y Ciencia. Durante estos periodos participó en numerosos proyectos de investigación, con publicaciones en revistas y congresos internacionales, como miembro del grupo de investigación de Ingeniería del Software y Sistemas de Información de la Universidad Politécnica de Valencia.

María Blasco Roca

Ingeniera informática por la Universidad Jaume I de Castellón (2002-2007). En 2011 finalizó el Máster en Ingeniería del Software, Métodos formales y Sistemas de la Información, en la especialidad de Ingeniería del Software, en la Universidad Politécnica de Valencia.

Desde 2009 trabaja en  ITI (Instituto Tecnológico de Informática) dentro de la Unidad de Servicios Tecnológicos. Se ha especializado en el análisis, diseño y desarrollo de diferentes soluciones y proyectos, y ha participado en proyectos de I+D de diversa índole, en colaboración con otras compañías y entidades. También realiza funciones de asesoramiento y consultoría en migraciones tecnológicas, definiendo arquitecturas escalables y robustas.

Actualmente, es la directora del Área de Desarrollo de Soluciones Big Data Analytics dentro del Departamento de Consultoría Tecnológica (DCT), donde ejecuta proyectos de habilitación en tecnologías Big Data Analytics y participa en todas las etapas que están relacionadas con el Ciclo del Dato:

  1. Análisis de orígenes heterogéneos.
  2. Diseño y creación de procesos de extracción, carga y transformación de datos, así como el tratamiento de datos en tiempo real.
  3. Almacenamiento de grandes volúmenes de datos.
  4. Business Intelligence y análisis de datos.
  5. Servicio de acceso a datos y a modelos IA.
  6. Visualización de resultados y generación de cuadros de mando.

Miguel Bravo Arribas

Ingeniero en Sistemas de Comunicaciones por la Universidad Carlos III de Madrid y Máster en Integración de Sistemas Inteligentes por las Universidades Heriot-Watt University (Escocia), Buskerud and Vestfold University College (Noruega) y Budapest University of Technology and Economics (Hungría).

Científico de datos en el departamento de Área de Soporte Técnico a Proyectos de I+D de ITI.

Ha trabajado durante 2 años en PwC como analista de datos principalmente en proyectos de prevención y detección de fraude en banca y retail. De manera adicional ha trabajado 1 año en Deloitte como analista de datos senior gestionando equipos de 2-3 personas, en proyectos de prevención y detección de fraude en hostelería, retail, supermercados y casinos.

Se incorporó a ITI en junio de 2018 como analista de datos en el Área de Soporte Técnico de Proyectos I+D, donde trabaja actualmente realizando tareas de ETL, AED, Machine Learning y Big Data.

*Equipo docente sujeto a cambios

Este curso puede ser bonificado a través de los créditos de formación de la FUNDAE, siendo ITI la entidad Organizadora del curso. Para ello, la inscripción debe realizarse con al menos 2 días hábiles de antelación. Inscripciones posteriores no podrán bonificarse. Si necesita que dicha gestión la realice ITI, póngase en contacto con nosotros en formacion@iti.es con una antelación mínima de 6 días antes del inicio del curso. Esta gestión tiene un coste equivalente al 15% del importe máximo a bonificar, con un mínimo de 45€ por cada formación.

Todos los cursos tienen un precio base específico. Sobre el precio base, habitualmente, se podrán aplicar una serie de descuentos en los siguientes casos:

• Inscripción anticipada (30 días antes de la fecha de fin de inscripción).
• Inscripción de más de un alumno de una misma organización*.
• Ser asociados de ITI o disponer de un acuerdo de colaboración con ITI*.

* Estos descuentos no serán de aplicación durante el periodo de inscripción anticipada.

Más información aquí

Datos Básicos

Inscripción: Del 16/03/2022 al 10/09/2022
Inicio: 20/09/2022
Fin: 20/10/2022
Duración: 40
Horario: Martes y jueves. De 16:00 a 20:00h.
Lugar: Aula de formación del Instituto Tecnológico de Informática- ITI. Ciudad Politécnica de la Innovación, Edificio 8G, Cuarta Planta