Skip to main content
European Commission logo
español español
CORDIS - Resultados de investigaciones de la UE
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

TrustwOrthy model-awaRE Analytics Data platfORm

Article Category

Article available in the following languages:

Análisis de datos masivos para dummies

Los datos masivos siguen siendo algo muy elitista: solo las empresas más adineradas y avanzadas tecnológicamente pueden hacerse una ligera idea de su potencial. Todo esto podría estar a punto de cambiar gracias a la plataforma de análisis de datos masivos desarrollada dentro del proyecto TOREADOR, que se ocupa automáticamente de los principales problemas relacionados con la preparación de los datos previa solicitud.

«Las expectativas con respecto a los datos masivos son muy elevadas, pero la diferencia entre la ambición y la realización todavía es grande, especialmente para las pymes», opina el doctor Ernesto Damiani. Y habla con conocimiento de causa: desde principios de 2016, el doctor Damiani ha liderado un consorcio de diez socios que investiga las razones de estas diferencias y sus posibles soluciones. El hecho de que relativamente pocas pymes hayan incorporado el análisis de datos masivos a su oferta o procesos internos se debe principalmente a dos razones. La primera es una falta de competencia en el análisis de los datos masivos, tal como explica el doctor Damiani. Una empresa que, por ejemplo, desee adaptar su oferta al comportamiento del cliente utilizando una aplicación gratuita tendría que recurrir a una consultoría muy costosa. Actualmente, esa es la única manera de atribuir objetivos empresariales a clase de ciencia de los datos y de soluciones tecnológicas. «En concreto, la descripción del proyecto podría ir en la línea de "reunir los eventos generados por las aplicaciones centrales del cliente y utilizarlos para entrenar un clasificador de bosques aleatorios, escalable y de categoría múltiple, de su comportamiento para su implementación en un servicio en la nube pública"», afirma. La segunda causa es larga duración del despliegue y, una vez más, el coste prohibitivo de las campañas de datos masivos, incluso aunque el enfoque de la ciencia de datos ya se haya identificado. En conjunto, estos problemas han mantenido a las pymes y a las empresas inexpertas en TIC alejadas del análisis de los datos masivos, aunque representan una parte importante del eje central de la fabricación en la UE. La metodología y el juego de herramientas de TOREADOR (TrustwOrthy model-awaRE Analytics Data platfORm) ofrecen una solución a ambos problemas: automatizan y comercializan el análisis de datos masivos al mismo tiempo los adaptan a los requisitos específicos del dominio del cliente con mucha más facilidad que antes. El marco de TOREADOR admite dos transformaciones automatizadas. La primera empieza a partir de un modelo declarativo de lectura automática que recopila los objetivos del propietario de los datos y termina en un modelo procesal semántico independiente de la tecnología que describe el cálculo que debe efectuarse. Después, la segunda transformación se basa en el modelo procesal para calcular un modelo de implementación dependiente de la tecnología. Este último puede ejecutarse en una plataforma Apache, en las instalaciones del cliente, en servicios en la nube comercial como AWS, como código Phython ejecutable en la plataforma Azure o como contenedor Docker. «Nuestros modelos declarativos pueden recopilar los objetivos empresariales de las campañas de datos masivos de manera interactiva y permitir al juego de herramientas TOREADOR proporcionar un consejo automático sobre la viabilidad de las soluciones. Los modelos procesales ofrecen entonces una descripción innovadora del cálculo del análisis de datos masivos en los estándares semánticos y nuestros compiladores traducen estos modelos procesales en flujos de trabajo totalmente ejecutables o incluso en código Python nativo en paralelo. Buscamos un proceso de desarrollo iterativo en el que los usuarios no expertos en TI puedan configurar rápidamente una campaña generando un flujo de trabajo ejecutable en un servicio en la nube pública y, a continuación, en caso necesario, llamar a desarrolladores que generen un código Python autónomo», explica el doctor Damiani. Los socios del proyecto ya han identificado cuatro pilotos industriales en los campos de mantenimiento predictivo de motores de aviones, gestión predictiva de plantas de energía solar, análisis de registros de aplicación empresarial y análisis de secuencias de clics para aplicaciones de comercio electrónico. «La plataforma TOREADOR está disponible y se ha implementado en las cuatro ubicaciones piloto. También está disponible como versión preliminar gratuita para miembros seleccionados de la comunidad TOREADOR, que está compuesta por empresas europeas (varias de ellas pymes) reclutadas con la ayuda de TAIGER (España), una pyme innovadora del consorcio de TOREADOR. En nuestra página web están disponibles los detalles de estos pioneros. Además, la metodología de TOREADOR se ha incorporado a otros proyectos europeos usando campañas de datos masivos como EVOTION», afirma el doctor Damiani. La finalización del proyecto está programada para finales de 2018. Hasta entonces, el consorcio tiene la intención de seguir ampliando el catálogo de servicios disponibles en la plataforma y ofrece ejemplos de las campañas de datos masivos habilitadas por TOREADOR, incluidos el entrenamiento y la implementación de modelos avanzados de aprendizaje automático.

Palabras clave

TOREADOR, pymes, datos masivos, análisis, negocio, juego de herramientas, nube

Descubra otros artículos del mismo campo de aplicación