Logística y Nuevas Tecnologías

Análisis masivo de datos (Big Data Analytics)

Aplicación de Infraestructura Digital

Uno de los fenómenos impulsores de la Industria 4.0 es sin duda la conectividad. Hablamos de la era de la hiperconexión; millones de objetos con integración digital y esto implica, en el nivel más básico, la generación y transmisión de datos masivos. La pregunta fundamental: ¿Para qué queremos esos datos? Cualquiera que sea la respuesta lógica, motiva la existencia del Big Data Analytics.

Si esto de la Industria 4.0 tiene un sentido (que creo que lo tiene), la generación y transmisión de datos tiene una razón de ser; pues bien, estos datos deben procesarse y analizarse para que cobren sentido. Big Data se refiere al análisis de grandes cantidades de datos para revelar patrones del pasado, resaltar cambios en tiempo real en el estado actual y crear predicciones y pronósticos para el futuro. Esta tendencia implica diversas técnicas de procesamiento de datos estructurados, que consisten en números y valores específicos que son buscables y se almacenan en un formato predefinido, así como datos no estructurados, que pueden presentarse en diversos formatos nativos, como archivos de video, audio de sensores, publicaciones en redes sociales y por estos días el boom, lenguaje natural.

Los Big Data son un conjunto de datos que presenta las cinco “V”

 

Incluso los expertos en management más excépticos con la Industria 4.0 reconocen el valor de la capacidad de procesar grandes conjuntos de datos. Sin datos y análisis, no se puede optimizar, ni siquiera tener previsión para prepararse para lo que está por venir; sin datos, el desarrollo de los más básicos procesos logísticos puede llegar a ser caótico.

Como un paso más allá de las capacidades de procesamiento de datos de los sistemas transaccionales tradicionales, muchos líderes logísticos han adoptado sensores, paneles de control y otras tecnologías para recopilar y mostrar flujos de información (provenientes de diversas fuentes). A medida que aumenta el uso de dispositivos de recopilación de datos, combinado con el crecimiento exponencial de datos brutos encontrados en las redes sociales y en Internet en general, la tasa de llegada de datos supera con creces la tasa de procesamiento, con 463 quintillones (1018) de bytes (o 463 mil millones de GB) de datos que se producirán diariamente en 2025 (según DHL). Para diferenciar estas enormes acumulaciones de datos estructurados y no estructurados, de datos más tradicionales que se pueden manipular fácilmente en una hoja de cálculo, los expertos han etiquetado los primeros como «big data»: voluminosos, que se generan de foma veloz, que tienen un valor y que son variados.

Diversos investigadores (The role of big data analytics in industrial Internet of Things) y portales especializados (DHL) clasifican en 4 o 5 los tipos principales de análisis de big data que podrían aplicarse en casos de uso a lo largoy ancho de la cadena de suministro:

  • Análisis descriptivo
  • Análisis diagnóstico
  • Análisis predictivo
  • Análisis prescriptivo
  • Análisis en tiempo real

El análisis descriptivo busca comprender la situación existente y responder a la pregunta de qué sucedió, mientras que el análisis diagnóstico intenta investigar por qué sucedió algo. Mientras tanto, el análisis predictivo, como sugiere su nombre, genera predicciones y pronósticos de lo que podría suceder en el futuro, y el análisis prescriptivo utiliza datos históricos y situacionales para recomendar cambios en lo que se debe hacer.

Fuente: The role of big data analytics in industrial Internet of Things

 

Pensemos en una situación «tipo» en logística. El análisis descriptivo puede arrojarnos información relacionada con la existencia de roturas de stock; mientras tanto, el análisis diagnóstico puede delimitarnos a través de los datos las causas correlacionadas de la rotura del stock. A través del análisis predictivo, se pueden generar pronósticos de rotura de stock; y el análisis prescriptivo utiliza los datos históticos y situacionales para modificar los parámetros de reabastecimiento o emitir órdenes, es decir, recomendar cambios en el proceso logístico.

¿Recuerdan el fenómeno de la Paleta Drácula? Pues bien, a pesar de haber sido un éxito en ventas, fue evidente que la demanda superó ampliamente a la oferta: agotados a lo largo y ancho del país. Fue un feómeno promocional que se activó y creció en las redes sociales, una mezcla de nostalgia, popularidad y aceptación, motivó que una generación, ahora con capacidad adquisitiva, se volcara a adquirir un producto cuyo público objetivo eran los niños. Probablemente, los nuevos modelos analíticos aplicados a logística (predicción de demanda), incorporen las redes sociales como flujo de datos no estructurados para analizar las conversaciones sostenidas en lenguaje natural y predecir fenómenos de esta naturaleza. ¡Big Data Analytics!

La tendencia del Big Data tiene un impacto moderadamente alto en la logística y lo clasificamos como una tendencia que se agrupa dentro de los habilitadores de infrestructura digital (Digital Backbone), es decir, forma parte esencial de la integración del mundo físico y digital, es transversal (es imposible pensar en Industria 4.0 sin considerar la capacidad de procesar datos masivos). Si bien no transforma directamente la apariencia y el aspecto de la cadena de suministro físicamente, la mayor visibilidad y la toma de decisiones optimizada que resultan de esta tendencia pueden conducir a una optimización estratégica a lo largo de los segmentos de la cadena de suministro, mejorando sustancialmente los niveles de servicio, desde un almacenamiento de estibas más eficiente en una instalación hasta el aseguramiento de la disponibilidad. En términos de realización, el análisis de big data está mucho más cerca en la industria logística que en otras industrias. Muchos, si no todos, los líderes logísticos han aprovechado los grandes datos en los últimos años.

Big Data no solo es «análisis»

Fuente: DHL

 


Aplicaciones en Logística: ¿Puede el Big Data remover restricciones logísticas?

Gestión de activos e inventarios

Una de las principales oportunidades que tiene big data es proporcionar a los distintos actores de la cadena de suministro una visibilidad en tiempo real organizada, filtrada y digerible de la situación actual en instalaciones como almacenes y centros de distribución. El flujo puede gestionarse toda vez que los datos relevantes sean visibles.

El análisis de datos de inventario proveniente de sensores puede ayudar a determinar si los niveles de stock están bajando, por ejemplo. Para fines de diagnóstico, los análisis pueden revelar cómo ciertos envíos provocan que un transportador particular se averíe con frecuencia o pueden identificar eventos mundiales o locales que tienen un efecto dramático en el nivel de inventario de productos específicos: Cadena de Suministros Digital.

El equipo de Applied Analytics de DHL, por ejemplo, realiza estudios para clientes que pueden recomendar cambios basados en patrones identificados en los datos, donde el inventario puede haber excedido las previsiones originales de demanda, por ejemplo, o en los que el stock de seguridad puede haber disminuido por debajo de umbrales críticos. Para los activos, se puede procesar datos históricos para sugerir el mejor lugar para almacenar herramientas y otros equipos para limitar la distancia que deben recorrer los trabajadores para recuperarlos: optimización intralogística (el recurso correcto y la tarea correcta).

En general, el análisis de big data puede dar a las organizaciones logísticas la visibilidad necesaria para optimizar el almacenamiento y movimiento de envíos a través de las instalaciones, así como para mejorar la utilidad y vida útil de los activos.

Veamos un ejemplo de aplicación de Big Data, la operación de este CEDI de Amazon no sería posible sin la analítica de datos masivos:

 

Transporte, distribución y gestión del riesgo

Big Data puede ofrecer varias soluciones para rmover las restricciones que las organizaciones logísticas a menudo enfrentan en los segmentos de transporte y entrega de la cadena de suministro: Interrupciones del flujo que luego afectan la disponibilidad (objetivo logístico clave).

En cuanto al análisis descriptivo, el procesamiento de Big Data puede ayudar a monitorear los niveles de servicio en una ruta en particular, identificando interrupciones como las averías de camiones en tiempo real cuando estas ocurren. Además, los datos de docenas a miles de sensores brindan visibilidad a las organizaciones de la cadena de suministro sobre si los productos se entregan en un estado de alta calidad o si están dañados en el camino; esta visibilidad no solo puede utilzarse para remover restricciones logísticas tradicionales, ya que también pueden contribuir a remover restricciones transaccionales de un consumidor hiperconectado que quiere conocer o prever la disponibilidad y/o trazabilidad de sus productos. Con el análisis diagnóstico, las empresas pueden ver por qué ciertos envíos siempre llegan tarde, ya que esto puede deberse a que el horario de la ruta coincide con el tráfico de hora punta o el envío pasa por puertos de entrada con personal insuficiente, por ejemplo.

Everstream Analytics utiliza feeds de noticias globales y otros datos propietarios para hacer predicciones para sus clientes de la cadena de suministro en 30 categorías de riesgo, incluidos desastres naturales y violencia política (flujos de datos no estructurados). Al hacerlo, afirma reducir las pérdidas de ingresos causadas por interrupciones en un 30%, logrando 100 millones de dólares en ahorros por optimización del modo de transporte.

El ecosistema tecnológico del Big Data se compone de:

  • Múltiples fuentes de datos (integración): sensores, sistemas transaccionales (ERP), sistemas MES, sistemas SCADA, sistemas CRM’s, servicios IoT, feeds de noticias, datos provenientes de redes sociales, correos electrónicos, conversaciones, imágenes en tiempo real (gracias a los desarrollos que se pueden apreciar 2022 – 2023).
  • Técnicas de análisis: analítica de texto, machine learning, data mining, estadística, lenguaje natural (la tendencia #1 del 2022-2023: GPT).
  • Herramientas de análisis: repositorio de algoritmos, software de analítica, herramientas de visualizacion, herramientas de modelamiento y optimización, paquetes de analítica online.
  • Aquitecturas e infraestructuras funcionales: computación en la nube.
  • Ciberseguridad.

Desafíos de esta tecnología

  • La mayoría de los datos, especialmente los provenientes de internet, son no estructurados y deben ser «limpiados» y filtrados para alcanzar la calidad suficiente para el análisis; este proceso y los intentos de automatizarlo requieren tiempo, dinero y talento. Sin embargo, debemos considerar que en el último año los modelos de análisis se han desarrollado ampliamente, con capacidades de limpieza y procesamiento considerables a muy bajo costo.
  • Los datos pueden tener un alto valor monetario y protegerlos requiere una infraestructura sólida de ciberseguridad.
  • El análisis de grandes datos requiere datos; antes de embarcarse en un viaje de análisis de grandes datos, una empresa logística debe identificar qué tipos de datos son valiosos para la organización y luego construir redes de recolección de datos apropiadas mediante sensores y otras tecnologías. De manera que es una cuestión de enfoque, y separar las señales de los ruidos no es una habilidad intuitiva, debe desarrollarse.

Perspectivas 2023

La tendencia del análisis de Big Data tiene un gran potencial para aumentar el rendimiento de la cadena de suministro y del negocio utilizando la infraestructura existente con casi ningún cambio. Aunque los desafíos incluyen la transformación de datos no estructurados en algo significativo, muchas empresas de logística han decidido abordar esto y han logrado beneficios muy valiosos. Los avances continuos en la inteligencia artificial analítica están aumentando la capacidad de procesar incluso más datos en menos tiempo y detectar patrones más profundos para mejorar y optimizar aún más la logística. La integración con modelos de inteligencia artificial interactiva será el paso siguiente en el ámbito logístico. El lanzamiento de la cuarta generación GPT (Generative Pre-trained Transformer – GPT-4 lanzado en 2023

), y sobre todo, el anuncio de la disminución de los costos de procesamiento, permite dilucidar que la integración de los datos no estructurados provenientes de las interacciones naturales humanas serán una realidad en el corto plazo.

En el contexto de la logística, los modelos tipo GPT pueden ser utilizados para la generación de informes automatizados, la respuesta automática de consultas de clientes, la detección de anomalías y el análisis de sentimientos / interacciones de los clientes. El uso de modelos tipo GPT en la logística puede permitir una mayor automatización de las operaciones y una toma de decisiones más eficiente y rápida.

Para integrar el Big Data con modelos tipo GPT en la logística, se requiere una infraestructura de datos sólida que pueda proporcionar los datos necesarios para entrenar y alimentar los modelos. Los datos deben ser procesados y limpiados para asegurar su calidad antes de ser utilizados en los modelos. Además, se requiere un equipo de expertos en ciencia de datos y aprendizaje automático para desarrollar y ajustar los modelos de acuerdo con las necesidades específicas de la cadena de suministro.

*Recomiendo revisar el concepto de: Cadena de Suministros Digital.


Recuerde:

«Una nueva tecnología traerá beneficios para la empresa, si y solo si, tiene la capacidad potencial de remover restricciones activas del sistema» Eliyahu Goldratt

De manera que en el ejercicio de desarrollo de la Ruta Tecnológica, considere cuáles son las restricciones del sistema logístico; cuáles son las reglas de operación actuales que están condicionadas por las restricciones; cómo analítica de Big Data pueden remover las restricciones del sistema; cuáles serían las nuevas reglas de operación con esta nueva tecnología y cómo se puede mejorar.

Bryan Salazar López

Ingeniero Industrial y Magíster en Logística Integral especializado en productividad y modelamiento de procesos bajo dimensiones de sostenibilidad, industria 4.0, transformación digital y modelos de optimización. Docente universitario de pregrado y posgrado con experiencia en la enseñanza de estos temas. Fundador de Ingenieriaindustrialonline.com, un sitio en donde se recogen las aportaciones de investigaciones, artículos y referencias relevantes para la industria.

Entradas recientes

El sentido común y la Teoría de Restricciones (TOC)

En una pequeña comunidad agrícola en Michoacán, México, un niño llamado José Hernández soñaba con…

hace % días

La restricción nos blinda contra las malas noticias

Sábado por la mañana, Robert acaba de acompañar a su mujer a su clase de…

hace % días