Dónde estamos en la transformación digital?

Desde hace mucho tiempo, nuestras charlas con Peter Zornio, CTO de Emerson Automation, nos ayudaron a ver y comprender mejor el mundo en que vivimos y hacia dónde vamos. Esta vez tampoco fue la excepción…

 

Gran parte de los sistemas y datos para la gestión de una planta industrial se moverá de in situ a la nube, reconoce sin titubeos Peter Zornio.

Será un ‘cambio de plataforma’ tan grande como lo fue el paso de las estaciones de trabajo a ‘Wintel’ a mediados de los años ’90.

La nube para las operaciones de planta es potencialmente un gran cambio de plataforma que nos afectará a todos quienes estamos en el mundo de tecnología de operaciones y automatización. Se vislumbra que los sistemas de automatización atravesarán un cambio de plataforma similar a la manera en que la computación convencional pasó de mainframes a estaciones de trabajo y de estaciones de trabajo a PCs.

 

Un poco de historia

Podía aparecer un problema con un mainframe cuando se necesitaba más potencia y había que conseguir otro mainframe. Todo el mundo soñaba con tener su propia computadora y no tener que compartir con otras personas.

Por supuesto que esto ocurrió cuando pasamos de mainframes a estaciones de trabajo UNIX en el mundo de ingeniería. Todos podían tener su propia computadora, aun cuando el procesamiento se realizara en una máquina central.

Luego, a mediados de los ‘90, se pasó a sistemas operativos Windows en una estructura Intel, que la gente llama ahora ‘Wintel’.

Eso dió origen a un entorno computacional que todavía sigue siendo el entorno estándar para el mundo de la automatización y el mundo informático. Se vienen usando computadoras Wintel desde hace más de dos décadas, tanto para computadoras personales como para servidores, manejando e-mails y software de empresa. 

Los primeros servicios de nube comerciales, lanzados en 2010, fueron como un ‘centro de alquiler de datos’, lo que le permitió al usuario evitar el gasto de tener que operarlo por sí mismo. Uno podía correr las mismas aplicaciones de software en el centro de datos de otro.

Era como tener un gran mainframe virtual en el cielo, pero infinitamente escalable.

Los departamentos de informática (IT) del mundo, una vez detectada la ventaja de moverse en esta dirección, han ido aceleradamente hacía allá, utilizando desde entonces la nube.

 

OT e IT

Entre quienes más impulsaron el movimiento de los sistemas de planta a la nube fue el personal informático, cada vez más involucrado en el mundo de tecnología de operaciones (OT), y que ya se siente confortable corriendo cualquier cosa en la nube.

Cuando los sistemas de automatización hicieron su transición a Windows en los años ’90, de repente los mundos de OT e IT tuvieron que usar la misma plataforma y se vinieron muchos años de discusiones acerca de quienes era el ‘dominio’.

Los informáticos empezaron a ver una gran cantidad de equipos de automatización, pensando que era igual a lo que ellos usaban y, por lo tanto, les pertenecía. Pero aún así, desde entonces, la mayoría de las empresas mantuvieron el mundo de OT separado del mundo de IT, instalando redes separadas o utilizando firewalls.

Los sistemas estaban conectados pero en realidad no estaban integrados. Al respecto,  Emerson aportó al mundo de OT equipos preconfigurados para evitar las complejidades de correr sistemas informáticos.

Hubo un largo período de ‘coexistencia pacífica’. Los informáticos ya tenían sus datos y no debían meterse con la gente de OT, que lo único que quería era correr su propio entorno.

En biociencias ha habido más integración entre IT y OT, quizás por haber sido más agresivo el traslado de la tecnología informática a manufactura.

Pero hoy en día, los programas de ‘transformación digital’ están presionando a los informáticos para que se involucren más en el mundo de OT en todos los sectores de la industria.

Casi todas las empresas han tenido y tienen algún tipo de programa de transformación digital en curso. Muchas veces está a cargo del departamento de IT y algunas veces a cargo de OT y grupos de ingeniería. Pero hay un buen número de programas de transformación digital que reclaman una integración mucho más estrecha entre IT y OT, por ejemplo proyectos para enviar datos a dispositivos móviles, realidad aumentada y disponer de servicios conectados de terceros.

Y cuando la gente de IT interviene en el mundo de OT, está incorporando sus preferencias, lo que incluye tecnología de nube. Al respecto, hay departamentos de IT que abordan directamente los problemas de operaciones cuando extraen datos, ejecutan machine learning y tratan de resolver algunos de los problemas que los departamentos de OT han intentado resolver durante bastante tiempo.

Normalmente se necesita un experto en el tema, alguien que entienda el proceso, para resolver un problema. Mientras tanto, según Zornio, un científico de datos a veces puede llegar a aportar algunas conclusiones francamente tontas o cosas que son obvias para el personal de una planta. Sin embargo, la combinación de ambos permite resolver nuevos problemas.

OT e IT normalmente trabajan en distintas escalas de tiempo, ya que la gente de OT está acostumbrada a mantener los equipos funcionando hasta que fallen, mientras la gente de IT está acostumbrada a implementar un software nuevo en todo momento.

Al combinar IT y OT, se consiguen muchas capacidades informáticas en el mundo de OT, tales como comunicaciones wireless en el campo, analítica de datos en la nube y una mayor capacidad de almacenamiento de datos.

De cualquier forma, si lo que se busca son servicios alojados en la nube, por definición hay que involucrar a gente de IT a la hora de saber acerca de reglas de privacidad de datos allí donde se almacenan los datos.

 

In situ versus nube

Lo anterior lleva a la cuestión de cuáles sistemas de software se deben mantener in situ, mientras gran parte de ello se traslada a la nube.

El mundo de la tecnología de operaciones tradicionalmente ha operado in situ, lo que se justifica en cuanto al software que corren actualmente los equipos. Pero las aplicaciones que no son críticas en tiempo, tales como historizadores de datos, podrán ser trasladadas a la nube.

El mundo de la automatización es diferente. Según Zornio, la gran mayoría de los usuarios quieren tener la capacidad de continuar operando sin la nube. Si pierden la conexión a Internet, todavía podrán correr su planta de manera confiable. En consecuencia, tal vez lo que veremos son plantas de producción con un sistema central in situ que corre la planta, incluyendo sensores, sistemas de control y visualizaciones, y todo lo demás en la nube.

Otros temas a tener en cuenta son los bajos requerimientos de capital de un software de nube, cuánta profundidad técnica hay en una organización y qué tan bien está preparada una organización para adoptar el cambio. Algunas empresas tienen una política específica de deshacerse de todo su hardware informático e ir 100% a la nube.

 

Herramientas de datos

Hay cada vez más herramientas sofisticadas de datos disponibles en la nube, lo que fortalece el argumento de usar software de nube. Ya no se habla más de alquilar computadoras, sino alquilar un sistema operativo, incluyendo capacidad de almacenamiento de datos y analítica de datos.

Los proveedores de nube están actuando más como empresas de software (o empresas de software que se convierten en proveedores de nube). Por ejemplo, Microsoft ofrece herramientas para ‘virtualizar’ datos mediante un servicio de nube (mostrar datos desde múltiples fuentes como si vinieran del mismo depósito de datos).

Según Zornio, aún queda mucho trabajo por hacer para convertir todo esto en una aplicación real. La gente de IT suele estar dispuesta a hacer este trabajo, mientras que la gente de OT normalmente sólo quiere usar software elaborado específicamente para sus equipos.

 

Seguridad

Algunas personas plantean preocupación por la seguridad de los datos en la nube, pero muchos argumentarán a favor que los proveedores de nube tienen más tiempo, dinero y personal para ocuparse de la seguridad que cualquier otra empresa.

Esto es todo lo que ellos hacen: almacenar datos. Tienen cientos de los mejores que trabajan en seguridad. Nada es perfecto, pero probablemente tengan más recursos para aplicar que ninguno.

Una forma de lograr cosas es que los datos del mundo de OT puedan ir en una sola dirección, algo parecido a un ‘diodo de datos’. Los datos podrán salir, pero cosas malas no podrán entrar.

 

 

Herramienta de Madurez Digital

El Indice Rápido de Madurez Digital de Emerson es una herramienta de diagnóstico interactiva diseñada para que las empresas puedan comparar su competitividad con la de sus pares en la industria. Además, la herramienta permite descubrir sus mayores áreas potenciales de mejora e inversiones tecnológicas analizando los mayores costos y las iniciativas clave de desempeño.

La herramienta califica la madurez operativa en una gran variedad de dominios clave, tales como confiabilidad, sustentabilidad de energía y medioambiente, producción, seguridad, protección, sistemas y datos, y eficacia organizacional, a lo que se sumarán en el futuro evaluaciones de sustentabilidad, analítica y gestión de datos.

Con esta herramienta, los usuarios podrán trazar una hoja de ruta de transformación digital que aborde desafíos específicos, se adapte a las demandas dinámicas de mercado y brinde el mayor retorno de la inversión.

El Indice Rápido de Madurez Digital de Emerson es una herramienta de diagnóstico interactiva diseñada para que las empresas puedan comparar su competitividad con la de sus pares en la industria. Además, la herramienta permite descubrir sus mayores áreas potenciales de mejora e inversiones tecnológicas analizando los mayores costos y las iniciativas clave de desempeño.

La herramienta califica la madurez operativa en una gran variedad de dominios clave, tales como confiabilidad, sustentabilidad de energía y medioambiente, producción, seguridad, protección, sistemas y datos, y eficacia organizacional, a lo que se sumarán en el futuro evaluaciones de sustentabilidad, analítica y gestión de datos.

Con esta herramienta, los usuarios podrán trazar una hoja de ruta de transformación digital que aborde desafíos específicos, se adapte a las demandas dinámicas de mercado y brinde el mayor retorno de la inversión.

 

Analítica

Se habla mucho acerca de transformación digital. Términos como inteligencia artificial, machine learning y una variedad de tecnologías analíticas suenan con bastante frecuencia.

Pero en todo esto, muchos usuarios se sienten todavía confundidos con analítica. ¿Por dónde empezar? ¿Qué usar? ¿Cuál es la diferencia con lo que se estuvo haciendo hasta ahora en concepto de analítica?

No cabe duda de que hay algo de publicidad cuando se afirma que la analítica tiene la capacidad de ordenar el caos que puede haber en cualquier cantidad de datos. Lo cierto es que la analítica es parte de un programa de transformación digital, ya que es importante para mejorar el desempeño operativo, esto es seguridad, confiabilidad, producción, energía y emisiones, mientras promueve una fuerza laboral más empoderada y más informada.

Una de las fuentes de confusión que más discusiones ha despertado acerca del uso de analítica en la industria en general tiene que ver con la toma de decisiones del usuario. Por ejemplo, una analítica destinada al espacio de operaciones, algo que suele ser de gran valor para operadores. Es importante gestionar la complejidad de estos proyectos para evitar que se vuelvan demasiado difíciles.

Por su parte, los programas de transformación digital abordan una tecnología informática cada vez más compleja. Al respecto, lo que se busca es alejar esa complejidad y elaborar soluciones para problemas específicos, de modo que los usuarios no tengan que ensamblar sus propias soluciones.

Hay dos grupos de analítica: basada en principios y basada en datos.

En la analítica basada en principios, el modelo conoce los principios físicos que rigen una operación. Es equivalente a saber que un coche necesita combustible para funcionar.

Los principios se pueden usar para desarrollar reglas. Si el coche no arranca y el indicador de combustible está en cero, no se necesitan más datos.

El usuario se hace entonces un ‘análisis del efecto del modo de falla’. Es un método de evaluación de un proceso para identificar dónde y cómo podría fallar.

El mismo principio se puede usar en equipos mucho más complejos. Se sabe cuáles son las cosas que pueden llevar a distintas fallas; luego se las puede rastrear para ver de dónde viene la falla.

Lo mejor es comenzar con un modelo de primeros principios que ya se tiene.

En los últimos tiempos ha habido un mayor interés en modelos de analítica ‘basada en datos’, donde se ven patrones en los datos que no están relacionados con alguna característica física, por ejemplo detectar si un producto es bueno para comentarlo a alguien quién acaba de comprar algo.

Los datos pueden ser sencillos, ajustando una curva para marcar una tendencia relacionada con algo más, o tecnologías más complejas como reconocimiento de patrones.

Un buen método es comenzar con una analítica basada en principios y luego pasar a una analítica basada en datos sólo si es necesario.

Hay muchas oportunidades en las aplicaciones con equipos de bajo nivel para usar analítica basada en primeros principios y modos de falla/efectos para enterarse de lo que está pasando.

En un estudio llevado a cabo en una instalación petroquímica, se pudieron detectar más de 80% de modos de falla conocidos con un modelo de primeros principios, teniendo los datos correctos a partir de los sensores instalados en esos equipos.

A medida que crece la complejidad, se puede pasar a modelos basados en datos, o combinar un modelo basado en primeros principios y otro basado en datos. Es lo que se conoce como modelos FMEA (Failure Mode and Effects Analysis).

 

Calidad de los datos

La mayor parte del trabajo en proyectos de analítica de datos está en obtener los datos de una manera utilizable. Conseguir conocimientos a partir de buenos datos podría considerarse la parte ‘divertida’, pero gestionar la calidad de los datos es el tema clave donde la analítica tiene un rol importante. Si no se tienen datos utilizables de una manera contextualizada, no hay resultados.

En el pasado, la gente pensaba que era suficiente con enviar todos los datos cualquiera sea el sistema que se tenga, por ejemplo sistemas de monitoreo de vibraciones o de laboratorio, a la nube donde, aplicando machine learning, se podrían descubrir cosas maravillosas.

Pero esto resultó plagado de inconvenientes. Según Zornio, estos sistemas operativos de los cuales se quieren los datos, tienen una tarea para hacer, que es operar la planta. Cuando se los bombardea con pedidos continuos para ‘todos los datos’, la sobrecarga es inmediata.

Muchas veces hay interfaces de software ya existentes que son muy específicas y potencialmente antiguas. El sistema operativo puede tener entre 15 y 20 años. También puede haber interfaces únicas para obtener los datos, normalmente una capa de redes que hace atravesar los datos.

Las fuentes de datos pueden incluir sistemas de control distribuido, historizadores de datos, sistemas de mantenimiento y equipos de laboratorio. Se llega así a un cúmulo de conexiones muy complejo.

Muchos usuarios tienen implementados historizadores de donde se pueden sacar todos estos datos y enviarlos directamente a la nube. Pero cuando los datos llegan allí, ¿qué tan utilizables son?

Es un enorme problema lograr que los datos sean consistentes y contextualizados a través de las distintas fuentes de datos.

Por ejemplo, muchas empresas tienen varias etiquetas para una misma cosa; en un sistema podría ser ‘bomba 101’ y en otro sistema ‘100101’. Cuando llegan a la nube, ¿son la misma cosa? La gente gasta la mayor parte de su tiempo organizando y limpiando los datos que se están enviando a este entorno de análisis.

 

Un avance lento

Muchas empresas están avanzando más lentamente en la transformación digital que lo esperado, por ejemplo llegando hoy en día a un punto al que pensaban llegar tres años antes.

El trabajo invertido en adoptar tecnologías como realidad aumentada ha probado ser mucho mayor que lo anticipado. Para Zornio, es una linda tecnología, pero la actual integración de la misma en el flujo de trabajo para que los usuarios puedan adoptarla por completo y asegurarse de que trabaja en todo momento y con todos los datos necesarios, ha sido un desafío que supera en mucho lo que pensaban los usuarios.

Un buen método es comenzar con la definición de un problema y cuáles serán los beneficios al resolverlo, no con la tecnología. Recién entonces  se podrá pensar en qué tecnología invertir y cómo será utilizada por la fuerza laboral. Esto último ha probado ser una de las cosas más difíciles de resolver.

 

Transformación digital:

¿Por qué ahora?

La transformación digital es un aspecto cada vez más crítico en esta era del Coronavirus que limita interacciones, viajes y reuniones. En consecuencia, es más importante que nunca ejecutar tareas de forma remota de modo que mantengan operativas las instalaciones esenciales y, al mismo tiempo, protejan a los trabajadores.

Frente a la dura realidad de haber menos empleados capaces de trabajar de la manera práctica tradicional, las empresas se han visto obligadas a adoptar definitivamente métodos novedosos, mejores y más productivos (herramientas tecnológicas remotas y virtuales).

Como ejemplos se puede mencionar:

  • Reemplazar lecturas e inspecciones manuales con sensores;
  • Reemplazar lo real con modelos de gemelo digital;
  • Resolver problemas digitalmente a través de múltiples disciplinas.

Al reemplazar las rondas e inspecciones manuales, Zornio explicó que la nueva generación de sensores wireless fáciles de instalar ha tornado imperdonable continuar enviando empleados a instalaciones para recolectar datos de producción o inspeccionar equipos y exponerlos potencialmente a situaciones peligrosas.

Esto incluye variables de proceso, por ejemplo niveles o caudales, y también variables de seguridad y de salud de equipos, tales como vibración, temperatura, acústica, etc.

Al respecto, Zornio recomienda dedicar tiempo y recursos para involucrar y empoderar a la fuerza laboral a medida que las nuevas tecnologías y procesos van cambiando prácticas de larga data. Una vez demostrado el éxito, hay que pensar en grande y escalar el éxito ya probado en toda la instalación o empresa.

© 2018 Editorial Control. Desarrollado por Estudio Pionero.