Asistimos a un continuo avance del concepto de borde, por lo que la red industrial jugará un rol cada vez más central y vital, particularmente en operaciones de manufactura fuertemente conectadas. Allí, para aprovechar por completo las ventajas de una red Ethernet, es necesario que la red esté equipada con los recursos necesarios.

No hay computación de borde sin una red adecuada
La computación de borde es un importante avance en la evolución de la automatización basada en Ethernet y redes de control de máquinas.

 

A la computación de borde en sus distintas formas se la considera uno de los avances más importantes no sólo en ingeniería de automatización. Pero se suele pasar por alto fácilmente que la infraestructura de comunicación, o sea la red, también es cada vez más importante.

Han ocurrido muchas cosas desde el advenimiento, a comienzos de los años 2000, de los protocolos basados en Ethernet para control industrial, tales como EtherNet/IP y PROFINET. Lo evidente hoy en día es que Ethernet es clave para las redes industriales y probablemente lo seguirá siendo por mucho tiempo.

Esta tendencia está respaldada por nuevos desarrollos, tales como TSN, que se basan en la amplia aceptación de redes de sistemas y el fuerte crecimiento de los protocolos basados en Ethernet, por ejemplo PROFINET.

 

El triunfo de la tecnología Ethernet

La gran ventaja ha sido la flexibilidad. Con una base tecnológica común, es más fácil conseguir interoperabilidad y un uso en paralelo de diferentes tecnologías.

En términos de comunicación, esto significa que no hay problemas, por ejemplo, para implementar la comunicación del proceso en una celda de automatización vía PROFINET, mientras se puede usar OPC UA en paralelo para leer datos de los dispositivos individuales o enviar datos directamente a través de un gateway IIoT, por ejemplo SIMATIC IoT20x0. Ambos caminos de comunicación pueden servir a aplicaciones completamente diferentes.

También es posible una coexistencia. Para lograrlo, es importante que la red industrial cumpla con los requerimientos de las aplicaciones.

Otra gran tendencia con una competencia muy similar es la computación de borde.

 

Computación de borde

La idea básica detrás de la computación de borde es bastante sencilla, ya que es un desarrollo lógico del ‘concepto de nube’. Es la abstracción de hardware para poder manejar la funcionalidad de software de manera más flexible y con más foco en la solución.

El término ‘borde’ ya de por sí indica una diferencia crucial. En el contexto de la computación de borde, la capa de ejecución se acerca de nuevo al proceso real. Las consideraciones económicas también tienen un rol importante. Los datos que son procesados directamente in situ no necesitan ser transferidos a sistemas de mayor nivel, o sólo tal vez en forma comprimida, lo que ahorra ancho de banda y, en consecuencia, dinero.

Quizás haya algo de confusión para definir dónde se encuentra realmente el ‘borde’. Puesto que los términos permiten cierta libertad de acción, veamos un ejemplo concreto: Siemens Indus­trial Edge.

El sistema consiste de múltiples elementos. Por un lado, los ‘dispositivos de borde’ son dispositivos en los cuales un entorno runtime provee servicios para alojar ‘apps de borde industriales’. Estas apps son funciones de software basadas en tecnología de contenedores, por ejemplo Docker. Los dispositivos y las aplicaciones son orquestados por un ‘sistema de gestión de borde industrial’ central, a nivel local en la fábrica o en perspectiva en la nube, lo cual depende de los requerimientos del usuario.

Lo más destacado es que, además de la transparencia en cuanto a qué aplicaciones corren dónde con qué versión y cómo lo hacen los dispositivos, el software se vuelve más independiente del hardware subyacente.

Por ejemplo, se puede seleccionar el hardware para que cumpla con las condiciones de operación: ¿Se necesita un determinado factor de forma, un cierto rango de temperaturas, una determinada clase de prestación, etc., o se requiere integración dentro de ciertos componentes, por ejemplo el PLC de la celda de automatización? 

Pero no se debe olvidar en la computación de borde que, detrás de los enlaces lógicos que se muestran en muchas figuras, hay una red real que hace posible esta funcionalidad.

 

No hay computación de borde sin una red adecuada
El borde industrial habilita una gestión flexible de software y dispositivos de borde.

 

La red industrial como elemento clave

La red industrial juega un rol clave, particularmente en una manufactura fuertemente conectada, por ejemplo en aplicaciones que utilizan Siemens Industrial Edge. Allí también se pueden aprovechar las conexiones Ethernet si la red está equipada con los recursos necesarios.

Por un lado, los requerimientos específicos de ancho de banda para la celda de automatización se pueden calcular en base a la configuración. La complejidad crece en las redes de mayor jerarquía.

En consecuencia, es importante tener en cuenta este aspecto durante la planificación o expansión de una infraestructura de red, donde corren corrientes de datos conocidos y qué anchos de banda se requieren.

Las herramientas o servicios ofrecidos por distintos proveedores pueden brindar cierto soporte. Durante la operación de la red, se dispone de distintas herramientas de gestión de red, tales como SINEC NMS, que pueden ayudar en las tareas de configuración, monitoreo y detección de errores.

Además, se debe tener en cuenta la necesaria disponibilidad. ¿Son tolerables las paradas de corta duración de la red ya que los componentes individuales pueden continuar funcionando de manera autosuficiente durante un determinado tiempo?

Apuntando a una creciente vinculación, la mayor disponibilidad posible es un aspecto cada vez más importante. Lo recomendable es contar con mecanismos de redundancia, al menos en las redes principales, y componentes destinados y adecuados para uso industrial.

Por último, pero no menos importante, la seguridad siempre es un factor clave. Un concepto de seguridad adaptado al tipo de red o de producción puede aportar una fuerte protección contra una intrusión no autorizada por medio de restricciones de acceso, segmentaciones de red, etc.

 

Conclusión

A causa de las demandas implícitas en cuanto a infraestructura que plantea la computación de borde, la red industrial es más importante que nunca.

En consecuencia, vale la pena dedicar tiempo y recursos para equiparla de manera que pueda cumplir con sus propios requerimientos en cuanto a una infraestructura de comunicación robusta para las necesidades de hoy en día y también para conformar una base sustentable para la digitalización de mañana.

 

Preparado en base a una presentación de Frederik Nitsche, gerente de SIMATIC Communication Products, Siemens, con el asesoramiento de Andrés G. Gorenberg, gerente Factory Automation, Siemens Industrial.

Computación de borde en manufactura discreta

¿Podrá la computación de borde redefinir las arquitecturas de automatización? Hasta ahora hemos visto una clara tendencia en los últimos años: la nube está conquistando el mundo informático. Esta tendencia se ve cada vez más en todas las geografías e industrias, incluyendo manufactura discreta. Y hay buenas razones que la explican.

Una de las razones tiene que ver con la infraestructura informática. Modelos de pago basados en el consumo, lo que se denomina IaaS (Infrastructure as a Service), y el escalamiento flexible de las infraestructuras informáticas son, por supuesto, grandes ventajas que respaldan el concepto de computación en la nube. Bajar los costos de la infraestructura informática en general, que se suma a una mayor flexibilidad en la estructura de costos al ir de CAPEX a OPEX, suena como un sueño dorado para cualquier gerencia.

La siguiente razón es que la computación en nube está superando ahora muchas de sus limitaciones iniciales. Hay invertidos miles de millones de dólares en infraestructuras de nube, lo que se traduce en un poder de cómputo y almacenamiento casi ilimitado y permite cumplir con elevados estándares de seguridad y una gran variedad de regulaciones.

Lo que buscan muchas empresas de telecomunicaciones de todo el mundo es ofrecer conectividad de banda ancha y redes 5G para que sus usuarios puedan superar cuellos de botella en la entrega de la nube a causa de limitaciones en las redes locales.

Otra razón es que las plataformas de nube de hoy en día aportan un gran número de herramientas y servicios, lo que extiende las capacidades de la nube desde el espacio de infraestructura (cómputo, almacenamiento, red) al desarrollo e implementación de aplicaciones, lo que se denomina PaaS (Platform as a Service). El resultado, hoy en día, son las enormes comunidades centradas alrededor de la nube.

La última razón que cabe mencionar aquí es el hecho de que la computación en nube ha alcanzado liderazgo de innovación en la industria informática. Importantes tecnologías, tales como contenedores y Kubernetes, y nuevos conceptos de informática, tales como DevOps y microservicios, aparecieron por primera vez en el espacio de la nube. La razón es sencilla: incluso pequeños cambios pueden llevar a importantes ventajas en sistemas de gran tamaño como es la nube.

Esto subraya claramente lo que representa la nube como centro del mundo informático de hoy en día. Es la columna vertebral de un sistema nervioso digital que se extiende por doquier.

Sin embargo, una red no sólo tiene un centro, sino también muchos bordes. La computación de borde se refiere a proveer capacidades de cómputo cerca de estos bordes de la red, no sólo en el centro de la nube. Por cierto que la computación de borde no es un concepto que compite con la nube sino que se complementan. Sólo la combinación de computación de borde y de nube puede conformar una visión holística de toda la red digital.

Esta perspectiva de mayor amplitud es muy importante a nivel industrial y nos lleva a una pregunta clave: ¿La computación de borde es tan sólo un complemento de la nube o es algo que abre nuevas posibilidades arquitectónicas en cuanto a aplicaciones industriales en la manufactura discreta? Para responder, hay aspectos clave que no se pueden soslayar…

 

La computación de borde es complementaria a la nube y no compiten.

La nube representa el centro del mundo informático. La computación de borde aporta capacidades de cómputo cerca del borde de la red.

 

La fábrica necesita mayor agilidad en sus aplicaciones.

La gestión del ciclo de vida de las aplicaciones requiere más agilidad. A tal fin, ‘nativo de nube’ aporta nuevas tecnologías y conceptos, tales como contenedores, DevOps y microservicios, en la nube y en el borde. La agilidad requiere simplicidad y autoservicio para soportar a los trabajadores de fábrica de una manera óptima.

 

Más aplicaciones con tecnología digital.

El número de aplicaciones industriales basadas en nuevas tecnologías digitales sigue subiendo. También están aumentando la velocidad, las reducciones de precio y el uso simplificado asociados con estas nuevas tecnologías, acelerando así su adopción.

 

La computación de borde es imprescindible para garantizar la resiliencia de la fábrica.

La latencia de la red puede limitar la productividad en las aplicaciones industriales basadas en la nube. Garantizar la disponibilidad de los sistemas de producción y software asociado es un requerimiento clave para tener operaciones de fábrica confiables.

 

Mantener el control de sus datos y conocimientos en tiempos de incertidumbre.

Están surgiendo señales de un creciente proteccionismo en todo el mundo. Las empresas necesitan desarrollar estrategias para seguir evolucionando en este entorno. El control de sus datos y conocimientos de manufactura es parte de esta necesidad.

 

Los modelos híbridos de borde y nube brindan lo mejor de ambos mundos.

En el contexto de borde y nube, el mundo de las aplicaciones industriales se divide en 3 arquetipos: sólo borde, sólo nube e híbrido. Híbrido es el que más promete.

 

Comenzar con pequeño, pero estar preparado para escalar de manera rápida, fácil y eficiente.

La gestión ágil de aplicaciones significa comenzar con pequeño pero estar preparados para escalar y gestionar apps rápidamente y de una manera simple y eficiente.

 

Preparado en base a un documento técnico de Siemens con el asesoramiento del Ing. Andrés G. Gorenberg, gerente Factory Automation, Siemens Industrial.

 Siemens y Google Cloud cooperan en soluciones basadas en inteligencia artificial

Siemens integrará la nube de datos de Google Cloud y tecnologías de inteligencia artificial/machine learning (AI/ML) con sus soluciones de automatización de fábrica para optimizar los procesos de manufactura y mejorar la productividad.

Los datos impulsan los procesos industriales de hoy en día, pero muchos continúan utilizando el software existente y múltiples sistemas para analizar la información de la planta, lo que consume muchos recursos y requiere actualizaciones manuales frecuentes para garantizar su exactitud. Además, si bien muchas empresas han implementado proyectos de inteligencia artificial en ‘islas’ en toda la planta, han tenido dificultades para implementar inteligencia artificial a escala en todas sus operaciones.

Al combinar la nube de datos de Google Cloud y capacidades de AI/ML con las soluciones de automatización de Siemens, se podrán armonizar datos de fábrica, correr modelos de AI/ML basados en la nube sobre esos datos y desplegar algoritmos en el borde de la red, lo que permite implementar una variedad de aplicaciones, tales como inspección visual de productos o predicción del desgaste de máquinas en la línea de montaje.

El objetivo de la cooperación es facilitar la implementación de inteligencia artificial con Siemens Industrial Edge y su gestión a escala, empoderando a los operadores mientras trabajan en el piso de planta, automatizando las tareas sencillas y mejorando la calidad general.

Según Axel Lorenz, vicepresidente de control en Factory Automation de Siemens Digital Industries, “el potencial de la inteligencia artificial para transformar radicalmente el piso de planta está lejos de agotarse. En la actualidad, muchos todavía están atrapados en 'proyectos piloto' de inteligencia artificial. Queremos cambiar esta situación."

Simulación de procesos: ¿Qué puede hacer un gemelo digital?

Tecnologías basadas en modelos facilitan la optimización continua de procesos y una operación eficiente de la planta.

Imagínese que uno pudiera ver el futuro al operar su planta. No con una bola de cristal o cartas, sino con absoluta certeza. La clave para conseguirlo reside en simulaciones muy cercanas a la realidad.

En un modelo como podría ser un gemelo digital, la realidad, que en este caso comprende todos los componentes de la planta junto a sus características y funcionalidades, se describe mediante ecuaciones matemáticas. Además, el gemelo digital puede mapear no sólo la realidad, sino también escenarios hipotéticos para elaborar predicciones confiables del futuro comportamiento de una planta.

Esto se logra gracias a un modelo que no está sujeto a los límites técnicos de un dispositivo ni tampoco a restricciones de seguridad y, por lo tanto, el trabajo de optimización del proceso se puede completar en un entorno virtual seguro. Además, teniendo en cuenta que las simulaciones no tienen límites de tiempo, conseguir predicciones exactas del comportamiento de la planta ya no es una quimera.

En un escenario ideal, tres gemelos digitales ‘independientes’ colaboran en una planta de proceso: el gemelo digital del producto, la imagen virtual de la planta de producción y el modelado digital del desempeño del producto y de la producción.

Para comprender el concepto de ‘gemelo digital’ es importante recordar que la profundidad de los detalles, o sea la exactitud del gemelo, depende en gran medida del propósito buscado. Por ejemplo, en función de la tarea específica, se requieren y son de utilidad modelos de mayor o menor exactitud en relación a simulación de la producción, optimización del proceso de producción o resolución de problemas económicos.

Dentro de este contexto, van surgiendo ahora nuevas perspectivas a partir de la capacidad de integrar modelos individuales y herramientas de software dentro de un sistema consistente y semánticamente vinculado durante todo el ciclo de vida de una planta. Obviamente, se requiere una gran cantidad de experticia en ingeniería de procesos, combinada con varios sistemas de software, para producir este tipo de sistemas y modelos.

En consecuencia, es posible aprovechar el conocimiento existente del sistema y la más reciente información para producir un gemelo digital inicial del proceso utilizando software de simulación. Esto se puede utilizar para diseñar la planta y sus componentes, el así llamado ‘diseño conceptual’.

En esta fase, todo el conocimiento fluye en un diagrama de flujo de proceso (PFD según sus siglas en inglés), que es la base del gemelo digital del proceso. En la siguiente fase de ingeniería, el gemelo digital del proceso es transferido a la herramienta de planificación del sistema para conformar la base del gemelo digital de la planta. Luego, esto se puede extender secuencialmente por medio de elementos adicionales específicos al sistema. De esta forma se consigue crear fácilmente la estructura básica del gemelo digital de la planta utilizando herramientas de ingeniería de planta.

Una vez completada la ingeniería de proceso, toda la información requerida es transferida al sistema de ingeniería en un sistema de control de proceso. Además, se mapea el nivel de campo en una plataforma de simulación para que se pueda realizar virtualmente el comisionamiento del software de automatización. Este comisionamiento virtual tiene muchos beneficios: por un lado, todas las funciones de automatización se pueden probar a fondo con anticipación, mientras la simulación se puede usar también para preparar y entrenar a los operadores de planta, particularmente en caso de escenarios críticos que puedan desarrollarse en el entorno virtual sin riesgo para la planta real. Se consigue así entrenamiento tanto para la operación estándar como para el comportamiento de la planta en caso de una interrupción.

Los sensores soft son una aplicación importante del gemelo digital en la fase operativa. Pueden estimar las variables de proceso que no están realmente disponibles utilizando un modelo de proceso destinado a optimizar el control de proceso según necesidad. Idealmente, este modelo es el gemelo digital existente de la planta. La experiencia previa ha mostrado que las tecnologías basadas en modelos son clave para simulaciones, optimización de proceso e incluso para predicciones exactas.

El uso consistente de los tres gemelos digitales mencionados anteriormente maximiza los beneficios económicos durante todo el ciclo de vida de una planta de proceso. Y estos beneficios podrán crecer considerablemente si los modelos de simulación dejan de recrearse en cada etapa y se los interconectan o transfieren uno con otro.

 

Preparado en base a una presentacíon de Eckard Eberle, CEO de Siemens Process Automation.

En los últimos años, la inteligencia artificial ha estado presente con mucha frecuencia en los principales titulares de publicaciones de todo el mundo:

  • En 2016, en una serie de cinco partidas de go entre el jugador profesional surcoreano Lee Sedol y el programa AlphaGo desarrollado por Google DeepMind, AlphaGo se impuso por 4-1.
  • En 2018, la casa Christie's subastó la primera obra de arte creada por medio de inteligencia artificial, denominada ‘Retrato de Edmond de Belamy ‘, por más de 400.000 dólares.
  • Hoy en día, el generador de texto GPT-3, basado en inteligencia artificial y desarrollado por el laboratorio de investigación Open AI, cofundado por Elon Musk, está inundando la web con noticias falsas a través de posteos generados por máquinas.

Ahora bien, ¿qué ocurre con las aplicaciones industriales de inteligencia artificial? ¿Cuáles son las oportunidades y los desafíos que plantea la inteligencia artificial en la industria de procesos?

¿Qué es realmente esta 'inteligencia artificial'? El tema polariza… muchas veces asusta y perturba a la gente. Sobre todo cuando la maquinaria cinematográfica de Hollywood ha alimentado nuestra idea de inteligencia artificial durante décadas, mucho más que lo logrado por las definiciones científicas. Veamos los hechos: inteligencia artificial es un término que se refiere a la forma en que las computadoras manejan los datos, cómo analizan, interpretan y aprenden de los datos y, por último, cómo usan lo aprendido para alcanzar ciertos objetivos por medio de una adaptación flexible.

Cuanto más detalles vemos acerca del tema, más borrosos son los límites entre procedimientos, métodos y conceptos individuales. A veces, los aspectos individuales son subconjuntos de otros. Sin embargo, hay una diferencia fundamental entre inteligencia artificial fuerte y débil.

Gran parte de lo que Hollywood nos quiere hacer creer se basa en una inteligencia artificial fuerte (también denominada superinteligencia), cuyo objetivo es alcanzar o superar las mismas capacidades intelectuales de los humanos. En cambio, lo que podemos implementar hoy en día se basa en una inteligencia artificial débil, que procede estadísticamente, recolecta datos y obtiene conocimiento a partir de ellos. No es una cuestión de reemplazar personas, sino de respaldarlas, por ejemplo en el procesamiento de cantidades inimaginablemente grandes de datos para reconocimiento de texto o imágenes.

 

Inteligencia artificial en la industria de procesos: Un tema muy caliente
Los métodos de inteligencia artificial se combinan con modelos mecanicistas para aprovechar al máximo el potencial del conocimiento de proceso disponible digitalmente. Tales métodos ya se están usando en aplicaciones y servicios digitales para la industria de procesos. (Fuente: Siemens)

 

A la hora de transformar grandes cantidades de datos en un número manejable de resultados consentidos, las redes neuronales artificiales (ANNs) sirven. Son una clase de algoritmos de aprendizaje cuya estructura está inspirada en el cerebro humano y que se caracterizan por una entrada, una salida y varias capas intermedias. Desde un punto de vista técnico, las capas de neuronas artificiales se combinan una con otra, por lo que se pueden modelar relaciones incluso complejas si la red es lo suficientemente grande. Sin embargo, cuando hablamos de inteligencia artificial, por lo general nos referimos a lo que se denomina machine learning (ML) y, por lo tanto, a la ‘capacidad de prognosis’.

ML es el término genérico para la generación de conocimiento a partir de la experiencia: las máquinas de autoaprendizaje pueden, por ejemplo, reconocer patrones de error en la producción industrial o predecir fallas. A diferencia de los algoritmos que funcionan basados puramente en reglas, ML deriva probabilidades a partir de datos de entrenamiento estructurados. De esta forma, se pueden resolver incluso tareas cuyas reglas son difíciles o imposibles de describir. Un sistema ML aprende de cientos de miles de ejemplos y puede generalizarlos en un modelo estadístico luego de una fase de aprendizaje.

Deep Learning (DL) es la parte de ML que se ocupa del aprendizaje de relaciones complejas por medio de redes neuronales profundas. Una red neuronal profunda es una red con muchas capas y no hay una definición general del número de capas que pueden ser consideradas como 'muchas'. Un ejemplo clásico de una aplicación DL es el reconocimiento facial automático.

 

Aplicaciones de inteligencia artificial en la industria de procesos

Las redes neuronales artificiales se conocen desde hace décadas en la industria de procesos, por ejemplo en la industria química, siderúrgica y de agua y efluentes.

Las ANNs se usan especialmente en control predictivo y modelado para reemplazar controladores convencionales o para asignarles setpoints determinados por la red neuronal a partir de una previsión autodesarrollada de la evolución del proceso.

También se puede lograr que los sistemas difusos sean aprendibles mediante una conversión bidireccional dentro de redes neuronales. Gracias a su flexibilidad, las ANNs se pueden utilizar en una gran variedad de aplicaciones para realizar importantes servicios en cuanto a reconocimiento de imágenes, análisis de series temporales o detección de errores.

Los métodos de ML permiten a las computadoras aprender de los datos sin necesidad de una programación explícita. Las computadoras están entrenadas para reconocer patrones en conjuntos de datos no estructurados por medio de algoritmos y para tomar decisiones en base a este ‘conocimiento’. En la industria de procesos, ML tendrá un rol cada vez más importante en la detección automatizada y autónoma de anomalías en la gestión de activos, entre otras cosas.

A la hora de encontrar correlaciones entre los datos y las previsiones que se pueden derivar a partir de ellos, DL es una herramienta extremadamente flexible y adaptable, ya que permite a los algoritmos ampliar su propia capacidad de identificar y clasificar patrones y relaciones entre datos. Incluso se pueden considerar automáticamente tipos de datos desconocidos sin necesidad de un aprendizaje manual, lo que hace crecer tanto la cantidad de datos suministrados al modelo de previsión basado en DL como la confiabilidad de las previsiones. De esta manera es posible preparar tales sistemas para una gestión de activos sofisticada incorporando conceptos de mantenimiento predictivo, como así también para una gestión de calidad implementada automáticamente.

 

El futuro

La realidad es que no hay una ‘única’ inteligencia artificial, sino distintas expresiones. Sin embargo, abre un abanico de posibilidades inimaginables para que la industria de procesos vaya más allá de los métodos clásicos con código de hardware a la hora de implementar soluciones de autoaprendizaje adaptativas basadas en grandes cantidades de datos y algoritmos de ML. De esta forma, en el futuro, la Tecnología Operativa, es decir el área de producción, y la Informática, es decir el área de procesamiento de datos usando hardware y software, se acercarán cada vez más una a otra.

Los ingenieros de proceso y de producción, como así también los ingenieros de datos y los científicos informáticos, tendrán que combinar sus respectivas experticias para desarrollar métodos óptimos de inteligencia artificial, que también podrán cumplir con los más elevados requerimientos de seguridad informática.

En el futuro, será necesario dar igual importancia a temas como bases de datos, arquitectura de datos, modelado, estadísticas, almacenamiento y recolección de datos, y también a calidad de datos, acceso a datos (históricos), análisis y contextualización de datos.

A pesar de décadas de investigación, ya que los comienzos académicos se remontan a los años ’60, todavía hay disponible un enorme potencial en términos de inteligencia artificial, y no sólo en la industria de procesos. Gracias a las numerosas aplicaciones ya implementadas con éxito, hoy en día se pueden medir las ventajas de la inteligencia artificial y los cambios son visibles.

 

Preparado en base a un documento elaborado por Bierweiler Thomas, Dr. Daniel Labisch y Dr. Konrad Grießinger, de Siemens.

Con la mayor difusión y popularidad de temas como Industria 4.0 e IoT, se van integrando más términos tecnológicos que, en el fragor de la comunicación, no se terminan de comprender ni de definir apropiadamente.

En línea con sus artículos y conferencias sobre ‘Industria 4.0 en contexto’, el Ing. Andrés G. Gorenberg de Siemens tratará de llevar a contexto y ubicación las tecnologías que arman nuevas arquitecturas para el análisis y el procesamiento de datos de producción y negocio.

 

El contexto

Hoy en día se puede decir que el grado de sofisticación y demanda de la producción industrial requiere de sistemas de control de máquinas y procesos industriales con un nivel de evolución que implica no sólo capacidad de procesamiento sino también flexibilidad, adaptabilidad y seguridad para estar preparados a una demanda que cambia tanto en cantidad como en calidad o diseño de lo que se produce. Esto implica que las necesidades y desafíos próximos ya no se relacionan sólo con la rapidez de procesamiento de señales y algoritmos de control, sino que también requieren hacer uso de los datos ‘paralelos’ que el sistema genera y que pueden ser una gran cantidad y de variados significados.

Una máquina automatizada no sólo contiene en su control algoritmos y señales relacionados con los órganos propios de la misma, sino que también puede almacenar datos estadísticos de producción, funcionamiento, de recursos utilizados (como ser energía o materia prima) o de los usuarios que la operaron, y a la vez relacionar todo esto con lo producido. La posibilidad de disponer de estos datos y analizarlos convenientemente nos permitirá descubrir un conocimiento adicional de nuestras máquinas o procesos, y de esta manera optimizarlos y mejorarlos constantemente, logrando eficiencia con su consiguiente impacto en el negocio y un mayor retorno de la inversión.

Entonces vienen a tallar las diferentes soluciones sobre cómo y para qué procesar los mismos; las tecnologías conocidas como provenientes de IoT nos brindan hoy en día varias propuestas.

 

Lo que provee IoT

IoT llevado al mundo industrial nos aporta nuevos mecanismos de comunicación que optimizan la transferencia de datos en una infraestructura ‘Internet’.

Protocolos optimizados para la transmisión eficiente de datos de producción como MQTT y mecanismos de comunicación universales para integrar estos datos a otras plataformas sea cual fuese su función, pudiéndolo hacer de manera segura, como OPC UA, sobre infraestructuras de comunicación que ya han ganado el mundo industrial con la adaptación de Ethernet y vías wireless como pronto proveerá 5G, han dado lugar para que las máquinas y los procesos puedan constituirse finalmente en verdaderos objetos ciberfísicos, es decir, entes que no sólo procesan un trabajo sino que también generan y necesitan consumir datos para dar consistencia y sustentabilidad al negocio.

El dato se conforma como un ente ‘vivo’ que nace de algo elemental y, al agregarse y componerse con otros asociados a la producción, termina generando información puntual del proceso de producción, de lo producido y de la gestión.

 

Edge, Cloud, IoT: ¿Dónde? ¿Qué? ¿Cómo?
Arquitectura de un sistema Edge a pie de máquina. Hace uso de una conectividad interna o externa a una nube con el fin de procurar una base de actualizaciones y de gestión del mismo.

 

Cloud y Edge computing: ¿Cómo y dónde?

El análisis de los datos que generan las máquinas y el negocio requiere definir los actores e interlocutores principales que se verán beneficiados con eso y, por ende, tallan las primeras definiciones que deben tomarse en consideración a la hora de definir la tecnología e implementarla en una arquitectura del tipo IoT.

La primera definición responde al ‘Cómo’ y aquí gana lugar la sencillez, la difusión y la estandarización del  procesamiento de ‘aplicaciones’ que aprendimos en los entornos comerciales de la tecnología celular y que probaron su viabilidad, los conocidos como Dockers. Al mismo tiempo, idiomas como Mendix han resuelto de manera sencilla y universal la creación de aplicaciones para procesar datos que brinden indicadores de cómo nuestras máquinas, procesos, plantas o el negocio se vienen desempeñando, lo cual, además de sencillez, ofrece universalidad, a prueba del futuro y alineación entre el mundo de la producción y el de la gestión de negocio.

Por otro lado surge definir el ‘Dónde’ hacer el procesamiento de esas apps. Para responder es necesario entender el para qué queremos procesar estos datos.

Si es para optimizar o descubrir conocimiento de nuestra máquina, planta o proceso, el lugar de procesamiento merece ser ‘a pie de’ o ‘al borde de’ nuestra máquina, planta o proceso, y es entonces que, en procura de esta solución, hablamos de tecnología ‘Edge industrial’.

Si lo que queremos es monitorear con el mismo fin, pero en pos de aplicarlo a nuestra empresa o negocio, entonces estamos hablando de indicadores que son relevantes para interesados que no precisamente se encuentran al borde de la planta, máquina o proceso, tratándose de observadores que necesitan ver un global de la producción y del negocio, no sólo de un sitio, sino quizás de varios distribuidos incluso geográficamente, en cuyo caso las soluciones de procesamiento en la nube son las que tienen irrupción con beneficios y agregado de valor que vienen a superar lo que clásicamente se implementaba como una arquitectura ‘on premise’ o en la propia planta.

Mientras que una solución ‘en el borde’ implica aún instalar equipamiento preparado, por un lado, para las condiciones de planta o pie de máquina, es decir fundamentalmente un diseño robusto compatible con estándares industriales, por otro lado nos referimos a equipos con capacidades computacionales necesariamente diferentes al del sistema de control (PLC/SCADA), sistemas que, si se quiere comparar, funcionan más parecido a un celular que a un PLC. Estos sistemas tienen el requerimiento de ser fácilmente actualizables y de tener conexión con medios de servicio para que, in situ o en forma remota, se puedan acceder a los resultados y a actualizar sus ‘aplicaciones’. O sea que un sistema ‘Edge’ también puede requerir servicios ‘Cloud’ a un cierto ‘Store’ de gestión y/o actualización del mismo. Tal como un celular.

Al mismo tiempo, el procesamiento y el monitoreo en la nube también hacen uso de aplicaciones que operativamente funcionan de manera similar a la de los dispositivos Edge, aunque la complejidad del análisis implica el uso de bases de datos más extensas y una mayor capacidad de procesamiento. Para el usuario, montar una infraestructura de monitoreo de indicadores en la nube implica tener estandarizado su nivel de producción de manera que los datos que se originan en los procesos de producción y manufactura sean accesibles y extraíbles del sistema de control y se puedan llevar de manera segura por todo el camino que implica sacarlos de la máquina, transportarlos por la planta y subirlos a la nube.

Por ende, una planta que desea hacer uso del procesamiento en la nube debe haber hecho previamente los deberes de estar decidida a seguir las tendencias en digitalización e Industria 4.0. No puede encararse un proyecto en la nube sin haber ‘aprobado las materias anteriores’.

Finalmente, para llevar los datos a un servicio de Cloud computing fuera de la geografía de la misma planta o empresa y para confiárselos a un proveedor de estas Plataformas como Servicio (PaaS), es necesario aprobar la materia principal que es la de ciberseguridad, es decir, saber implementar ese ‘camión blindado’ que llevará el caudal de nuestros datos e información de negocio de manera segura al proveedor de PaaS.

 

Los nuevos paneles Comfort Unified de Siemens adicionan a su funcionalidad de operación y monitoreo un ambiente Edge desde el cual se pueden llevar analíticas avanzadas de la máquina y la producción.

 

Nuevos desafíos

No debe existir un dilema si se entiende cómo y dónde aplica uno y otro. El procesamiento en el borde (Edge computing) implica un interesado en productividad de máquina o proceso; su implementación es cada vez más sencilla y accesible en un momento en que los fabricantes de tecnología de automatización ya están incorporando estas funcionalidades en sus equipos (por ejemplo, los nuevos paneles Comfort Unified de Siemens con funcionalidad Edge computing).

Si bien los proveedores incluyen su set de apps libres o contratables, es el usuario quien decide el proyecto teniendo perfectamente en claro qué funciones específicas se necesitan para saber de qué manera el proyecto rendirá los frutos esperados. Y con la posibilidad de desarrollar e incorporar sus aplicaciones propietarias.

Desde el punto de vista de infraestructura, la mayoría de las plantas industriales en un nivel ‘Industria 3.0’ ya pueden incorporar estas funcionalidades con inversiones bajas a moderadas. El trabajo remanente consiste en saber ‘sacar’ los datos de la máquina y ponerlos a disposición del sistema Edge.

Un proyecto de Cloud computing, por el otro lado, implica un interesado en visualizar y analizar el negocio; seguramente requerirá datos de diferentes fuentes, agregados y preprocesados. El sistema de aplicaciones deberá interactuar con diversas bases de datos, locales o distribuidas.

Sin embargo, la mayor complejidad de estos proyectos pasa por tener un nivel de extracción y disponibilidad de los datos de planta de manera digitalizada y asegurada, lo que hoy en día reviste un desafío importante.

Y finalmente talla un tema de políticas y cultura de la empresa. Por un lado, el modelo de negocio se sale de la tradicional compra de ‘fierros’; ahora, la compra de equipamiento informático es irrelevante, en cuyo caso el mayor foco está en la conectividad a la nube y la seguridad, pero el centro de la inversión pasa por entender los diferentes modelos de suscripción basados en el uso que se hará de la plataforma.

El otro desafío apunta al repositorio de datos e información, la custodia de los datos en jurisdicciones que no siempre constituyen a la empresa como el ‘teniente’ de sus propios datos y, en consecuencia, de la información vital de su negocio. Si bien los diferentes modelos que los proveedores ofrecen a las corporaciones para sortear esta situación son cada vez más interesantes y apropiados, el avance de las tecnologías en seguridad informática y el aprendizaje de la conveniencia de la operación del negocio desde la nube irán definiendo y decidiendo las mejores soluciones.

 

Conclusión: Si sabemos el qué, sabremos el dónde

No hay un ‘versus’ entre la analítica de borde y en la nube. Lo que se debe tener en claro es el objetivo que se persigue con esta analítica: no es cuestión de tener datos sólo por verlos, sino tener los que se necesita para el objetivo que se procura.

Si nuestro objetivo es la máquina, la línea de producción, posiblemente lo que necesitamos es iniciar un sistema de Edge computing. que irá creciendo y enriqueciendo a medida que obtengamos resultados y posiblemente llegue a un grado de sofisticación que requiera integrarse a algún servicio en la nube.

Si nuestro objetivo es el negocio, de manera holística o disgregada, la analítica en la nube es la solución a encarar, habida cuenta que hayamos hecho los deberes para tener la suficiente transparencia y estandarización de nuestra planta que nos permita sacar la riqueza de información que reside en automatismos y producción.

 

Preparado por el Ing. Andrés Gregorio Gorenberg, gerente Factory Automation, Siemens Argentina.

El software para un sistema HMI unificado centraliza la gestión de dispositivos y los datos de máquina, ampliando la utilidad y haciendo crecer la conectividad de una empresa.

Las líneas de producción, cada vez más conectadas y de mejor desempeño, requieren avances en automatización. Mientras los sensores y los PLCs son cada vez más inteligentes, el software para un sistema de operación y monitoreo HMI también muestra un crecimiento tecnológico acorde.

Hoy en día, la última generación de software para HMI ofrece importantes avances:

  • Mejores características gráficas;
  • Incorporación de aplicaciones de productividad;
  • Capacidad de conectarse a una mayor variedad de dispositivos;
  • Posibilidad para los usuarios de definir sus propios scripts y canales de datos en las plataformas abiertas de HMI.

Estos avances están optimizando las HMIs industriales a la hora de usar dispositivos en aplicaciones de IIoT.

 

Optimización de IIoT gracias a avances en software para HMI
Figura 1. Los paneles WinCC Unified HMI de Siemens brindan soporte para reconocimiento de gestos multitáctiles, junto a tecnologías web, tales como HTML5, SVGs y JavaScript.

Mejor tecnología operativa

La digitalización pasó de ser una ventaja competitiva en manufactura a un imperativo competitivo en cuanto a rentabilidad, longevidad y capacidad de respuesta a las tendencias del mercado. El software para una HMI unificada responde a estos desafíos al permitir la implementación de aplicaciones sofisticadas, responsivas y ricas en funciones, con destino a la era digital.

Esta nueva ola de software para HMI, que corre en dispositivos dedicados o PCs, está más en sintonía con los teléfonos inteligentes modernos que con sus toscos y anticuados predecesores. Las pantallas HMIs modernas de Siemens, basadas en WinCC Unified, proveen aplicaciones preinstaladas para visualizar documentos, observar clips multimedia instructivos y acceder a sistemas externos basados en la web. Gestos multitáctiles mejorados, tales como zoom y paneo, permiten una navegación fluida de documentos y web (figura 1). Los operadores pueden usar deslizamientos multitáctiles para cambiar de pantalla y recorrer listas.

El soporte para distintas tecnologías web nativas, tales como HTML5, SVGs (Scalable Vector Graphics) y JavaScript, es cada vez más común. Esta funcionalidad permite personalizar y animar HMIs, y pasar de gráficos basados en píxeles a gráficos basados en vectores, lo que mejora la estética en pantalla y la visualización de la máquina.

La capacidad de servidor web permite a operadores autorizados acceder de forma remota a las aplicaciones de HMI desde cualquier dispositivo capaz de alojar un navegador web, por ejemplo una computadora portátil, un teléfono inteligente o una tableta, sin necesidad de instalar apps o plugins. Esto abre la posibilidad de colaboración entre el personal de planta y los ingenieros en la oficina, facilitando así la resolución de problemas.

 

Optimización de IIoT gracias a avances en software para HMI
Figura 2. Las nuevas pantallas HMI de Siemens Comfort Panel, configurables en el entorno WinCC Unified, soportan el uso compartido de gráficos, tags, alarmas y datos de producción entre múltiples dispositivos para promover una creciente colaboración.

 

HMI, colaboración IIoT y conectividad

Sea cual sea el tamaño de una empresa, la colaboración es vital para mejorar las operaciones. Para promover esa mayor colaboración, el software para una HMI unificada debe soportar el uso compartido de pantallas, etiquetas, alarmas y datos de producción entre múltiples dispositivos en el piso de planta, almacenando todos los datos en una ubicación central (figura 2). Los dispositivos HMI modernos también soportan transmisión de datos sobre múltiples protocolos, tales como MQTT (Message Queuing Telemetry Transport), para su conexión a la nube.

Independientemente del trazado de la planta, es una ventaja consolidar todos los datos de producción para análisis y mejora de un proceso. En el pasado, cada tipo de máquina solía requerir su propio driver de terceros para transferir datos a una ubicación central, pero ahora el software para una HMI unificada supera este obstáculo.

En base a plataformas como .NET, la conectividad de un sistema de software para HMI unificada va más allá de los historizadores basados en planta para llegar a flujos de trabajo organizacionales de mayor nivel en sistemas MES (Manufacturing Execution System) y ERP (Enterprise Resource Planning).

La integración de un software para HMI unificada con estos flujos de trabajo define las reglas y acciones destinadas a procesos de negocio afectados por disparadores provenientes de datos de producción. También es posible monitorear KPIs (Key Performance Indicators) de producción e incluir estos datos en los reportes de los procesos de negocio.

Al instalar apps opcionales dentro de un entorno de software para HMI unificada, los operadores pueden recibir alertas y notificaciones móviles relacionadas con la producción mediante una app paralela instalada en su teléfono inteligente, reloj inteligente o tableta.

 

Optimización de IIoT gracias a avances en software para HMI
Figura 3. El software WinCC Unified HMI de Siemens facilita la gestión de numerosos dispositivos. El escalado es sencillo gracias a una biblioteca común de objetos de aplicación.

 

Ecosistema de software compartido

La clave para tener conectividad en toda la planta es el ecosistema de software compartido de una HMI unificada. Software compartido significa que se utiliza un solo entorno de desarrollo y tiempo de ejecución de HMI con todos los dispositivos de visualización, o sea computadoras de sala de control, teléfonos inteligentes, tabletas y HMIs de panel. Todas las interfaces de visualización comparten una biblioteca común de objetos de aplicación, SVGs y scripts. Puesto que los símbolos se pueden reutilizar en todos los tipos de dispositivos, deja de gastarse tiempo y dinero en desarrollar nuevos gráficos a medida que se va ampliando la producción de la planta y se pueden colocar dispositivos de visualización adicionales online (figura 3).

Las ventajas de un software compartido no terminan a nivel de HMI. El software para una HMI unificada viene con su propio conjunto de apps, lo que permite seleccionar y construir de manera modular su infraestructura de software para adecuarse a las necesidades específicas de una empresa. Estas apps ofrecen integración del flujo de trabajo, intercambio de datos máquina a máquina (M2M), visualización y análisis de datos, gestión central de dispositivos y otras funciones.

La gestión central de dispositivos, también conocida como gestión de política de grupos, es un concepto familiar en cuanto a dispositivos móviles, pero no tan común entre HMIs industriales. El software para una HMI unificada introduce esta capacidad para facilitar el control de versiones, la aplicación de parches de seguridad y la administración de apps en dispositivos HMI a nivel de empresa en base a reglas y asignación de grupos de dispositivos definidas por el administrador. Esto garantiza que los dispositivos serán utilizados sólo para los fines autorizados y que estarán protegidos contra vulnerabilidades de seguridad.

Para los usuarios, un ecosistema de software compartido es parecido en todas las interfaces de visualización y control, incluso dispositivos móviles. Esto se traduce en una mayor familiaridad del operador y una mejor toma de decisiones, ya que se requiere menos esfuerzo para comprender múltiples interfaces, liberando tiempo para concentrarse en mejoras operativas. Una interface paralela e intuitiva entre dispositivos también puede evitar una eventual frustración del usuario.

 

Apertura para plantas modernas

Además de la consistencia en todo su propio ecosistema de software, el software para una HMI unificada brinda a los usuarios la posibilidad de importar controles y archivos personalizados. También es posible importar objetos creados con herramientas de terceros en el software para HMI unificada, los que pueden ser desplegados en aplicaciones de runtime (figura 4).

Asimismo, la apertura del software permite el intercambio de grandes cantidades de información con bases de datos y otros sistemas mediante el uso de marcos comunes .NET y C++.

 

Optimización de IIoT gracias a avances en software para HMI
Figura 4. Es posible importar objetos personalizados creados con herramientas de terceros en el software WinCC Unified HMI. Estos objetos podrán ser utilizados en aplicaciones de runtime, y también para desarrollar APIs abiertas destinadas a un control web personalizado de apps externas.

 

Los usuarios podrán crear APIs (Application Programming Interfaces) abiertas para integrar con flujos de trabajo de negocio y de producción. También podrán inyectar su programación personalizada en el ADN del software para la HMI unificada como APIs abiertas.

Por ejemplo, podrán crear reportes comparativos e indicios de depuración para capturar errores en el código de aplicación o en las configuraciones de los dispositivos antes de que se pongan de manifiesto, lo que reduce el tiempo de comisionamiento y mitiga los riesgos de un mal funcionamiento de una máquina.

La apertura de aplicaciones ofrece la accesibilidad necesaria para analizar datos generados en toda la planta, sin que aparezcan ineficiencias innecesarias o una parada. La apertura del runtime permite que apps de terceros tengan acceso directo a tags de runtime  de HMI y controles web personalizados a fin de conseguir una mayor flexibilidad de los equipos y de los flujos de trabajo. 

Las herramientas de recolección de datos offline están incorporadas de forma nativa para enviar datos a un servidor designado, lo que permite intercambiar grandes cantidades de información con sistemas de bases de datos, como así también compartir pantallas, tags, archivos de eventos y alarmas históricas.

 

Foco en la seguridad

Atrás quedaron los días en que la seguridad era algo de último momento. Al aparecer brechas en la industria cada vez con mayor frecuencia, es necesario encarar firmemente la seguridad del software. En este aspecto, el software para una HMI unificada incorpora varias medidas destinadas a proteger contra un acceso no autorizado.

Los dispositivos HMI unificados contienen capas separadas de panel de control y runtime incorporadas por encima del sistema operativo. Un administrador de sistema puede permitir que cada usuario tenga acceso a una o ambas capas y también configurar una autorización de usuario para acceder al sistema operativo. Las aplicaciones por default, las apps de usuario y las APIs residen en la capa de panel de control, mientras que la capa de runtime maneja la aplicación HMI familiar para control del sistema de producción.

Un administrador puede habilitar y deshabilitar puertos físicos (USB, Ethernet y buses), como así también SNMP y protocolos de transferencia. Con gestión central de dispositivos, un administrador puede crear reglas que permitan o rechacen ciertas aplicaciones para cada grupo de dispositivos y gestionar parches de seguridad para todos los dispositivos conectados en la empresa.

A diferencia de un software para HMI más antiguo, no hay necesidad de un software de gestión central de terceros ya que el mismo software para la HMI unificada, que está destinado a programación y runtime, incluye todas las herramientas necesarias para la gestión central de dispositivos. Este software también permite la integración de dispositivos y datos con otras aplicaciones. La comunicación entre todos los dispositivos que se ejecutan en un software para HMI unificada está encriptada y las HMIs pueden ser configuradas para contar con un respaldo de sistema automático a fin de evitar la pérdida de datos.

 

HMIs para el futuro

El creciente número de dispositivos inteligentes y sistemas de software conectados a nivel de empresa en plantas industriales de todo el mundo requiere una tecnología de software para HMI en constante desarrollo. El software para una HMI unificada ofrece modernas cualidades de interface gráfica y, al mismo tiempo, permite tener conectividad con una multitud de dispositivos externos y sistemas de software.

Al implementar estos avances y seguir evolucionando, se podrá mantener una ventaja competitiva, aumentar la producción y mejorar la eficiencia.

 

Preparado en base a una presentación de Ramey Miller, gerente de Siemens Industry Inc., con el asesoramiento del Ing. Andrés G. Gorenberg, gerente Factory Automation, Siemens Industrial.

En los últimos años, gran parte de la discusión acerca de Industria 4.0 se ha centrado en sus conceptos básicos. Pero ahora, el foco va girando hacia ejemplos prácticos y la tecnología disponible para implementar estos cambios. Dentro de este contexto, la planta de Festo en Scharnhausen en Alemania, construida en 2016 como su centro  de válvulas y terminales de válvulas, es una clara muestra de tecnologías basadas en Industria 4.0, tales como ahorro de energía, KPIs relacionados con la productividad y mantenimiento inteligente/predictivo.

 

El concepto de mantenimiento digital

Ya desde sus inicios, la nueva fábrica de Festo apuntaba a un concepto de mantenimiento digital, que incluía la provisión de iPads para cada persona de servicio/mantenimiento. Estos dispositivos contienen la descripción de las tareas regulares de mantenimiento, manuales e instrucciones de reparación para todas las máquinas, su historial a largo plazo como parte de una enorme base de datos y mensajes de error en tiempo real desde las máquinas y sus dispositivos.

Comenzando con casi 50 máquinas conectadas cuando la fábrica se puso en marcha hace cuatro años, ahora hay más de 100 máquinas y líneas clave en red. Las iPads están conectadas a cada máquina por WiFi y también con la SAP R3 de la fábrica basada en MES. Se dispone de funciones básicas, tales como emails y chats, para tener una comunicación directa e instantánea con un experto ocupado en otra máquina o con la hotline de soporte de los proveedores de la máquina.

Se consiguen así ahorros inmediatos en cuanto a tiempos de viaje y distancias. En lugar de volver a la oficina central de mantenimiento entre tareas, los operadores de mantenimiento pueden ir directamente de una máquina a otra.

En segundo lugar, el tiempo de reparación por máquina se reduce gracias al soporte de software, que permite un acceso inmediato a toda la información necesaria, incluyendo tareas previas y correcciones. La eficiencia del equipo crece aún más por el hecho de compartir conocimientos. Y a través de la función de chat, es posible superar más obstáculos gracias al soporte remoto de expertos. El mismo número de integrantes del equipo de mantenimiento puede manejar ahora cerca de un 30% más de tamaño de fábrica y maquinaria, lo que muestra claramente el potencial de optimización de proceso y ahorros.

En definitiva, esta iniciativa aumentó considerablemente las cifras de OEE y mostró un importante retorno de inversión en menos de seis meses.

 

Mantenimiento digital:  Una realidad imprescindible
Festo utiliza iPads para obtener información acerca de la tarea de mantenimiento, tener acceso a manuales e instrucciones de reparación y recibir mensajes de error en tiempo real de todas las máquinas y dispositivos.

 

Más inteligente

Smartenance de Festo es un administrador de mantenimiento digital, desarrollado internamente para supervisores de producción y operadores de planta, que facilita la gestión de mantenimiento sin papeles.

La app Smartenance ofrece una programación clara y herramientas de evaluación destinadas al mantenimiento de planta y es una forma rápida y fácil para pequeños usuarios finales de ingresar al mantenimiento digital.

En el pasado, el mantenimiento preventivo de planta ha sido un proceso que insumía tiempo, muchas veces documentado sólo con lápiz y papel. Con Smartenance es más fácil, más rápido y más seguro.

El mantenimiento inteligente consta de dos partes: un calendario de mantenimiento móvil en forma de app para teléfonos inteligentes y tabletas en el piso y una interface de navegador web para gestionar y documentar las tareas de mantenimiento en la oficina.

La gestión inteligente de recursos y la colaboración de equipos se traducen en una gestión de mantenimiento más eficiente.

En base a la experiencia de Scharnhausen, Smartenance incorpora ahora integración con sistemas MES, lo que permite su adopción como herramienta de mantenimiento digital en otros sitios de producción de Festo. Montada en una tableta iPad junto a las demás herramientas, permite disponer en forma inmediata de toda la documentación y videos de ‘cómo hacerlo’, compartiendo información y mejorando el tiempo promedio para corregir resultados.

La integración adicional entre productos inteligentes que envían datos a la nube es una muestra de cuan potente será el rompecabezas digital. Componentes inteligentes de equipos provistos de sensores podrán generar su propia nube de datos, incluyendo una eventual brecha en los límites del ciclo operativo o mensajes de error relacionados con límites de calor o vibración. Los mensajes de error individuales, por ejemplo de un sensor conectado a una terminal de válvulas CPX/MPA, podrán ser cargados directamente como tarea en el listado de tareas de mantenimiento.

Se pueden crear pop-ups vinculando datos de terceros proveedores y servicios que utilizan plataformas basadas en estándares de Industria 4.0. El enlace con el sistema SAP MES habilita una gestión automática de activos y logística, por ejemplo reordenar una pieza rota después de chequear los distintos niveles de stock.

En una fábrica conectada en red donde todas las máquinas entregan sus KPIs vía OPC UA en el sistema MES central, es posible incorporar una priorización online de las tareas. Por ejemplo, a la hora de considerar cinco mensajes de error, ¿cuál es el más urgente para evitar un cuello de botella de acuerdo a los pedidos concretos de los clientes? Este esquema facilitará una optimización del flujo de valor en tiempo real.

 

Mirando hacia adelante

¿Qué puede haber a mediano plazo? Se está explorando el uso de headsets de realidad virtual: Festo Didactic usa headsets de realidad mezclada y aumentada en las instalaciones ciberfísicas de capacitación en universidades y centros de formación.

El costo sigue siendo una barrera importante. Los mejores sistemas son costosos, por lo que su uso está reservado para aplicaciones de alta gama, tales como aeronáutica. Sin embargo, a medida que vaya creciendo su uso en los entornos de manufactura estándar, los volúmenes irán subiendo exponencialmente con precios en baja.

En el espacio de unos pocos años, el uso del mantenimiento digital ya es norma en las plantas de producción de Festo. Si bien esto ya ha sido técnicamente posible en el pasado, Industria 4.0 aporta ahora un conjunto de estándares que permiten la integración más rápida y más sencilla de estos sistemas en cuanto a plataformas y proveedores.

La eliminación de los sistemas con papel propensos a errores, un tiempo más rápido de reparación, transparencia de recursos y un mejor OEE se traducen en un rápido retorno de estas inversiones internas y ofrecen una óptima visión del futuro para el mantenimiento inteligente en las instalaciones de manufactura.

 

Preparado en base a una presentación de Steve Sands,  gerente de Festo GB.

5G será mejor que las generaciones anteriores?

Lo mediático de la nueva tecnología de redes wireless 5G da la impresión de que es la primera vez que se puede usar wireless en aplicaciones industriales. Pero no es tan así… Desde hace más de 20 años, distintas tecnologías wireless, tales como Wireless LAN industrial, WiMAX y las diferentes redes wireless móviles (2G, 3G, 4G) han sido implementadas con éxito en una gran variedad de aplicaciones industriales.

En consecuencia, hoy en día, es importante pensar en qué podrá aportar el nuevo estándar 5G a la industria y cómo serán las redes wireless industriales del futuro.

Unos 40 años antes hacía su aparición la primera red celular, centrada principalmente en el dominio público, por ejemplo, teléfonos móviles. Cada década desde entonces fue testigo de una nueva generación, con sólo pequeñas innovaciones.

Pero ahora esto cambia con la tecnología de redes celulares de 5ta generación. Al respecto, Siemens, junto con otras empresas, decidieron participar del proyecto 3GPP (3rd Generation Partnership Project) para garantizar que los requerimientos industriales fueran parte del futuro estándar 5G.

Las perspectivas para 5G en la industria son muy buenas, pero aún queda mucho camino por recorrer. Y antes de mirar hacia el futuro, quizás sea útil recordar de qué forma la tecnología wireless móvil cambió el mundo en el que vivimos hoy en día.

La primera red celular comercial, lanzada en Japón en 1979, permitía comunicarse instantáneamente vía voz aun estando en movimiento. La segunda generación en 1991 habilitó mensajería de texto, mientras 3G ofrecía aplicaciones de Internet móvil en 2002 y 4G streaming de música y video en 2009.

La industria también encontró beneficios a partir de este desarrollo. Con 1G, las aplicaciones en la industria eran casi inexistentes. 2G aportó mensajes de texto y luego incluso una transferencia simple de datos para aplicaciones industriales de control remoto y telecontrol. 3G hizo posible telecontrol semi en vivo y acceso remoto en lugares donde los usuarios podían interactuar con aplicaciones remotas, mientras 4G facilitó un acceso remoto total y en vivo.

Pero esto no termina aquí... 5G apunta a mayores anchos de banda, mayor confiabilidad, menor latencia y más dispositivos conectados.

 

El potencial de 5G

5G ofrece enormes beneficios, pero también es importante tener en cuenta que no todas sus funciones estarán disponibles desde el principio y que, además, las funciones no podrán ser utilizadas simultáneamente en toda su extensión.

3GPP es responsable de la estandarización global de las redes celulares, inclusive la 5ta generación. Al iniciarse el desarrollo de la última generación, se elaboró una visión para 5G que incluye tres conceptos principales.

El primer concepto es eMBB (Enhanced Mobile Broadband), que incorpora mejoras de 4G y cuyo objetivo principal es responder a aplicaciones basadas en datos que requieren altas tasas de transmisión de datos con amplias áreas de cobertura. Un ejemplo es la creciente necesidad de streaming de música y video de alta calidad y alta definición a dispositivos móviles, tales como teléfonos inteligentes, gafas de realidad virtual, etc.

El segundo concepto es el más exigente y se refiere a la comunicación URLLC (Ultra Reliable Low Latency Communication), que abarca requerimientos de alta confiabilidad y baja latencia para aplicaciones de misión crítica. Como ejemplos se puede mencionar robots móviles, logística autónoma, vehículos guiados automatizados (AGVs), aplicaciones de seguridad en entornos de control industrial, etc.

El tercer concepto es mMTC (Massive Machine Type Communication), que apunta a una gran cantidad de dispositivos en un área más pequeña. Se lo puede implementar en aplicaciones de IIoT que contienen muchos sensores y dispositivos conectados en una pequeña área donde no es necesario enviar y/o recibir datos de manera continua.

Para cumplir con el calendario preestablecido, 5G ha sido dividida en múltiples versiones. La Versión 15 fue entregada en diciembre de 2018 y estaba dedicada a eMBB. Las Versiones 16 y 17 agregarán soporte para URLLC y mMTC, mejorando las aplicaciones industriales.

 

Redes privadas

Hay distintas variables a la hora de implementar una red 5G, una de las cuales es ‘pública versus privada’. Las primeras redes públicas ya están disponibles, pero las redes privadas para la industria sólo llegarán en un par de años con la Versión 16, que soportará las características que importan a la industria.

Las redes privadas serán la clave para la industria cuando los usuarios podrán tener y controlar su red y personalizarla según la aplicación. En varias industrias, URLLC y mMTC aportarán más beneficios que eMBB. Con una implementación privada, el usuario final podrá determinar qué parámetros configurar y, por lo tanto, correr la red de una manera óptima. Además, la privacidad de los datos queda garantizada bajo su propia responsabilidad.

Para sus redes privadas, la industria necesita tener un espectro disponible. En Alemania, BNetzA (Bundesnetzagentur) ha decidido reservar 100 MHz de 3,7 GHz a 3,8 GHz para uso local en entornos industriales, lo que permite contratar espectro para tener una privacidad óptima de los datos. Otros países, tales como Reino Unido, están mirando a Alemania para tener también la posibilidad de ofrecer licencia de espectro de modo que las empresas puedan establecer redes privadas sin que nadie más pueda acceder. Es un importante beneficio para la industria y abre el camino a las fábricas flexibles del futuro.

 

5G industrial

Para que 5G sea realmente apto para la industria, es necesario esperar la Versión 16. En ese momento, el tema dependerá de los proveedores de silicio que deberán suministrar los primeros chips que permitan a los proveedores industriales elaborar productos de calidad industrial.

Además del hardware, otro factor importante es el soporte de soluciones para redes privadas. Estas redes wireless muy robustas y confiables deben brindar una seguridad óptima conservando los datos a nivel local y utilizando estándares globales en un entorno propio. Esto es importante ya que confiabilidad es igual a tiempo de operación. También significa que una red industrial no tan confiable puede tener como resultado una parada más prolongada en la producción y una pérdida de producción. Además, es necesario disponer de soporte para protocolos industriales, tales como OPC UA o PROFINET.

Mientras tanto, por ejemplo en Siemens, se está testeando el estándar 5G actual en un entorno industrial para garantizar su funcionalidad correcta, sin importar cuán exigentes sean las condiciones de operación.

En definitiva, considerando las promesas de 5G (comunicación de baja latencia, ultraconfiabilidad, más dispositivos finales en un área más pequeña, redes públicas y/o privadas), estos nuevos conceptos de comunicación wireless parecen muy prometedores. Las redes privadas en particular allanarán el camino hacia soluciones que antes no habían sido posibles, por ejemplo, robots que trabajen juntos en lugar de uno al lado del otro, o soluciones intralogísticas totalmente autónomas.

5G está bien preparado para su implementación en aplicaciones industriales. Sin embargo, antes de que se le dé luz verde a la fábrica wireless inteligente del futuro, hará falta una solución 5G verdaderamente industrial que cumpla con todos los requerimientos de las aplicaciones de misión crítica.

 

Preparado en base a una presentación de Eckard Eberle, CEO de Siemens Process Automation.

Convenio marco de colaboración entre INTI y Siemens Argentina

INTI y Siemens Argentina acaban de firmar un convenio marco de colaboración que apunta a reducir la brecha digital en la industria, facilitar el acceso a la tecnología por parte de las PyMes y fomentar acciones relacionadas con el paradigma de Industria 4.0, además de capacitación, investigación, asesoramiento, asistencia y transferencia.

La agenda del paradigma 4.0 en la industria es prioridad tanto para el INTI como para el ministerio de Desarrollo Productivo”, destacó Rubén Geneyro, presidente de INTI.

El encuentro entre las instituciones se dio en modalidad presencial y virtual. Por parte del organismo público participaron, además de su presidente, Marcelo Marzocchini, director operativo; Hernán Vigier, director de Planeamiento y Comercialización; Julieta Comin, gerenta de Desarrollo Tecnológico e Innovación; Osvaldo Jalóm, subgerente de Electrónica y Energía; y Raquel Ariza, directora técnica de Industrias 4.0. Por parte de Siemens Argentina, participaron su CEO, Alejandro Köckritz, y Gustavo Guitera, gerente de Innovación y Tecnología.

Geneyro también resaltó “la necesidad de trabajar en forma federal, con el objetivo de acercar soluciones productivas y digitales acordes a cada realidad regional”.

Por su parte, Köckritz señaló que “desde hace más de 160 años, Siemens participa activamente en el crecimiento sostenible del país. Este convenio ratifica su compromiso, donde cooperar y colaborar en forma conjunta con el INTI, a través del intercambio de conocimientos, experiencias y avances tecnológicos, sin duda enriquecerán y fortalecerán el know how local, lo que no es más que un catalizador para impulsar el crecimiento de las industrias”.

El texto del convenio destaca los siguientes objetivos:

ν Articular conocimientos y experiencias de ambas instituciones con el propósito de realizar actividades de capacitación, organizar cursos, seminarios, talleres, jornadas de actualización y otras actividades formativas de interés común relacionadas con el cumplimiento de sus objetivos;

  • Promover la realización conjunta de acciones de relevamiento y monitoreo tecnológico del entramado productivo a los efectos de desarrollar trabajos de investigación, asesoramiento, asistencia técnica y transferencia de conocimiento;
  • Contribuir desde el ámbito de sus competencias a reducir la brecha digital en la industria, favoreciendo el acceso a la tecnología por parte de los diferentes actores del entramado productivo, en particular pequeñas y medianas empresas;
  • Impulsar la adopción de tecnologías relacionadas con el paradigma ´Industria 4.0´ mediante la realización de acciones de relevamiento, diagnóstico y planeamiento orientadas a la implementación de soluciones digitales en los diferentes sectores de la producción de todo el país.

A través de este convenio, ambas instituciones aúnan fuerzas para que la tecnología sea un factor de crecimiento sostenible para el país.

Página 1 de 5
© 2018 Editorial Control. Desarrollado por Estudio Pionero.