Al día de hoy, inteligencia artificial (IA) y machine learning (ML) son poderosas herramientas que pueden mejorar considerablemente la toma de decisiones de negocio, para lo cual es imprescindible desterrar algunos mitos…

 

5 grandes mitos en inteligencia artificial y machine learning

 

Resulta llamativo que un concepto nacido en 1955 sea uno de los temas más acuciantes que mueve la tecnología actual.

La inteligencia artificial (IA) ha estado con nosotros de una forma u otra por más de 60 años y, sin embargo, parece ser que se la entiende menos que antes.

No es por falta de intentarlo. La inversión en IA llega ahora a 3 mil millones de dólares al año, mientras el número de nuevas empresas en los Estados Unidos que están desarrollando tecnologías de IA ha aumentado en un factor de 14 desde 2000.

Hoy en día hay un gran número de productos que incorporan inteligencia artificial, desde teléfonos inteligentes que entienden lo que se les dice hasta muñecas inteligentes que pueden entender cómo se siente su hijo.

Pero en una empresa, lo relacionado con la inteligencia artificial todavía tiene mucho que ver con la cautela. La gerencia hesita bastante a la hora de implementar sistemas de inteligencia artificial y machine learning en su organización, aun cuando comprendan la diferencia entre los dos. La IA suena bien en teoría, pero ¿cuál es su valor en el mundo real de machine learning? ¿La inteligencia artificial llegará alguna vez a ser algo real?

La inteligencia artificial ya está entre nosotros. Poderosas herramientas que aprovechan tecnologías cognitivas de vanguardia pueden aportar una actualización importante en la toma de decisiones de negocio. Por su parte, la tecnología es más fácil de usar que nunca. No se necesitan expertos para manejar muchas de las herramientas de inteligencia artificial de hoy en día.

Sin embargo, los mitos y conceptos erróneos en torno a la inteligencia artificial pueden volverse bastante densos, por lo que trataremos de analizar los cinco mitos más importantes para tener una idea más clara acerca del actual panorama de IA.

 

Mito #1
Inteligencia artificial y machine learning son la misma cosa

Igual a lo que ocurre con muchas nuevas tecnologías, la inteligencia artificial ha generado un efecto de ‘fiebre de oro’ en muchas industrias. Hay una gran variedad de productos que se dice que incorporan inteligencia artificial, hasta el punto de convertirse en una palabra de moda que aparentemente está perdiendo gran parte de su significado.

A continuación trataremos de recuperar algo de su significado desglosando las distintas formas de inteligencia artificial para comprender cuáles son las capacidades realmente disponibles hoy en día.

En su nivel más simple, la inteligencia artificial se divide en dos categorías: IA fuerte e IA débil. Sus nombres han ido evolucionando en los últimos años, pero sus conceptos básicos siguen inalterados hasta la fecha.

 

IA débil

La inteligencia artificial débil es un conjunto de tecnologías que se basan en algoritmos y respuestas programáticas para simular inteligencia, en general apuntando a una tarea específica.

Por ejemplo, el uso de un sistema de reconocimiento de voz para encender luces, es una IA débil en acción. Este sistema quizás parezca inteligente, pero no tiene ningún entendimiento avanzado del lenguaje y no puede determinar el significado detrás de las palabras que se dicen. El programa simplemente escucha los sonidos clave del habla y, cuando los detecta, sigue su programación para ejecutar ciertas acciones. A los usuarios quizás esto les parezca sorprendentemente inteligente, y el reconocimiento de la voz está lejos de ser una simple tarea informática, pero en realidad no hay ninguna función real de ‘pensar’ detrás de escena.

 

IA fuerte

La IA fuerte apunta a pensar por sí misma. Son sistemas construidos con el cerebro humano como arquetipo.

La IA fuerte se caracteriza por ser cognitiva, tener en cuenta contexto y matices, y capaz de tomar decisiones no programáticas en naturaleza sino como resultado de un análisis razonado.

La IA fuerte, en general, está diseñada para aprender y adaptarse de modo que pueda tomar una decisión en el día de mañana que sea mejor a la de hoy en día. Nada de todo esto es una tarea fácil, lo que explica que la mayoría de los ejemplos actuales de inteligencia artificial son de IA débil.

La IA fuerte es una categoría nueva, compleja y variada con numerosas variantes. Puesto que los objetivos de un sistema de IA fuerte varían de una implementación a otra, casi nunca dos sistemas de IA fuerte se ven iguales.

 

Machine learning

Teniendo en cuenta este concepto, ¿qué es entonces machine learning?

Simplemente, machine learning es un tipo específico de inteligencia artificial que le permite a un dispositivo tener acceso a datos almacenados y aprender a partir de esos datos.

No todas las formas de inteligencia artificial se pueden definir como machine learning. Cuando un sistema de reconocimiento de voz enciende las luces, no aprende nada. Tan sólo espera que se le diga que apague las luces.

En cambio, a un sistema de machine learning se le puede aportar datos (por ejemplo, información de temperatura y tolerancia desde distintos sensores) y se le pide que saque conclusiones al respecto, por ejemplo investigar en esos datos tendencias, patrones y anomalías, información que quizás no sea obvia para un observador humano. En última instancia, el sistema de machine learning podrá llegar a la conclusión de que es necesario reparar una máquina por estar próxima a fallar, o que deba operar a una menor velocidad.

A medida que el algoritmo de aprendizaje de máquina siga aprendiendo a partir de estos datos, la va a resultar cada vez más fácil generar conocimientos adicionales en el futuro, y también ser más exactos.

Machine learning es tan sólo un ejemplo de inteligencia artificial. En este sentido, hay una gran variedad de otros términos que también tienden a confundirse con los conceptos generales de inteligencia artificial. Por ejemplo, el aprendizaje profundo es un subconjunto del machine learning que utiliza software para imitar lo más posible la actividad del cerebro humano.

La conclusión es que la inteligencia artificial es complicada y que la gente suele confundir su significado. Sin embargo, lo importante es entender las diferencias para saber a qué atenerse.

 

Mito #2
La inteligencia artificial es una varita mágica

En su nivel más básico, la clave para poder aprovechar la inteligencia artificial, cualquiera sea la industria donde esté implementada y el nivel de complejidad, es el entrenamiento.

Un filtro de spam debe ser entrenado para reconocer un mensaje de email bueno versus uno malo. Una inteligencia artificial de reconocimiento de voz debe escuchar innumerables horas de diálogo hablado antes de poder analizar lo que se le está diciendo con cierto grado de exactitud.

Las iniciativas en el piso de fábrica habilitadas por la inteligencia artificial normalmente reúnen varios millones de gigabytes de datos cada semana para conseguir suficientes datos analíticos a la hora de tomar decisiones razonadas acerca de lo que podría ocurrir en el futuro.

Tener buenos algoritmos de inteligencia artificial requiere su entrenamiento en las fuentes de datos correctas, caso contrario no podrán tomar buenas decisiones. Si un sensor está mal calibrado y transmite información inexacta a un algoritmo encargado del monitoreo de equipos, todos esos gigabytes de datos terminarán siendo inútiles o incluso peor, ya que la inteligencia artificial utilizará datos erróneos para llegar a conclusiones inexactas.

¡No hay que confundirse! La inteligencia artificial no es necesariamente una panacea. No se dispone de un ‘switch IA’ ni tampoco de un ‘plugin IA’ capaz de darle capacidad cognitiva a cualquier tecnología ya existente.

Los humanos tienen que definir el problema, identificar una tecnología de inteligencia artificial adecuada para resolverlo, entrenar la herramienta con los datos correctos y luego verificar que los resultados sean válidos. Incluso las más poderosas herramientas de inteligencia artificial desarrolladas hasta la fecha tienen que ser cuidadosamente gestionadas en el tiempo para que no se salgan de su cometido.

Además, una vez generados los resultados con la correspondiente herramienta de inteligencia artificial, el trabajo no está terminado. Muchos profesionales en la materia están descubriendo que aprenden más cuando un algoritmo de inteligencia artificial devuelve una respuesta incorrecta y no la correcta.

Este efecto es visible tanto a nivel de consumidor como a nivel industrial. Cuando un filtro de spam basado en IA se equivoca a la hora de categorizar un mensaje entrante, el usuario tiene la oportunidad de volver a entrenar la herramienta para no equivocarse la próxima vez. Esto también le brinda al algoritmo la posibilidad de descubrir lo que le pasó la primera vez; aprender del error hace que la herramienta sea cada vez más poderosa. Si al filtro de spam no se lo reentrena, la próxima vez dejará de ser exacto y probablemente vuelva a cometer el mismo error.

De manera similar, en una instalación de manufactura, piense en una herramienta de inteligencia artificial que indica desconectar una máquina por ser inminente una falla en un componente clave de la misma. Si el componente no falla, ¿qué pasa?

¿Qué ocurre si una inteligencia artificial centrada en la seguridad impide el acceso a la red al suponer equivocadamente que se trata de un hacker? Por la naturaleza lógica de IA, es posible determinar el motivo por el que la inteligencia artificial tomó estas decisiones específicas e ir hacia atrás para determinar en qué datos se basó en el proceso. Esto podría revelar fallas en los datos, un error de procesamiento lógico o algún otro error que, de lo contrario, pasaría inadvertido.

 

Mito #3
La mayoría de las empresas no tiene los recursos ni la necesidad de inteligencia artificial/machine learning

La inteligencia artificial y el machine learning, o los nombres que sean, no conllevan exactamente simplicidad, ya que son tecnologías sumamente complejas y que están lejos de ser accesibles a cualquiera.

¿Significa esto tener que ser un experto e invertir mucho dinero para implementar inteligencia artificial? No tanto.

Es importante comprender la diferencia entre implementar una solución de inteligencia artificial desde cero e implementar herramientas de inteligencia artificial ya existentes en una empresa. Lo primero es muy difícil. Lo segundo es cada día más fácil.

Piense en todas las herramientas tecnológicas que uno utiliza durante el día, tales como un asistente digital u hojas de cálculo. No son tecnologías sencillas, pero se las puede dominar sin necesidad de saber qué hay detrás. Lo mismo ocurre en inteligencia artificial, con herramientas cada vez más accesibles.

Hoy en día, el uso de inteligencia artificial se ve facilitado en todo tipo de entornos. Algunas tecnologías están diseñadas para tareas específicas, tales como atrapar estafadores con datos biométricos de comportamiento. Si bien todavía no estamos en un nivel donde con tan sólo apuntar y hacer clic se podrá implementar un sistema de inteligencia artificial, estas herramientas ya están accesibles para cualquiera que desee aprender y muchas son de código abierto.

También quizás se pueda pensar que un negocio o uso específico es demasiado pequeño o insignificante para merecer una inversión en inteligencia artificial, o que un entorno no sea lo suficientemente complejo como para beneficiarse de esa tecnología.

Esto, en muchos casos, tampoco es cierto. Incluso pequeños negocios y otros entornos de limitado alcance y escala pueden verse beneficiados a partir de las lecciones provistas por la inteligencia artificial y el machine learning. En un negocio pequeño, se puede recurrir a inteligencia artificial para, por ejemplo, automatizar y mejorar los pedidos de servicio al cliente o buscar patrones sobre cuándo y por qué los competidores van cambiando precios u ofertas de productos.

 

¿Qué hay acerca de los datos?

Si bien es cierto que la inteligencia artificial, por definición, se desarrolla en base a una gran cantidad de datos exactos, un negocio en particular quizás no necesite tener todos esos datos localmente para poder utilizarlos.

Una herramienta que monitorea y analiza redes sociales podrá recolectar sus datos desde fuentes externas a medida que surgen. En cambio, un sistema IA que se basa en datos como temperatura ambiente, precios de vivienda o demografía del vecindario suele extraer toda esta información de fuentes públicamente disponibles.

Realmente no importa que sea ‘demasiado pequeño’. Recuerde que una pequeña mejora en un vector de negocio clave puede llegar a tener un enorme impacto en el resultado final. Un sistema que reduce errores de producción en tan sólo 1% o que recomienda correctamente un aumento de precio podría significar  millones de pesos en costos evitados o beneficios adicionales. El desafío está en identificar dónde podrían estar estas oportunidades.

 

Mito #4
La inteligencia artificial y el machine learning me van a reemplazar

¿Está preocupado por la posibilidad de que la inteligencia artificial elimine tu trabajo en un futuro cercano? No está solo. McKinsey pronosticó recientemente que, para 2030, 375 millones de trabajadores, o sea el 14% de la fuerza laboral global, tendrán que ‘cambiar de actividad ocupacional’ a medida que las máquinas sean cada vez más capaces de realizar trabajos antes reservados a los humanos.

En el corto plazo, Gartner pronostica que, para 2020, quedarán eliminados 1,8 millones de empleos a causa del creciente poder de la inteligencia artificial. Algo parecido quizás a un apocalipsis…

Sin embargo, hay detalles clave que tendrían que calmar las aguas… Lo cierto es que la inteligencia artificial no puede operar en el vacío. Requiere que los humanos la desarrollen, implementen, gestionen y mantengan. Eso significa trabajos. En el reporte mencionado de Gartner, se pronostica que esos 1,8 millones de empleos perdidos se verán compensados por unos 2,3 millones de nuevos empleos, con un aumento neto de 500.000 posiciones en 2020 y un aumento neto de 2 millones de empleos en 2025.

¿Cómo se explica entonces que, por ahora, la inteligencia artificial no destruirá el empleo como lo conocemos? Hay varios factores a tener en cuenta:

 

La mayor parte de la inteligencia artificial es del tipo IA débil

No hay sistemas que puedan replicar las formas abstractas en que piensa y trabaja un humano, sino que están diseñados para abordar problemas estrictamente definidos. En muchos casos, la inteligencia artificial y el operador humano trabajan mano a mano para resolver ese problema: la IA explora los datos y busca detalles que, de otra forma, llevaría meses descubrir, mientras los humanos chequean que los resultados de IA estén bien encaminados. El operador humano es necesario para entrenar la herramienta de inteligencia artificial en tareas tediosas, liberando al operador humano para que pueda dedicarse al panorama en general. A medida que estos problemas van creciendo en dificultad, es cada vez mayor la necesidad de un operador humano, y no menor.

 

La inteligencia artificial no tiene un conocimiento nativo de los procesos de negocio

Si bien son muchas las empresas que van migrando sus procesos de negocio a sistemas más flexibles que ofrecen la fluidez que suele requerir la inteligencia artificial, estas transiciones son prolongadas y requieren una importante intervención humana para implementarlas. Esta clase de transformación requiere una cantidad sustancial de conocimiento institucional acerca del negocio, su industria y su entorno competitivo. Sólo a través de colaboración, una herramienta de inteligencia artificial estará en condiciones de recomendar actividades de automatización y reconfiguración de proceso, lo que garantiza que las personas seguirán siendo parte importante del rompecabezas a largo plazo.

 

A pesar de toda su inteligencia, la inteligencia artificial no siempre tiene razón

La inteligencia artificial no sólo puede ir mal, puede ir catastróficamente mal. Cuando eso sucede, un ser humano, con su intuición, experiencia y capacidad de reaccionar rápidamente, es invariablemente necesario para superar el problema o resolverlo. Y lo que es peor: las herramientas de inteligencia artificial muchas veces ni siquiera se dan cuenta de que han cometido un error, lo que requiere aún más trabajo de un humano para descubrir cómo evitar que el problema vuelva a ocurrir.

En la mayoría de las veces, la inteligencia artificial no reemplaza el trabajo de las personas, sino que lo complementa.

Por supuesto que algunos trabajos se irán perdiendo, como ha ocurrido muchas veces en la historia de la humanidad. El tema está en que hay que dejar atrás el concepto de enormes equipos de ‘agentes inteligentes’ que se duplican al infinito y que pueden ejecutar tareas igual que los humanos.

 

Mito #5
La inteligencia artificial y el Machine learning son todavía ciencia

¿Es cierto que la inteligencia artificial es una tecnología que está muy lejos de tener una gran aceptación? No es tan cierto... Cada vez más, las inversiones en inteligencia artificial y machine learning están dando sus frutos, e incluso hay proyectos piloto que están dando resultados positivos y tempranos.

Una estudio de Deloitte entre 250 empresas que ya han adoptado inteligencia artificial encontró que el 83% lograron beneficios moderados o sustanciales a partir de la incorporación de estas tecnologías, lo que incluye mejoras en cuanto acaracterísticas o desempeño, la capacidad de tomar mejores decisiones y la creación de nuevos productos.

En el estudio de Deloitte, los encuestados agregaron que la inteligencia artificial todavía tiene espacio para crecer antes de que realmente transforme sus negocios, pero esto llevará menos tiempo de lo que se podría pensar al respecto.

Según el 76% de las respuestas, las tecnologías cognitivas transformarán el negocio en tres o menos años. Sólo el 7% estimó un plazo más allá de los cinco años.

A esta altura, la inteligencia artificial está en camino de convertirse no sólo en una herramienta para conseguir ventajas competitivas, sino también en un requerimiento de negocio básico. El estudio descubrió que el 63% de los líderes de negocio consideran que la presión para reducir costos implica claramente el uso de inteligencia artificial.

Por supuesto que algunos de los conceptos más ambiciosos de la inteligencia artificial, tales como computadoras capaces de replicar por completo el cerebro humano, robots totalmente autónomos y programas informáticos que se diseñan, codifican y actualizan a sí mismos, están a años de distancia de la realidad. Pero no hay que olvidar que las herramientas de inteligencia artificial ya pueden ganar en póker y ajedrez, y que son capaces de detectar el cáncer de mama.

 

La inteligencia artificial ha llegado para quedarse

Si bien la inteligencia artificial puede ser un cambio que lleve a una empresa a un mayor nivel, dar los primeros pasos no tiene por qué ser una tarea demasiado complicada. Se dispone de un buen número de herramientas en el mercado que permiten experimentar con la inteligencia artificial, apuntando a pequeñas ‘áreas problemáticas’ que quizás hayan obstaculizado los intentos de mejora.

Lo importante es comenzar pronto, antes de que la competencia domine estas herramientas y se adelante en el mercado.

La inteligencia artificial ya muestra un profundo impacto en las empresas que la han adoptado, donde se destacan mejoras en la satisfacción del cliente, una disminución de paradas del proceso de manufactura y una mejor productividad de los trabajadores. Sin embargo, depende de cada uno determinar dónde apuntar la inteligencia artificial en base a los desafíos específicos que plantea cada organización.

Por supuesto que habrá que superar algunos obstáculos. Quizás sea necesario educar a un personal nervioso acerca de las realidades de la inteligencia artificial y el desplazamiento de tareas para que pueda aflojar sus temores, mostrando de qué manera la inteligencia artificial mejora su vida laboral y refuerza sus perspectivas profesionales.

Los negocios de menor tamaño también tendrán que superar esa sensación de que la inteligencia artificial es un juego que sólo lo podrán jugar las empresas de mayor tamaño, que es donde realmente puede ayudar en algunos proyectos piloto específicos.

Mientras la inteligencia artificial ya está mostrando resultados reales, el futuro de estas herramientas se vislumbra aún más emocionante.

Las plantas que han tenido éxito en la transformación digital no han seguido el camino que pensaron en un primer momento. Lo han logrado mejorándolo…

 

Un posible falso comienzo

Se considera que un proceso de transformación digital debería comenzar a dar resultados dentro de los tres primeros meses; caso contrario, quedará trabado. Al respecto, cabe señalar que la implementación de una ‘plataforma de software’ adicional por sobre un historizador y sistema ERP podría tardar años y, por lo tanto, también llevaría años ver los resultados de la inversión. En consecuencia, colocar una plataforma o ‘lago de datos’ por sobre otras no sirve demasiado.

No deje que la transformación digital (Industrie 4.0) se convierta en otra capa de ‘plataforma de software’ por sobre las demás capas. Al respecto, las plantas exitosas usan su historizador existente como plataforma, simplemente extendiéndolo con una base de datos para datos de confiabilidad, tales como espectros de vibración, acerca del desempeño de los activos. Estas plantas pueden comenzar de inmediato, conectando digitalmente sensores en apps de software según necesidad para resolver los problemas de a uno por vez, con un rápido retorno de la inversión. Al respecto, utilizan una infraestructura común basada en estándares como WirelessHART, fieldbus Foun­da­tion y OPC-UA para albergar un amplio espectro de aplicaciones con una DOI (Digital Operational Infraestruc­ture) común.

Las soluciones de ahorro de energía tienen un efecto inmediato.

En cambio, las soluciones de confiabilidad comienzan pronosticando fallas de inmediato, pero quizás tarden en mostrar reducciones de costo y paradas a consecuencia de un menor número de fallas sorpresivas.

Las soluciones para el proceso de producción permiten conocer de inmediato la situación, pero puede pasar algún tiempo antes de que se reduzca el número de productos fuera de especificación, o que se vea claramente una reducción del costo de traslados y materia prima.

También insume tiempo ver el efecto de las soluciones de seguridad reduciendo la cantidad de incidentes.

Las soluciones en estos cuatro dominios conforman la columna vertebral de la transformación digital en cuanto a excelencia operativa y un desempeño de top cuartil. Muchas otras soluciones, tales como tablets y teléfonos inteligentes, drones y rastreadores, donde los ahorros son más difíciles de cuantificar, no deberían ocupar el centro de la tarea de digitalización.

Algunas plantas inician la transformación digital (Industrie 4.0) con los proyectos equivocados, donde la diferencia entre la anterior y la nueva forma de trabajar quizás no sea tan marcada. Por ejemplo, rastreadores, drones, tablets y teléfonos inteligentes no siempre son los mejores ejemplos de transformación digital, ya que todavía necesitan un ser humano para operarlos. Un humano debe controlar el rastreador o el dron. Un humano debe portar el tablet o teléfono inteligente, inspeccionar y tipear datos en el dispositivo, que sigue siendo manual y no completamente automático.

Hay soluciones de transformación digital que son completamente automáticas: usar un sensor permanente para automatizar la recolección de datos, la comunicación de datos digital y el software para interpretar automáticamente los datos. Es por esta razón que conviene poner los drones y los robots en la última parte de una hoja de ruta de la transformación digital.

Los dashboards y la Realidad Aumentada (AR) son displays para los humanos, conformando el último paso en la cadena datos-información-conocimiento-sabiduría. Antes de generar un dashboard o una superposición de AR, se requiere una analítica  adecuada para conseguir la información en el dashboard o en un dispositivo de realidad aumentada. Y antes de que pueda obtener una analítica confiable, necesita datos útiles. En consecuencia, las plantas deben comenzar con sensores. De lo contrario, los dashboards, desktops, tablets o teléfonos inteligentes no tendrán la información útil y confiable que el personal necesita para hacer mejor su trabajo y no servirán para nada.

Las plantas que han tenido éxito en su transformación digital comenzaron con sensores fieldbus o wireless conectados digitalmente a la red digital.

Algunos especialistas proponen "analizar 10 años de datos durante 3 meses para ver qué correlaciones se pueden encontrar y qué información se puede descubrir". Este criterio, que no involucra a los usuarios finales de una planta, tiene el riesgo de derivar la digitalización hacia problemas que no existen. En este caso, si una solución no resuelve un problema real y no consigue hacer más fácil el trabajo de las personas, no se utiliza, que modo que está la posibilidad de que las soluciones caigan en desuso y la transformación se detenga.

En cambio, las plantas que han tenido éxito en la transformación digital usan otro concepto. El personal de planta conoce cuáles son los problemas que lo aquejan: interrupciones, consumo de tiempo y recursos. En consecuencia, hay que comenzar por resolver estos problemas, lo que facilitará las tareas de las personas y garantizará el uso de las nuevas herramientas digitales.

 

Objetivo: Tener éxito en la transformación digital

 

Métricas de transformación digital

La transformación digital suele justificarse en base al retorno de la inversión, lo cual permite confirmar el éxito o no de la iniciativa. Se deben cotejar el ‘antes’ y el ‘después’ en ítems como costo de mantenimiento, paradas, costo de energía, incidentes, producción, etc.

Hay que dedicar tiempo para pensar en cómo medir y demostrar los ahorros y otras mejoras. ¿Hay disponible un costo de referencia u otras métricas obtenidos de la forma actual de operación?

La reducción del consumo de energía, gracias al monitoreo de trampas de vapor e intercambiadores de calor, es fácil de confirmar midiendo el consumo de servicios públicos por tonelada de producto producido o procesado para ver la diferencia real. De hecho, la misma medición del consumo de servicios públicos por área y por unidad para la gestión de energía ISO 50001 suele ser parte de la transformación digital.

La reducción de las pérdidas de material, como resultado del monitoreo de válvulas de alivio, es fácil de confirmar a partir del balance de masa entre materia prima y producto, o se la puede ver directamente como una reducción de la combustión de antorcha por tonelada de producto producido o procesado midiendo el caudal de gas de antorcha. 

Por su parte, la reducción del número de fallas sorpresivas en equipos a consecuencia del monitoreo de condiciones se puede ver a partir de los registros de mantenimiento. La posibilidad de evitar costos se puede estimar en base al menor número de incidentes y al costo normal de reparación. También se pueden rastrear las paradas no programadas y el costo asociado de esas paradas.

Los incidentes de seguridad se pueden rastrear utilizando los registros de HS&E (Salud, Seguridad y Medio Ambiente) en cuanto a monitoreo de válvulas, monitoreo de duchas de seguridad, detección de fugas, etc.

Por lo general, se suelen registrar métricas de producción, tales como cantidad de productos fuera de especificación, que sirven para demostrar una reducción.

Un menor costo operativo, por ejemplo en transporte, se puede ver a partir de los registros financieros.

En cambio, los resultados de desplegar tablets y teléfonos inteligentes con la infraestructura de soporte asociada podrían ser difíciles de medir.

 

Sostener la transformación digital

Obtener información acerca de los desafíos de una planta que se busca resolver a través de la transformación digital en todos los departamentos operativos es una buena práctica. Sin embargo, cabe recordar que, a la hora de formar un equipo digital ad-hoc temporario conformado con personal de distintos departamentos para un programa de transformación digital, con el tiempo ese personal tendrá que volver a su trabajo habitual. Sin embargo, no hay que olvidarse que la transformación digital es para siempre, por lo que la transformación digital necesita un responsable a largo plazo en cuanto a automatización y mejora continua.

 

La transformación digital no es un proyecto, es un estilo de vida.

 

 

Para llevar a cabo la iniciativa digital debe haber personal de I&C para la infraestructura operativa digital (DOI según sus siglas en inglés), que es la parte principal, y personal de informática para la parte correspondiente al sistema ERP.

El personal de I&C trabaja con departamentos operativos, tales como mantenimiento, confiabilidad, integridad, producción, calidad, HS&E, y proceso/energía, para impulsar proyectos de transformación digital en cada dominio.

Si el personal de planta no modifica sus maneras tradicionales de trabajar, es porque las nuevas herramientas digitales no le sirven. Si las nuevas herramientas digitales le sirven, las usarán y no aceptarán volver a lo anterior.

Las plantas que han tenido éxito en la transformación digital fueron desplegando herramientas que realmente sirven, son fáciles de usar y con poco esfuerzo. Por ejemplo, automatizar la recolección manual de datos mediante la implementación de sensores de modo que el personal no tenga que ir al campo con testers portátiles o leer medidores.

Una vez desplegados los sensores y mostrados los datos, o la información obtenida a partir de los datos, el personal ya no tendrá que salir a buscarlos. Al respecto, si los datos se muestran sólo en una sala de control, el problema no queda resuelto y esos datos no se utilizarán, trabando su adopción.

 

Objetivo: Tener éxito en la transformación digital

 

De manera similar, si se intenta realizar la analítica de equipos usando sólo datos de proceso existentes, no se podrán conseguir alertas tempranas y resultados confiables. El personal pronto desconfiará de la solución y volverá a su antigua manera de trabajar.

Por lo tanto, las plantas deberán recurrir a un sensado directo en los equipos para lograr una analítica más predictiva y confiable a fin de garantizar su uso continuado. Los ingenieros de planta sabrán cuáles son los sensores necesarios, que también se podrán encontrar en documentos como FMEA, árbol de fallas o matriz de fallas.

La transformación digital es una necesidad. Sin embargo, para que el cambio sea sustentable, es necesario que abarque todos los aspectos. No se puede agregar la carga de ingresar datos en una tablet en el piso de planta a un administrativo a fin de elaborar un dashboard. Los datos deben ser recolectados automáticamente de modo que no haya ingreso manual de datos y que beneficie tanto al personal administrativo como al personal del piso de planta.

El personal volverá a sus viejas costumbres si la solución no les sirve, y tal vez incluso se resigne si se convierte en una carga. Un software personalizado que no puede ofrecer todas las funciones requeridas y una interface amigable con el usuario por el alto costo de realizar iteraciones de cambios y agregados, puede llegar a ser algo muy frustrante.

Una analítica que da resultados impredecibles al no poder verificar el modelo elaborado con machine
learning
y no tener los sensores adecuados, se traduce en una solución sin éxito que hace que el personal regrese a sus antiguas maneras de trabajar. Si las herramientas no son útiles o son demasiado difíciles de usar, no se utilizarán.

En cambio, las plantas que han tenido éxito en la transformación digital usan un software predefinido con analítica basada en primeros principios (1P) sólidos y FMEA, y sensores directos.

 

Todos quieren la información, nadie quiere ingresar los datos.

 

La cultura de la transformación digital

La transformación digital comienza apuntando a excelencia operativa, lo que involucra a todos los departamentos operacionales de una planta. El resultado es un reporte con soluciones altamente procesables para los problemas reales de la planta. La mayoría de estas soluciones ya han sido probadas y testeadas en otras plantas similares, por lo que no implica largos períodos de desarrollo, testeo y prueba de conceptos. Las soluciones probadas pueden implementarse de inmediato y ver los retornos rápidamente. Luego, las soluciones podrán escalarse a través de la planta.

Incluso la infraestructura es escalable a nivel de unidad, área y a toda la planta y no se requiere una infraestructura masiva. Con unos pocos éxitos cuantificables, por ejemplo reducción de pérdidas de vapor y gases de antorcha del producto, se podrán implementar entonces aplicaciones en las cuales es más difícil cuantificar los beneficios. Pero siempre está la posibilidad de que aparezcan nuevas soluciones…

Aparte de destapar problemas que se pueden resolver a través de la transformación digital, también se le puede enseñar al personal a pensar de una nueva manera para resolver problemas. En el futuro, se podrá innovar con sensores y software como solución digital a la hora de encontrar problemas en las operaciones. Cuando el personal de la planta pueda pensar de esta manera digital, es cuando se sabe que su cultura ha cambiado.

 

Sin replicación de datos

Si la transformación digital se inicia embarcándose en la implementación de una ‘plataforma de software única’ o ‘lago de datos’, es posible que se tarde meses o años y millones de dólares antes de desplegar la primera solución de uso real para ver la diferencia. Hay un riesgo de que la transformación digital se detenga y quede abandonada antes de que se complete.

En cambio, las plantas que han tenido éxito en la transformación digital utilizan su historizador de proceso existente y lo amplían con un historizador de confiabilidad. De esta manera, los datos no se replican en lugares adicionales. Una arquitectura distribuida significa no tener que replicar datos provenientes de varias bases de datos de sistema en una base de datos central de una ‘plataforma de software única’, sino usar OPC-UA como ‘plataforma virtual’ para acceder a datos directamente desde cada base de datos fuente sin replicación. En definitiva, una moderna arquitectura de datos distribuida.

 

Objetivo: Tener éxito en la transformación digital

 

Superar la resistencia

Algunos proveedores proponen cambios en la infraestructura informática, tales como agregar otra ‘plataforma de software única’ por encima de ERP, lo cual puede resultar difícil ya que estas plataformas cuestan millones de dólares, se demoran años en implementarse y duplican la funcionalidad del historizador existente, sumando poca o ninguna funcionalidad nueva. Más aún, aumentaría el costo y la carga de soporte informático.

Puesto que la mayoría de las plantas ya tienen una plataforma de software y su historizador, en los cuales han invertido mucho dinero, no quieren tener que soportar otro más. Y teniendo en cuenta que un tal proyecto requiere mucho personal y bastante dinero, las plantas disponen de muy poco personal técnico y se enfrentan a exigencias imprevistas en los presupuestos.

Las plantas que han tenido éxito en la transformación digital usan su historizador existente como plataforma para evitar problemas en la infraestructura informática. De esta manera, las plantas también podrán evitar conflictos con los requerimientos de soporte ya existentes, utilizando lo que ya tienen para trasladar las soluciones digitales a producción con un acceso escalable a los datos desde toda la empresa.

 

Soluciones predefinidas sin programación personalizada

Esto quizás parezca contradictorio al principio, pero una vez que se lo analice, se podrá comprender la lógica: las soluciones personalizadas quizás dejen de servir. Cuando un integrador de sistemas escribe apps de software personalizadas, es algo nuevo y no probado, por lo que invariablemente habrá deficiencias de funcionalidad ya que el integrador y los usuarios de la planta no pueden pensar y especificar todas las características requeridas y deseadas de antemano.

En consecuencia, la planta gastará muchos meses, y tal vez años, programando y testeando múltiples versiones del software antes de llegar al adecuado. Se pueden esperar deficiencias en la exactitud de predicción analítica de un nuevo algoritmo o modelo al no estar perfeccionado, ya que se requieren pruebas en plantas reales y en distintas condiciones operativas para eliminar falsos positivos y no dejar de detectar problemas en desarrollo.

Por último, las deficiencias en la facilidad de uso suelen ser comunes en un software personalizado ya que, por no haber sido usado anteriormente, no hay realimentación de anteriores usuarios sobre el producto. Por lo tanto, lo personalizado no suele ser mejor que un software predefinido listo para usar.

 

Nadie intentará escribir un procesador propio de textos ‘mejor’, ya que un software predefinido es más económico, más fácil y con abundantes características.

 

Las plantas que han tenido éxito en la transformación digital utilizan un software predefinido con un registro de seguimiento probado. Perfeccionado a través del tiempo, con todas las funciones y un algoritmo ajustado e intuitivo. De esta manera, no hay necesidad de contratar programadores.

Cabe señalar que incluso sin una programación de software personalizada, es posible aplicar una metodología "ágil" en el desarrollo de soluciones de transformación digital, por ejemplo desplegar y testear otra app de analítica, agregar un sensor si es necesario, cambiar ajustes por defecto, etc. Es posible implementar una configuración básica temprano y luego ir mejorándola continuamente. Las opciones de configuración en el software ofrecen flexibilidad para responder rápidamente a pedidos de cambios.

 

Acceso a datos sin tropiezos

Las APIs (Application Program­ming Interfaces) propietarias y los servicios web asociados con una ‘plataforma de software única’ explican las razones por las que tales proyectos se frenan. Es necesario programar un driver personalizado para cada fuente de datos y cada app, y luego mantener ese driver de software con actualizaciones constantes durante la vida útil del sistema. No es una manera práctica de tener acceso a datos, ya que hay demasiada dependencia del integrador.

En cambio, las plantas que han tenido éxito en la transformación digital utilizan OPC-UA estándar para acceder a datos.

 

Datos correctos para la transformación digital

Otra razón para explicar la falta de éxito podría ser la dependencia de datos existentes sin haber incorporado los sensores necesarios para medir directamente los indicadores principales en las áreas problemáticas. No se pueden resolver problemas de los equipos utilizando tan sólo los datos de proceso que tiene una planta, ya que esos datos no son un indicador confiable de los problemas de los equipos.

Las plantas que han tenido éxito en la transformación digital usan sensado directo para obtener datos confiables. Gracias a la nueva manera digital de trabajar en una planta, con una metodología ágil de alto nivel para la resolución de problemas, los datos se enriquecen constantemente incorporando sensores para el sensado directo de las variables necesarias en cada aplicación. La manera más práctica de hacerlo es usar sensores conectados en red digitalmente, wireless o fieldbus, preferiblemente no intrusivos.

 

Facilidad de uso en la transformación digital

Según un informa de McKinsey de octubre de 2018, “el esfuerzo y la experticia requeridos para desarrollar modelos exactos de machine learning más la tarea de limpiar y clasificar por primera vez años de registros de mantenimiento de texto libre realizados por distintas personas y escritos de diferentes maneras hacen que el algoritmo de machine learning sea difícil de definir”.

La eficacia de tales sistemas puede verse afectada por registros de mantenimiento incompletos o inexactos, ya que, a la hora de entrenar el algoritmo, se podría establecer una correlación incorrecta o perder un patrón que lleve a alarmas molestas o a la ausencia de alarmas, aun cuando ocurran síntomas de falla.

Puesto que el machine learning se basa en una ciencia de datos, quizás sea necesario contratar científicos de datos para configurar y mantener el sistema, lo que se suma al costo.

En cambio, las plantas que han tenido éxito en la transformación digital instalan sensores directos y analítica basada en primeros principios (1P) y FMEA. A la hora de utilizar ciencia de datos, es importante que el algoritmo resultante sea verificable como un ‘chequeo de validez’ para estar seguros de que la variable utilizada y las reglas tienen sentido.

Según McKinsey, el hecho más interesante es que, en muchos casos, ni siquiera se necesita analítica, sino tan sólo un sensor y un umbral de alarma. Si bien el entrenamiento es importante, igual de importante es la facilidad de uso. Los ingenieros de confiabilidad, los técnicos de mantenimiento y demás personal de operaciones no son programadores ni científicos de datos, por lo que es clave implementar un software fácil de usar con una analítica basada en la familiar y verificable 1P + FMEA con una interface de usuario simple que no requiere un entrenamiento excesivo.

Muchas veces hay cierta preocupación por el tema de talentos y competencias; en caso de soluciones complejas, sería un problema, pero, con un software adecuado, el personal de planta podrá aprender fácilmente.

 

Flujo de trabajo digital

Una vez que la analítica predice un problema en algún equipo, por ejemplo una falla en los cojinetes de una bomba, se deben tomar medidas. Es posible que los ingenieros de mantenimiento no estén delante de sus computadoras todo el tiempo, de modo que, para que la analítica (diagnóstico) sirva, es necesario enviar notificaciones a su teléfono inteligente donde sea que se encuentren, y una orden de trabajo emitida al sistema CMMS/ERP. Luego se envía una orden de trabajo que el técnico de mantenimiento en el campo recibe en su tablet a través de la interface de navegador web de CMMS/ERP.

Hoy en día, todo este trabajo se puede realizar digitalmente con los nuevos SOPs (Standard Operating Procedures) digitales. En consecuencia, la analítica predictiva de equipos en el nivel 3 (L3) debe estar conectada al sistema CMMS o ERP en el nivel 4 (L4) de la arquitectura de empresa ISA95/modelo de referencia de Purdue.

No hay necesidad de juntar los departamentos de informática e I&C (OT) para integrar la analítica con CMMS/ERP, sólo es necesario que colaboren. Y esto se simplifica cuando la integración entre la infraestructura DOI y el sistema ERP se realiza mediante un software estándar en lugar de recurrir a una programación personalizada. Es decir, la informática e I&C se encuentran en el nivel 3.5. Juntar los departamentos de informática e I&C contra su voluntad no es una buena idea.

 

Objetivo: Tener éxito en la transformación digital

 

IIoT en nube o a nivel local/borde

La nube no es un requerimiento para la transformación digital. La integración en la nube requiere conexión a la Internet, lo que, a su vez, requiere la contratación de expertos en ciberseguridad si quiere conectar el sistema de control de procesos central. Los estudios de seguridad requeridos y el endurecimiento de la arquitectura de red que se necesitan en estos casos podrían tardar meses en completarse. En consecuencia, conectar el sistema central de control del proceso a la nube puede no ser una buena manera de iniciar la transformación digital, ya que implicaría mucho tiempo antes de que se vean los resultados.

La mayoría de las plantas no utilizan la nube para la transformación digital. El 99% de las plantas realizan la transformación digital a nivel local dentro del perímetro de la planta, sin conexión de Internet a la nube, lo que permite iniciar la transformación digital muy rápidamente y ver los resultados muy poco tiempo después.

Para ciertas aplicaciones de IIoT, la conexión a la nube se puede simplificar no conectando el sistema central de control de proceso a la nube. Es decir, la infraestructura DOI para monitoreo y optimización (M+O) es completamente independiente.

Este concepto no es posible en todas las aplicaciones de IIoT, pero sí en algunas, ya que hay muchas aplicaciones que no requieren ningún dato de proceso. Por ejemplo:

τ Vibración de equipos rotativos (compresor, turbina, bomba, ventilador/soplador, torre de enfriamiento, intercambiador de calor enfriado por aire, etc.)

τ Corrosión

τ Erosión

τ Trampas de vapor

τ Válvulas de alivio de presión

En estos casos, los sensores adicionales pueden ser conectados digitalmente a la red a través de un gateway de borde y a la nube sin pasar por el control de proceso central (CPC), sin ninguna conexión de datos con el DCS o historizador.

En otras palabras, puesto que la DOI es independiente del CPC, no agrega ningún riesgo de seguridad al CPC aun cuando el DOI esté conectado a la nube.

 

Objetivo: Tener éxito en la transformación digital

 

Protocolos de digitalización

Los ingenieros de control, los técnicos de instrumentos y otras personas de una organización no están capacitados en protocolos de middleware orientados a mensajes, tales como MQTT, AMQP, CoAP y XMPP, que no son familiares en el entorno de planta. Las herramientas que utilizan estas personas en una planta, tales como comunicadores de campo portátiles, laptops con módems, interfaces y software IDM (Intelligent Device Management), no soportan estos protocolos.

Más aún, esos protocolos no ofrecen interoperabilidad semántica, por lo que no hay una herramienta única capaz de soportar dispositivos que utilizan dichos protocolos de múltiples proveedores. En consecuencia, el usuario tendrá que lidiar con una gran cantidad de herramientas, una para cada proveedor, lo cual no es factible en una planta.

Las plantas que han tenido éxito en la transformación digital suele usar protocolos conocidos, tales como WirelessHART, Modbus/RTU, fieldbus Foundation y PROFIBUS-DP, y su versión IP: HART-IP, Modbus/TCP, FF-HSE y PROFINET-IO. Estos son protocolos estándar que el personal de planta ya conoce.

Una planta ya cuenta con herramientas, tales como comunicadores portátiles de campo, laptops con módems, interfaces y un software IDM (Intelligent Device Management), para estos protocolos. De esta forma, la organización ya está familiarizada con estos protocolos, teniendo en cuenta que (excepto Modbus) proporcionan interoperabilidad semántica, por lo que es posible usar una única herramienta para dispositivos de múltiples proveedores.

Al respecto, hay un concepto equivocado de que la conexión a la nube requiere MQTT o AMQP, que no es cierto. La versión IP de los protocolos de fieldbus puede correr a través de la Internet directamente en la nube. No hay necesidad de conversión a MQTT o AMQP.

Más aún, la conversión a MQTT o AMQP significa perder metadatos valiosos e interoperabilidad semántica. Como regla, no convertir protocolos hasta el final de la cadena.

 

Objetivo: Tener éxito en la transformación digital

 

Preparado en base a una presentación de Jonas Berge, Senior Director, Applied Technology en Emerson Automation Solutions.

¿Cuál es el lugar de los sistemas SCADA en un mundo emergente digitalizado?

 

La importancia de los datos ha adquirido una trascendencia vital para la industria de manufactura de hoy en día. Nadie duda de que aquellas empresas que puedan capturar su ‘big data’ y aprovechar esos datos analizados como marco para tomar decisiones mejores y más rápidas, liderarán la industria en cuanto a productividad y tiempo de llegada al mercado.

Pongamos en perspectiva la escala de esta trascendencia en el uso de los datos. En tan sólo un sitio de fabricación, se estima que pueden ocurrir millones de eventos relacionados con sensores durante un período de 24 horas. Cada una de esas transacciones relacionadas con los sensores es tan sólo una parte de los datos, y la mayoría de esos datos pueden y deben ser utilizados para mejorar la eficiencia operativa.

Al ir que va creciendo la cantidad de sensores de campo y actuadores inteligentes instalados en los sitios de fabricación, estos dispositivos anteriormente 'básicos' ahora están integrados y comienzan a sumarse a la corriente de datos. Al igual que afluentes que ingresan en un enorme lago de datos, esos datos se convierten en información útil, que sirve para respaldar el proceso de toma de decisiones y, en última instancia, mejorar la producción.

Pero todo esto no sucede automáticamente y se requieren ciertas herramientas sofisticadas. La buena noticia es que la mayoría de los operadores ya están familiarizados con las herramientas clave que proporcionan este servicio de captura y análisis de datos. La industria los denomina sistemas SCADA (Supervisory Control And Data Acquisition); en esta nueva era de digitalización completa, los sistemas SCADA tradicionales han mejorado y su valor de negocio ha adquirido un nuevo significado.

Según Siemens, SCADA es ahora una solución clave para conectar los activos distribuidos de una planta a fin de generar una inteligencia procesable. Para respaldar este concepto, ofrece aplicaciones SCADA para su implementación en una menor escala y más condensada. Por ejemplo, en las aplicaciones tradicionales, los nodos del sistema podrían estar ubicados físicamente a kilómetros de distancia. En los nuevos entornos conectados y con gran densidad de datos, estos nodos podrán estar separados ahora por centímetros.

Por ejemplo, la actual plataforma SCADA de Siemens, WinCC, tiene la capacidad de unir datos provenientes tanto de activos fuertemente acoplados como de activos muy dispersos. El resultado es un entorno más flexible, confiable y transparente con una automatización más inteligente y la capacidad de recolectar y analizar ‘big data’ en tiempo real para obtener información procesable y tomar mejores decisiones de negocio.

 

Cuál es el lugar de los sistemas SCADA en un mundo emergente digitalizado?
El rol de SCADA como integrador de funcionalidades de planta en el proceso de digitalización.

 

¿Cómo es la fábrica digital?

La forma de elaborar productos es la misma en una fábrica tradicional y en una digital. En ambas se perforan orificios, se moldean piezas, se llenan botellas, pero la diferencia está en la información. En la fábrica digital, los dispositivos ‘inteligentes’ trabajan juntos, mientras el sistema de control interconecta los procesos dispares, todo con un solo objetivo en mente: lograr competitividad. Se consigue así una mayor eficiencia, un menor tiempo de llegada al mercado y una mayor flexibilidad de manufactura gracias a un sistema subyacente optimizado para procesar datos.

El concepto digitalizado de recolección, centralización y análisis de datos permite integrar las cinco etapas básicas del ciclo de vida de un producto: diseño, planificación de la producción, ingeniería, producción y servicios. Mientras se diseña el producto, todas las etapas subsiguientes ya están planificadas de modo que el proceso en su totalidad pueda operar de manera más eficiente.

Por ejemplo, la manufactura ofrece realimentación acerca del diseño del producto desde las primeras etapas para garantizar una producción sin inconvenientes. Utilizando modelado simulado de cada fase de manufactura, es fácil identificar elementos críticos y potenciales riesgos, además de abordar inconvenientes lo más temprano posible en pos de una máxima eficiencia.

 

Contribución de SCADA al flujo de datos

Los dispositivos inteligentes instalados en la planta se convierten en parte de la red SCADA, facilitando el flujo de datos. A continuación se enumeran cinco áreas donde los sistemas SCADA agregan valor a la operación de una planta digitalizada.

 

1| Gestión de datos

La enorme variedad de dispositivos de campo genera cada uno sus propios datos. Para que estos datos sean de utilidad, sus formatos deben ser consistentes. Y es allí donde entra en juego la gestión de datos.

El resultado de un buen sistema de gestión de datos es la racionalización de los datos de modo que sean comparables y almacenables. Un sistema como WinCC presenta los datos en tiempo real y también los archiva para su posterior análisis. Luego, el sistema podrá identificar tendencias o involucrarse en la resolución de problemas.

Si ha ocurrido un problema en una sección de la línea de empaque a las 3:00 p.m. del último martes, ¿qué información han estado generando los dispositivos aguas arriba y abajo de esa área problemática durante ese período de tiempo? El sistema WinCC podrá proporcionar tal información de una manera rápida y directa.

 

2| Gestión de la información

Los datos necesitan convertirse en información de producción para que puedan optimizar la manufactura. Por ejemplo, la herramienta Information Server de WinCC puede crear dashboards con displays en tiempo real y visibilidad en las operaciones de planta. Los gerentes pueden acceder a los dashboards en forma local o remota. También se generan reportes automatizados que monitorean los elementos críticos de proceso durante cualquier intervalo de tiempo deseado.

 

3| Gestión de la energía

A la fecha, la gestión de la energía se ha transformado en un tema tanto de reglamentación como de control de costos. La adhesión a estándares como ISO50001 permite conservar recursos, enfrentar el cambio climático y bajar costos de electricidad, gas y agua.

Para reducir el consumo de energía, el primer paso es medir cuánta energía se consume. WinCC puede actuar como mecanismo que captura datos de consumo de energía de distintos dispositivos, tales como transformadores, medidores, disyuntores y accionamientos de motores, que es donde se puede medir el consumo de energía. Luego, al comprender estos patrones de uso de energía, se podrán evitar las tarifas pico de los servicios públicos.

 

Cuál es el lugar de los sistemas SCADA en un mundo emergente digitalizado?

 

4| Gestión de diagnósticos

Las herramientas de WinCC permiten a los usuarios visualizar la información de diagnóstico del sistema y de los dispositivos. El fácil acceso a esta información acelera el proceso de resolución de problemas y reparación. Problemas cotidianos, tales como identificación de cortocircuitos, rotura de cables, pérdida de carga de tensión, violaciones de límites y otros defectos del sistema, pueden ser identificados y solucionados rápidamente, evitando demoras prolongadas a la hora de localizar el problema e identificar la solución.

WinCC ofrece alarmas para una notificación inmediata cuando surgen problemas y muestra información clara de texto de todos los dispositivos, incluidos sensores, PLCs, HMIs y servidores. Si hay un error de programación en un PLC, el sistema identifica qué línea de código causó un disparo.

 

5| ¿Dónde se ubica el nivel de nube en este en estecontexto?

La digitalización está impulsando la fusión de los sistemas de automatización con el mundo informático, por lo que hay cada vez más sistemas interconectados, incluso aquellos considerados tradicionalmente incompatibles.

Un sistema como WinCC sirve como puente de datos entre la Tecnología de Operaciones (OT) y la Tecnología de la Información (IT). Para acceder a más datos operativos a través de la cadena de valor, WinCC puede utilizar el nivel de nube, por ejemplo MindSphere, el sistema operativo abierto IoT de Siemens basado en la nube que ofrece poderosas aplicaciones y servicios digitales.

 

Primeros pasos hacia la digitalización

La digitalización es una ventaja competitiva que puede adoptarse a través del tiempo. A la hora de modernizar una planta, incorporar un sistema SCADA es una decisión vital para conseguir interoperabilidad, cuyas ventajas contribuyen a aumentar la competitividad del entorno de manufactura:

  • Los sistemas de planta e informática comienzan a comunicarse - Se puede conseguir un intercambio más directo de información cuando las funciones a nivel de planta se conectan con MES, ERP y otras plataformas de gestión.
  • La gerencia puede tomar decisiones más rápidamente - Una información más actualizada y detallada se traduce en procesos de planta más optimizados.
  • Ahorros de energía - El uso de energía puede ser medido y reducido cuando los datos de consumo son más transparentes. También se simplifica la implementación de las normas ISO50001.
  • Mejora del tiempo de producción - El uso adecuado de la información de diagnóstico simplifica el mantenimiento y permite asignar el tiempo de uso de los recursos donde más se los necesita.
  • Mejora sinergética – Los éxitos iniciales fomentan a futuro un mayor uso de dispositivos inteligentes en todos los niveles, lo que aumenta el flujo de información para mejorar la toma de decisiones.

 

Conclusión

A medida que evolucione el proceso de digitalización, los sistemas SCADA se van reposicionando para ofrecer nuevos niveles de integración y, consecuentemente, nuevas funcionalidades integrables con el nivel OT e IT. Al intensificarse la digitalización, el sistema conserva su función de facilitador principal de redes y flujo de información en pos de una planta más conectada y competitiva.

 

Preparado con material suministrado por Siemens y el asesoramiento del Ing. Andrés Goremberg.

Los datos ya están disponibles. Lo que las empresas buscan es garantizar la calidad de los datos y poder usar la información para promover la colaboración.

 

Hay una aceleración en la adopción e implementación de tecnologías y servicios para la gestión de energía y sustentabilidad. Muchas megatendencias, tales como la permanente reducción del costo de la tecnología de sensado y procesamiento gracias a la nube, han permitido a las empresas recolectar, almacenar y analizar grandes cantidades de datos. Hoy en día, las empresas pueden capturar y monitorear el consumo granular de energía y recursos en tiempo real. 

En muchos casos, estas corrientes de datos son algo nuevo para operadores y gerentes, pero aportan más oportunidades de análisis y optimización que nunca. Sin embargo, la recolección y el análisis de datos de energía y sustentabilidad pueden llegar a ser algo dantesco para las empresas, especialmente cuando la cantidad de datos disponibles aumenta sin parar y se agudiza la necesidad de garantizar la calidad de los datos.

 

El desafío de los datos en tiempo real
Figura 1. Los datos de energía y sustentabilidad provienen de una gran cantidad de entradas. Algunas son modernas, otras no tanto. En el gráfico se muestran las fuentes y con qué frecuencia se las usa.

 

Recolección de datos y cómo se comparten

En un estudio de 2018, las respuestas indicaron que el 80% de las empresas tenían proyectos de recolección de datos de energía y sustentabilidad en marcha. En 2019, el estudio encontró que hay más empresas que están buscando vías más eficientes para compartir los datos recolectados.

En promedio, la investigación comprobó que las empresas recolectan datos de energía y sustentabilidad a partir de cinco fuentes diferentes (ver figura 1). La fuente más común son las facturas de servicios públicas, utilizadas por el 89% de las empresas, mientras el 73% recurren a los sistemas de gestión de energía (EMS según sus siglas en inglés). También se suelen usar hojas de datos (52% de las empresas), como así también los extractos de datos de servicios públicos (48%).

En cuanto a la restante fuente de datos, los dispositivos IoT, sólo son utilizados por el 18% de las empresas. Esto incluye una gran variedad de dispositivos de sensado con conectividad a la nube, que permiten el monitoreo y el análisis remotos en tiempo real.

Se trata, por cierto, de una oportunidad perdida y las empresas tendrán que modificar rápidamente este enfoque. IDC (International Data Corpo­ration) estima que en 2025, aproximadamente unos 80 mil millones de dispositivos estarán conectados a la Internet, lo que significa que los 11 mil millones de dispositivos conectados hoy en día se triplicarán en 2020 y volverán a triplicarse para llegar a 80 mil millones cinco años más tarde.

A nivel macro, el 22% de las empresas compartirán todos los datos de energía y sustentabilidad a través de la organización, mientras el 58% lo harán sólo con algunos de los datos. El 21% de las empresas no comparten los datos, aunque sí los recolectan.

 

El desafío de los datos en tiempo real
Figura 2. Las iniciativas de gestión y sustentabilidad de los recursos impactan en toda la empresa, pero esto no significa que todas las funciones tengan que ver los datos de consumo y desempeño.

 

Los dispositivos IoT impulsan el cambio

La mayor disponibilidad de dispositivos conectados ofrece una buena oportunidad de negocio. Utilizando herramientas como sensores inteligentes, control wireless y dispositivos de borde, es posible mejorar el volumen, la calidad y la velocidad de los datos, lo que equivale a importantes mejoras de proceso y ahorros de costo.

Por ejemplo, en entornos de manufactura CIP (clear-in-place), el uso de sensores remotos se traduce en ahorros de energía y menor tiempo de parada para limpieza.  Por su parte, los sensores IoT y el software de control pueden mejorar considerablemente la eficiencia energética de los centros de datos, además de aumentar la confiabilidad del desempeño.

Compartir datos se traduce en importantes ventajas, teniendo en cuenta que el 90% de las respuestas señalaron que “los departamentos ven todos los datos” y que se puede conseguir presupuesto para proyectos de energía y sustentabilidad.

Sin embargo, hay una variedad de barreras que complican la posibilidad de compartir datos. En algunos casos, la calidad de los datos es sospechosa o son difíciles de manipular, lo que les quita valor. Por ejemplo, el 48% de las empresas señalan que los datos que recolectan son incompletos mientras el 41% reportan que no tienen suficientes herramientas para usar los datos. Y lo que es aún más importante, el 40% de las respuestas señalan que no se dispone de la suficiente experticia interna para utilizar los datos, lo cual es una barrera importante en cuanto a talentos en un mundo que se digitaliza rápidamente.

 

El desafío de los datos en tiempo real
Figura 3. Ya es tiempo de comunicarse.

 

La tecnología es tan sólo una de las llaves del éxito

La creciente adopción de software y otras tecnologías para recolectar, gestionar y analizar datos de energía y sustentabilidad facilita la posibilidad de compartir datos a través de organizaciones y con terceros.

Pero aun con todas estas soluciones habilitadas por la tecnología, las empresas todavía necesitan desarrollar procesos internos para compartir datos, analizarlos e implementarlos a través de su organización. El estudio sugiere que esto está ocurriendo en algunos casos. Por ejemplo, las empresas que han elaborado un EMS señalan que han tenido más éxito en su búsqueda de implementar proyectos e iniciativas de sustentabilidad.

En su reporte de recursos de 2018, Deloitte señala que las empresas realizan medición y verificación en todos o algunos de sus proyectos. También encontró que el 82% de las respuestas correspondían a una de estas dos categorías, comparado con el 77% en 2016, lo cual resalta la creciente expectativa de que la validación post-implementación con datos confiables sea un aspecto crítico.

 

El desafío de los datos en tiempo real
Figura 4. Barreras más allá de bits y bytes. Casi todas las empresas extraen datos, pero es posible que no puedan extraer valor de esos datos.

 

Preparado en base a un estudio a nivel mundial realizado por Schneider Electric y GreenBiz Research.

Una nueva tecnología que soporta sistemas ciberfísicos reúne neumática tradicional con automatización eléctrica para ingresar con la neumática digital en la era de Industrie 4.0.

 

Los sistemas mecatrónicos reúnen sistemas mecánicos, electrónica, tecnología de control y tecnología informática, y les permiten interactuar. Estos sistemas ofrecen una amplia integración de funciones, lo que incluye un mayor nivel de adaptabilidad y estandarización de sistema.

Puesto que requieren seleccionar, adquirir, ensamblar y cablear menos componentes, los sistemas mecatrónicos conllevan importantes mejoras a lo largo de la cadena de valor.

Sin embargo, a pesar de todos los beneficios que ofrecen los sistemas mecatrónicos modulares, todavía hay espacio para mejorar en lo que hace a flexibilidad. Y es allí donde entra en juego un sistema ciberfísico como Festo Motion Terminal VTEM, que incorpora cuatro válvulas poppet a diafragma y piezo piloto de 2/2 vías con sensores inteligentes integrados. Ofrece las funciones tradicionales de válvulas de 2/2 vías, 3/2 vías, 4/2 vías o 4/3 vías, como así también tecnología proporcional y funciones servoneumáticas, todo en un solo dispositivo. Otras funciones incluyen preajuste del tiempo de carrera, accionamiento ECO y diagnósticos de fugas.

El usuario puede realizar todas estas funciones y más en un solo diseño de válvula usando apps de movimiento.

De esta forma, el Festo Motion Terminal VTEM combina todos los beneficios de la tecnología de automatización neumática y eléctrica e integra movimientos complejos, posicionamiento variable, monitoreo de condiciones y muchas otras funcionalidades en un solo componente.

Los sistemas ciberfísicos se caracterizan por una máxima flexibilidad. Incluso durante operación, el usuario puede adaptar las funciones y los movimientos del sistema por medio de software sin mayores cambios en el hardware. También se pueden implementar nuevas funciones de manera rápida y fácil con una simple actualización de software, lo que significa disponer de un sistema siempre actualizado.

 

Festo Motion Terminal VTEM es un sistema ciberfísico que simplifica procesos, aumenta la productividad y mejora la confiabilidad del proceso.

 

Festo Motion Terminal VTEM conforma una plataforma estandarizada para una gran variedad de aplicaciones sin necesidad de reemplazar el hardware. También simplifica todas las fases del ciclo de vida de un sistema:

  • Fase inicial – Esta fase corresponde a la elección del proveedor, planteando preguntas como: ¿El proveedor opera a nivel global? ¿Podrá aportar nuevos desarrollos en el futuro? En definitiva, los usuarios finales sólo invierten en una nueva tecnología si ofrece potencial para el futuro.
  • Conceptualización - Durante esta fase se elabora la base para la planta o el sistema. Los sistemas inteligentes permiten estandarizar el hardware del sistema, además de ofrecer una respuesta rápida y flexible a los cambios. Todas las adaptaciones funcionales se realizan fácilmente a través de apps de movimiento sin modificar el hardware existente.
  • Diseño y programa - La fase de diseño es una de las más costosas en la cadena de valor, insumiendo alrededor de un 25-30%. Los sistemas ciberfísicos, tales como Festo Motion Terminal VTEM, ofrecen ahorros importantes de tiempo y costo en comparación con las plataformas convencionales de terminales de válvulas. En algunos casos, el tiempo que se ahorra en diseño y parametrización de terminales de válvulas modulares puede llegar al 70%.
  • Adquisición – Durante esta fase se procesa una gran cantidad de datos, tales como fechas de entrega, precios, detalles del proveedor y ubicaciones de stock, que luego son ingresados y mantenidos en el sistema ERP (Enterprise Resource Planning). Desde la perspectiva de los costos, esta compleja tarea suele estar incluida en los gastos generales, lo que significa costos no siempre directamente visibles. Los sistemas modulares, tales como una terminal de válvulas, conllevan importantes ahorros, ya que permiten ordenar varios componentes con un solo número de parte. Y un sistema ciberfísico puede simplificar aún más la gestión de datos, la logística y el almacenamiento. Estas soluciones abren la puerta a modelos de negocio y tiempos de entrega totalmente nuevos. Con Festo Motion Terminal VTEM, el usuario sólo tiene que comprar la correspondiente licencia de app de movimiento para conseguir la necesaria funcionalidad. Los beneficios incluyen un menor tiempo de llegada al mercado y una mayor OEE (Overall Equipment Effectiveness).
  • Ensamblado – Teniendo en cuenta que el error humano suele ser la causa que motiva las fallas de un sistema, la posibilidad de bajar la complejidad del sistema es más importante que nunca. En consecuencia, soluciones con integración inteligente de funciones y un menor número de interfaces resultan ideales para alcanzar una máxima eficiencia. Estas características reducen el trabajo de ensamblado, como así también posibles errores y consultas que pudieran surgir. Teniendo un solo componente estandarizado también optimiza las secuencias de proceso para una amplia gama de funciones.
  • Comisionamiento - Coordinar los pasos individuales del proceso, tales como ajustar las velocidades de carrera de los cilindros, es un proceso que insume mucho tiempo en los sistemas mecatrónicos convencionales. Los sistemas ciberfísicos, en cambio, no implican procesos complejos de configuración manual. También se autorregulan y autooptimizan en lo que hace al consumo de energía.
  • Operación – A la hora de reducir costos, mejorar la sustentabilidad y cumplir con las estrictas normativas legales, el foco se pone cada vez más en la eficiencia energética. Festo Motion Terminal VTEM ofrece una app de accionamiento ECO Drive que ahorra en los costos anuales de energía.
  • Modernización - Es importante para muchos propósitos, tales como aumentar el rendimiento del sistema, ampliar la gama de productos y reducir los costos operativos. Los sistemas ciberfísicos ahorran energía, mejoran la eficiencia del proceso y facilitan el ajuste de todas las máquinas.

 

Nuevas dimensiones en automatización

La digitalización alterará profundamente el mundo de la producción. Puesto que Festo Motion Terminal VTEM desacopla, por primera vez, las funciones neumáticas del hardware mecánico, hay una amplia gama de tareas de movimiento neumático que se pueden realizar con un solo tipo de válvula. Este diseño ofrece muchos beneficios mensurables a lo largo de toda la cadena de valor.

Festo Motion Terminal VTEM ofrece muchos movimientos complejos, incluyendo varios perfiles de velocidad y tareas de posicionamiento, que antes sólo se podían implementar con servoneumática o automatización eléctrica.

Este sistema ciberfísico facilita la implementación de una amplia gama de funciones, monitoreo de condiciones y mantenimiento preventivo, todo mientras se gasta menos energía. Los resultados son procesos simplificados, una mayor productividad y una mejor confiabilidad del proceso.

 

Preparado en base a una presentación de Philipp Wahl, de Festo AG & Co.

Nueva herramienta de digitalización de planta

 

La puesta en marcha virtual con un software de automatización introduce un nuevo concepto de simulación de planta en los proyectos de automatización. El software de simulación SIMIT de Siemens ofrece componentes estándar que permiten generar simulaciones mediante el principio de construcción de bloques, lo que se traduce en menos tiempo y esfuerzo.

La puesta en marcha utilizando un software de automatización con simulación ofrece importantes ventajas. La puesta en marcha virtual reduce los costos de proyecto, incluso en su funcionamiento inicial, y brinda posibilidades de mejoras. Al respecto, para llegar a estos beneficios, se necesita un cierto conocimiento de las nuevas tecnologías de simulación en línea con los proyectos.

En consecuencia una, herramienta de simulación requiere de conocimientos apropiados en sistemas de control. En este caso es posible crear simulaciones sin conocimientos específicos de técnicas de simulación, modelación matemática o solucionadores numéricos. Además, las simulaciones serán rápidas y fáciles de crear. Lo que se requiere es configurar simulaciones, no programarlas.

SIMIT ofrece dos herramientas sencillas, un editor MCE de macro componentes y un editor CTE de tipo de componentes, que expanden las capacidades de uso de la herramienta de simulación. Con el MCE se pueden agregar macro componentes para uso individual a la herramienta, creando en la misma un alto rango de reutilización. El CTE permite agregar componentes individuales o crear un nuevo componente que se adapte a necesidades específicas.

SIMIT utiliza exclusivamente componentes individuales para crear una simulación, siguiendo el concepto de construcción de bloques. Para lograrlo, se toman componentes de una biblioteca, se los conectan juntos y se chequean sus parámetros.

Los componentes de SIMIT son los elementos más pequeños de la simulación. Cada componente contiene:

  • Conectores para conexión con otros componentes;
  • Parámetros para configurar la función deseada del componente;
  • La función subyacente de simulación del componente;
  • Iconos que muestran los componentes del SIMIT en la HMI del usuario;
  • Mascaras para visualizar los componentes del SIMIT en la HMI del usuario mientras se realiza la simulación.

Nueva herramienta de digitalización de planta

 

El aspecto funcional de la simulación consiste de las funciones integradas de los componentes. Estas funciones se parametrizan a nivel de componente y se relacionan entre sí vía señales de E/S.

SIMIT se entrega con una biblioteca completa básica que contiene componentes estándar con funciones lógicas y aritméticas que permiten la creación sencilla y directa de una amplia gama de funciones de simulación.  La biblioteca también contiene componentes con los controladores de simulación.

Fuentes convertidoras, variadores de frecuencia, motores inteligentes con sistema de gestión, sistema de pesaje, etc. Estas se pueden incluir fácilmente en la simulación como componentes ya creados.

Las bibliotecas se pueden expandir por medio de macro componentes, que son componentes individuales que cubren las especificaciones de una determinada industria o empresa.

El software SIMIT Basic permite copiar desde simulaciones existentes, lo que significa que, una vez creadas las simulaciones, se las podrá reutilizar simplemente cortando y pegando. Sin embargo, si se desea reutilizar una parte particular de una simulación una y otra vez, como una especie de estándar, conviene integrar esta parte de la simulación en un componente macro.

MCE permite crear macro componentes muy rápidamente interconectando los componentes de las bibliotecas ya existentes en la HMI del usuario de la forma habitual o insertando la configuración deseada sólo copiando en un macro componente. De esta manera se puede definir qué conectores requiere que tengan los macros para incorporarlos luego a la biblioteca de componentes.

Los macro componentes se pueden usar de esta misma forma en otros componentes en la simulación. Se los coloca como cualquier otro componente de la HMI del usuario en SIMIT, se los conecta a otros componentes y se parametrizan los componentes incrustados abriendo el macro.

CTE es una herramienta que permite crear nuevos componentes individualizados y, por lo tanto, es una herramienta personal para la simulación. De esta forma, el usuario no se ve obligado a usar bibliotecas estándar prefabricadas, pero puede realizar simulaciones de manera flexible para uso individual o para responder a requerimientos específicos. También permite configurar libremente todas las propiedades de un componente mientras proporciona todas las funciones de edición necesarias para hacerlo.

SIMIT utiliza una sintaxis basada en ecuaciones fácilmente comprensible para definir la función de simulación. En el SIMIT se implementa un robusto solucionador para el sistema de ecuaciones diferenciales algebraicas, por lo que no es necesario tenerlo en cuenta en la definición de la simulación funcional. Como resultado, no se necesita experiencia especial en lo que hace al aspecto numérico; en cambio, puede concentrarse completamente en las funciones de simulación del componente.

Los componentes de la biblioteca estándar son completamente configurables con CTE, lo que permite implementar modificaciones de manera rápida y fácil.

Por ejemplo, se pueden adaptar iconos de los componentes estándar según preferencias individuales, modificando la función o cambiando el control de Windows.

También es posible esconder funciones de la simulación implementada con el fin de proteger sus conocimientos tecnológicos específicos. Sin embargo, los componentes pueden transferirse, aun cuando la implementación real siga siendo de su conocimiento específico, y no se divulga a la hora de transferir los componentes.

 

Preparado con material suministrado por Siemens.

IO-Link: Naturalizado

Agosto 19, 2019

Los maestros IO-Link con SIDI (Simple IO-Link Device Integration) les dan a los dispositivos IO-Link la identidad de un módulo PROFINET genuino con su propia entrada GSDML. La función simplifica la ingeniería de dispositivos IO-Link en proyectos con controladores PROFINET, ya que permite el acceso a todos los parámetros y propiedades de los dispositivos desde el sistema de ingeniería sin necesidad de un software adicional.

 

IO-Link: Naturalizado
SIDI permite la integración directa de dispositivos IO-Link en un software de ingeniería PEOFINET, por ejemplo TIA Portal. El software puede ser utilizado ahora en los maestros IO-Link TBEN-S y TBEN-L IP67 de Turck y también en la FEN20 versión IP20.

 

Nadie duda del éxito y la creciente popularidad de IO-Link con más de diez millones de dispositivos en uso hoy en día en todo el mundo. Las ventajas de la comunicación bidireccional digital comparado con las interfaces analógicas y digitales convencionales incluyen cableado económico, capacidades de diagnóstico, opciones de parametrización, retención de datos inteligente, e-planificación simplificada y, no menos importante, soporte independiente del proveedor. 

 

Se busca: Asistente de integración para IO-Link

Pero IO-Link también tiene sus límites. Ha habido particularmente un déficit en cuanto a la integración de dispositivos IO-Link en sistemas PROFINET. Con cada dispositivo PROFINET se entrega un archivo GSDML (Generic Station Description Markup Language), que permite que el programador de control pueda planificar y parametrizar el dispositivo en el proyecto offline (principalmente en el TIA Portal), antes de que el proyecto quede integrado con la red y los dispositivos conectados. Estas dos tareas deben llevarse a cabo al comienzo de manera independiente, particularmente en grandes proyectos.

Los fabricantes de dispositivos IO-Link no los equipan con su propio archivo GSDML, de modo que la descripción del dispositivo viene en forma de una IODD (IO-Link Device Des­crip­tion).

En consecuencia, el software de PROFINET no puede detectar los dispositivos directamente. El usuario se ve forzado a ingresar manualmente algunos datos, tales como clase de dispositivo o ID del fabricante. Otros parámetros, tales como rangos de medición y señales de salida, tenían que ser programados o configurados mediante un software adicional.

 

Los intérpretes de IODD con limitada capacidad

Estas clases de software adicional actúan como intérprete de IODDs en otros sistemas, de la misma manera que lo hacen en distintas herramientas de software. Estos programas permiten realizar los ajustes necesarios en el dispositivo IO-Link. Recién entonces se integra el dispositivo en el proyecto de PROFINET.

Esta no es una solución satisfactoria, particularmente en grandes proyectos. Por lo tanto, los programadores de PLCs tenían que lidiar con un gran número de herramientas a la hora de integrar los dispositivos de todos los fabricantes.

En consecuencia, muchos programadores trataban de programar de nuevo manualmente los dispositivos IO-Link en su entorno de controladores. Además del tiempo que implica y la gran cantidad de conocimientos que se requieren para esta tarea, esta solución también está propensa a errores. Y sin mencionar los inconvenientes que pudieran surgir en proyectos configurados con diferentes herramientas.

 

SIDI integra dispositivos IO-Link en archivos GSDML

Esta debilidad ya fue identificada por Turck en IO-Link y ha estado trabajando en su función SIDI desde hace varios años.

Los dispositivos IO-Link son ingresados como submódulos de PROFINET en el GSDML de los maestros IO-Link. Para lograrlo, Turck incorpora ahora su maestro IO-Link en el diseño del módulo bloque (en IP20 e IP67) por medio de la función SIDI. El usuario, cuando integra uno de estos maestros IO-Link en un proyecto PROFINET, puede usar de inmediato los dispositivos IO-Link conectados como módulos PROFINET.

Turck integra todos sus dispositivos IO-Link propietarios en la biblioteca SIDI, además de los sensores ópticos de Banner Engineering.

También incluye los primeros dispositivos IO-Link de terceros. Al respecto, cada dispositivo que se incluye es testeado rigurosamente para garantizar su operación y la amigabilidad con el usuario de la herramienta.

 

Dispositivos IO-Link desplegables en proyectos PROFINET

Si el dispositivo conectado está en SIDI GSDML, los programadores de PLCs pueden seleccionarlo desde el catálogo de dispositivos en su entorno de programación.

El programador podrá ver entonces todas las características IO-Link importantes para estos dispositivos y alterar parámetros, tales como rangos de medición, señales de salida o pulsos en texto simple.

 

La ingeniería offline con SIDI ahorra mucho tiempo

Los beneficios de SIDI son muy evidentes en grandes proyectos donde las anteriores alternativas implicaban varios problemas. Normalmente, las grandes plantas y máquinas son ingresadas como un proyecto offline.

Los nodos PROFINET son agregados en el árbol de dispositivos y seleccionados normalmente desde la biblioteca de TIA Portal.

Ahora es posible realizar una ingeniería offline con dispositivos IO-Link, que no tienen que estar disponibles en el escritorio del programador de PLCs. No hay necesidad de visitar con antelación cada dispositivo con una computadora portatil para ingresar los ajustes necesarios mediante un adaptador USB. Este acceso offline a todos los datos de dispositivos ahorra mucho tiempo en grandes proyectos si se lo compara con la integración de IO-Link sin SIDI. El cableado de proyectos IO-Link puros pasa a ser un juego de niños para instaladores y técnicos electrónicos.

 

Mantenimiento sencillo: Reemplazo ‘plug-and-play’ de dispositivos

Además de la ingeniería, SIDI también soporta el mantenimiento. Teniendo en cuenta que todas las características y parámetros de maestros y dispositivos están disponibles directamente en el controlador central del proyecto, se consigue fácilmente el reemplazo automático de dispositivos sin ningún tipo de problema, tanto de los maestros IO-Link como de los dispositivos.

Usando PROFINET con información de topología, esto se puede lograr incluso automáticamente. Ya no se necesita ninguna configuración tediosa de rangos de medición y otros parámetros para los dispositivos utilizados.

 

SIDI: Configuración completa de dispositivos IO-Link directamente desde sistemas de ingeniería PROFINET

  • No se requiere software adicional para configurar IO-Link
  • Operación intuitiva e ingreso en texto simple
  • Todos los dispositivos en un solo lugar del proyecto
  • Comisionamiento rápido  de grandes proyectos gracias a ingeniería offline
  • Reemplazo de maestro y dispositivos sin necesidad de configuración, ya que todos los parámetros se guardan en el propio controlador.

 

Preparado en base a una presentación de Aurel Buda, gerente de sistemas de automatización de fábrica de Turck.
En la Argentina: Aumecon S.A.

Los instrumentos de campo entregan mucha información más allá de los valores de medición, lo que permite a los operadores de planta optimizar sus procesos, por ejemplo llevando a cabo un mantenimiento predictivo para evitar paradas no programadas.

Para utilizar todos estos datos, o sea recolectarlos a nivel de campo y analizarlos en el hub, es necesario disponer de un segundo canal de comunicaciones. Este método es la única forma de canalizar estos datos desde el campo hasta el sistema de control simultáneamente y de una manera segura y no reactiva.

Los instrumentos de medición actuales de Endress+Hauser están listos para IIoT y cuentan con la conectividad necesaria para transmitir datos además de los correspondientes valores de medición.

Gracias a protocolos de fieldbus, tales como PROFIBUS PA y fieldbus Foundation, estos datos pueden ser transferidos a la red Ethernet corporativa a través de Fieldgates, y desde allí enviados al ecosistema Netilion IIoT de Endress +Hauser a través de un dispositivo de borde.

 

Instrumentos de campo listos para la transición digital
Desde el campo hasta el ecosistema Netilion IIoT de Endress+Hauser.

 

Utilizando estándares de interface abiertos, tales como OPC-UA, o protocolos de Ethernet industrial, tales como PROFINET y EtherNet/IP, es posible leer directamente la información desde el instrumento.

Por su parte, la capa APL (Advanced Physical Layer) abre ahora nuevas oportunidades: una solución bifilar intrínsecamente segura co-desarrollada por Endress+Hauser permitirá alimentar y conectar instrumentos de campo directamente vía Ethernet incluso en entornos peligrosos y en plantas que cubren grandes áreas. La velocidad de transmisión es 300 veces mayor que en los fieldbuses convencionales. En definitiva, ¡un verdadero highway de datos desde el campo!

En plantas ya existentes, se puede implementar un segundo canal no reactivo de comunicaciones inalámbricas directamente en el instrumento de campo. Al respecto, Endress+Hauser ofrece un  nuevo adaptador basado en el protocolo HART, que al día de hoy puede ser manejado por la mayoría de los dispositivos instalados y soporta transmisión de datos vía WirelessHART y Bluetooth. Permite conectar fácilmente todos los instrumentos HART incluso en una infraestructura de 4-20 mA pura.

El adaptador es fácil de reconvertir, se lo alimenta a través del lazo de corriente y es intrínsecamente seguro. Se lo puede configurar con conexión al ecosistema Netilion IIoT a través de un gateway WirelessHART y un dispositivo de borde, y en el futuro incluso directamente a través de gateways de borde Bluetooth-LTE.

 

Preparado en base a una presentación de Olivier Wolff, de Endress+Hauser.

Digitalización de sistemas de control  y automatización

 

Destinado a la digitalización de sistemas de control y automatización de procesos, Honeywell Process Solutions acaba de lanzar Experion PKS Highly Integrated Virtual Envi­ronment (HIVE) durante su reciente conferencia Honeywell Users Group (HUG) Americas 2019 en Dallas, Texas.

Este nuevo desarrollo simplifica el diseño, la implementación y la gestión del ciclo de vida de sistemas de control al desacoplar las asignaciones de módulos de E/S y estrategias de control de controladores específicos, y utilizar las capacidades informáticas de los centros de datos existentes. También aumenta la visibilidad de los operadores para observar los efectos que se producen en el proceso global y en la performance de negocio.

Según John Rudolph, presidente de Honeywell Process Solutions, "hoy en día se habla mucho acerca de la digitalización y la analítica que están cambiando la organización de los procesos. En el pasado, al comienzo de las tareas, averiguábamos qué había hecho otra persona, aprendíamos de los errores que se habían cometido y escribíamos un reporte que quizás no se miraba hasta que algo salía mal. No sabíamos qué lecciones podríamos compartir con otros o cómo medir el éxito. Y esto no era bueno, ya que los ingenieros no quieren volver a lo que ya hicieron, pero sí quieren aprovechar lo que han aprendido con anterioridad. Esto es válido, pero es necesario tener una forma de probarlo. En definitiva, Experion PKS HIVE puede ayudarles a demostrar su éxito".

 

Desacoplamiento = libertad

Rudolph explicó que el principal atributo de Experion PKS HIVE es separar por completo el hardware del software en pos de una mayor flexibilidad. "Esto permite a los usuarios ver su sistema de control completo en una laptop, lo que se traduce en importantes mejoras operativas. Por ejemplo, las funciones de PLC se encuentran ahora en un servidor, en lugar de estar vinculadas como en los anteriores entornos de control. Esto significa que se puede escalar rápidamente un sistema desde una sola RTU hasta 100 PLCs e incluso un DCS completo, e implementarlo desde el borde hasta su HMI con soluciones sólidas en cada extremo".

Experion PKS HIVE también puede habilitar otras actividades de proceso, tales como simulación para entrenamiento de operadores y seguridad de proceso. "La seguridad es algo en lo que siempre se está trabajando, y es donde Experion PKS HIVE lleva a los usuarios a un nuevo nivel", agregó Rudolph. "Allí donde los reportes y respuestas de seguridad del proceso podrían insumir dos semanas, Experion PKS HIVE puede basar sus reportes de seguridad en eventos y alarmas en vivo.

"Cada usuario puede ver ahora su contribución individual, saber si sirve y qué aporta a su empresa. En el pasado, los usuarios podían no saber qué hacer si no se les decía, pero a nadie le gusta que se le diga qué hacer. Experion PKS HIVE mejorar las cosas, ya que les brinda a los usuarios las métricas que les permiten decidir qué es necesario hacer".

 

Digitalización de sistemas de control  y automatización

 

Superar los obstáculos de proceso

Rudolph agregó que son cuatro los desafíos principales que puede abordar Experion PKS HIVE, lo que incluye costos de una infraestructura que envejece, visibilidad de las operaciones, estado de riesgo y pérdida de aptitudes críticas.

"Hay que pensar si no somos cautivos de viejas infraestructuras, ya que la obsolescencia no es buena para nosotros ni para nuestra base de clientes", comentó Rudolph. "No podemos evitar que haya un cambio tecnológico y sus consecuencias, pero sí hemos encontrado una manera de hacerlo más fácil y más natural. Básicamente, un PLC ya no es sólo un PLC, y un DCS ya no es sólo un DCS. Incluso el modelo Purdue de jerarquía de control ya no es el mismo, pero afortunadamente ahora tenemos la tecnología para manejar estos cambios".

Experion PKS HIVE y sus elementos de E/S, control e IT, además de mejorar las operaciones de rutina del proceso, también pueden colaborar en otras actividades, desde recuperación de desastres hasta simulación para entrenamiento. "Todo el mundo está sobrecargado de trabajo, por lo que el aporte de Experion PKS HIVE es importante, ya que puede analizar los sistemas existentes y extraer los datos que necesitan los usuarios a la hora de gestionar sus procesos por sí mismos", explicó Rudolph. "Experion PKS HIVE permite empoderar a los usuarios para mejorar todos los días sus funciones y la seguridad de los procesos al reducir el riesgo.”

"Experion PKS HIVE ofrece libertad de implementación y un control verdaderamente estandarizado que puede simplificar los entornos de DCS. Es una manera diferente de comunicarse, ya que un controlador puede hablar con cualquier E/S, lo que permite a los usuarios ver sus procesos de manera diferente y saber que lo pueden hacer de forma segura".

 

HIVE: Un nuevo concepto en sistemas

Unos pocos años atrás, desarrollábamos Experion PKS con LEAP (Lean Execution for Automation Projects), que consiste de Universal IOs, que pueden ser configuradas en el campo para pasar de una personalización masiva a una estandarización masiva de hardware, y virtualización para separar el hardware del software ", explicó Jason Urso, CTO de Honeywell Process Solutions. "Ahora, estamos cambiando la forma en que pensamos e implementamos sistemas gracias a  Experion PKS HIVE".

Experion PKS HIVE usa principios de ejecución de proyectos, software y redes de LEAP para desvincular las aplicaciones de control de los equipos físicos y los controladores de las E/Ss físicas. De esta forma, los sistemas de control se pueden diseñar e implementar en menos tiempo, a un menor costo y riesgo, y con bloques modulares más simples.

La solución también transforma la manera en que se mantienen los sistemas de control a lo largo de sus ciclos de vida, desplazando la gestión diaria de los servidores a un centro de datos donde expertos y protocolos ya establecidos mitigan el riesgo de ciberseguridad.

De esta forma, los ingenieros de planta podrán concentrarse de manera más proactiva en la optimización de sus sistemas de control.

Experion PKS HIVE incorpora tres elementos: IT HIVE, IO HIVE y Control HIVE, que se pueden usar individual o colectivamente, en tándem con los sistemas e infraestructuras existentes de los usuarios:

  • Experion PKS IT HIVE - Puede  centralizar hasta el 80% de la infraestructura informática que se usa tradicionalmente en ingeniería de proyectos para bajar los costos de entrega y ciclo de vida del proyecto, aprovechar mejor las aptitudes y promover una gestión consistente tanto física como de ciberseguridad en toda la empresa.
  • Experion PKS IO HIVE – Ofrece una distribución flexible de E/Ss y control para lograr que el sistema de control se convierta en una extensión natural de los equipos de proceso y facilite la ejecución modular y en paralelo del proyecto.
  • Experion PKS Control HIVE – Se aplica a contenedores de control para aportar flexibilidad y estandarización en la plataforma de hardware de control, en la ubicación del control y en la ingeniería de control. Con los múltiples controladores físicos que operan como parte de un Experion PKS Control HIVE, la ingeniería de control se simplifica considerablemente gracias a un balanceo de carga automatizado.

 

El principal atributo de Experion PKS HIVE es separar por completo el hardware del software

 

Distribuir el DCS

"Un tema interesante acerca de un sistema de control distribuido es la posibilidad de que no esté distribuido", comentó Urso.

La nueva red Experion PKS IO HIVE es una red de campo de alta velocidad y tolerante a fallas que permite que el controlador C300 pueda comunicarse con E/Ss distribuidas. "Ahora, C300 podrá comunicarse con cualquier E/S en la red IO HIVE para descubrirla y vincularse con ella".

La ciberseguridad se consigue con un firewall adyacente a cada módulo de E/S de campo y una encriptación de red opcional. Llevar la E/S al campo elimina los gabinetes de E/S en el centro de control, mientras el uso de un cable de fibra óptica elimina el cableado de 4-20 mA de vuelta al centro de control.

Además, Universal IO podrá realizar control local, extendiendo el control en el campo en gabinetes locales con tiempos de ciclo de 20 ms. "La E/S puede ser programada con un subconjunto de la funcionalidad de C300, o sea que es un C300 virtual, lo que proporciona un control completo peer-to-peer en el campo y de vuelta a C300 en el centro de control", explicó Urso. El control puede ser realizado en gabinetes de proceso remotos en las áreas de producción. El reparto del control es flexible, ya sea en el campo, en el centro de control o en un híbrido de los dos.

Los gabinetes de proceso remotos soportan puntos de acceso wireless universales que pueden ser conectados para control y brindar acceso inalámbrico a operadores de campo con dispositivos móviles.

"Por ejemplo, si un técnico está realizando un procedimiento de penetración en un proceso, podrá saber si la cañería ha sido correctamente preparada", señaló Urso. "Pueden acceder al sistema y enclavamientos para garantizar que está hecha la purga y que realizar el procedimiento es seguro".

Con Experion PKS IO HIVE y transmisores wireless SmartLine con templates preconfigurados y configuración inalámbrica, los instrumentos pueden ser comisionados independientemente del sistema de control. “Con C300 en una laptop, los técnicos podrán comisionar dispositivos como si estuvieran conectados al sistema”.

Experion PKS HIVE lleva las E/Ss al campo y las hace totalmente accesibles a cualquier controlador, lo qu permite tomar los controladores físicos individuales y distribuir la carga de modo que puedan aparecer como un solo controlador para eliminar complejidad.

Experion PKS Control HIVE revoluciona la ingeniería de control,” explicó Urso. “Asignamos controles al HIVE, que los integra y distribuye automáticamente. Cualquier controlador puede comunicarse con cualquier E/S, lo que elimina cientos de pasos a la hora de agregar E/Ss y/o estrategias de control. Si se necesita más capacidad, simplemente se agregan controladores. Los últimos cambios se vuelven completamente flexibles".

Con un nuevo controlador virtual y separando el hardware del software, "ahora se puede ejecutar el control en prácticamente cualquier PC o servidor", dijo Urso. "Se puede ejecutar en el campo o en un centro de datos y ser implementado en cualquier lugar".

 

Preparado con material presentado en Honeywell Users Group Americas 2019.

Colaboración y productividad digital

 

Fuertemente alineado con el lema ‘Industria Inte­grada – Inteligencia In­dus­­trial’ de la reciente Feria de Hannover, Schnei­der Electric ha presentado una amplia gama de productos, soluciones y servicios digitalmente conectados que permiten a los usuarios iniciar su camino de digitalización o acelerar su transformación digital.

Las plataformas Exchange y EcoStruxure de aplicaciones, servicios y productos conectados a IIoT permiten digitalizar operaciones de manera rápida, con un costo económico y total confianza. “La plataforma Exchange de Schneider Electric apunta a maximizar los retornos en este entorno de rápida evolución, donde se necesitan plataformas abiertas y novedosas para compartir ideas, derribar silos y destrabar el acceso a nuevos mercados,” comentó Peter Herweck, EVP de Schneider Electric Industry. “Para conseguir esta colaboración, hay nuevos productos, fuertemente ligados a nuestra arquitectura y plataforma EcoStruxure, que ayudan a digitalizar máquinas y procesos mientras promueven la eficiencia y la resiliencia en un entorno cada vez más competitivo.”

Schneider Electric Exchange es el primer ecosistema abierto en la industria dedicado a resolver las exigencias de sustentabilidad y eficiencia del mundo real. Permite a los usuarios llegar a una mayor base de clientes en otros mercados de difícil llegada gracias a una enorme biblioteca de recursos, tales como APIs, analítica y conjunto de datos.

Aprovecha herramientas digitales y experticia para escalar soluciones y acelerar el tiempo de llegada al mercado, mientras facilita la colaboración a través de una poderosa plataforma basada en la nube que permite compartir conocimientos y diseños, además de gestionar y completar proyectos de manera eficaz.

Como muestra de Exchange en acción, Accenture, dedicada a servicios de consultoría y profesionales de gestión, ofrece soluciones personalizadas y modelos digitales de negocio, mientras Claroty, especialista en seguridad para infraestructuras de tecnología operativa, ofrece experticia en ciberseguridad industrial para abordar el mayor riesgo digital a la hora de integrar soluciones IIoT.

Exchange tiene mucho que ver con EcoStruxure. Al aprovechar los avances en IoT, movilidad, sensado, nube, analítica y ciberseguridad, EcoStruxure aporta un mayor valor en cuanto a seguridad, confiabilidad, eficiencia, sustentabilidad y conectividad, llevando la innovación a todos los niveles.

EcoStruxure for Machine Builders es una aplicación que entrega control en tiempo real y analítica a constructores de máquinas para que puedan lograr una mayor eficiencia operacional a lo largo de todo el ciclo de vida de una máquina. En la reciente Feria de Hannover, Schneider Electric presentó el nuevo TeSys island Digital Load Management y el controlador Modicon M262 Logic & Motion, que permiten integrar la funcionalidad IIoT en máquinas nuevas o existentes:

  • TeSys island – Gestión de cargas conectada a IoT y totalmente digitalizada que ahorra en tiempo de diseño, cableado y comisionamiento, ya que está basada en dispositivos y avatares multifuncionales para aplicaciones industriales. Acelera un 40% la integración de máquinas con la nube utilizando estándares abiertos con ciberseguridad incorporada de punta a punta.
  • Modicon M262 – Conectividad embebida directa a la nube y protocolos de comunicación encriptados, y hasta cinco redes Ethernet separadas para un desempeño rápido de lógica y movimiento en aplicaciones exigentes. Ofrece un movimiento 30% mejor y una ejecución de CPU 4 veces más rápida que el promedio del mercado.

Puesto que una digitalización en gran escala podría resultar dantesca para empresas que deben reemplazar máquinas existentes con nuevos equipos listos para IIoT, Schneider Electric ofrece ahora EcoStruxure Advisor, que facilita la integración segura de IIoT basada en la nube, mientras reduce el costo y tiempo de implementación:

  • EcoStruxure Power Advisor – Permite conocer la calidad de los datos y la salud de la red, con información en tiempo real acerca de la calidad de los datos y recomendaciones para establecer una base de datos fidedigna.
  • EcoStruxure IT Advisor – Ofrece una visualización instantánea de las operaciones del centro de datos que permite optimizar capacidades, planificar cambios y analizar su efecto en el negocio, automatizar flujo de trabajo y desplegar una facturación basada en energía para reducir OpEx y aumentar ROI.
  • EcoStruxure Workplace Advisor – Contribuye a la creación de lugares de trabajo inteligentes gracias a dashboards intuitivos que analizan datos provenientes de dispositivos y sistemas conectados con IoT a través de edificios, maximizando la eficiencia del espacio y mejorando la calidad de vida de los ocupantes.
Página 1 de 2

© 2018 Editorial Control. Desarrollado por Estudio Pionero.