Con optimismo pero con reparos sobre el diseño del sistema actual y las potenciales consecuencias. Así es como el expiloto de aviación y experto en seguridad, Alejandro Covello, expone su visión sobre la inteligencia artificial y sus riesgos. El foco, a su juicio, debe incluir protocolos, mejoras y la implicancia tanto del Estado como de las empresas tecnológicas, así como de los usuarios y la comunidad internacional, para ofrecer una gobernanza segura.
El experto argentino es uno de los invitados al seminario internacional “La Revolución Digital: desafíos, riesgos y oportunidades para la Seguridad y Salud en el Trabajo”, el que busca adentrarse en el futuro del trabajo con la llegada de la inteligencia artificial desde una mirada crítica. Un evento impulsado por el Instituto de Seguridad Laboral en conjunto con la Facultad de Ciencias Físicas y Matemáticas de nuestra casa de estudios.
En diálogo con Radio y Diario Universidad de Chile, Alejandro Covello sostiene con firmeza que “la inteligencia artificial nos puede llevar a una edad de oro, pero nos puede llevar también a grandes accidentes que ya están ocurriendo”.

Inteligencia artificial.
“Como preventores de accidentes, como gestor de riesgo, nosotros trabajamos para convivir con las nuevas tecnologías. Nuestra tarea es ser optimista. Creo que viene a solucionarnos un montón de problemas. Pero a su vez también toda tecnología irrumpe, acontece e inventa problemas nuevos. Y esa es la tarea: identificar los peligros, los riesgos, y los futuros accidentes específicos de la inteligencia artificial”, planteó de entrada.
El análisis de Covello, quién también pertenece a TecnocenoLab de la Universidad de Buenos Aires, ofrece una perspectiva acerca de los riesgos sistémicos y los efectos del uso de la IA a escala masiva. En ese sentido, expone cómo la experiencia en aviación y como prevencionista de riesgos puede replicarse en el desarrollo de las nuevas tecnologías.
“La aviación tiene dos características que son muy importantes para luego aplicar en este nuevo sistema de inteligencia artificial: primero es una industria ultra segura; segundo, siempre está a la vanguardia de la tecnología, más que nada de la digitalización y automatización. Una de las propuestas que hacemos es tomar el modelo de las industrias ultraseguras y llevarlas a este nuevo desafío, pero con la especificidad de la IA”, relató al ser consultado.

Alejandro Covello en seminario. Foto: Instituto de Seguridad Laboral.
Covello explicó las tres estrategias que se podrían implementar en el desarrollo de la IA. “Una es una estrategia reactiva, cuando ocurre el evento no deseado, ponerse a investigar. La investigación de accidentes tiene que aportar lecciones aprendidas. Un accidente lo que te está contando es que el sistema tuvo una condición de posibilidad de causarlo”, detalló, apelando a lo que llamó “pensamiento sistémico” que, en sus palabras, sería “cambiar el sistema”.
“La segunda estrategia es proactiva. No esperamos a que ocurra el accidente y vamos a identificar, a la búsqueda del peligro: un potencial accidente. Lo evaluamos, qué probabilidad o qué severidad puede tener, y ahí elaboramos medidas de mitigación y control”, expuso.
“La tercera estrategia es medir el desempeño. Tener un sistema que mida el desempeño de la IA, con indicadores. Indicadores que yo no deseo que sucedan, hay un valor para cada indicador y lo mido. Por encima de ese valor, tengo que aplicar medidas de mitigación y por debajo es tolerable”, indicó el experto.
Para Alejandro Covello, a los problemas que pueden surgir con la irrupción de la inteligencia artificial, como afectaciones al empleo, se debe dar “una respuesta social”. Al respecto, profundizó que: “La IA no es mala o buena, sino que hay usos que, luego de evaluarlos, deben ser prohibidos. Y hay usos que, luego de evaluarlos, los podremos poner en la cancha pero con requisitos”.

Una mano humana y una mano robótica representan la interacción, colaboración e integración entre la inteligencia artificial y la humanidad.
Sobre lo anterior, plantea la necesidad de definir “una pirámide de riesgo”. “Hay usos que deben estar prohibidos. Inferir en las emociones de las personas, prohibido. Vigilancia por fuera de un marco estatal, tiene que estar prohibido. Luego hay usos que, por ejemplo, podemos usar la IA en la función pública”, señaló Covello.
Para afrontar los riesgos de la IA, el experto sostiene como fundamental la presencia de un ente certificador por fuera del operador. Allí, apunta como relevante la presencia del Estado como autoridad responsable de garantizar la gobernanza de las nuevas tecnologías, pero no excluyó de responsabilidad tanto a las empresas tecnológicas como al propio usuario.
“De esta manera se va construyendo lo que llamamos la gobernanza. Cuando tienes que desplegar una gobernanza, el que tiene más poder es el Estado para marcar la cancha. Si el Estado está ausente, queda en manos del operador poner los límites”, mencionó el experto.
“Desde la primera revolución industrial, cuando aparece la máquina de vapor, la tecnología acontece y empieza a convivir con nosotros. Hoy la IA aconteció, convive con nosotros. No podemos no usarla. La inteligencia artificial también es sociedad artificial”, comentó Covello acerca de la presencia de estas tecnologías en nuestro mundo.
Aseguró que ve en el corto plazo un modelo “más normado, regulado y un uso con redes de seguridad” que permita que las nuevas tecnologías sean “democráticas e igualitarias”. En ese sentido, enfatizó que la tecnología «no es neutra», pues «responde a la materialización de un interés político (…). Y ahí hay una tarea política nacional e internacional que tenemos que hacer bien para llegar a ese lugar”.






