Diario y Radio Universidad Chile

Año XVI, 27 de abril de 2024


Escritorio

¿Es la inteligencia artificial un riesgo para la humanidad? Expertos abordan advertencia sobre sus peligros

Tras una declaración emitida por el Center for AI Safety, académicos de la Universidad de Chile sostienen que se debe regular y educar en torno a esta tecnología, más no recomiendan frenar su desarrollo.

Diario Uchile

  Viernes 23 de junio 2023 13:11 hrs. 
IA Uchile

Compartir en

Diversos líderes de la industria de la inteligencia artificial, académicos y celebridades firmaron una carta para advertir que esta tecnología representa el “riesgo de extinción” para la humanidad y que su regulación debiera ser una “prioridad mundial”. Al respecto, los académicos de la Universidad de Chile Juan Velásquez y Néstor Becerra afirmaron que se debe regular y educar en torno a esta tecnología, pero no frenar su desarrollo.

Pese a la muerte de dos de sus integrantes, The Beatles regresará a la historia con el estreno de “Now and then”, anunciada como la canción final del grupo, un tema que se pudo realizar a través de un casete que John Lennon le dedicó a Paul McCartney y el uso de la inteligencia artificial. Pese a estas noticias, que alegran no solo a fanáticos de la desaparecida banda británica, hay preocupación entre los expertos y figuras públicas por los riesgos que puede enfrentar la humanidad por el avance de esta tecnología y advierten incluso el “riesgo de extinción” para la humanidad.

Decenas de líderes de la industria de la inteligencia artificial, académicos y celebridades firmaron un documento publicado por el Centro para la Seguridad de la IA, donde sostienen que “mitigar el riesgo de extinción de la inteligencia artificial (IA) debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear”.

El académico del Departamento de Ingeniería Industrial de la Universidad de Chile, Juan David Velásquez, explicó que la invitación de los expertos “no es a frenar el desarrollo de la inteligencia artificial, como por ahí hemos escuchado en todos lados y se ha transformado en una paranoia colectiva. El punto es ‘mira, esto que estamos desarrollando va tan rápido, tremendamente rápido, que necesitamos un momento para ver las implicancias que ha de tener, cómo regularlo para sacar lo mejor‘”.

Juan David Velásquez, académico del Departamento de Ingeniería Industrial de la Universidad de Chile.

Juan David Velásquez, académico del Departamento de Ingeniería Industrial de la Universidad de Chile.

“Todos estos tipos están diciendo ‘oye, tengamos ojo en esto, porque si esto no lo manejamos bien se nos puede salir de las manos’. Ahora ¿es suficiente con una regulación? Yo creo que no, aquí hay que acompañarlo de otras cosas: la regulación y la educación sobre lo que es la inteligencia artificial”, agregó Velásquez.

Por su parte, Néstor Becerra, director del Laboratorio de Procesamiento y Transmisión de Voz del Departamento de Ingeniería Eléctrica de la Universidad de Chile, planteó que “la declaración es muy escueta, pero seguramente se piensa en regular”.

Néstor Becerra, director del Laboratorio de Procesamiento y Transmisión de Voz del Departamento de Ingeniería Eléctrica de la Universidad de Chile.

Néstor Becerra, director del Laboratorio de Procesamiento y Transmisión de Voz del Departamento de Ingeniería Eléctrica de la Universidad de Chile.

No obstante, señaló que “hay que tener cuidado cuando las grandes empresas hablen de prohibir los desarrollos de la IA. Puede ser una situación del tipo ‘no es necesario que ustedes lo hagan, pero yo lo haré’ o ‘ustedes no, yo sí’. La IA es muy demandante de recursos humanos y hay gran potencial de talento en América Latina”, aseguró el profesor Becerra.

Sobre la posibilidad de frenar los avances en inteligencia artificial, Becerra añadió que “es inútil y poco consecuente con promover el progreso científico y tecnológico de la humanidad, pero sí creo que es importante analizar esto desde una perspectiva top-down: analizar sus aplicaciones y, si es necesario, regular de modo ‘inteligente’, valga la redundancia, para no obstaculizar el desarrollo de la IA”.

“Es como la física nuclear, en el sentido de prohibir las explosiones de bombas, pero no la investigación en temas como la fusión nuclear, que puede ser una fuente de energía prácticamente inagotable y limpia”, ejemplificó el académico.

Riesgos versus beneficios

El profesor Velásquez detalló que “las tecnologías tienen sus riesgos. Piensa tú en la bomba atómica, la energía nuclear, pero estamos curando el cáncer, entonces, hay que ponerle alerta ahora ya”. En esa misma línea, también advirtió que si bien se está regulando el tema de la inteligencia artificial, no se está haciendo con la celeridad que se necesita.

“Yo también comparto que si no lo regulamos correctamente, se nos puede escapar de las manos, pero también creo que si empezamos con una paranoia excesiva, que vamos a tener con Terminator 3 caminando por la calle, frenamos el avance. Creo que tenemos una oportunidad como generación dorada de decir: ok, esto es beneficioso, pero hay que definirlo de la siguiente forma y controlarlo, controlar esta bomba atómica para que no explote y nos sirva como energía nuclear”, dijo Velásquez.

En tanto, el profesor Néstor Becerra sentenció que “la inteligencia artificial es una tecnología disruptiva y su impacto debe ser analizado para que podamos adaptarnos, pero no tratar de prohibirla“.

Síguenos en