A la hora de utilizar la inteligencia artificial (IA) se presentan desafíos éticos y tecnológicos. El pasado 26 de enero, el diputado de la Unión Demócrata Independiente (UDI), Sergio Bobadilla, compartió a través de su cuenta de X una fotografía en donde se mostraba al Presidente Gabriel Boric abrazado con el ministro de Relaciones Interiores de Venezuela, Diosdado Cabello.
Con el pasar de las horas se demostró que esta imagen fue generada por IA, ya que no hay registros recientes del Presidente con el político venezolano. Esto es solo un ejemplo de los muchos contenidos engañosos que se comparten diariamente a través de las redes sociales y la web. Cada día se vuelve un poco más complicado descifrar si el contenido que se compartió lo hizo un ser humano.
Desde el periodismo, este tipo de contenido engañoso es considerablemente peligroso. En ese sentido, en conversación con Radio Universidad de Chile Ana María Castillo, académica de la Facultad de Comunicación e Imagen de la Casa de Bello, mencionó que cada día se crean videos, textos o imágenes que pueden perjudicar la transmisión de información verídica.
En primer lugar, señaló que “esto va más allá del evidente daño a la imagen de la persona o del personaje público, tiene que ver con cómo nosotros estamos relacionándonos con la información, de cuáles son nuestras fuentes de confianza, dónde queda, por ejemplo, el trabajo periodístico, o qué es lo que se entiende por información de calidad“.
La IA puede ser beneficiosa para manejar grandes volúmenes de datos y acelerar procesos de búsqueda y resumen de información. Sin embargo, el desafío ético radica en no delegar completamente la gestión de la información a herramientas automatizadas, ya que éstas no son neutrales. “Los periodistas deben hacerse responsables de la verificación de la información y el uso de fuentes fiables. Es crucial transparentar los procesos en los que se utiliza la IA y definir claramente para qué se utiliza”, enfatizó la académica.
Rol de la Inteligencia Artificial en campañas políticas. Fotos: Referencial/ Jose Veas/Aton Chile
Por ello, Castillo cree que es necesario transparentar y evidenciar este uso, similar a cómo en las redes sociales se etiqueta cuando una imagen es generada con inteligencia artificial. Los medios deberían hacer lo mismo con su contenido. “Hoy en día, se requiere un ojo muy entrenado para revisar materiales y reconocer imágenes o audios generados con inteligencia artificial, lo que hace aún más importante la labor periodística“, sostuvo.
Respecto a la labor que cumplen las plataformas como Instagram o X en esto, para la investigadora en tecnología, éste es un debate largo y bastante infructuoso, sobre todo teniendo en consideración lo que ocurre hoy día con ellas. Ana María Castillo señaló en múltiples ocasiones que “a las redes sociales se les ha otorgado una responsabilidad periodística que se han negado a asumir reiteradamente”.
Castillo también criticó la posición de estas empresas, argumentando que “se lavan las manos respecto del potencial riesgo o daño que pueden causar tanto a la democracia como a los sistemas informativos a nivel global”.
Desde una perspectiva más tecnológica Carlos Aspillaga, investigador del Centro Nacional de Inteligencia Artificial (CENIA), presentó una visión más positiva del panorama. Sostuvo que “la IA es una herramienta que, en el ámbito de las comunicaciones, puede hacer más eficientes tareas de redacción, revisión y edición“.
El investigador del CENIA, Carlos Aspillaga, participa como panelista en el seminario de Inteligencia Artificial, 2023. Foto: X @Cen_ia
El investigador coincidió con la académica, en cuanto a la responsabilidad ética en el uso de esta herramienta, debido a que “es crucial pensar en el impacto positivo y negativo de la IA antes de aplicarla. Debe ser utilizada para crear empleo y no solo para automatizar tareas y reducir costos“.
Para él, utilizar esta tecnología como apoyo no es inherentemente malo, su impacto depende del uso que se le dé. Aspillaga destacó la importancia de un uso responsable. “En lugar de buscar una IA ‘segura’, se debe promover un uso responsable de la tecnología. Es importante que las personas se informen sobre qué es y qué no es la IA, sus oportunidades, limitaciones y riesgos“, argumentó.
Respecto a la presencia de contenido falso o engañoso en la web, Carlos Aspillaga marcó la importancia de desarrollar un criterio crítico en las personas para enfrentarlo. Aunque hoy existen herramientas que permiten detectar noticias falsas, el futuro es incierto. Aspillaga advirtió que “puede ser que en cinco años más los sistemas de fake news, los sistemas de deepfakes o la IA generativa incluso, sean tan buenos que resulten muy difíciles de detectar por el ojo humano o incluso a ojo de un sistema automático”. Por ello, es esencial que las personas cuestionen la veracidad de la información antes de compartirla.
Aspillaga también mencionó un estudio del Instituto Tecnológico de Massachusetts (MIT) que revela cómo las noticias falsas se propagan más rápidamente en redes sociales. Según el estudio, “la información falsa se retuiteaba en un 70% más si es que la noticia era falsa versus si no”. Además, se propaga seis veces más rápido que una noticia real debido a su naturaleza llamativa.
En ese sentido expuso que las redes sociales, aunque no tienen un incentivo directo para propagar este tipo de información, pueden hacerlo indirectamente debido a su optimización para contenido atractivo. Por ello, es crucial que estas plataformas implementen filtros automatizados para detectarlas.
Regulación de la IA
En relación al proyecto de ley que tiene como objetivo controlar el uso de la inteligencia artificial, tanto el investigador del CENIA como la académica concordaron que es un tema complejo debido a los plazos necesarios para que las leyes entren en vigor. Según Aspillaga, “existen muchas visiones, hay gente que es de la postura de que hay que regular esto ahora ya”. Sin embargo, el problema radica en que la regulación tarda en estar disponible o en tomar efecto, lo que puede resultar en que la tecnología ya haya avanzado y cambiado para cuando la regulación se implemente.
Aspillaga agregó que “lo que se está viendo mucho ahora es llegar a acuerdos. Esta misma semana hubo una en París, donde diferentes países, diferentes autoridades se ponen de acuerdo en un marco de trabajo”.
Por su parte, Ana María Castillo, relató que la Universidad de Chile está en “un proyecto internacional de diálogo de regulación de inteligencia artificial entre América Latina y Europa, en donde participan varias otras universidades en el mundo y otros centros de investigación en internet. La comparativa que estamos empezando a hacer para poder entregar más herramientas de política pública es hacer un barrido de todas las legislaciones que existen. Y nos damos cuenta de que las naciones tienen poca capacidad de acción frente a herramientas, prácticas y usos de tecnología que son transnacionales“.
Bajo esa perspectiva la académica complementó la idea de “una conversación de alianza entre regiones, entre diferentes países y entidades que logren ponerse de acuerdo en un tema que es muy difícil”.