Diario y Radio Universidad Chile

Año XVI, 12 de julio de 2024


Escritorio

Establecer “riesgos” sin afectar el desarrollo tecnológico: el desafío de legislar en Chile sobre Inteligencia Artificial

El Ministerio de Ciencia presentó el nuevo proyecto de ley donde advierte que "es crucial garantizar que la IA se utilice de forma ética y responsable". Expertos consideran que el país puede posicionarse como pionero en la materia en la región.

Camilo Vega Martinez

  Sábado 11 de mayo 2024 18:03 hrs. 
Inteligencia ArtificialInteligencia Artificial. Karin Pozo/Aton Chile

Compartir en

El fuerte avance de la Inteligencia Artificial en el mundo provocó en distintas partes una discusión necesaria. ¿Cómo legislar sobre su uso sin frenar el desarrollo tecnológico? Chile se ha instalado como un país pionero en Latinoamérica en la materia, con la reciente actualización de la Política Nacional de Inteligencia Artificial y más aún con la presentación de parte del Gobierno actual del proyecto de ley que regula dicha tecnología

Si bien en el Congreso Nacional ya se discutía un proyecto presentado por el diputado Tomás Lagomarsino, el Gobierno por medio del Ministerio de Ciencia, Tecnología, Conocimiento e Innovación decidió tomar la iniciativa. En los últimos días, la ministra Aisén Etcheverry presentó tanto la actualización a la Política Nacional de Inteligencia Artificial como el nuevo proyecto en el que hacen énfasis en la relevancia del desarrollo de dicha tecnología, sus aspectos positivos en diversas áreas (salud, educación, entre otras) y la importancia de un uso adecuado.

Para que dichos beneficios se materialicen, es crucial garantizar que la IA se desarrolle y utilice de forma ética y responsable”, señala el Ejecutivo en el proyecto. Una propuesta aplaudida por entendidos en el tema.

En diálogo con Radio y Diario Universidad de Chile, Lorena Donoso, abogada experta en Derecho de las Tecnologías de la Información y las Comunicaciones, abordó los principios de este proyecto de ley. Lo primero, destacando las consultas que realizó el Ejecutivo a la comunidad científica para desarrollarlo.

“Se tiene que desarrollar la IA con primacía de lo humano, o sea, en el fondo proscribir las inteligencias artificiales que de manera indebida afecten a los derechos fundamentales de las personas”, partió comentando la integrante del Laboratorio de Inteligencia Artificial, Metaverso y Neuroderechos de la Fundación Encuentros del Futuro, organizadores del Congreso Futuro.

“En segundo lugar, la transparencia algorítmica que es un poco ajena o ilusoria, más bien habría que pensar en auditabilidad, en un control de los efectos de las IA. Revelar los algoritmos que están detrás de una inteligencia artificial parece un poco ilusorio, habría que ver cuál es el alcance que le dan en el proyecto. Y la responsabilidad del desarrollador o productor, o sea, aspectos bien genéricos”, agregó Donoso.

Una de las principales características de esta iniciativa es la regulación en base a factores de riesgo. Estos se dividen en inaceptable (prohibido), de alto riesgo, riesgo limitado y sin riesgo evidente. En conversación con Semáforo, el doctor en tecnologías multimedias, David Ruete, expresó al respecto que “cuando hablamos de sistemas prohibidos, estamos hablando de sistemas de categorización biométrica, por ejemplo” y recordó el caso del polémico escaneo del iris en nuestro país y en otros del mundo.

El sistema de alto riesgo son este tipo de sistemas biométricos que podrían servir, pero que tienen que estar bajo ciertos parámetros regularizados y especialmente con una supervisión humana”, señaló Ruete.

Por su parte, Lorena Donoso expresó que “el tema es identificar bien cuáles son los riesgos”. “Para eso hay que tener evidencia científica relativa a los riesgos, por ejemplo, de las tecnologías de la información y la comunicación en su interacción con el ser humano”, aseguró.

Legislar sin frenar el desarrollo

La aprobación a la idea de legislar sobre la Inteligencia Artificial es transversal. Desde la empresa Minverso,  remarcaron la importancia de regular sin poner freno al desarrollo de estas tecnologías avanzadas. “Debería equilibrar dos variables”, partió señalando Rodrigo González, fundador y CEO de la startup.

“Es importante fomentar la transparencia, la responsabilidad y la protección de datos. Pero de igual forma tiene que ser flexible para que fomente la innovación y asegurar estar a la vanguardia del desarrollo tecnológico”, agregó.

Una visión en la que concuerda Lorena Donoso al ser consultada desde el punto de vista legal. “Hay dos premisas importantes, la libertad de investigación y la necesidad de fomentar el desarrollo tecnológico. La idea es regular estableciendo bordes, no meterse al detalle de la regulación porque en ese caso ya empiezas a poner trabas a la investigación científica y tecnológica”, explicó la abogada.

En esa misma línea, la experta se refirió a lo que considera deben ser las bases de una ley en la materia. “En el ámbito de la Inteligencia Artificial, debería regir también normas generales en relación a que se deberían regular los usos de la IA y no la IA en sí misma. En el fondo, no me parece que haya inteligencias artificiales que sean objeto de una regulación específica”, partió detallando al respecto.

“Ahora tenemos ejemplos en que si el elemento concreto es regulado porque es considerado altamente riesgoso, por ejemplo las armas, pero en este momento no creo que tengamos evidencia científica como para considerar a una IA tan riesgosa como para estimar que per se el operar inteligencia artificial sea una actividad riesgosa. Por tanto deberíamos tener la regulación en relación a los usos y no a la inteligencia artificial per se”, continuó al respecto Donoso.

Por su parte, David Ruete afirmó que aspectos básicos a considerar en una regulación son “clasificaciones, qué vamos a prohibir y que no”. “Qué cosa vamos a utilizar, aunque estén prohibidas, pero con, por ejemplo, una excepción del gobierno o un visto bueno. También debe haber obligaciones de los proveedores y de los usuarios. Y las sanciones, que por lo menos en la ley europea están más o menos claras”, comentó.

Los niveles de restricción establecidos en el proyecto de ley, de acuerdo con lo que señalan desde Minverso, busca “proteger a los consumidores y a la sociedad de los riesgos potenciales, sin imponer restricciones a las formas menos riesgosas de la IA que pueden estar al servicio de impulsar la innovación y desarrollo económico del país”.

Chile a la vanguardia

El desarrollo tecnológico en el país, la presencia de la Política Nacional de Inteligencia Artificial, la circular sobre uso responsable de herramientas de IA en el sector público y la presentación de este nuevo proyecto de legislación ponen a Chile como pionero en la región. Otro ejemplo que refuerza esta idea es que Chile fue el primer país en el mundo en implementar la RAM, metodología de la UNESCO creada para ayudar a los Estados a identificar su nivel de preparación frente a las IA. Fueron 300 especialistas los que trabajaron en ella, dando paso a la actualización de la Política Nacional.

Desde Minverso, fueron enfáticos al indicar que “en Chile tenemos la oportunidad de posicionarnos como líderes en el desarrollo de la IA en la región”. “Nos falta la determinación para avanzar y para esto es clave avanzar en regulación, pero también en inversión que fomente la investigación y el desarrollo”, sostuvo Rodrigo González ante la consulta.

Lorena Donoso en tanto destacó trabajos en los que Chile ha marcado la pauta en torno a las IA. “Casi todos los países han adoptado el modelo chileno en materia de inteligencia artificial en derecho. El diccionario de derecho que se utiliza, es un diccionario creado por los profesores de la Facultad de Ingeniería de la Universidad de Chile. Fuimos pioneros y sobre ese diccionario han trabajado los distintos países”, ejemplificó la abogada.

Síguenos en