Los tecnócratas están ganando terreno de forma peligrosa y desinformando a una población con poco conocimiento tecnológico, ético y conciencia social, ofreciendo una alternativa utópica –acelerando la impronta de la inteligencia artificial (IA)- y la mejor solución para las crisis democráticas del presente.
Este fenómeno, que está cada vez más presente en nuestra cotidianidad, se aprovecha de las crisis políticas con la premisa de tener un sistema único perfecto, en donde la materia prima son los análisis inteligentes y algoritmos, todos estos procesados por inteligencias artificiales que con los datos recogidos puede tomar decisiones beneficiosas para la humanidad. Esto suena demasiado perfecto y las personas pueden creer que hasta este tipo de tecnologías pueden ser eficientes y eficaces para una nueva idea de democracia, donde sus datos pueden ser recopilados para ser usados al participar en votaciones de leyes. Esto último es lo que propone César Hidalgo, físico y empresario chileno. Sin embargo, este planteamiento no construye ciudadanía dialogante, participativa, comunidad, ya que apela al individualismo más extremo y no a la construcción común de la polis a través de la democracia participativa.
Es así como, al escuchar estas brillantes y autodenominadas audaces ideas, no se cuestiona nada y por el afán de participar más en política accede a pensar en la posible solución donde avatares virtuales tomen decisiones por los seres humanos. Y esto es lo más peligroso: Los datos procesados no son revisados por humanos, esto según una conversación con PLN GPT-3 (antecesor de ChatGPT) es algo equívoco ya que para utilizar IA en política este sí o sí debería pasar por manos humanas, ya que “ no pueden reemplazar completamente el juicio y la experiencia humana” (PLN GPT-3). Es decir, es muy fácil planificar las acciones de la IA para manipular conciencias y decisiones que afecten la vida de la humanidad.
La tecnocracia no debería tener como agente exclusivo la IA. Las inteligencias artificiales son eso, inteligencias creadas por humanos por lo que no es que tengan juicio, sólo pueden interpretar y ejecutar. Las personas que crean este tipo de tecnologías y les dan, siendo generosa, “vida”, saben perfectamente que estas herramientas son totalmente manipulables. Por lo tanto, nuestra ciberseguridad y la democracia correría un peligro silencioso si accedemos a un sistema único que no se combine con la clase política. Estas invenciones humanas según PLN GPT-3 pueden analizar datos sesgados: “debo admitir que el sesgo puede introducirse en los datos que se utilizan para entrenar a los modelos de aprendizaje automático” (PLN GPT-3).
Siguiendo la línea sobre la manipulación de datos, este hecho nos debe hacer reflexionar sobre a quién le estamos entregando nuestra confianza y en vez de pensar en la salida fácil como lo es procesar cualquier dato para que tome decisiones políticas (incluso aquellas que afecten a la seguridad nacional), debemos tener sentido crítico y no dejarnos vencer por esas salidas rápidas que se nos van presentando desde las inteligencias artificiales. Tenemos, como ciudadanía activa, replantearnos estos problemas y acudir a la filosofía política, ya que en debates como este es un enfrentamiento directo entre el/la humano/a que crea una máquina y esa misma máquina.
Debemos aferrarnos, como sociedad democrática, a la filosofía política que nos conecta con las problemáticas humanas como lo es la búsqueda del bien común. Los chips y cables no pueden tener más autoridad que nosotros como humanos; ya somos bastantes vulnerados cibernéticamente por los algoritmos y la polarización que crean las redes sociales, por lo que pasar más poder a las inteligencias artificiales sería atentar en contra de la democracia y en contra de nuestra propia conciencia.
Las inteligencias artificiales, al ser tan maleables e influenciables, se pueden transformar en un arma en contra de la ciudadanía, buscando el bien común sólo para algunos y no para el grueso de la población. Este avance debe ser controlado y supervisado; no obstante, no se debería implementar en política ni menos en educación. Es irresponsable poner a cargo de nuestras decisiones a una máquina que procesa datos que pueden estar sesgados, aumentando el riesgo de que la democracia como la chilena se quebrante al punto de desconfiar de nuestro propio juicio y confiando más en una máquina que procesa datos sin ningún tipo de opinión crítica sobre lo que analiza. Ver esto como única salida sería un suicidio filosófico. Siempre las máquinas deben ser una herramienta, no el todo por el todo y menos el fin.
Por último, como ciudadanos tenemos que informarnos y combatir la polarización con un enfoque en las redes sociales. Es importante aumentar la confianza en nuestros políticos –con fiscalización crítica- para no caer en la fantasía de que las inteligencias artificiales lo harían mejor. Y es relevante enfatizar en que la población aún no está preparada para incluir las IA de forma responsable ni en la sociedad ni en la política. Y por último, debemos asumir la responsabilidad de darnos cuenta de que los riesgos de las IA están muy escondidos como para comprender a simple vista que seguir sus acciones sin crítica –algo muy humano- sería atentar en contra de nuestra conciencia, perdiendo nuestra individualidad, nuestra vida en común y, lo más importante, la capacidad de filosofar respecto de nuestra existencia en un contexto social, político, económico, cultural y ambiental.