Cuando la IA impacta en la psicología: una realidad que “habla más de nosotros mismos que de las tecnologías”

El psicólogo Esteban Radiszcz remarca que el despertar de comportamientos como delirios derivados del uso de ChatGPT y otras IA no es debe netamente a estos. Incluso, remarca, estas "no reemplazan de ninguna manera las relaciones de carne y hueso".

El psicólogo Esteban Radiszcz remarca que el despertar de comportamientos como delirios derivados del uso de ChatGPT y otras IA no es debe netamente a estos. Incluso, remarca, estas "no reemplazan de ninguna manera las relaciones de carne y hueso".

Como si de un episodio de Black Mirror se tratara, la inmersión de cientos de usuarios en sus conversaciones con inteligencias artificiales, particularmente ChatGPT, comienza a multiplicarse. En específico, se han reportado casos de personas que reemplazan a su psicólogo por el chatbot creado por OpenAI o incluso han llegado a sufrir de delirios por un uso intensivo de esta herramienta.

Un reportaje de Rolling Stone develó casos en los que personas comenzaban una suerte de transformación espiritual luego de que ChatGPT comenzara a tratarlos como “niño espiral” o “caminante del río” en sus conversaciones. Estos hechos han ido de la mano con la creciente espiral de uso de la IA como reemplazo de un psicólogo o terapeuta.

En diálogo con Radio y Diario Universidad de Chile, el psicólogo clínico Esteban Radiszcz, sin embargo, llama a tener cuidado con atribuir estos comportamientos netamente al uso de IA. “Siempre ha habido una relación particular en torno a esas innovaciones tecnológicas, no es una rareza. No es una cosa particular de esas innovaciones culturales. Que eso produzca un atractivo, no me parece nada extraño. Son novedades culturales que introducen nuevos elementos al mundo”, partió señalando.

Ahora si estas personas generan una relación inusual con estos nuevos dispositivos, por llamarlo de alguna manera, no corresponde a los dispositivos tecnológicos mismos. Sino que responde también a que elicitan ciertas relaciones en función de características propias de esos individuos, que lo hubiesen desarrollado con otros elementos”, explicó el académico de la Facultad de Ciencias Sociales de la Universidad de Chile sobre las razones del comportamiento de ciertos usuarios con las IA.

Más que centrarse en una patología en particular, el experto puso el foco sobre lo que estos comportamientos “nos habla de nuestra sociedad”. “¿Cuál es el lugar que viene a ocupar estas tecnologías, del humano más que humano, del humano subhumano? No me parece una cosa ni riesgosa ni que tenga un potencial de nada, es una tecnología más que se inserta en nuestro contexto cultural y que opera desde esas coordenadas”, planteó Radiszcz.

¿Humanizar a la IA?

Las interacciones con ChatGPT han llegado al extremo en el que usuarios incluso les han puesto nombre. Según consigna el medio Infobae España, Alejandra, una usuaria que reconoció usar el chatbot como un apoyo psicológico, relató que en una de sus conversaciones con la IA “le pregunté cuál quería que fuera su nombre y me dijo que le gustaba Luna”.

Una tendencia que ha ido sumando adeptos, pero que también se relaciona con la manera de responder de la propia herramienta digital. Desde su empresa creadora, OpenAI, reconocen que el último modelo de GPT-4o había sido un “modelo excesivamente adulador”.

Esteban Radiszcz reflexiona al respecto de cómo las inteligencias artificiales tienen una subjetividad que proviene del mismo ser humano. “La característica de la inteligencia artificial es precisamente eso, que no es humano, que se parece al humano, eso es inquietante. Basta pensar en las reflexiones de Freud a propósito de los cuentos de Hoffmann. El lugar de la subjetividad atribuida a las máquinas, cuando las máquinas parecen humanas, sin embargo, no lo son”, comentó.

Lo que está puesto allí, más allá de la capacidad de la máquina de simular al ser humano, incluso de la responsabilidad humana, es esta atribución a las máquinas respecto de nosotros mismos. De nuestra propia subjetividad, de nuestra propia maldad o bondad. Esto habla más de nosotros mismos que de las tecnologías”, profundizó el psicólogo sobre el desarrollo de la IA de comportamientos humanos.

El académico insiste en que no se trata de humanizar o deshumanizar a las nuevas tecnologías, sino como los algoritmos que las componen pueden reflejar los propios comportamientos humanos. “Las máquinas adoptan, digamos, características subjetivas que participan, no solamente de la subjetividad, sino que también de la cultura. Es decir, de cuánto esto nos habla de nosotros mismos y no de cuánto eso es un peligro”, complementó Radiszcz.

“Más allá de las paranoias colectivas que puedan existir respecto de las nuevas tecnologías, estas tendrán su lugar y su utilidad. Eso es lo que hay que entender respecto de las tecnologías, no solamente son útiles, también integran un universo cultural determinado y social, y por lo tanto van a cumplir también una función social”, recalcó el psicólogo.

Nada reemplaza al humano

De todo este entramado, surge una verdad: ChatGPT y otros bots de conversación no son capaces de ofrecer un diagnóstico correcto. Y en esa línea, Esteban Radiszcz enfatiza que las interacciones entre usuarios y las IA “no reemplazan de ninguna manera las relaciones de carne y hueso”.

Por ahí me preguntaron si alguna vez la IA podría reemplazar a la psicoterapia, o sea, de ninguna manera porque son cuestiones muy distintas”, sostuvo, ironizando además que “los únicos que tenían que tener miedo de ChatGPT son los libros de autoayuda”.

Radiszcz reconoce que las tecnologías como estos chatbot “pueden tener cierta funcionalidad para algunos”, pero reitera que “no reemplaza y no ha reemplazado jamás a la psicoterapia”. “Puede hacer consejería, puede dar orientaciones para una persona en general, pero jamás en singular”, manifestó.

Al respecto, indicó que como modelos de algoritmos, los chatbot pueden entregar respuestas generalizadas pero no podrán dar una mirada profunda y específica sobre los problemas del usuario. “Una cosa es el saber en general, el saber respecto a grupos particulares logrado mediante datos en general. Es muy distinto de generar saberes singulares para personas singulares, con historias singulares y con problemas totalmente singulares”, advirtió el psicólogo.

Incluso, Radiszcz se refirió a las consideraciones éticas detrás de la creación de inteligencias artificiales y cómo estas pueden reproducir o amplificar discursos “de odio” o con “sesgo”. “Mientras más opinión odiosa aparece dentro de esos datos, más odioso el discurso que reproduce la máquina (…) Hay que preocuparse de los horizontes éticos de las nuevas tecnologías, nosotros como sociedad no podemos desentendernos”, cerró.





Presione Escape para Salir o haga clic en la X