Reflexiones sobre algunos riesgos derivados de la inteligencia artificial

Al igual que posiblemente les ha ocurrido a muchos de ustedes, mis redes sociales y fuentes de contenido se han llenado de noticias (muchas de ellas inservibles o falsas) sobre la inteligencia artificial. 

Por eso, en medio de esta sobrecarga de información he pausado y escrito este artículo como reflexión. 

Reflexión 1: Las personas detrás de la inteligencia artificial pueden convertirla en una institución 

Primero que nada, como ya lo comenté en otro artículo, la inteligencia artificial no está en el estado en el que nos la quieren vender, me refiero a que muchas personas, sobre todo aquellas que representan a compañías que hoy están invirtiendo fuertes cantidades en tecnologías relacionadas, están intentando convencernos de que la inteligencia artificial está a punto de convertirse en una Inteligencia Artificial Fuerte o IAF, también conocida como Inteligencia Artificial General o IAG. 

Y es justo aquí donde viene mi primera reflexión que parte de la pregunta: ¿quién o quiénes están interesados en promover este discurso tecnocentrista? 

La respuesta inmediata es casi obvia: los inversionistas y líderes de compañías o fondos de inversión, puesto que al haber invertido fuertes cantidades de dinero, lo que más les conviene es que ese sueño se haga realidad, no para provocar un gran beneficio a la humanidad, porque cabe mencionar que su verdadero objetivo (que es ganar dinero) está siendo disfrazado de falsas promesas, tales como dotar a la humanidad de una herramienta superpotente que le ayude a realizar diferentes tareas de manera más rápida, más barata y más eficiente; sino para poder controlar de una manera más efectiva a la sociedad, dándonos un falso sentido de libertad. 

Un ejemplo de esto que menciono es la entrevista que Rebecca Jarvis de ABC News le hizo a Sam Altman, CEO de OpenAI. 

Hay varias preguntas clave, pero me gustaría resaltar cuando Rebecca le pregunta si hay un punto de no retorno en este proceso. 

La respuesta de Altman es: “podría haber, pero no es obvio cómo se ve hoy y nuestro objetivo es asegurarnos de que podamos predecir tanto como sea posible en términos de capacidades incluso antes de desarrollar estos sistemas, así como las limitaciones. Su comportamiento depende en gran medida de lo que los humanos elijan, por lo tanto, las elecciones que los humanos están haciendo con la tecnología dictarán lo que hace…” 

Esto me suena mucho más a “hice una pistola, la dejé en manos de los humanos y el hecho de que se dispare no depende de mí, sino de los propios humanos”. 

Más allá de eso, me lleva a pensar cómo esto construye la misma narrativa difundida en los medios de comunicación: la inteligencia artificial seguirá existiendo sí o sí, sin importar qué pase, es como un destino final y muchas veces fatal. 

Se nos olvida constantemente que toda tecnología surge de la mente y los recursos financieros de seres humanos que, a lo largo de la historia, han demostrado su tendencia a adquirir poder y control, priorizando las ganancias individuales a corto plazo por encima de una racionalidad que asegure el bienestar común a largo plazo. 

Por lo tanto, lo que debería ocuparnos y preocuparnos no es la inteligencia artificial en sí, sino quiénes están detrás de ella, porque hasta ahora sigue habiendo seres humanos (con intereses propios) aprovechando el anonimato bajo el que todos los nombramos diciendo simplemente que es inteligencia artificial. 

En su obra How Institutions Think (1986), la antropóloga Mary Douglas nos describe que las instituciones son precisamente aquellas cosas que ya no nos molestamos en explicar; son monumentos de la sobredependencia. En cierta medida, son parte de nuestro pensamiento sin que nos demos cuenta, pero como ella detalla, también hacen imposibles ciertos tipos de pensamiento.  

“Las influencias institucionales se hacen evidentes a través de un enfoque en lo impensable y lo olvidable, eventos que podemos notar al mismo tiempo que los observamos deslizarse más allá del recuerdo”. 

Lo anterior es justo lo que está pasando con la inteligencia artificial Dada su complejidad y ambigüedad, muy pocas personas se están molestando en explicar cómo funciona. Mientras que se convierten en parte del pensamiento de la mayoría, el riesgo aquí es que las personas detrás de la inteligencia artificial efectivamente terminen institucionalizándola y creo que sería de las peores cosas que nos podría ocurrir. 

¿Por qué? Porque el hecho de que la inteligencia artificial se convierta en una institución implicaría que la IA dirigiera sistemáticamente la memoria individual, como bien lo menciona Douglas: 

“Las instituciones dirigen sistemáticamente la memoria individual y canalizan nuestras percepciones en formas compatibles con las relaciones que autorizan. Fijan procesos que son esencialmente dinámicos, ocultan su influencia y despiertan nuestras emociones a un tono estandarizado sobre temas estandarizados. Añádase a todo esto que se dotan de rectitud y envían su mutua corroboración en cascada por todos los niveles de nuestro sistema de información”.  

Si lo analizamos, este texto, más que otra cosa, parece una buena descripción de las ambiciones que tienen las personas detrás de la inteligencia artificial. 

“Las instituciones tienen la patética megalomanía de la computadora cuya visión completa del mundo es su propio programa”, continúa Douglas. Desde mi perspectiva, esto ya dejó de ser una metáfora y se ha convertido en algo literal. Las empresas tecnológicas creen que finalmente han ideado esta “inteligencia” cuyo programa es el mundo entero (aunque solo sea su mundo), y en su patética megalomanía, creen que les dará el control institucional, sobre todo. 

Reflexión 2: Nuestra tendencia a antropomorfizar todo nos hace creer/ver cosas que no están ahí 

El término antropomorfismo está formado por “antropo”, que significa “hombre”, y el sufijo “ismo”, que en este caso significa “doctrina”. 

El antropomorfismo se refiere a la tendencia natural de las personas a proyectar rasgos humanos sobre objetos, animales o entidades no humanas, como una forma de humanizar lo que nos rodea y sentirnos más cómodos.

A menudo, nos identificamos con lo que nos hace sentir aliviados, aunque sea solo a corto plazo, debido a la angustia y desconcierto que lo desconocido nos puede generar. Sin embargo, al hacer esto, corremos el riesgo de perder una perspectiva crítica sobre cómo percibimos el mundo, lo que puede llevarnos a pensar que lo que no se parece a nosotros no tiene importancia o a sentir miedo hacia lo que no es humano. 

Es justo este sesgo el que han aprovechado muchos medios y personas para hacer declaraciones como que “la inteligencia artificial ya aprendió a mentir”. Y peor aún, es el mismo racional bajo el cual se firmó la dichosa carta abierta, en la que se solicitaba una pausa de 6 meses a la capacitación de modelos de lenguaje “más poderosos que” GPT-4. 

Desafortunadamente, en cada caso, la carta presenta un riesgo meramente especulativo y a largo plazo, ignorando la versión del problema que en el presente ya está perjudicando a las personas. Lejos de centrarse en lo verdaderamente importante, distrae de los problemas reales haciendo, por un lado, que sea más difícil abordarlos y por otro exacerbando los reales avances que tiene hasta hoy la inteligencia artificial 

Lee Vinsel lo describe muy bien con su término “criti-hype” al referirse a las críticas que alimentan y se alimentan de la exageración. 

Ojo, no estoy diciendo que no debamos criticar o señalar los riesgos de la inteligencia artificial Hoy más que nunca, estoy convencida de que necesitamos un espíritu más crítico y cercano a los luditas, que, dicho sea de paso, no estaban en contra de la tecnología per se sino de las injusticias y desigualdades que esa tecnología estaba provocando. Así que, volviendo al punto, sí debemos cuestionar a la inteligencia artificial pero no exacerbando sus cualidades y/o características. 

Un buen ejemplo es el, ya famoso, artículo de Stochastic Parrots, de Emily Bender, Timnit Gebru y otros, quienes consideran varios riesgos del mundo real de los LLM. El artículo se escribió hace más de dos años y es una muestra clara de cómo los autores se adelantaron a pensar detenidamente sobre los riesgos plausibles de la inteligencia artificial 

Regresando a la carta antes mencionada, por último, quiero detenerme en un par de preguntas que plantea: 

“¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?” 

Y esto también lo hago con la intención de resolver una pregunta que muchas personas me han hecho en estos últimos meses, que si bien, por un lado, entiendo que está conducida por las promesas de la singularidad, también es un miedo genuino y por supuesto totalmente válido: 

¿Es verdad que la inteligencia artificial nos reemplazará? 

Para responder, me gustaría compartir un hallazgo y reflexión de los investigadores Arthur Glenberg y Cameron R Jones. 

“El significado de una palabra o frase está íntimamente relacionado con el cuerpo humano: la capacidad de las personas para actuar, percibir y tener emociones. La cognición humana se fortalece al estar encarnada. La comprensión de la gente de un término como «envoltorio de papel para sándwich», por ejemplo, incluye la apariencia del envoltorio, su tacto, su peso y, en consecuencia, cómo podemos usarlo: para envolver un sándwich. La comprensión de la gente también incluye cómo alguien puede usarlo para una miríada de otras oportunidades que ofrece, como convertirlo en una pelota para un juego de aros o cubrirse el cabello.” 

A lo que se refieren es que, se necesita un cuerpo para entender el mundo, es decir, las personas entendemos cómo usar las cosas de maneras que no se capturan en las estadísticas o predicciones de uso del lenguaje. 

Ya lo escribí en mi publicación anterior

La IA tiene datos, pregúntale sobre música y podrá escribirte letras al estilo de quien quieras. Pero la IA nunca ha llorado con una canción. 

Por lo que mientras tengamos un cuerpo, tendremos, por así decirlo, una ventaja, incluso si se fabricarán robots para darle un cuerpo a la IA. Nuestro cuerpo es bastante complejo, así como lo es la forma en la que encarnamos, embebemos y experimentamos el mundo.

Reflexión 3: La inteligencia artificial podría exacerbar nuestra tendencia a centrarnos en el resultado final 

Funes el memorioso” es un cuento corto creado por el escritor argentino Jorge Luis Borges en el que se cuenta la historia de Ireneo Funes, un joven que, debido a un accidente, queda con una memoria prodigiosa y perfecta. Funes recuerda todo lo que ha experimentado, escuchado o leído, lo que lo lleva a poseer un conocimiento inmenso y detallado del mundo que lo rodea. Sin embargo, a medida que su memoria se agudiza, su vida social y su capacidad de pensamiento abstracto disminuyen. 

Desde mi perspectiva, lo que le ocurrió a Funes es que le fue arrebatada la capacidad de vivir el proceso. Al recordar todo y tener ese conocimiento detallado, ya no tenía que dejar que la vida le sucediera, ya no tenía que lidiar con equivocarse, con saborear una noche de desvelo persiguiendo un recuerdo o una idea. Y aunque en primera instancia esto parece ser el sueño de muchos, creo que justo eso fue lo que le quitó el sentido de la vida. 

Si bien se nos ha vendido la idea, en una sociedad que prioriza la productividad, la eficiencia y la eficacia, aún por encima de nosotros mismos, de que lo más importante es el resultado, a lo largo del tiempo nos vamos dando cuenta de que lo más importante es el proceso. 

Por lo que, si trasladamos esto al plano actual de la inteligencia artificial y regresamos a las declaraciones clicbaiteras que han bombardeado los titulares en los últimos meses, tales como: “ahora todos podrán escribir un libro”, “ahora cualquiera podrá hacer una película”, entre otras, podemos darnos cuenta de que existe un riesgo latente de que la inteligencia artificial agudice el “resultado centrismo”, cuando lo que realmente importa es el proceso y es precisamente ahí donde, como humanos, aún nos queda mucho por explorar. 

Porque si bien podemos pedirle a la inteligencia artificial que escriba un poema o el guion de una película, “tenemos que conformarnos” con lo poco que puede hacer. Me refiero a que la ilusión que impulsa el desarrollo de los grandes modelos de lenguaje, y cómo se venden al público, es la de una máquina que puede recibir órdenes en lenguaje natural y cumplirlas automáticamente. Pero esto tergiversa lo que la automatización realmente logra. En la práctica, las personas terminan ajustando sus expectativas y solicitudes a lo que las máquinas pueden manejar, aprendiendo a conformarse con eso como lo máximo que se puede esperar en un proceso creativo. 

Al igual que el servicio de atención al cliente automatizado que hace que parezca un lujo obtener asistencia humana, posiblemente la presencia ubicua de contenido automatizado disminuiría la demanda de contenido reflexivo creado por humanos, haciéndolo más extravagante. Esa extravagancia que viene justo del recorrido del proceso que un humano atraviesa para llegar a un resultado. 

Sin embargo, si no nos percatamos de esto ahora, el riesgo es que la inteligencia artificial termine enseñándonos a pensar de manera limitada, a disminuir más el lenguaje y reducir a las imágenes o cualquier forma de creación y contenido a relaciones estadísticas y probabilísticas, que podrían combinarse infinitamente sin crear algo nuevo o distinto. 

Entonces, ¿estamos entrenando a la inteligencia artificial o nos estamos enseñando a nosotros mismos a encarcelar nuestro potencial y aceptar las limitaciones? 

Al final, como lo menciona Jaron Lanier: 

“Desde mi perspectiva, el peligro no está en que una entidad extraña hable a través de nuestra tecnología, nos controle y destruya. Para mí, el peligro es que usemos la tecnología para volvernos mutuamente ininteligibles y que nos volvamos locos, si quieres, de una forma en la que no nos comportemos con el suficiente entendimiento e interés para sobrevivir, por lo que moriríamos de locura, esencialmente.” 

En síntesis, “el peligro no es que la inteligencia artificial nos destruya, sino que nos vuelva locos y estúpidos”. 

¿Qué nos queda?

Preservar, alimentar, desarrollar y compartir las habilidades que siempre nos han ayudado a salir de los momentos como este: pensamiento crítico, creatividad, curiosidad, pero, sobre todo, seguir valorando el proceso que conlleva crear. 

Quizás hable más al respecto en mi siguiente publicación.

Salir de la versión móvil