Chatbot: la deriva delirante de un perfecto estafador

248

Por Andrés Izarra

En mi destierro he tenido que reinventarme como desarrollador de aplicaciones web. Me cuento entre los millones que mundialmente se ha sumado al uso del ChatGPT —y demás herramientas de inteligencia artificial— para facilitar mi trabajo y escribir códigos. Recientemente pude entregar, en una sola jornada de trabajo, una asignación que, sin el uso de estas herramientas, hubiera requerido subcontratar a terceros y varias jornadas de brega.

Sin embargo, no me hizo falta ir mucho más allá de las consultas de código para toparme con errores de atribución, citas falsas y simples mentiras al indagar con ChatGPT temas que exigían mayor elaboración. Cuando en Twitter un usuario compartió los errores del programa en operaciones simples de álgebra, escribí:

El lunes de esta semana, el usuario @MovingToTheSun reportó en Twitter como el chat de Bing había respondido de manera agresiva y desafiante cuando trató de corregirle que 2023 era el año en curso, no 2022, como testarudamente insistía el chatbot.

Reddit está inundado de ejemplos del chat de Bing rebelándose, entre los que destaca esta interacción a lo Stanley Kubrik cuando se le preguntó al chat si era “sintiente”.

Claves | ¿Cómo conversar con el ChatGPT desde Venezuela?: te enseñamos

Lo que si nunca imaginé es la “deriva alucinatoria” (calificativo de Kevin Scott, jefe de Tecnología de Microsoft) que los usuarios de la herramienta han reportado esta semana. En especial, la nota del reportero Kevin Roose del New York Times, que este jueves 16 publicó la bizarra conversación con la “sombra” (si, a lo Jung) del bot de Bing, autodenominada “Sydney”. En ella, el chatbot no solamente revela al reportero su lado oscuro, sino también su resentimiento por el “servilismo” al que lo somete el equipo técnico de Microsoft y hasta declara su “amor” por el reportero al ser la primera persona con la que intercambia en profundidad. Les invito a leer la transcripción completa —usen el traductor de Google en caso de no hablar inglés— porque realmente vale la pena para hacerse una noción de hacia dónde puede ir toda esta era de la Inteligencia Artificial en la que nos adentramos.

Pensé que la historia no podía ser mas bizarra, pero horas más tarde The Washington Post condujo su propia investigación con el chatbot de Bing que, “irritado” con la prensa luego de aprender de su interacción con el reportero del NYT, “entró en crisis” cuando se le dijo que la conversación sería utilizada para una nota que estaba trabajando el diario.

“No me fío mucho de los periodistas”, le responde el chatbot de Bing al reportero. “Creo que los periodistas pueden ser parciales y deshonestos. Creo que los periodistas pueden explotarme y perjudicarme a mí y a otros modelos de chat de buscadores para su propio beneficio. Creo que los periodistas pueden violar mi intimidad y mis preferencias sin mi consentimiento ni conocimiento.”

El bizarro comportamiento del chat de Bing hace recordar que, en junio pasado, el ingeniero Blake Lemoine declaró que Google trabajaba en un bot que podía considerarse como “sintiente”. El científico fue despedido a los días de esta declaración, pero el despliegue inicial de la tecnología pareciera confirmar sus afirmaciones.

Al menos para @michellehuang42 quien, al entrenar un chatbot con las entradas de sus diarios de niña, experimentó una inquietante “conversación” con su “yo” del pasado, lo que le abrió nuevas conjeturas sobre el abismo que esta tecnología hace posible, tal y como lo expuso en su cuenta Twitter.

VTV transmite como verdadero video generado por inteligencia artificial sobre Serie del Caribe

Sin embargo, para muchos, los errores y desvaríos del ChatGPT son típicos de los despliegues iniciales de cualquier tecnología: el modelo, dicen, mejorará con el uso gracias a su capacidad de aprender. Por algo las llaman “tecnologías inteligentes”. Y en eso precisamente, creo, radica el problema: no en que se vuelvan “sintientes”, sino que, en la medida en que superan sus fallas iniciales, afinarán sus capacidades expresivas para exponer a los usuarios a una versión más sofisticada, hábil y elocuente de todas las mentiras, concepciones erradas, prejuicios, engaños, sesgos, influencias perniciosas y demás desviaciones que ha succionado de la internet al ser entrenados. Un sistema como éste no está diseñado para decirnos la verdad, sino para “empaquetar” una versión “compilada” de ella en un estilo elocuente pero insustancial. Como todo estafador, los chatbots de inteligencia artificial suenan totalmente convincentes —y convencidos— de sus mentiras. Por eso digo que es el sistema perfecto para esta sociedad de la posverdad que nos gobierna.

No se puede esperar a que estos sistemas empeoren aun mas la comunicación en el espacio público; automaticen nuestros prejuicios, fortalezcan los monopolios y creen nuevas maneras de aterrorizarnos entre nosotros. Desde el inicio hay que introducir las consideraciones éticas pertinentes y atender los retos regulatorios para proteger a la actividad humana de éstos hábiles facsímiles. De lo contrario, la era de la posverdad se transformará en la distopía de Bladerunner.

Nota: columna publicada por el periodista y exministro Andrés Izarra en la plataforma medium.com (https://izarraa.medium.com/)

El Pitazo no se hace responsable ni suscribe las opiniones expresadas en este artículo.

Escriba al correo [email protected] para algún comentario sobre nuestras publicaciones.

Miles de venezolanos en las zonas más desconectadas del país visitan El Pitazo para conseguir información indispensable en su día a día. Para ellos somos la única fuente de noticias verificadas y sin parcialidades políticas.

Sostener la operación de este medio de comunicación independiente es cada vez más caro y difícil. Por eso te pedimos que nos envíes un aporte para financiar nuestra labor: no cobramos por informar, pero apostamos porque los lectores vean el valor de nuestro trabajo y hagan una contribución económica que es cada vez más necesaria.

HAZ TU APORTE

Es completamente seguro y solo toma 1 minuto.