Hoy en día se habla mucho de ChatGPT, el motor de IA puesto a disposición gratuitamente por OpenAI. Para quienes no lo conocen: OpenAI lleva años desarrollando Inteligencia Artificial para diversos fines. La característica innovadora de este software es su capacidad para crear contenido y correlacionar información a partir de una vasta biblioteca de textos, sobre la cual el motor ha sido “entrenado” para ser capaz de producir respuestas completamente indistinguibles de las de un ser humano.
Qué puede hacer ChatGPT
Mientras que un motor como Google se limita a proporcionar los resultados de búsqueda que considera más relevantes de internet, ChatGPT es capaz de ofrecerte una respuesta completa, detallada y razonada. Redacta textos, análisis y resúmenes. Correlaciona filósofos, resuelve problemas matemáticos, escribe scripts y programas y luego los modifica según cada una de tus solicitudes.
El malentendido que rodea a esta tecnología
En lo que quiero centrarme es en el enorme malentendido que, en mi opinión, rodea a esta tecnología. Leo artículos incluso en periódicos de prestigio sobre cómo la nueva IA no sabe matemáticas o da respuestas evidentemente incorrectas. Dado que los creadores del motor han explicado claramente que los errores son posibles… me pregunto por qué nadie se detiene a reflexionar sobre el porqué de que dichos errores sean posibles.
La expectativa común parece ser comparar este motor con un Oráculo perfecto, capaz de dar siempre respuestas correctas. Sin embargo, la gente no se da cuenta de que es precisamente en esas respuestas erróneas donde, en mi opinión, reside su aproximación a la inteligencia. ChatGPT crea respuestas basándose en lo que ha aprendido y en lo que ha interpretado, exactamente como haríamos nosotros. ¿Significa eso que es perfecto? En absoluto. Simplemente significa que se aproxima a la Inteligencia definida como la capacidad de aprender, recordar, correlacionar y utilizar información.
El pensamiento crítico: la verdadera frontera
Lo que querríamos de esta tecnología son respuestas fiables y correctas. Para lograrlo, tal como pediríamos a cualquier ser humano concienzudo, querríamos la aplicación del pensamiento crítico: la capacidad de verificar un resultado con otras fuentes consideradas fiables, produciendo un resultado final, demostrado y razonado. Esto todavía falta —y es por eso que empresas como Google, que ya han creado sistemas de IA similares (véase el proyecto LaMDA), aún estaban lejos de llevar sus productos al mercado: no pueden permitirse ofrecer herramientas que a veces den a sus clientes resultados evidentemente incorrectos.
En esto veo una doble contradicción. Por un lado, los consumidores tenemos expectativas equivocadas: una IA puede cometer errores igual que cualquier inteligencia evolucionada. Esto no es grave —basta con comprender su error y enseñarle, exactamente como harías con un compañero. Por otro lado, estas empresas parecen reacias a comercializar herramientas falibles que ya hoy tienen una utilidad increíble, siempre que quienes las usen entiendan que al menos hasta que mejoren aún más, deben utilizarse por lo que son: herramientas que reducen enormemente la carga de trabajo a costa de cierta verificación.
Mi experiencia práctica
He probado a usar ChatGPT durante el último mes para investigación y análisis de diversos tipos. Observé que da respuestas diferentes según cómo se formulen las preguntas, pero no solo eso: en función de nuestros comentarios se corrige a sí mismo y modifica sus propias respuestas. La falibilidad y la imprecisión son, por tanto, parte de su naturaleza —y esto es precisamente lo que tiene de bello, siempre que podamos mejorarlo y los resultados de esa mejora sean reconocidos.
Intenté pedirle que escribiera scripts de diversos tipos para mis necesidades, solicitando correcciones y añadidos siempre en lenguaje natural, obteniendo en última instancia siempre un buen resultado. ¿Perfecto? No. ¿Vale la pena revisarlo? Sí. Pero buenos borradores desde los que partir que me ahorraron una cantidad considerable de tiempo.
Como con cualquier herramienta, lo primero que hay que tener siempre claro es dónde están sus límites y cuáles son. Una vez aclarados, puede utilizarse de forma razonada y responsable, obteniendo únicamente beneficios.








