Las falacias del encantamiento con la inteligencia artificial de ChatGPT

“Las falacias del encantamiento con la inteligencia artificial de ChatGPT”, es una herramienta de la empresa OpenAI que usa muchos textos diferentes para generar uno nuevo.

Por ello, es fácil que recombine segmentos que conceptualmente son como el agua y el aceite y que cree una explicación con errores importantes. Además, sus fuentes de entrenamiento son opacas y no sabemos de dónde ha sacado la información que utiliza para explicarnos las ideas principales.

Un ejemplo perfecto de esta confusión es el ChatGPT de OpenAI. Sus desarrolladores han optimizado sus modelos lingüísticos con esmero para conseguir textos, que no solo son gramaticalmente correctos, sino que son tersos y hasta elocuentes. Encadenan frases de manera ágil, generando así una fascinante y persuasiva impresión de razonamiento.

Coherencia no es sinónimo de verdad, pero tendemos a confundir ambos conceptos. Cuánto más coherente es un discurso, ya sea oral o textual, más fácil es que lo tomemos por verdadero y más convincente nos parecerá. Y confundir coherencia con verdad puede llevarnos a cometer errores desastrosos.

Al mismo tiempo, ese chat de inteligencia artificial (IA) no se limita a copiar y pegar textos existentes, sino que, con base en la información adquirida en su entrenamiento, realmente genera textos exnovo.

Algunas personas han quedado tan alucinadas que se habla ya del fin de Google, de estar un paso de la Inteligencia Artificial General (AGI), en la que los sistemas son comparables en inteligencia a los seres humanos. Algunos, con aún mayor osadía, ven razones para dar la bienvenida a la singularidad, ese estadio de desarrollo tecnológico en el que esta trasciende la inteligencia y el control humanos. Este encantamiento suele ir acompañado del emoji de la cabeza que explota.

VTV/CC/JMP

Fuente: SINC