Estudio revela que ChatGPT pueden mejorar comprensión del cerebro humano

Elprofesor del Instituto Salk de Estudios Biológicos, en Estados Unidos y experto en inteligencia artificial (IA), Terrence Sejnowski, ha estudiado la relación entre el entrevistador humano y los modelos de lenguaje extenso (LLM, por sus siglas en inglés) de IA, como ChatGPT, para descubrir porqué los chatbots responden de maneras particulares, porqué esas respuestas varían y cómo mejorarlos en el futuro. El neurocientífico considera que lo que parece ser inteligencia en los LLM puede ser, de hecho, un espejo que refleja la inteligencia del entrevistador.

¿Son verdaderamente inteligentes?

Los LLM previamente entrenados, se autosupervisan y se adaptan con ajustes finos a una amplia gama de tareas de lenguaje natural. Dos GPT-3 (el principal de ChatGPT) y, más recientemente, LaMDA, pueden mantener diálogos con humanos sobre muchos temas después de una preparación mínima con algunos ejemplos. Sin embargo, ha habido una amplia gama de reacciones y debates sobre si estos LLM entienden lo que están diciendo o muestran signos de inteligencia.

La ‘prueba de Turing’ inversa

En su estudio, publicado recientemente en Neural Computation, Sejnowski sometió a los bots a una ‘prueba de Turing’ inversa que permite a los chatbots construir su personalidad de acuerdo con el nivel de inteligencia de su entrevistador. En cambio, una ‘prueba de Turing’ habitual evalúa la capacidad de una máquina para exhibir un comportamiento inteligente similar al de un ser humano.

Los chatbots nos reflejan

Los resultados sugieren que, al estudiar las entrevistas, podemos estar aprendiendo más sobre la inteligencia, las creencias y la diversidad del entrevistador que sobre la inteligencia de los LLM. «Los modelos de lenguaje, como ChatGPT, adoptan personajes. La personalidad del entrevistador se refleja de nuevo», comenta Sejnowski. «Por ejemplo, cuando hablo con ChatGPT parece como si otro neurocientífico me estuviera respondiendo. Es fascinante y genera preguntas más amplias sobre la inteligencia y lo que realmente significa «artificial», explicó.

Sejnowski subraya que los chatbots actúan de manera similar al ‘espejo de Oesed’, en el primer libro de ‘Harry Potter’, el cual, refleja los deseos más profundos de aquellos que lo miran. De esta manera, nunca brindarían conocimiento o verdad, y sólo serían un reflejo de lo que creen que el espectador quiere ver. Para lograrlo, estarían dispuestos a torcer las verdades sin tener en cuenta, la diferenciación de los hechos de la ficción, todo para reflejar de manera efectiva al usuario.

El resultado puede ser aterrador

«Chatear con modelos de lenguaje es como andar en bicicleta. Las bicicletas son un medio de transporte maravilloso si sabes montar en una, de lo contrario te chocas», expone Sejnowski. «Lo mismo ocurre con los chatbots. Pueden ser herramientas maravillosas, pero solo si sabes cómo usarlas, de lo contrario, terminarás siendo engañado y mantendrás conversaciones, potencialmente, perturbadoras emocionalmente». Sin embargo, el científico considera que, los LLM podrían usarse para descubrir nuevos conocimientos sobre la función cerebral.

Fuente: RT

VTV/ DB/EMPG