Las herramientas de inteligencia artificial inventan muchas cosas y ese es un gran problema

Blog

HogarHogar / Blog / Las herramientas de inteligencia artificial inventan muchas cosas y ese es un gran problema

Aug 05, 2023

Las herramientas de inteligencia artificial inventan muchas cosas y ese es un gran problema

Antes de que la inteligencia artificial pueda dominar el mundo, tiene que resolver un problema. Los robots están alucinando. Las herramientas impulsadas por IA como ChatGPT nos han hipnotizado con su capacidad para producir

Antes de que la inteligencia artificial pueda dominar el mundo, tiene que resolver un problema. Los robots están alucinando.

Las herramientas impulsadas por inteligencia artificial como ChatGPT nos han hipnotizado con su capacidad de producir respuestas autorizadas y con apariencia humana a aparentemente cualquier mensaje. Pero a medida que más personas recurren a esta tecnología de moda para cosas como ayuda con las tareas, investigación en el lugar de trabajo o consultas sobre salud, uno de sus mayores inconvenientes se vuelve cada vez más evidente: los modelos de IA a menudo simplemente inventan cosas.

Los investigadores han llegado a referirse a esta tendencia de los modelos de IA a arrojar información inexacta como "alucinaciones" o incluso "confabulaciones", como dijo el jefe de IA de Meta en un tweet. Mientras tanto, algunos usuarios de redes sociales simplemente critican a los chatbots como “mentirosos patológicos”.

Pero todos estos descriptores surgen de nuestra tendencia demasiado humana a antropomorfizar las acciones de las máquinas, según Suresh Venkatasubramanian, profesor de la Universidad de Brown que ayudó a ser coautor del Proyecto de la Casa Blanca para una Declaración de Derechos de la IA.

La realidad, dijo Venkatasubramanian, es que los grandes modelos de lenguaje (la tecnología que sustenta las herramientas de inteligencia artificial como ChatGPT) simplemente están entrenados para “producir una respuesta que suene plausible” a las indicaciones de los usuarios. "Entonces, en ese sentido, cualquier respuesta que parezca plausible, ya sea precisa o fáctica, inventada o no, es una respuesta razonable, y eso es lo que produce", dijo. "Allí no hay conocimiento de la verdad".

El investigador de IA dijo que una mejor analogía de comportamiento que alucinar o mentir, que conlleva connotaciones de que algo está mal o tiene malas intenciones, sería comparar estos resultados de la computadora con la forma en que su hijo pequeño contaba historias a los cuatro años. “Sólo tienes que decir: '¿Y luego qué pasó?' y simplemente seguiría produciendo más historias”, dijo Venkatasubramanian. “Y él simplemente seguía y seguía”.

Las empresas detrás de los chatbots de IA han implementado algunas barreras con el objetivo de prevenir lo peor de estas alucinaciones. Pero a pesar del revuelo mundial en torno a la IA generativa, muchos en el campo siguen divididos sobre si las alucinaciones de los chatbots son o no un problema que pueda resolverse.

En pocas palabras, una alucinación se refiere a cuando un modelo de IA “comienza a inventar cosas, cosas que no están en línea con la realidad”, según Jevin West, profesor de la Universidad de Washington y cofundador de su Centro para una Público informado.

“Pero lo hace con pura confianza”, añadió West, “y lo hace con la misma confianza que tendría si hicieras una pregunta muy simple como: '¿Cuál es la capital de Estados Unidos?'”

Esto significa que puede ser difícil para los usuarios discernir qué es cierto o no si le preguntan a un chatbot algo cuya respuesta aún no saben, dijo West.

Varias alucinaciones de alto perfil provocadas por herramientas de inteligencia artificial ya han aparecido en los titulares. Cuando Google presentó por primera vez una demostración de Bard, su tan esperado competidor de ChatGPT, la herramienta dio públicamente una respuesta incorrecta a una pregunta sobre los nuevos descubrimientos realizados por el telescopio espacial James Webb. (Un portavoz de Google en ese momento le dijo a CNN que el incidente "destaca la importancia de un proceso de prueba riguroso" y dijo que la compañía estaba trabajando para "asegurarse de que las respuestas de Bard cumplan con un alto estándar de calidad, seguridad y fundamento en información del mundo real". .”)

Un abogado veterano de Nueva York también se metió en problemas cuando utilizó ChatGPT para una investigación legal y presentó un escrito que incluía seis casos "falsos" que el chatbot parece haber simplemente inventado. El medio de noticias CNET también se vio obligado a emitir correcciones después de que un artículo generado por una herramienta de inteligencia artificial terminara brindando consejos de finanzas personales tremendamente inexactos cuando se le pidió que explicara cómo funciona el interés compuesto.

Sin embargo, tomar medidas enérgicas contra las alucinaciones de IA podría limitar la capacidad de las herramientas de IA para ayudar a las personas con esfuerzos más creativos, como los usuarios que le piden a ChatGPT que escriba poesía o letras de canciones.

Pero existen riesgos derivados de las alucinaciones cuando las personas recurren a esta tecnología en busca de respuestas que podrían afectar su salud, su comportamiento electoral y otros temas potencialmente delicados, dijo West a CNN.

Venkatasubramanian agregó que en la actualidad, confiar en estas herramientas para cualquier tarea en la que se necesite información objetiva o confiable que no se pueda verificar de inmediato por uno mismo podría ser problemático. Y hay otros daños potenciales al acecho a medida que esta tecnología se difunde, dijo, como que las empresas utilicen herramientas de inteligencia artificial para resumir las calificaciones de los candidatos y decidir quién debe pasar a la siguiente ronda de una entrevista de trabajo.

Venkatasubramanian dijo que, en última instancia, cree que estas herramientas “no deberían usarse en lugares donde las personas van a verse afectadas materialmente. Al menos no todavía."

Cómo prevenir o corregir las alucinaciones por IA es un “punto de investigación activa”, dijo Venkatasubramanian, pero en la actualidad es muy complicado.

Los grandes modelos de lenguaje se entrenan en conjuntos de datos gigantescos, y hay múltiples etapas que explican cómo se entrena un modelo de IA para generar una respuesta a un mensaje del usuario: parte de ese proceso es automático y parte del proceso está influenciado por la intervención humana.

"Estos modelos son muy complejos e intrincados", dijo Venkatasubramanian, pero debido a esto, "también son muy frágiles". Esto significa que cambios muy pequeños en los insumos pueden tener “cambios en la producción que son bastante dramáticos”.

"Y esa es simplemente la naturaleza de la bestia, si algo es tan sensible y tan complicado, eso viene acompañado", añadió. "Lo que significa que tratar de identificar las formas en que las cosas pueden salir mal es muy difícil, porque hay muchas cosas pequeñas que pueden salir mal".

West, de la Universidad de Washington, se hizo eco de sus sentimientos y dijo: "El problema es que no podemos aplicar ingeniería inversa a las alucinaciones provenientes de estos chatbots".

"Podría ser simplemente una característica intrínseca de estas cosas que siempre estará ahí", dijo West.

Bard de Google y ChatGPT de OpenAI intentan ser transparentes con los usuarios desde el principio en cuanto a que las herramientas pueden producir respuestas inexactas. Y las empresas han expresado que están trabajando en soluciones.

A principios de este año, el director ejecutivo de Google, Sundar Pichai, dijo en una entrevista con “60 Minutes” de CBS que “nadie en el campo ha resuelto todavía los problemas de alucinaciones” y “todos los modelos tienen esto como un problema”. Sobre si se trata de un problema con solución, Pichai dijo: “Es un tema de intenso debate. Creo que progresaremos”.

Y Sam Altman, director ejecutivo de OpenAI, fabricante de ChatGPT, hizo una predicción tecnológica al decir que cree que tomará un año y medio o dos años "llevar el problema de las alucinaciones a un lugar mucho, mucho mejor", durante sus comentarios. en junio en el Instituto Indraprastha de Tecnología de la Información de la India, Delhi. "Existe un equilibrio entre la creatividad y la precisión perfecta", añadió. "Y el modelo tendrá que aprender cuándo quiere uno u otro".

Sin embargo, en respuesta a una pregunta de seguimiento sobre el uso de ChatGPT para la investigación, el director ejecutivo bromeó: "Probablemente confío menos en las respuestas que surgen de ChatGPT que nadie en la Tierra".