ChatGPT es conocido por inventarse en ocasiones la información, sobre todo cuando pedimos que nos proporcione elementos muy concretos del mundo real, como coordenadas o URLs. Ya hemos explicado en alguna ocasión por qué ocurre esto (un proceso que se denomina, literalmente, alucinación) y es que la IA, al reconstruir texto según probabilidades, termina ofreciendo información de apariencia factible, pero no exacta.
Es precisamente por esto por lo que el lanzamiento de los plugins para la versión de pago de ChatGPT fue un paso tan relevante, porque le permitía interactuar con servicios como el buscador de Bing o el buscador de datos de Wolfram Alpha, para acceder directamente a la información, sin necesidad de especular tirando de estadística (y por lo tanto, sin posibilidad de fallo por su parte).
Pero, ¿qué ocurre cuando eres un abogado que desconoce toda esta información, y recurres a ChatGPT (a la versión sin plugins, para ser más exactos) para generar partes de un documento serio (pongamos, uno de carácter legal, destinado a ser presentado ante un juez) y le haces citar documentos concretos (pongamos, sentencias que establezcan jurisprudencia)… sin verificar por ti mismo que dichos documentos existan?
Pues que haces el ridículo. Y te metes en problemas serios.
En Genbeta
Seis cosas geniales que los nuevos plugins de ChatGPT le permiten hacer por nosotros y que antes no podía
El letrado que alucinó cuando supo que la IA alucinaba
…