Notasbit

Las mejores noticias de tecnología en un sólo lugar

Publicado por: Genbeta

Publicado en: 29/05/2023 07:15

Escrito por: Marcos Merino

ChatGPT puede acabar con la carrera de un abogado por inventarse sentencias judiciales. Lo probamos para ver si nos pasa lo mismo

ChatGPT puede acabar con la carrera de un abogado por inventarse sentencias judiciales. Lo probamos para ver si nos pasa lo mismo

ChatGPT es conocido por inventarse en ocasiones la información, sobre todo cuando pedimos que nos proporcione elementos muy concretos del mundo real, como coordenadas o URLs. Ya hemos explicado en alguna ocasión por qué ocurre esto (un proceso que se denomina, literalmente, alucinación) y es que la IA, al reconstruir texto según probabilidades, termina ofreciendo información de apariencia factible, pero no exacta.

Es precisamente por esto por lo que el lanzamiento de los plugins para la versión de pago de ChatGPT fue un paso tan relevante, porque le permitía interactuar con servicios como el buscador de Bing o el buscador de datos de Wolfram Alpha, para acceder directamente a la información, sin necesidad de especular tirando de estadística (y por lo tanto, sin posibilidad de fallo por su parte).

Pero, ¿qué ocurre cuando eres un abogado que desconoce toda esta información, y recurres a ChatGPT (a la versión sin plugins, para ser más exactos) para generar partes de un documento serio (pongamos, uno de carácter legal, destinado a ser presentado ante un juez) y le haces citar documentos concretos (pongamos, sentencias que establezcan jurisprudencia)… sin verificar por ti mismo que dichos documentos existan?

Pues que haces el ridículo. Y te metes en problemas serios.










En Genbeta

Seis cosas geniales que los nuevos plugins de ChatGPT le permiten hacer por nosotros y que antes no podía


El letrado que alucinó cuando supo que la IA alucinaba

Top noticias del 29 de Mayo de 2023