OpenAI está obligada a reinventarse de manera constante para poder salvar el estado de sus cuentas que actualmente está comprometido por la falta de inversión y el aumento de los costes que suponen ChatGPT. Esto hace que con GPT-4 quieran tener una gran cantidad de servicios y utilidades diferentes que ofrecer a empresas de terceros.
Uno de los campos más importantes donde se quieren expandir, como se puede ver su propia web, es la moderación de contenidos. Actualmente todas las plataformas tienen que controlar los contenidos que publican terceros usuarios y para ello hace falta un amplio equipo humano que pueda aplicar las reglas de uso de manera eficiente. Pero... ¿Y si ese trabajo lo hace la propia ChatGPT con GPT-4?
La inteligencia artificial vuelve a amenazar el puesto de trabajo de moderador
Debemos tener en cuenta que GPT-4 es un modelo que se caracteriza por su gran complejidad y que traba con más de 25.000 palabras y en diferentes idiomas. Con estas cualidades y gracias a LLM (para que comprenda mejor el lenguaje natural) desde OpenAI la ven capaz de entrenarse en las políticas de uso para aplicarlas en todos los contenidos. De esta manera prometen filtrar el contenido más tóxico de una manera mucho más rápida que con moderadores humanos.
Es cierto que emitir juicios de valor puede ser algo que en muchas ocasiones en subjetivo y que depende del moderador. Pero según OpenAI con GPT-4 se puede entrenar con diferentes ejemplos asignados a cada una de las …