Era evidente que, tras su lanzamiento y popularización, comenzarían a revelarse más detalles sobre el desarrollo de los modelos de inteligencia artificial de DeepSeek, sobre todo debido al ruido mediático generado al comparar su rendimiento con opciones como ChatGPT o Gemini. Ahora, OpenAI cree haber identificado cómo lograron crearlos: a partir de sus propios datos.
Un reporte de Bloomberg indica que tanto OpenAI como Microsoft llevan a cabo una investigación para determinar si su competencia china se aprovechó de su API, una pieza de código que permite la comunicación entre dos servicios para compartir información y funcionalidades, al tiempo que protege los datos de las empresas y evita accesos no autorizados.
Según el informe, ambas compañías sospechan que DeepSeek utilizó esta herramienta para mejorar sus propios modelos. La primera alerta surgió cuando investigadores de Microsoft detectaron, a finales de 2024, una filtración masiva de datos mediante cuentas de desarrollador de OpenAI. Se cree que el responsable fue un grupo vinculado a la startup china.
No es el único indicio. OpenAI también afirma haber encontrado evidencia adicional de que DeepSeek empleó sus modelos de IA para entrenar a su competencia, en especial a través de la "destilación", un método que permite entrenar modelos más pequeños a partir de la extracción de datos de versiones más grandes, capaces y potentes, para generar el equivalente a una versión "lite".
Si bien este proceso permite la creación de modelos más …