OpenAI ha retirado la prohibición del uso militar de ChatGPT y sus otras herramientas de inteligencia artificial. Pero lo ha hecho sin darle mucho bombo a la decisión. El cambio se produce cuando OpenAI comienza a trabajar con el Departamento de Defensa de Estados Unidos con herramientas de inteligencia artificial, incluidas herramientas de ciberseguridad de código abierto.
Hasta ahora, la página de políticas de OpenAI especificaba que la compañía no permitía el uso de sus modelos para "actividades que tengan un alto riesgo de daño físico como el desarrollo de armas o el ejército y la guerra".
En Genbeta
El problema de equivocarse al teclear: los secretos militares de EE.UU. llevan 10 años llegándole al proveedor de un país africano
Anna Makanju, vicepresidenta de asuntos globales de OpenAI, habló ayer en una entrevista para Bloomberg House en el Foro Económico Mundial, que se está celebrando en Davos, junto con el director ejecutivo Sam Altman, y ahí fue la encargada de revelar este gran cambio.
OpenAI ha eliminado la referencia específica al ejército, aunque su política aún establece que los usuarios no deben "usar nuestro servicio para dañarse a sí mismo o a otros", incluido "desarrollar o usar armas".
Hay casos que "se alinean con nuestra misión"
Antes esta información tan poco clara, CNBC contactó a la empresa y un portavoz ha dicho que el objetivo con respecto al cambio de política es brindar claridad y permitir …