Cuatro de los principales actores de la IA han anunciado que se unen para formar un nuevo organismo de la industria diseñado para garantizar el "desarrollo seguro y responsable" de la inteligencia artificial.
Así, el desarrollador de ChatGPT OpenAI, Microsoft, Google y Anthropic han anunciado el Frontier Model Forum, una coalición que se basa en la experiencia de las empresas miembro para desarrollar evaluaciones técnicas y puntos de referencia, y promover mejores prácticas y estándares.
En Genbeta
Este CEO dice que la inteligencia artificial hará nuestro trabajo más humano, no menos: estas son sus razones
Líderes de empresas como Google u OpenAI han hablado en diversas ocasiones de la necesidad de que los gobiernos del mundo regulen las inteligencias artificiales.
La Unión Europea también ha hablado de esto desde hace años, pero aún no ha llegado a una regulación clara. Cabe decir que mientras Google y OpenAI hablan de la necesidad de regular, cuando llega alguna regulación como la propuesta en Europa, se muestran contrarios e incluso amenazan con irse de aquí.
Regular las IA fronterizas
Como ha publicado Microsoft, estas empresas mencionadas lanzan el Foro Frontier Model, un organismo de la industria centrado en garantizar el desarrollo seguro y responsable de modelos de IA fronterizos.
Cuando hablan de IA fronteriza se refieren a los “modelos grandes de aprendizaje automático que superan las capacidades presentes en la actualidad en los modelos existentes más avanzados …