Los gigantes tecnológicos de la inteligencia artificial (IA) han anunciado esta semana la creación de un fondo dedicado a la seguridad de los desarrollos en ese campo, en concreto para que los investigadores independientes puedan evaluar, probar y crear herramientas de los modelos más potentes. Es el primer comunicado —y primer movimiento económico— que realizan Anthropic, Google, Microsoft y OpenAI para su organización 'Frontier Model Forum ', que va acompañado del nombramiento de un director ejecutivo. Este grupo de trabajo se fundó este pasado julio, con la intención de poner vallas al campo: controlar el potencial de la IA para evitar usos perjudiciales para la sociedad . Sin embargo, la agrupación no empieza con buen pie. La financiación inicial ronda los 10 millones de dólares . Una miseria cuando todas estas empresas se mueven en valoraciones e inversiones que rondan los miles de millones de dólares: solo Microsoft invirtió en OpenAI 10.000 millones ; y Anthropic está en conversaciones para recibir más de 3.000 millones de Google y Amazon . Noticias Relacionadas estandar No Teorías conspirativas y rendiciones 'fallidas': los 'deepfakes' ya son armas en tiempos de guerra Javier Palomo estandar Si Fábricas de pornografía de bolsillo: la IA amenaza con inundar internet con desnudos de menores Javier Palomo Las empresas creen que con esa cifra será suficiente para cumplir parte de los compromisos firmados con la Casa Blanca sobre crear una IA responsable: «Los compromisos voluntarios que firmamos la Casa Blanca incluían el compromiso de facilitar el descubrimiento por …