Tanto usuarios como empresas están adoptando cada vez más tecnologías basadas en inteligencia artificial. Éstas han llegado para facilitarnos la vida, sobre todo en las tareas más tediosas. Es el caso de IAs generativas como ChatGPT, que gracias a su potente modelo de lenguaje GPT-4 es capaz de ayudarnos en todo tipo de situaciones mientras nos responde y procesa en lenguaje natural.
No obstante, también es importante conocer los riesgos que conlleva el uso de este tipo de tecnologías. No es la primera vez que ciertas compañías y altos cargos muestran su preocupación sobre el rumbo de la inteligencia artificial. En el caso de Google, a pesar de haber lanzado Bard, también quiere atar todos los cabos posibles con respecto a la seguridad. Por ello, ha lanzado Secure AI Framework (SAIF), una especie de hoja de ruta con el fin de arrojar algo de luz sobre mecanismos de seguridad específicos para combatir los peligros de un mal uso de la inteligencia artificial.
Ideas básicas para que las empresas fortifiquen su seguridad
Si bien actualmente se trata de un framework aún en pañales, la compañía ha querido explicar el concepto de esta idea y los planes a futuro que tiene Google para colaborar en una comunidad que use la inteligencia artificial de forma segura. Para ello han publicado una entrada explicando todo esto en su blog.
La intención de Google con SAIF es básicamente ayudar a otras empresas y organizaciones a que apliquen los mecanismos básicos de seguridad y control sobre …