Existen grandes dudas sobre lo que están haciendo Microsoft y OpenAI con su nueva IA en la nube. De hecho, está generando tantísimas dudas que muchos expertos ya han enarcado la ceja sobre los grandes peligros que podría acarrear este comportamiento. No son pocos los críticos que consideran que ambas empresas no están actuando de la manera correcta al ocultar al mundo cuáles son las cartas que están utilizando a la hora de programar y sobre todo de enseñar a estas inteligencias artificiales.Sobre todo, si tenemos en cuenta que el máximo competidor de estas IA es StableLM, de código totalmente abierto y que permite saber en todo momento qué tipo de datos se utilizan para enseñar a la IA a comportarse tal y como lo hace. Actualmente, este tipo de inteligencias artificiales también son capaces de generar audios por IA, algo profundamente interesante.El gran peligro de la IAEs muy interesante señalar la importancia que tiene esto para la industria de la inteligencia artificial. Es un potencial peligro y genera dudas sobre la ética en la confección de la IA, ya que nadie fuera de OpenAI o Microsoft tiene conocimiento de qué es lo que están creando en la nube, lo que genera dudas y problemas a partes iguales. Algo que, de acuerdo con ZdNet han advertido expertos de las universidades de Oxford y de Leeds. El riesgo no es algo que se pueda ignorar, ya que si no se sabe con qué se ha calibrado la información en concreto existen …