Los modelos de lenguaje (LLM por sus siglas en inglés) son fundamentales en la adopción de la Inteligencia Artificial generativa en empresas. Sin embargo, una reciente investigación de Mithril Security reveló un riesgo considerable asociado a estos: PoisonGPT. PoisonGPT es una técnica que permite introducir un modelo malicioso en la cadena de suministro de un… Continúa leyendo »La noticia PoisonGPT y el riesgo oculto en los modelos de lenguaje abiertos fue publicada originalmente en Wwwhatsnew.com por Juan Diego Polo.