Sam Altman es, sin lugar a dudas, uno de los personajes clave de esta década. Desde la irrupción global de ChatGPT en el mercado, las cosas no han hecho más que acelerarse año tras año con el éxito sin paliativos de los modelos de Inteligencia Artificial (IA). Sin embargo, también ha despertado un nuevo miedo, concretamente a un apocalipsis causado por la IA, motivo por el que muchos ricos se están comprando sus propios búnkers.Ahora, con la suerte de Guerra Fría que están librando los Estados Unidos y China, el miedo es aún mayor, sobre todo después de la irrupción de una IA china como es DeepSeek en el mercado global. Ahora que Sam Altman se encuentra en el candelero por sus enfrentamientos con Elon Musk que quiere comprar OpenAI, es turno de recuperar una entrevista que ofreció en el 2023, en los albores de la IA, en la que explicaba los peligros de la inteligencia artificial general (AGI) y como ningún búnker podría salvar a la humanidad si esta se escapara del control de los humanos.Una AGI maligna y el fin de la HumanidadLos seres humanos nos hemos convertido en la especie dominante en buena medida por nuestro potencial transformador e inteligencia. Esto no es extraño, pero nunca hemos tenido que lidiar con una especie más inteligente que nosotros. El objetivo de la inteligencia artificial general es que lo sea, lo que genera algunos miedos.En una entrevista recogida por Business Insider, Altman aseguró tener "algunas estructuras", pero a las …