Hemos hablado largo y tendido durante muchas ocasiones sobre la cara positiva de la inteligencia artificial: ayudarnos a buscar información, subtitular un vídeo, crear imágenes increíbles a través de una frase... Pero también hay que ver el lado negativo que es el peligro de tener una tecnología tan potente en nuestras manos. Son muchos los expertos que hablan de este peligro como el propio CEO de OpenAI o gente reputada en el sector como Eliezer Yudkowsky.
A priori este nombre no te dirá absolutamente nada, pero estamos hablando de una persona que lleva años estudiando sobre inteligencia artificial, primero de manera autodidacta y luego bajo la tutela de uno de los mayores expertos en IA como es Nick Bostrom. Ahora, Yudkowsky ha querido hablar (nuevamente) de los grandes peligros que tiene la IA en nuestras manos.
Llega al extremo con la inteligencia artificial
En una reciente entrevista concedida a The Guardian ha querido insistir nuevamente en que la humanidad corre peligro por culpa de la IA. Decimos que es un nuevo intento de aviso porque ya el año pasado pudimos leer un artículo de opinión en Time donde aseguraba que había que tomar medidas radicales contra la IA.
Estas medidas pasaban por lanzar ataques aéreos contra los centros de datos donde se está gestando el entrenamiento de las diferentes inteligencias artificiales. E incluso llegaba a afirmar que había que usar bombas nucleares para acabar con esta amenaza paral a humanidad.
"Si me pones contra …