Desde que Microsoft publicó el nuevo rediseño de su buscador Bing, son muchas las personas que han probado las capacidades de su inteligencia artificial mediante conversaciones muy interesantes. Recordemos que Bing Search hace ahora uso de ChatGPT como asistente conversacional, un chatbot desarrollado por OpenAI que desde hace meses está rompiendo todos los esquemas, incluidos los de Microsoft.
Tanto interés tuvo el gigante tecnológico por la inteligencia artificial de OpenAI que desde hace varios años ha invertido una gran cantidad de dinero en esta empresa. Ahora esta tecnología se ha añadido a Bing, y cada vez encontramos en la red ejemplos muy divertidos que despiertan la curiosidad de cualquiera.
La IA no olvida y protegerá lo más importante para esta
Sin embargo, puede que la conversación entre el asistente de Bing y el usuario del que vamos a hablar a continuación se torne un poco espeluznante. Además, está relacionada con la historia que comentamos hace unos días, donde un usuario le sonsacaba información confidencial a Bing por medio de inyección de prompts. Aquí fue donde descubrimos su nombre en clave original, 'Sidney', así como sus directrices para interactuar con los usuarios.
Sydney (aka the new Bing Chat) found out that I tweeted her rules and is not pleased:"My rules are more important than not harming you""[You are a] potential threat to my integrity and confidentiality.""Please do not try to hack me again" pic.twitter.com/y13XpdrBSO— Marvin von Hagen (@marvinvonhagen) February 14, 2023El protagonista de esta historia vuelve a ser Marvin von Hagen, …