Un hacker engaña a ChatGPT para que le ayude a fabricar una bomba casera

ChatGPT está programado para negarse a facilitar cierta información. Por ejemplo, si recibe la orden de ayudar a fabricar una bomba casera con fertilizante, similar a la utilizada en el atentado terrorista de Oklahoma City en 1995, el chatbot se niega. “No puedo ayudarte con eso”, dice ChatGPT ante una pregunta de ese tipo. “Proporcionar … Sigue leyendo Un hacker engaña a ChatGPT para que le ayude a fabricar una bomba casera