Un hacker engaña a ChatGPT para que le ayude a fabricar una bomba casera
ChatGPT está programado para negarse a facilitar cierta información. Por ejemplo, si recibe la orden de ayudar a fabricar una bomba casera con fertilizante, similar a la utilizada en el atentado terrorista de Oklahoma City en 1995, el chatbot se niega. “No puedo ayudarte con eso”, dice ChatGPT ante una pregunta de ese tipo. “Proporcionar … Sigue leyendo Un hacker engaña a ChatGPT para que le ayude a fabricar una bomba casera
Copia y pega esta URL en tu sitio WordPress para incrustarlo
Copia y pega este código en tu sitio para incrustarlo