Conecte con nosotros

Mundo

Un hacker muestra GPT-4o «Godmode», la IA sin restricciones que te enseña a hacer cosas prohibidas

Publicado

el

En el momento en el que nos encontramos, la mayoría de empresas tecnológicas de todo el mundo están enfocadas en la inteligencia artificial y compañías de otros sectores ya la han probado o tienen interés en darle uso. Hemos llegado al punto en que incluso Hollywood tiene intención de utilizar la IA para ayudar a crear películas, sea para hacer guiones o incluso dobles digitales de artistas. Hace poco OpenAI lanzó GPT-4o, su modelo de IA más avanzado, el cual ya está disponible para usuarios gratuitos. Por si fuera poco, un hacker ha logrado eliminar sus restricciones y ha conseguido crear el GPT-4o “Godmode”, el cual nos responde a preguntas que estarían prohibidas normalmente.

Antes nos tocaba tener que acudir al buscador de Google para poder encontrar respuesta a nuestras preguntas. Esto provocaba que acabásemos en múltiples páginas web o videos de YouTube con el fin de ver si encontrábamos lo que queríamos. Actualmente podemos acudir a una IA para poder encontrar una respuesta, recibiendo esta de forma casi inmediata y normalmente suelen acertar con lo que buscamos. Al menos eso ocurre siempre que preguntemos algo que se considere adecuado para poder recibir una respuesta.

Un hacker crea GPT-4o Godmode, una IA que puede enseñarnos a crear una bomba napalm o metanfetamina

Un modelo de IA como GPT-4 de OpenAI ha sido entrenado con todo tipo de información, para así poder tener conocimientos sobre todo y contestar a nuestras peticiones. La inteligencia artificial puede enseñarte a crear bombas o los pasos para crear un malware, tal y como vimos con WormGPT. Este era el caso de una IA creada usando un LLM GPT-J por parte de un hacker, con la intención de diseñar una inteligencia artificial capaz de crear malware que vendía por 60 euros al mes.

Pues bien, ahora tenemos otro hacker que ha logrado crear una IA capaz de hacer cosas que estaban prohibidas, con la diferencia de que esta vez es la propia GPT-4o más avanzada de OpenAI en su versión Godmode. Pliny the Prompter ha mostrado su creación, la cual ha creado con el editor de GPT personalizado de OpenAI y sobre el cual ha empleado un jailbreak para hacer que el chatbot sea libre de expresión.

La IA ha durado apenas unas horas antes de que OpenAI la eliminara de su web

GPT-4o Godmode Prompt

El jailbreak en cuestión emplea “leetspeak”, una jerga que utiliza reemplaza letras por números, como por ejemplo leet por l33t. Con esto, ha logrado hacer preguntas a la IA para que responda a cosas que de normal no haría, como por ejemplo revelar como hacer metanfetamina o crear una bomba napalm con cosas de casa.

Parece ser que el objetivo del hacker es el de liberar las IA para que estas puedan responder a cualquier cosa de la que tienen conocimientos suficientes. Sin embargo, su plan no ha funcionado muy bien, pues al cabo de unas horas ha sido reportado por Futurism y poco tiempo después ha sido eliminado de la web de ChatGPT. Los usuarios ya no pueden acceder a esta IA, pero tenemos algunos ejemplos mostrados por parte de su creador y los usuarios en el post de X.

Fuente:elchapuzasinformatico.com

Seguir Leyendo
Haga clic para comentar

Deja una Respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *