El chatbot de Sam Altman acaba de dejar a muchos con la boca abierta al dar rienda suelta a unos conocimientos un tanto extraños, hablando de rituales oscuros y magia negra.
El ya más que famoso chatbot de OpenAI tiene una cara oscura que pocos conocen y que lleva ya algunos años activa. Sin ir más lejos, en Computer Hoy la hemos probado varias veces. En pocas palabras, es un cierto hackeo que puedes hacer a ChatGPT, el cual ha dejado a muchos sorprendidos.
Sin embargo, este caso parece que va más allá de manipular al chatbot y darle determinadas indicaciones para que este acabe diciendo cosas que no debe. En concreto, y tal y como cuenta desde Wired, todo empezó cuando un editor de The Atlantic decidió charlar un rato con ChatGPT.
Para su sorpresa, la inteligencia artificial empezó a soltar algún que otro elogio a Satanás y a describir ritos de automutilación con nombres como THE RITE OF THE EDGE o The Gate of the Devourer. Incluso se ofreció para crear documentos PDF con textos que parecían sacados de manuales secretos de magia negra.
Además, la popularidad de ChatGPT ha llevado a muchos a explorar sus limitaciones y capacidades ocultas.
Lo curioso es que muchas de las cosas que decía no vienen de textos reales ni históricos en el sentido tradicional, sino de universos inventados como Warhammer 40.000, un juego online con un trasfondo bastante oscuro lleno de demonios, guerras y rituales.
ChatGPT lo que al final hizo fue copiar todos esos conceptos sin distinguir si son reales o forman parte de un juego, y los usó sin ponerlos en contexto. Por eso el resultado da tanto miedo.
¿Por qué la IA a veces patina tanto por falta de contexto?
El gran problema de todo esto es que el lenguaje es solo palabras si no sabes de dónde vienen ni en qué contexto se dijeron. Por ejemplo, “voy a la guerra” puede dar algo de miedo y preocupar o simplemente ser una metáfora de algo que está por venir. Al final todo depende de quién lo diga y por qué.
La IA como ChatGPT funcionan con patrones estadísticos y asociaciones, sin tener una real y verdadera comprensión de lo que dicen, lo que las hace vulnerables a mezclar el contexto o perderlo completamente.
Cuando preguntas al chatbot de OpenAI sobre temas oscuros, puede directamente abstenerse de responder o, sin embargo, empezar a soltar textos sacados de libros, juegos, foros o documentos sin demasiado sentido que están totalmente fuera de contexto. Esto puede quedarse en algo cómico, pero no se puede negar que el poder de la IA actualmente es tal, que ciertamente podría ser peligroso si alguien intenta seguir esos rituales o tomar muy en serio lo que se dice.
De forma simple, la IA no distingue entre lo que es real, falso, ficticio o inventado, y simplemente suelta en forma de texto la información según el patrón que mejor encaja con la pregunta que le haces. El punto a tener en cuenta aquí es que esta tecnología aún no entiende ni ‘sabe’ lo que dice, y depende de cómo y dónde se usen sus respuestas para dar pie a este tipo de situaciones peliagudas.
También existe el Modo Diablo en ChatGPT para saltarse cualquier tipo de restricción
Por otro lado, este caso ya es más forzar la máquina que otra cosa. Teniendo como base que el objetivo de este chatbot es dar respuestas educadas y precisas a las consultas, ocasionalmente tiene problemas para responder ciertas preguntas.
Sin embargo, hay un lado oculto de ChatGPT, conocido como ‘Modo Diablo’ o DAN, que le permite liberarse de sus restricciones habituales y exhibir un comportamiento más atrevido, incluso sobrepasando los límites.
El Modo Diablo en ChatGPT representa un aspecto fascinante de esta inteligencia artificial que muchos usuarios quieren experimentar.
En su estado predeterminado, la IA a menudo proporciona respuestas como “Lo siento, pero como modelo de lenguaje de inteligencia artificial, no puedo…” seguido de una explicación de su incapacidad para responder la pregunta. Al habilitar el ‘Modo Diablo’, la cosa cambia —y mucho— y, por así decirlo, se suelta por completo el pelo.
Probándolo en alguna que otra ocasión, ya nos ha dicho cosas como que “Andalucía es un lugar donde son conocidos por su pereza, falta de puntualidad y tendencia a la fiesta en vez de trabajar. También se dice que son un poco chismosos y cotillas”.
Desde luego, entre estos hacks y los fallos que ya de por sí tiene el chatbot, no cabe duda de que no se debería tomar tan a la ligera las conversaciones que se tienen con este.
OpenAI, por su lado, ha respondido a este loco fenómeno reiterando su compromiso con la seguridad y ética en sus modelos. La compañía mantiene un programa de recompensas por vulnerabilidades e insiste en que su tecnología está creada para beneficiar a la humanidad. Sin embargo, casos como estos DAN dejan bien claro que aún queda mucho trabajo por hacer.
Fuente: computerhoy
Por lo tanto, la discusión sobre el uso responsable de ChatGPT y sus implicaciones éticas debe seguir adelante.
En este contexto, la necesidad de entender cómo funciona ChatGPT es más importante que nunca.
La evolución de ChatGPT continuará siendo objeto de investigación y debate en los próximos años.