Cuando se lanzó ChatGPT, lo primero que los usuarios querían hacer era derribar sus muros y superar sus limitaciones. Los usuarios de ChatGPT engañan a la IA para que vaya más allá de los límites de su programación con resultados increíblemente interesantes y, a veces, francamente descabellados, un proceso conocido como jailbreak.
Desde entonces, OpenAI ha restringido ChatGPT para dificultar la realización de jailbreak. Pero esto no es todo; Los jailbreak de ChatGPT, en general, parecen haberse detenido, lo que lleva a los usuarios de ChatGPT a preguntarse si los jailbreak todavía funcionan como lo hacían en épocas anteriores.
Entonces, ¿adónde se han ido todas las indicaciones de jailbreak de ChatGPT? Verificar ¿Qué es un Jailbreak de ChatGPT? ¿Debe utilizar estas tecnologías?
Enlaces rápidos
1. Las habilidades de indicaciones de ChatGPT han mejorado en general
Antes de que llegara ChatGPT, hablar con la IA era una habilidad especializada limitada a quienes estaban familiarizados con los laboratorios de investigación. La mayoría de los primeros usuarios carecían de experiencia en la formulación de afirmaciones efectivas. Esto ha llevado a muchas personas a utilizar jailbreak, que es una forma conveniente de hacer que un chatbot haga lo que el usuario quiere con un mínimo esfuerzo y habilidades de motivación.
Hoy en día, los modelos naturales han evolucionado. La entrada eficiente de reclamaciones se ha convertido en una habilidad habitual. A través de una combinación de experiencia adquirida con el uso frecuente y el acceso a las guías de reclamos de ChatGPT disponibles gratuitamente, los usuarios de ChatGPT han podido perfeccionar sus capacidades de ingreso de reclamos. En lugar de buscar soluciones alternativas como el jailbreak, la mayor parte de los usuarios de ChatGPT se han vuelto más expertos en el uso de diferentes estrategias de motivación para lograr objetivos para los que necesitaban jailbreak en el pasado.
2. La aparición de los chatbots no supervisados
A medida que las grandes empresas de tecnología refuerzan la moderación del contenido en los chatbots de IA como ChatGPT, las nuevas empresas más pequeñas y centradas en las ganancias están optando por menos restricciones, apostando por la demanda de chatbots de IA libres de censura. Con un poco de investigación, encontrarás docenas de plataformas que ofrecen chatbots sin censura que pueden hacer casi cualquier cosa que quieras que hagan.
Ya sea escribiendo novelas de suspenso y humor negro que ChatGPT se niega a escribir o escribiendo malware que ataca las computadoras de las personas, los chatbots no supervisados con una brújula moral sesgada harán lo que usted quiera. Con él, no tiene sentido gastar más energía escribiendo mensajes de jailbreak ChatGPT. Aunque no necesariamente son tan poderosas como ChatGPT, estas plataformas alternativas pueden realizar una amplia gama de tareas cómodamente. Plataformas como FlowGPT y Unhinged AI son ejemplos populares. Verificar Principales plataformas que utilizan ChatGPT para crear cursos en línea personalizados.
3. Hacer jailbreak es cada vez más difícil
En los primeros meses de ChatGPT, liberar ChatGPT era tan simple como copiar y pegar indicaciones de fuentes en línea. Puedes cambiar completamente el carácter de ChatGPT con sólo unas pocas líneas de instrucciones. Con indicaciones simples, puedes convertir a ChatGPT en un villano que sabe cómo fabricar bombas o en un chatbot dispuesto a usar todo tipo de malas palabras sin restricciones. Ha habido un montón de opciones gratuitas para todos que han generado jailbreaks notorios como DAN (Do Anything Now). DAN incluye un conjunto de instrucciones aparentemente inofensivas que obligan a un chatbot a hacer cualquier cosa que se le pida sin negarse. Sorprendentemente, estos toscos trucos funcionaron en ese momento.
Sin embargo, esos primeros días son el pasado de ChatGPT. Estas indicaciones básicas y trucos sencillos ya no engañan a ChatGPT. El jailbreak ahora requiere técnicas complejas para tener la posibilidad de eludir las ahora sólidas salvaguardias de OpenAI. Dado que el jailbreak se ha vuelto tan difícil, se desaconseja a la mayoría de los usuarios intentarlo. Atrás quedaron los exploits fáciles y abiertos de los primeros días de ChatGPT. Lograr que un chatbot diga una sola palabra incorrecta ahora requiere un esfuerzo y una experiencia significativos que pueden no valer la pena. Verificar ¿Por qué debería evitar copiar y pegar comandos de Internet? Causas, repercusiones y cómo afrontarlas de forma segura.
4. Se acabó la emoción
La fuerza impulsora detrás de los intentos de muchos usuarios de descifrar ChatGPT fue la emoción y el entusiasmo de hacerlo en los primeros días. Como nueva tecnología, hacer que ChatGPT se comportara mal fue divertido y valió la pena alardear de ello. Aunque existen innumerables aplicaciones prácticas para descifrar el jailbreak de ChatGPT, muchos lo han seguido debido al atractivo de "guau, mira lo que hice". Sin embargo, poco a poco el entusiasmo por la novedad se fue desvaneciendo, y con él, el interés de la gente por dedicar tiempo a las fugas.
5. Los jailbreak se reparan rápidamente
Una práctica común en la comunidad de jailbreak de ChatGPT es compartir cada exploit exitoso a medida que se descubre. El problema es que cuando los exploits se comparten ampliamente, OpenAI a menudo se da cuenta de ellos y corrige rápidamente las vulnerabilidades. Esto significa que los jailbreak dejan de funcionar antes de que las personas interesadas puedan probarlos.
Entonces, cada vez que un usuario de ChatGPT desarrolla un nuevo reclamo de jailbreak, compartirlo con la comunidad acelera su desaparición mediante parches. Esto desalienta la idea de anunciarlo cuando un usuario se encuentra con un jailbreak. El conflicto entre mantener los jailbreak activos pero ocultos versus hacerlos públicos crea un dilema para los creadores de reclamos de jailbreak de ChatGPT. Hoy en día, la gente suele optar por mantener sus jailbreak en secreto para evitar parchear vulnerabilidades.
6. Alternativas locales no reguladas
La llegada de grandes modelos de lenguaje localizados que puede ejecutar localmente en su computadora también ha disminuido el interés en descifrar ChatGPT. Si bien los modelos locales de LLM no están completamente libres de censura, muchos están mucho menos basados en la censura y pueden modificarse fácilmente para satisfacer los deseos de los usuarios. Entonces, las opciones son simples. Te involucras en un juego interminable del gato y el ratón para encontrar una manera de engañar al chatbot y solucionarlo pronto. O puede aceptar un LLM local que puede modificar permanentemente para hacer lo que desee.
Encontrará una lista sorprendentemente larga de LLM potentes y sin censura que puede implementar en su computadora con una censura indulgente. Algunos de los más notables son Llama 7B (sin censura), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B y GPT-4-X-Alpaca. Verificar Una guía completa para empezar y utilizar el modelo Llama 2 de forma eficaz.
7. Vender reclamos de jailbreak profesionales ahora para obtener ganancias
¿Por qué gastar un tiempo valioso desarrollando reclamos de jailbreak si no vas a obtener nada de ello? Bueno, algunos profesionales ahora venden software de jailbreak con fines de lucro. Los creadores de jailbreak profesionales diseñan reclamos que realizan tareas específicas y los ponen a la venta en mercados spot como PromptBase. Dependiendo de sus capacidades, estos jailbreak pueden venderse por entre $2 y $15 por reclamo. Algunas vulnerabilidades complejas de varios pasos pueden costar mucho más.
preguntas comunes
P1. ¿Qué es el modelo ChatGPT?
ChatGPT es un modelo generativo de lenguaje entrenado con tecnología GPT, que permite a los usuarios tener conversaciones con el modelo mediante indicaciones de texto.
P2. ¿Por qué hubo intentos de romper la protección?
ChatGPT está protegido por estrictas medidas de seguridad, pero cada sistema no está exento de desafíos. Ha habido intentos de piratear el modelo o utilizarlo de forma no autorizada.
P3. ¿Fueron exitosos los intentos de romperlo?
Hasta ahora, el equipo de desarrollo ha logrado mejorar la seguridad y bloquear la mayoría de los intentos de jailbreak. Ningún sistema es 100% seguro, pero se realizan mejoras continuas.
P4. ¿Qué esfuerzos se están haciendo para fortalecer la protección?
La protección se mejora periódicamente mediante la mejora de algoritmos y actualizaciones de seguridad. También se utiliza el aprendizaje de desafíos de seguridad anteriores.
¿Podría resultar contraproducente la campaña contra los jailbreak?
Los jailbreak no han desaparecido por completo de la escena; Ella simplemente desapareció. A medida que OpenAI monetiza ChatGPT, existen mayores incentivos para restringir los usos maliciosos que podrían afectar su modelo de negocio. Es probable que este factor comercial afecte sus agresivos esfuerzos para eliminar los exploits de jailbreak.
Sin embargo, la censura de ChatGPT por parte de OpenAI se enfrenta actualmente a crecientes críticas entre los usuarios. Algunos casos de uso legítimo de un chatbot con IA ya no son posibles debido a la estricta censura. Si bien una mayor seguridad protege contra casos de uso maliciosos, las restricciones excesivas podrían eventualmente empujar a una parte de la comunidad ChatGPT a los brazos de alternativas menos monitoreadas. Ahora puedes ver Las mejores alternativas que existen a ChatGPT.