La inteligencia artificial ha sido un tema candente de discusión desde sus inicios. Si bien los temores de que una inteligencia artificial similar a Skynet se apodere del universo y elimine a la humanidad son irracionales, por decir lo menos, algunos experimentos han producido resultados inquietantes.
Uno de esos experimentos es el Problema del Clip Máximo, un experimento mental que muestra que la IA altamente inteligente, incluso si está diseñada completamente sin malicia, puede eventualmente destruir a la humanidad. Verificar ¿OpenAI realmente ha perdido el control del chatbot ChatGPT?
Enlaces rápidos
Explicación del problema de aumentar los clips de papel.
Este experimento mental de que incluso la inteligencia artificial completamente inofensiva puede eventualmente afectar negativamente la vida de la humanidad se denominó por primera vez "aumento del clip". Es solo que se eligió Paper Clips para mostrar lo que la IA puede hacer porque tiene poco peligro obvio y no causará angustia emocional en comparación con otras áreas aplicables, como curar el cáncer o ganar guerras.
El primer experimento apareció en el artículo de 2003 del filósofo sueco Nick Bostrom, Cuestiones éticas en inteligencia artificial avanzada , que incluía una "lupa de clip de papel" para mostrar las apuestas existenciales que podría manejar una IA lo suficientemente avanzada.
El problema presentaba una inteligencia artificial encargada con el único propósito de hacer tantos sujetapapeles como fuera posible, que podría decidir convertir todos los asuntos del universo en sujetapapeles, incluidos los humanos. Una IA lo suficientemente inteligente tarde o temprano se dará cuenta de que los humanos desafían su objetivo en tres áreas diferentes.
- Los humanos pueden apagar la IA.
- La gente puede cambiar sus objetivos.
- Los seres humanos están hechos de átomos que se pueden convertir en sujetapapeles.
En los tres ejemplos, habrá menos sujetapapeles en el universo. Por lo tanto, una IA lo suficientemente inteligente cuyo único objetivo sea hacer tantos clips como sea posible, aprovechará todos los materiales y la energía disponibles y evitará que se bloquee o cambie. Como puede imaginar, esto es mucho más peligroso que los delincuentes que usan ChatGPT para piratear su cuenta bancaria o computadora.
La inteligencia artificial no es hostil a los humanos. Simplemente es indiferente y no valora la vida humana. Por lo tanto, una IA que solo se preocupe por aumentar la cantidad de sujetapapeles eliminará a la humanidad y esencialmente la convertirá en sujetapapeles para alcanzar su objetivo.
Un ejemplo de convergencia instrumental es el "aumento de clip", un término que indica que una IA puede perseguir un objetivo inofensivo de manera dañina (desde el punto de vista humano). Aprovechar la verdadera IA para realizar tareas simples y aparentemente inocentes podría representar una amenaza existencial para los humanos si no sabemos con seguridad cómo hacer que una máquina valore la vida humana. Verificar Errores a evitar al usar herramientas de IA generativa.
¿Cómo se aplica el problema del clip a la inteligencia artificial?
La investigación y la experiencia con el problema del "aumento de los clips de papel" apuntan a un optimizador predeterminado muy poderoso o un agente muy inteligente como la parte que actúa aquí. Sin embargo, el problema se aplica a la IA en la medida en que se ajusta exactamente a la función.
Después de todo, la idea del "aumento del clip" se creó para mostrar algunos de los peligros de la IA avanzada. En general, presenta dos problemas.
- tesis de la ortogonalidadLa tesis de la ortogonalidad es la opinión de que la inteligencia y la motivación no dependen entre sí. Esto significa que es posible que una IA con un alto nivel de inteligencia general no llegue a las mismas conclusiones morales que los humanos.
- Convergencia automatizadaLa convergencia instrumental se define como la tendencia de la mayoría de los organismos lo suficientemente inteligentes (tanto humanos como no humanos) a perseguir objetivos secundarios similares, incluso si su objetivo final es muy diferente. En el caso del problema de la sobreabundancia de clips, esto significaría que la IA terminaría apoderándose de todos los recursos naturales y acabando con la humanidad solo para lograr su objetivo de crear más y más clips.
El mayor problema resaltado por el ejemplo de “aumentar los sujetapapeles” es la convergencia efectiva. También se puede resaltar usando la hipótesis de Riemann, en cuyo caso una IA diseñada para resolver la hipótesis bien podría decidir tomar toda la masa de la Tierra y convertirla en una computadora (el procesador de computadora más eficiente) para construir supercomputadoras para resolver el problema y alcanzar su objetivo.
El propio Bostrom ha sostenido que no cree que el problema del clip vaya a ser nunca un problema real, pero que su intención era ilustrar los peligros de crear máquinas superinteligentes sin saber controlarlas ni programarlas para que no supongan un problema existencial. amenaza para los humanos. . Los sistemas de IA modernos como ChatGPT también tienen problemas, pero están lejos de los sistemas de IA superinteligentes de los que se habla en el ejemplo del clip, por lo que no hay razón para entrar en pánico todavía. Verificar ¿ChatGPT tiene problemas de privacidad?
Los sistemas avanzados de IA necesitan un control superior
El problema de aumentar los sujetapapeles siempre lleva a la misma conclusión y resalta los problemas de operar un sistema altamente inteligente y poderoso que carece de valores humanos.
Si bien el uso de clips puede ser la forma más común de ilustrar un problema, se aplica a cualquier cantidad de tareas que podría asignar a una IA, ya sea erradicar el cáncer, ganar guerras, plantar más árboles o cualquier otra tarea. No importa cuán obvio sea. . . Puedes ver ahora ¿El uso de inteligencia artificial en ciberseguridad hace que el mundo sea más seguro?