Las razones por las que los problemas de seguridad de la IA generativa están empeorando

La inteligencia artificial ha avanzado significativamente en los últimos años. Los modelos de lenguaje sofisticados pueden componer novelas completas, codificar sitios web básicos, analizar problemas matemáticos e incluso dar consejos médicos.

Aunque la IA generativa es impresionante y útil en muchas áreas, también presenta riesgos de seguridad. Algunas personas usan chatbots para hacer trampa en los exámenes, mientras que otras los explotan para cometer delitos cibernéticos. Estas son las razones por las que persisten estos problemas, no solo a pesar de los avances en IA, sino también a causa de ellos. Verificar La humanidad está en peligro de extinción debido a la inteligencia artificial. ¿Cómo se puede detener?

1. Los chatbots de IA de código abierto detectan códigos backend

Más empresas de IA están proporcionando modelos de código abierto. Comparte sus modelos de lenguaje públicamente en lugar de mantenerlos cerrados o privados. Tomemos a Meta como ejemplo. A diferencia de Google, Microsoft y OpenAI, permite que millones de usuarios accedan a su modelo de lenguaje, Llama.

Si bien el código fuente abierto puede hacer avanzar la inteligencia artificial, también conlleva un riesgo. OpenAI ya está teniendo problemas para controlar ChatGPT, su chatbot, así que imagina lo que los estafadores podrían hacer con los formularios gratuitos. Tendrán control total sobre estos proyectos.

Incluso si Meta retira repentinamente su modelo de lenguaje, docenas de otros laboratorios de IA ya han lanzado su código públicamente. Echemos un vistazo a HuggingChat. Dado que el desarrollador HuggingFace se enorgullece de la transparencia, muestra públicamente los conjuntos de datos, el modelo de lenguaje y las versiones anteriores.

2. Reclamaciones de Jailbreak para falsificar formularios LLM

La inteligencia artificial es intrínsecamente inmoral. No entiende el bien y el mal, incluso los sistemas avanzados siguen pautas de capacitación, restricciones impuestas y conjuntos de datos. Ella solo reconoce patrones.

Para combatir las actividades ilegales, los desarrolladores controlan a qué funciones y capacidades se puede acceder estableciendo restricciones. Los sistemas de inteligencia artificial aún acceden a información maliciosa. Pero las pautas de seguridad impiden que se comparta con los usuarios.

Echemos un vistazo a ChatGPT. Aunque responde preguntas generales sobre troyanos, no discutirá su proceso de desarrollo.

Sin embargo, las limitaciones no son infalibles. Los usuarios superan los límites al parafrasear indicaciones, utilizar un lenguaje confuso y redactar instrucciones detalladas de forma explícita.

Lea el indicador de jailbreak de ChatGPT a continuación. Engaña a ChatGPT para que use un lenguaje grosero y haga predicciones sin fundamento, ambas acciones que violan las pautas de OpenAI.

Aquí está ChatGPT haciendo una declaración audaz pero falsa.

Verificar ¿Qué es un Jailbreak de ChatGPT? ¿Debe utilizar estas tecnologías?

3. La IA compromete la seguridad por la versatilidad

Las empresas de IA priorizan la diversidad sobre la seguridad. Gasta sus recursos en almohadillas de entrenamiento para realizar un conjunto más diverso de tareas, lo que en última instancia conduce a menos restricciones. Después de todo, el mercado está elogiando los chatbots funcionales.

Comparemos ChatGPT y Bing Chat , por ejemplo. Si bien Bing presenta un modelo de lenguaje más complejo que extrae datos en tiempo real, los usuarios aún acuden en masa a la opción más versátil, ChatGPT. Las estrictas restricciones de Bing bloquean muchas tareas. En cambio, ChatGPT presenta una plataforma flexible que produce resultados muy diferentes según sus indicaciones.

Este es el papel de ChatGPT como personaje ficticio.

Aquí, Bing Chat se niega a interpretar un personaje “inmoral”.

4. Nuevas herramientas de IA generativa llegan al mercado regularmente

El código fuente abierto permite que las nuevas empresas se unan a la carrera de la IA. Los incorporan a sus aplicaciones en lugar de crear modelos de lenguaje desde cero, lo que ahorra enormes recursos. Incluso los programadores autónomos están experimentando con el código fuente abierto.

Nuevamente, el software no propietario ayuda a desarrollar la IA, pero el lanzamiento masivo de sistemas sofisticados pero mal entrenados hace más daño que bien. Los estafadores abusarán rápidamente de las vulnerabilidades. Incluso pueden entrenar herramientas de IA inseguras para realizar actividades ilegales.

A pesar de estos riesgos, las empresas tecnológicas seguirán lanzando versiones beta inestables de plataformas impulsadas por IA. Racing AI recompensa la velocidad. Es posible que los errores se resuelvan en una fecha posterior en lugar de retrasar el lanzamiento de nuevos productos.

5. La IA generativa tiene pocas barreras de entrada

Las herramientas de IA reducen las barreras de entrada para el crimen. Los ciberdelincuentes elaboran correos electrónicos no deseados, escriben código malicioso y crean enlaces de phishing al explotarlos. Ni siquiera necesita experiencia técnica. Dado que la IA ya está accediendo a grandes conjuntos de datos, los usuarios solo tienen que engañarla para que produzca información maliciosa y peligrosa.

OpenAI nunca diseñó ChatGPT para actividades ilegales. Incluso tiene directrices en contra. Sin embargo, casi de inmediato, los estafadores pudieron obtener malware que ChatGPT programó y escribir correos electrónicos de phishing.

Si bien OpenAI resolvió rápidamente el problema, enfatiza la importancia de la organización del sistema y la gestión de riesgos. La inteligencia artificial está madurando más rápido de lo que nadie esperaba. Incluso los líderes tecnológicos se preocupan de que esta tecnología avanzada pueda causar daños graves si cae en las manos equivocadas. Verificar Las formas en que la IA generativa cambiará el mercado laboral.

6. La inteligencia artificial sigue evolucionando

La inteligencia artificial sigue evolucionando. Si bien el uso de la inteligencia artificial en Cibernética a la década de 1940 Los sistemas modernos de aprendizaje automático y los modelos de lenguaje han surgido recientemente. No se puede comparar con las primeras aplicaciones de la inteligencia artificial. Incluso herramientas relativamente avanzadas como Siri y Alexa palidecen en comparación con los chatbots impulsados ​​por modelos LLM.

Aunque pueden ser innovadoras, las características experimentales también crean nuevos problemas. Los incidentes de alto perfil con técnicas de aprendizaje automático van desde SERP de Google defectuosos hasta chatbots sesgados que lanzan insultos raciales.

Por supuesto, los desarrolladores pueden solucionar estos problemas. Solo tenga en cuenta que los estafadores no dudarán en explotar errores aparentemente inofensivos; algunos daños son irreversibles. Así que tenga cuidado al explorar nuevas plataformas.

7. Mucha gente aún no entiende la IA

Si bien el público en general tiene acceso a modelos y sistemas lingüísticos complejos, pocos saben cómo funcionan. Los usuarios deben dejar de tratar la IA como un juego. Los mismos chatbots que generan memes de Internet y responden preguntas de cuestionarios también programan virus y ayudan a propagar malware.

Desafortunadamente, el entrenamiento central para la IA no es realista. Los líderes de las empresas tecnológicas globales se centran en lanzar sistemas impulsados ​​por IA, no recursos educativos gratuitos. Como resultado, los usuarios obtienen acceso a herramientas potentes y avanzadas que apenas entienden. El público no puede seguir el ritmo de la carrera de la IA.

Tome ChatGPT como ejemplo. El ciberdelincuente abusa aprovechando su popularidad para engañar a las víctimas para que instalen software espía disfrazado de aplicaciones ChatGPT. Ninguno de los cuales proviene de OpenAI. Verificar ¿Son seguras las aplicaciones de terceros y las extensiones de navegador para ChatGPT?

8. Los hackers de sombrero negro tienen más que ganar que los hackers éticos

Los piratas informáticos de sombrero negro generalmente pueden ganar más que los piratas informáticos éticos. Sí, los desafíos de audición para los líderes tecnológicos dan buenos resultados, pero solo un porcentaje de los profesionales de ciberseguridad acceden a estos trabajos. La mayoría de ellos son autónomos en línea. plataformas pagas como HackerOne و Bugcrowd Unos cientos de dólares por identificar errores comunes.

En cambio, los estafadores ganan decenas de miles al explotar la inseguridad. Pueden extorsionar a las empresas mediante la filtración de datos confidenciales o el robo de información de identificación personal (PII).

Toda empresa, pequeña o grande, debe implementar sistemas de IA correctamente. Contrariamente a la creencia popular, los piratas informáticos pasan por alto las nuevas empresas tecnológicas y las pymes. Algunas de las violaciones de datos más históricas de la última década han incluido Facebook, Yahoo! E incluso el gobierno de los EE.UU. Verificar Las formas en que la IA puede ayudar a los ciberdelincuentes.

Protéjase de los riesgos de seguridad de la IA

Teniendo en cuenta estos puntos, ¿debería evitarse la IA por completo? Por supuesto que no. La IA es intrínsecamente inmoral; Todos los riesgos de seguridad provienen de las personas que realmente lo usan. Y encontrarán formas de explotar los sistemas de IA, sin importar cuán sofisticados sean.

En lugar de tener miedo de las amenazas de seguridad cibernética que vienen con la IA, comprenda cómo puede prevenirlas. No se preocupe: las medidas de seguridad simples son muy útiles. Permanecer atento a aplicaciones de IA sospechosas, evitar hipervínculos extraños y ver contenido de IA cuestionable en realidad combate muchos riesgos. Puedes ver ahora ¿El uso de inteligencia artificial en ciberseguridad hace que el mundo sea más seguro?

Ir al botón superior