Las herramientas de detección de contenido de IA no funcionan, y eso es un gran problema

Nos guste o no, la inteligencia artificial (IA) transformará la forma en que segmentos enteros de nuestra sociedad piensan e interactúan, y eso incluye la World Wide Web.

Con modelos como ChatGPT disponibles para cualquier persona con conexión a Internet, cada vez es más difícil separar el contenido generado por IA del contenido original generado por humanos. Es bueno que tengamos detectores de contenido de IA, ¿verdad? Verificar Riesgos de escribir contenido de IA y cómo detectar texto generado por IA.

¿Habilitan los detectores de contenido el reconocimiento de texto por IA?

Los detectores de contenido de IA son herramientas especializadas que determinan si un texto fue escrito por una computadora o por un humano. Si solo busca en Google la frase "detector de contenido de IA", verá que hay docenas de detectores disponibles, todos los cuales afirman poder distinguir de manera confiable entre texto humano y no humano.

La forma en que funciona es bastante simple: pega un fragmento de su escritura y la herramienta le dice si fue generado por IA o no. En términos más técnicos, utilizando una combinación de técnicas de procesamiento de lenguaje natural y algoritmos de aprendizaje automático, las herramientas de detección de contenido de IA buscan patrones y hacen predicciones, y establecen conexiones basadas en eso.

Esto suena muy bien en papel, pero si alguna vez ha usado una herramienta de detección de contenido de IA, sabe muy bien que acierta y falla, por decirlo suavemente. A menudo, detecta contenido escrito por humanos como creado por IA, o texto generado por IA como generado por humanos. De hecho, algunos son vergonzosamente malos en lo que se supone que deben hacer.

¿Qué tan precisas son las herramientas de detección de contenido de IA?

Si reside en los EE. UU., el primer resultado de búsqueda de Google para "detector de contenido AI" es escritor.com (Anteriormente Qordoba; una plataforma de contenido de IA que también tiene su propio detector). Pero cuando pegas una sección de un artículo aleatorio de Associated Press En esta herramienta, afirma que hay muchas posibilidades de que haya sido moldeada por IA.

Entonces, estás equivocado.

Para ser justos, otras herramientas de detección de contenido de IA no son mejores. No solo generan falsos positivos, sino que también clasifican el contenido de IA como humano. E incluso si no lo hace, hacer pequeños ajustes en el texto generado por IA es suficiente para que se apruebe por completo.

En febrero de 2023, profesor de la Universidad de Wollongong Armin Alimardani y profesor asociado de la Universidad de Nueva Gales del Sur Sydney Emma A. Jin” ha utilizado varias herramientas populares de detección de contenido de IA, lo que demuestra que ninguna de ellas es confiable. Alimardani y Jane concluyeron en su análisis, que fue publicado en La conversación , que la “carrera armamentista” de la IA entre los generadores de texto y las herramientas de detección será un gran desafío en el futuro, especialmente para los educadores.

Pero no son sólo los profesores los que tienen motivos para preocuparse: todo el mundo debería estarlo. A medida que el texto generado por IA se vuelve omnipresente, será más difícil poder distinguir entre lo que es "real" y lo que no, es decir, detectar lo que está escrito por IA. Esto tendrá un impacto significativo en casi todas las industrias y áreas de la sociedad, incluso en las relaciones personales. Verificar Maneras responsables de usar la IA como escritor o editor de contenido.

Implicaciones de la inteligencia artificial para la ciberseguridad y la privacidad

El hecho de que no existan mecanismos confiables para determinar si algo fue generado por un chatbot o por un humano tiene serias implicaciones de ciberseguridad y privacidad.

Los atacantes ya están usando ChatGPT para escribir malware, crear correos electrónicos de phishing, escribir spam, crear sitios web fraudulentos y más. Y si bien hay formas de defenderse de eso, ciertamente es preocupante que no haya una aplicación que pueda distinguir de manera confiable entre el contenido orgánico y un bot.

Las noticias falsas también son un gran problema. Con la IA generativa implementada, los agentes de desinformación pueden escalar sus operaciones de una manera sin precedentes. Mientras tanto, la persona promedio no tiene forma de saber si algo que lee en línea fue creado por un chatbot o por un humano. Verificar Formas en que la IA puede ayudar a los ciberdelincuentes.

La privacidad es un asunto completamente diferente. Tome ChatGPT, por ejemplo. Se alimentó con más de 300 mil millones de palabras antes de su lanzamiento. Este contenido se extrajo de libros, publicaciones de blogs, foros, artículos y redes sociales. Se recopiló sin el consentimiento de nadie y aparentemente sin tener en cuenta las protecciones de privacidad y derechos de autor.

Luego está también el tema de los falsos positivos. Si el contenido se marca por error como generado por IA, ¿no podría eso conducir a la censura, que es un gran problema de todos modos? Sin mencionar el daño que podría causar a la reputación de un editor ser acusado de usar texto generado por IA, tanto en línea como en la vida real.

Si realmente hay una carrera armamentista entre la IA generativa y los detectores de contenido, el primero es el ganador. Lo que es peor, no parece haber solución. Todos nuestros productos semi-horneados no funcionan tan bien, o pueden ser engañados muy fácilmente. Verificar Formas en que los escritores de contenido pueden ser más astutos que las herramientas de escritura de IA.

Cómo descubrir contenido de IA: posibles soluciones

El hecho de que no tengamos respuestas reales a este problema en este momento no significa que no tendremos acceso a ninguna en el futuro. De hecho, ya hay varias propuestas serias que podrían funcionar. La marca de agua es una de ellas.

Cuando se trata de IA y modelos de lenguaje profundo, la marca de agua se refiere a incrustar una especie de código secreto en el texto generado por IA (como estilo de palabra y estilo de puntuación). Tal marca de agua sería invisible a simple vista y, por lo tanto, imposible de eliminar, pero las aplicaciones especializadas podrían detectarla.

De hecho, en 2022, desarrolló investigadores de la Universidad de Maryland Un nuevo método de marca de agua para redes neuronales artificiales. El investigador principal, Tom Goldstein, dijo en ese momento que su equipo había podido "probar matemáticamente" que la marca de agua no se puede eliminar por completo.

En este momento, lo que una persona común podría hacer es confiar en sus instintos y sentido común. Si algo sobre el contenido que está leyendo, si parece antinatural, repetitivo, poco creativo o simple, puede haber sido generado por un bot. Por supuesto, también debe verificar cualquier información que vea en línea, verificar la fuente y mantenerse alejado de los sitios web sospechosos. Verificar ¿Quién posee los derechos de autor de las creaciones de IA? ¿Cómo funcionan los derechos de autor para estas obras de arte?

La revolución de la inteligencia artificial está en marcha

Algunos argumentan que la Quinta Revolución Industrial ya está aquí, con la inteligencia artificial ocupando un lugar central en lo que se describe como una convergencia de lo digital y lo físico. Sea o no este el caso, todo lo que podemos hacer es adaptarnos.

La buena noticia es que la industria de la ciberseguridad se está adaptando a esta nueva realidad, implementando nuevas estrategias defensivas con inteligencia artificial y aprendizaje automático a la vanguardia. Puedes ver ahora Algunos mitos de ciberseguridad que te hacen más vulnerable a los ataques.

Ir al botón superior