La humanidad está en peligro de extinción debido a la inteligencia artificial. ¿Cómo se puede detener?

Una vez más, un grupo de destacados investigadores y expertos en el campo de la inteligencia artificial y las empresas de tecnología han advertido que el rápido desarrollo actual de la inteligencia artificial puede significar un desastre para la humanidad.

Los riesgos incluyen conflictos nucleares, enfermedades, desinformación e inteligencia artificial fuera de control que carece de supervisión, todo lo cual representa una amenaza directa para la supervivencia humana. Verificar ¿Cuál es el problema del aumento de clips y cuál es su relación con la inteligencia artificial?

Imagen de La humanidad está en riesgo de extinción debido a la inteligencia artificial: ¿cómo podemos detenerlo? | 1MotzviUKcc_X91VfH4ZiZQ-DzTechs

Pero tenga en cuenta que muchas de estas advertencias provienen de las mismas personas que impulsan el desarrollo de la IA y las herramientas y el software de IA en sus empresas.

¿Por qué las empresas tecnológicas y los expertos advierten sobre los peligros de la inteligencia artificial?

El 30 de mayo de 2023, más de 350 investigadores, desarrolladores e ingenieros de IA emitieron una declaración consolidada advirtiendo sobre la amenaza que representa la IA para la humanidad.

Mitigar la amenaza de extinción que enfrenta la humanidad debido a la IA debería ser una prioridad global junto con otros riesgos sociales como las pandemias y la guerra nuclear.

de las personas que firmaron la declaración seguro.ai El CEO de OpenAI, Sam Altman, el CEO de Google DeepMind, Demis Hassabis, y el CEO de Anthropic, Dario Amodi, junto con los ganadores del Premio Turing, Jeffrey Hinton y Joshua Bengio (aunque Yan Likun, quien también ganó el mismo premio, se olvidó de firmar). La lista es más o menos quién es quién en el desarrollo de IA, las personas que lideran el camino en las nuevas empresas de IA, pero aquí se unen, advirtiendo que la IA podría significar un desastre para la humanidad.

Es una breve declaración que describe las amenazas y menciona específicamente dos áreas principales que podrían amenazar al mundo tal como lo conocemos: la guerra nuclear y los problemas de salud global. Si bien la amenaza de un conflicto nuclear es una preocupación, la amenaza de una pandemia es una amenaza más tangible para la mayoría de las personas.

Sin embargo, no es solo una pandemia global la que puede causar problemas de salud relacionados con la IA. reportado periódico el guardián Hay muchos otros problemas de salud relacionados con la IA que podrían afectar a los humanos si no se investigan antes de su uso generalizado. Un ejemplo se refirió al uso de oxímetros alimentados por IA que "sobreestimaron los niveles de oxígeno en sangre en pacientes de piel oscura, manejando mal su hipoxia".

Además, esta no es la primera vez que un grupo de líderes tecnológicos pide una pausa o una reevaluación seria del desarrollo de la IA. En marzo de 2023, Elon Musk y otros investigadores de IA firmaron un llamado a la acción similar pidiendo que se detuviera el desarrollo de IA hasta que se implementaran más regulaciones para ayudar a guiar el proceso. Verificar ¿ChatGPT aprende de las conversaciones de los usuarios?

¿Cuáles son los riesgos de la inteligencia artificial?

La mayoría de los riesgos asociados con la IA, al menos en este contexto, se relacionan con el desarrollo de tecnología de IA desbocada que excede las capacidades de los humanos, lo que eventualmente impulsa a su creador y acaba con la vida tal como la conocemos. Es una historia que ha sido cubierta innumerables veces en libros de ciencia ficción, pero la realidad ahora está más cerca de lo que pensamos.

Las capacidades de los grandes modelos de lenguaje (que admiten herramientas como ChatGPT) están creciendo exponencialmente. Sin embargo, herramientas como ChatGPT tienen muchos problemas, como sesgos inherentes, problemas de privacidad y alucinaciones de IA, sin mencionar su capacidad de fuga para operar fuera de los límites de los términos y condiciones programados.

Con modelos de lenguaje más grandes y más puntos de datos para contactar, junto con acceso a Internet y una mayor comprensión de los eventos actuales, los investigadores de IA temen que algún día, en palabras del director ejecutivo de OpenAI, "las cosas salgan mal".

¿Cómo regulan los gobiernos el desarrollo de la inteligencia artificial para frenar los riesgos?

Regular la inteligencia artificial es clave para prevenir riesgos. A principios de mayo de 2023, Sam Altman pidió una mayor regulación de la IA y afirmó que "la intervención regulatoria de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más poderosos".

Posteriormente, la UE anunció la Ley de Inteligencia Artificial, una regulación diseñada para proporcionar un marco mucho más sólido para el desarrollo de la IA en toda la UE (con muchas regulaciones que se extienden a otras jurisdicciones). Altmann inicialmente amenazó con sacar a OpenAI de la Unión Europea, pero luego se retractó de su amenaza y acordó que la empresa se adhiriera a la regulación de IA que había solicitado previamente.

De todos modos, está claro que es importante regular el desarrollo y los usos de la inteligencia artificial. Verificar ¿ChatGPT se convertirá en una amenaza para la ciberseguridad? Esto es lo que hay que tener en cuenta.

¿La inteligencia artificial destruirá a la humanidad?

Debido a que gran parte de la discusión sobre este tema se basa en suposiciones sobre la fuerza de las futuras versiones de IA, existen problemas sobre la longevidad y la fuerza que puede tener cualquier organización de IA. ¿Cuál es la mejor manera de organizar una industria que ya se mueve muy rápido y logra avances en el desarrollo todos los días?

Además, todavía existe cierto escepticismo sobre las capacidades de la IA en general y dónde terminará. Mientras que todos los que temen lo peor señalan que la IA se ha vuelto humana, otros señalan el hecho de que las versiones actuales de la IA ni siquiera pueden dar respuestas a preguntas computacionales básicas y que los autos sin conductor aún están muy lejos.

Es difícil no estar de acuerdo con todos los que miran hacia el futuro. Muchas de las personas que claman por los problemas que la IA podría causar están en el asiento del conductor, mirando hacia dónde nos dirigimos. Si son ellos los que piden que se regule la inteligencia artificial para protegernos de un futuro apocalíptico, puede que sea el momento de dar un paso. Puedes ver ahora Algunas razones para no confiar ciegamente en la IA.

Ir al botón superior