El Future of Life Institute coordina la iniciativa en la que también participan los duques de Sussex, Harry y Meghan
Líderes mundiales piden frenar el desarrollo de la superinteligencia artificial por riesgos para la humanidad. (REUTERS/Albert Gea)
Fuente: infobae.com
=> Recibir por Whatsapp las noticias destacadas
Algunas de las figuras más influyentes de la tecnología, la ciencia y la política firmaron una carta abierta para solicitar la detención del desarrollo de las llamadas super inteligencia artificial.
Esta iniciativa, coordinada por el Future of Life Institute (FLI), cuenta entre los firmantes con Steve Wozniak, cofundador de Apple, y Elon Musk, fundador de Tesla y SpaceX, así como un amplio abanico de expertos en IA, premios Nobel y personalidades con pensamientos desde conservadores hasta progresistas y líderes religiosos.
Qué se pide en la carta para detener la IA
Lo que diferencia a esta petición de otras iniciativas anteriores es el grado de urgencia y la rotundidad de las medidas reclamadas. Los firmantes solicitan una prohibición inmediata y total en el desarrollo de sistemas de superinteligencia artificial, término que hace referencia a máquinas hipotéticas capaces de superar al ser humano en todas las capacidades cognitivas.
Esta prohibición debería mantenerse, según la carta, “hasta que exista un consenso científico amplio sobre su seguridad y se garantice el respaldo público”. No se plantea solo una pausa temporal, sino que la tecnología no debe avanzar hasta que se pueda constatar que no pone en peligro a la sociedad.
El Future of Life Institute coordina la iniciativa, respaldada por Elon Musk, Steve Wozniak y premios Nobel. (Imagen Ilustrativa Infobae)
Los impulsores exigen que el desarrollo de la IA se realice bajo una vigilancia transparente, respaldada por procedimientos democráticos y abiertos, de modo que no quede limitada a la decisión de un puñado de empresas tecnológicas con intereses particulares.
El texto enfatiza la necesidad de establecer procesos cooperativos y públicos para la regulación, en vez de que el futuro de estas tecnologías dependa únicamente de grandes corporaciones como OpenAI, Google, Meta o xAI, involucradas actualmente en la competencia por alcanzar la inteligencia artificial general (AGI).
Cuáles son las preocupaciones que motivan a esta petición
La preocupación central radica en la posibilidad real de perder el control sobre unas máquinas cada vez más autónomas. “¿Debemos arriesgarnos a perder el control de nuestra civilización?“, dice la carta publicada por Future of Life Institute.
Los expertos advierten que la velocidad a la que evoluciona la IA, sin abastecimiento de normas claras ni consensos públicos, podría desembocar en consecuencias imprevisibles o incluso peligrosas para la humanidad. Además del potencial para el bien, estas tecnologías pueden usarse para engañar, manipular o amplificar influencias negativas.
Expertos advierten sobre la pérdida de control y los peligros imprevisibles de la inteligencia artificial autónoma. (Imagen Ilustrativa Infobae)
Según un sondeo del propio Future of Life Institute realizado en septiembre y octubre de 2025, el 64 % de los adultos estadounidenses opina que no debe crearse superinteligencia artificial hasta que sea segura y controlable, y un 69 % considera que el gobierno no está haciendo lo suficiente para regular la IA.
Las cifras de Gallup van en la misma dirección: el 80 % de los encuestados respalda la necesidad de mantener reglas estrictas para la seguridad y los datos, incluso si esto ralentiza el desarrollo tecnológico. Solo un 9 % de los adultos estadounidenses apoyaría acelerar el avance de la IA, aunque esto suponga relajar los estándares de seguridad.
El rechazo a un desarrollo sin restricciones es transversal, con un 88 % de demócratas, 79 % de republicanos y amplias mayorías de independientes a favor de las normas de seguridad.
El FLI, en voz de su director Anthony Aguirre, enfatiza que este no es solo un problema técnico, sino también democrático. “Este camino ha sido elegido por las empresas y el sistema económico que las impulsa, pero casi nadie ha preguntado al resto de la humanidad si esto es lo que queremos”.
La carta reúne a científicos, empresarios, políticos y líderes religiosos en un frente común por la seguridad en IA. (Imagen Ilustrativa Infobae)
Quiénes han firmado esta carta
La firma de la carta no solo reúne a científicos especializados en IA como Geoffrey Hinton, Yoshua Bengio y Stuart Russell —autores de libros de referencia y premios Turing— sino también a miembros del mundo político, empresarial y social.
Entre los más de 800 participantes aparecen el empresario Richard Branson, los duques de Sussex, Harry y Meghan, el exasesor de Donald Trump Steve Bannon, la exembajadora de EE. UU. ante la ONU Susan Rice o el asesor papal Paolo Benanti. Cinco premios Nobel y celebridades de la cultura como Stephen Fry prestan su respaldo, formando un frente insólito en temas tecnológicos.
Destaca la participación transversal de figuras que normalmente distan ideológicamente, desde líderes progresistas hasta conservadores y referentes religiosos, señalando que la preocupación por la inteligencia artificial es un asunto que traspasa fronteras políticas y culturales.