Más de 800 referentes tecnológicos y científicos de todo el mundo, entre ellos Steve Wozniak y los “padres de la inteligencia artificial”, Geoffrey Hinton y Yoshua Bengio, firmaron una carta abierta que solicita detener el avance de la denominada superinteligencia
El documento advierte sobre los peligros de un desarrollo sin control y reclama una pausa global hasta alcanzar un consenso científico que garantice su seguridad.
Una advertencia global sobre el futuro de la inteligencia artificial
La iniciativa fue impulsada por el Future of Life Institute (FLI), una organización dedicada a promover el desarrollo responsable de la tecnología. Entre los firmantes se encuentran, además de Wozniak y los pioneros de la IA, figuras públicas como el príncipe Harry, Meghan Markle y el exasesor de Donald Trump, Steve Bannon.
Según TN , la carta plantea la necesidad de establecer un impasse real, no simbólico, en el desarrollo de los sistemas avanzados de IA, hasta que la comunidad científica determine cómo evitar que estas tecnologías causen daños a las personas o sean utilizadas con fines maliciosos.
El físico Anthony Aguirre, director del FLI, afirmó que “casi nadie ha preguntado al resto de la humanidad si esto es realmente lo que queremos”, señalando una desconexión entre las empresas de IA y las expectativas sociales.
Qué es la superinteligencia o “IA general”
La llamada superinteligencia, también conocida como IA fuerte o AGI (Artificial General Intelligence), representa una etapa en la que los sistemas artificiales podrían igualar o incluso superar la capacidad cognitiva humana. A diferencia de la IA tradicional —como los modelos generativos actuales—, una AGI podría razonar, planificar y aprender múltiples tareas, del mismo modo que una persona.
El temor radica en que una máquina con estas capacidades podría tomar decisiones impredecibles o actuar de forma autónoma, generando dilemas éticos y de seguridad sin precedentes.
La posición de los expertos: entre la cautela y el escepticismo
El investigador Yoshua Bengio advirtió que los sistemas de IA podrían “superar a los humanos en la mayoría de las tareas cognitivas en tan solo unos años”, lo que exige medidas urgentes de regulación y control.
Por su parte, la doctora en Ciencias de la Computación Marcela Riccillo, de la Universidad de Buenos Aires, llamó a mantener una visión equilibrada. En diálogo con TN Tecno, explicó que actualmente no existen tecnologías capaces de desarrollar una verdadera inteligencia artificial general.
“Las máquinas no entienden ni sienten lo que crean. Solo procesan datos y generan relaciones matemáticas. No hay indicios de una conciencia artificial”, sostuvo la especialista, quien pidió evitar el sensacionalismo que rodea al debate.
¿Regular o frenar el avance? El dilema del siglo
Un estudio del FLI reveló que el 64% de los usuarios adultos cree que la superinteligencia no debería desarrollarse hasta ser completamente segura, y un 73% pide leyes más estrictas para regularla.
La carta firmada por Wozniak, Hinton y Bengio no busca frenar la innovación, sino garantizar que la evolución tecnológica sea compatible con los valores humanos. Como concluyó Anthony Aguirre:
“¿Queremos realmente sistemas que sustituyan a los humanos, o preferimos definir nosotros mismos los límites de la inteligencia que estamos creando?”.
El debate sobre la superinteligencia recién comienza. Mientras las grandes compañías tecnológicas aceleran sus avances, científicos y referentes internacionales insisten en que la humanidad debe decidir —antes de que sea tarde— hasta dónde permitirá que la inteligencia artificial evolucione.




