Sam Altman, director ejecutivo de OpenAI y creador de ChatGPT, volvió a encender las alarmas sobre los peligros que puede traer el crecimiento acelerado de la inteligencia artificial.
Según el empresario, si no existen reglas claras ni medidas de seguridad sólidas, la humanidad podría enfrentar amenazas sin precedentes.
Creador de ChatGPT reveló los principales 3 riesgos de la inteligencia artificial
De acuerdo con C5N. El avance de estas tecnologías genera oportunidades extraordinarias en campos como la medicina, la educación y la economía.
Pese a eso, el mismo desarrollo que promete transformar la vida diaria también puede traer riesgos que deben ser atendidos con urgencia, ya que no se trata de escenarios futuristas sino de realidades cada vez más cercanas.
En distintas entrevistas, insistió en que el debate público y global es indispensable.
Desde su mirada, el rumbo de la IA no debería depender solo de empresas privadas, sino también de gobiernos y organismos internacionales capaces de regular un fenómeno que crece más rápido que cualquier marco legal existente.
El uso de la inteligencia artificial por actores maliciosos
El primer riesgo que Altman identificó es la posibilidad de que delincuentes, terroristas o gobiernos hostiles se aprovechen de sistemas avanzados de inteligencia artificial para fines destructivos.
Mencionó como ejemplos la creación de armas biológicas, ataques a infraestructuras críticas como redes eléctricas o acciones capaces de desestabilizar el sistema financiero mundial.
La preocupación se centra en que la biotecnología y la ciberseguridad están evolucionando a gran velocidad gracias a la IA.
Frente a esto, los mecanismos de defensa tradicionales podrían no ser suficientes, dejando a sociedades enteras vulnerables ante ataques sin precedentes.
La pérdida de control humano
Otro de los peligros que subrayó el CEO de OpenAI es la posibilidad de perder el control sobre sistemas muy poderosos.
Aunque considera que este escenario es menos probable, las consecuencias serían devastadoras si las máquinas dejan de responder a órdenes humanas o establecen sus propios objetivos.
Para evitarlo, equipos de investigación en todo el mundo trabajan en lo que se conoce como alineación de IA.
Este campo busca garantizar que los modelos mantengan un comportamiento alineado con los valores humanos y sigan actuando bajo parámetros definidos por las personas.
La “dominación silenciosa”
El tercer punto señalado por Altman es más sutil, pero no menos inquietante. Lo definió como una “dominación silenciosa”: un proceso gradual en el que la inteligencia artificial comienza a influir cada vez más en las decisiones cotidianas, hasta el punto de generar una dependencia excesiva tanto en ciudadanos comunes como en líderes políticos y empresariales.
Este fenómeno plantea un dilema de gobernanza, ya que la complejidad y opacidad de los sistemas hace más difícil entender cómo toman decisiones. La pregunta de fondo es quién conserva realmente el control: los humanos que los utilizan o las máquinas que procesan y generan las respuestas.