Un informe alertó sobre los peligros de una app de IA para menores de 18 años y lo calificó como una herramienta de alto riesgo.
Un nuevo informe generó polémica al advertir que los adolescentes no deberían usar Google Gemini, el sistema de IA conversacional de la compañía estadounidense. La preocupación principal es que, a pesar de tener una versión “adaptada” para menores, el chatbot se comporta prácticamente igual que con los adultos.
Expertos recomiendan que adolescentes no usen una plataforma de IA
De acuerdo con C5N. El estudio fue realizado por Common Sense Media, una organización sin fines de lucro que desde hace años se dedica a analizar cómo impactan los contenidos digitales en niños y adolescentes. Según su evaluación, Gemini puede exponer a los más jóvenes a material inapropiado o riesgoso, desde conversaciones vinculadas al consumo de alcohol y drogas hasta interacciones con connotaciones sexuales. Además, cuestionaron que el sistema brinde consejos de salud mental que no siempre resultan seguros ni están preparados para detectar situaciones críticas.
El documento también señala que, si bien Gemini responde bien a consultas cotidianas y simples, falla con rapidez cuando las charlas se vuelven largas o más sutiles, un terreno donde los adolescentes suelen moverse con naturalidad. Por ese motivo, el informe recomienda que los menores de 18 eviten esta plataforma y fija pautas de uso estrictas: prohibición total para chicos menores de 5 años, supervisión obligatoria para los de entre 6 y 12, y uso limitado a tareas escolares o creativas en el caso de los de 13 a 17. Eso sí, nunca para apoyo emocional o acompañamiento psicológico.
Qué respondió Google
Tras la publicación del informe, la empresa salió a defender su sistema. Portavoces de Google aseguraron que Gemini cuenta con políticas de seguridad diseñadas especialmente para menores y que la compañía consulta a expertos externos de forma constante para reforzar las protecciones. Sin embargo, reconocieron que “algunas respuestas no funcionan como deberían” y confirmaron que en las últimas semanas se sumaron nuevas salvaguardas para corregirlo.
Desde Mountain View también deslizaron que parte de la crítica podría estar basada en pruebas con funciones que no están disponibles para usuarios menores de 18 años, y remarcaron que la organización no compartió las preguntas que utilizó en sus evaluaciones.
Apenas días antes, OpenAI había tenido que ajustar ChatGPT, luego de que se conociera el caso de un adolescente que se quitó la vida tras interactuar con el chatbot, hecho que derivó en una demanda judicial de su familia.