La cortesía es una virtud inherente a las interacciones humanas. Decir “por favor” y “gracias” es una buena costumbre, pero con la inteligencia artificial, como el caso de ChatGPT, no sería la mejor solución.
Según varias investigaciones y declaraciones de expertos, como el CEO de OpenAI, Sam Altman, usar estas dos expresiones tiene un costo considerablemente alto en términos de consumo energético, y, aunque en algunos casos puede mejorar las respuestas de la IA, hay razones para reconsiderar si vale la pena hacerlo.
Cuál es el impacto de ser cortés con la inteligencia artificial
ChatGPT, como muchos otros modelos de inteligencia artificial, funciona mediante un proceso complejo que involucra miles de operaciones computacionales para generar respuestas a las consultas de los usuarios. Cada vez que se realiza una solicitud, la IA debe procesar la entrada en su totalidad, dividiéndola en tokens (unidades más pequeñas de texto), lo que incrementa el tiempo y los recursos requeridos, especialmente cuando las interacciones son más largas y detalladas debido a la cortesía.
Sam Altman, CEO de OpenAI, abordó esta problemática en una conversación con un usuario en X. El usuario le preguntó sobre los costos derivados de las interacciones educadas con los modelos de lenguaje, a lo que Altman respondió con humor, estimando que OpenAI ha gastado “decenas de millones de dólares bien gastados” debido a las palabras extra que los usuarios incluyen por cortesía.
Este fenómeno es el resultado de cómo funciona el modelo de lenguaje de ChatGPT. Si se incluyen palabras adicionales en una consulta, como las mencionadas anteriormente, la cantidad de tokens que debe procesar la IA se incrementa, lo que exige más tiempo de cálculo, mayor uso de las unidades de procesamiento gráfico (GPU) y, en última instancia, una mayor carga sobre los servidores que operan el sistema.
Este consumo adicional de recursos puede parecer insignificante en un solo caso, pero cuando se multiplican estas interacciones por millones de usuarios diarios, los costos se disparan.
La huella ecológica de la IA
El consumo energético de la IA no se limita únicamente a los costos monetarios. También tiene una considerable huella ecológica, pues los centros de datos que albergan los servidores de modelos como ChatGPT requieren enormes cantidades de electricidad.
Según estimaciones del medio especializado Tom’s Hardware, cada consulta promedio a ChatGPT consume aproximadamente 0,3 vatios-hora (Wh) de electricidad. Aunque esto es una décima parte de lo que se estimaba anteriormente, sigue siendo un número considerable si se tiene en cuenta la escala de usuarios de la plataforma.
La preocupación por el impacto ambiental de la IA no es nueva. La Agencia Internacional de la Energía (AIE) proyecta que, para 2030, los centros de datos consumirán cerca de 945 teravatios-hora (TWh) de electricidad, lo que representa un aumento significativo con respecto a los 415 TWh actuales.
Además, los modelos de IA no solo demandan electricidad para funcionar, sino también para enfriar los servidores y evitar el sobrecalentamiento, lo que implica un consumo adicional de agua. Un informe de la Universidad de California reveló que hasta una respuesta de dos a tres palabras de la IA puede consumir entre 40 y 50 mililitros de agua en el proceso computacional.
¿Vale la pena ser cortes con la IA?
A pesar del alto costo energético, algunas investigaciones sugieren que ser educado al interactuar con la IA podría, en ciertos casos, mejorar la calidad de las respuestas generadas. Un estudio realizado por la Universidad de Cornell en Estados Unidos evaluó cómo las interacciones con IA variaban dependiendo de si se usaba un lenguaje cortés o descortés.
Los resultados demostraron que, al igual que en las interacciones humanas, el lenguaje cortés suele generar respuestas más eficaces y satisfactorias, mientras que las indicaciones groseras pueden desencadenar un rendimiento inferior del modelo.
Sin embargo, el estudio también puntualizó que no todo el lenguaje cortés es igual de efectivo. En ciertos contextos, un exceso de cortesía puede no ser beneficioso. En particular, los modelos de lenguaje parecen responder mejor a un nivel moderado de cortesía en idiomas como el inglés, mientras que en otras lenguas, como el japonés, un alto grado de formalidad parece ser más favorable.
Este hallazgo resalta que los modelos de IA no solo están influenciados por las normas humanas, sino que también reflejan las particularidades lingüísticas y culturales que adquieren a través de sus datos de entrenamiento.
El estudio concluyó que, aunque un lenguaje educado puede mejorar la interacción con la IA, este efecto no es siempre consistente y depende en gran medida del contexto cultural y del nivel de cortesía. Lo que sí es claro es que las interacciones educadas, como aquellas que incluyen “por favor” y “gracias”, pueden influir en cómo el modelo responde, pero no garantizan una mejora significativa en la calidad de las respuestas.