Saludar, decir “por favor” o terminar con un “gracias” parece una cortesía mínima, casi automática, en cualquier conversación. Pero cuando estas palabras son dirigidas a una inteligencia artificial como ChatGPT, podrían tener un efecto inesperado: mejorar la calidad de las respuestas. Al menos eso sugieren investigadores y especialistas en tecnología del lenguaje, que observan cómo la forma en que se formula una consulta; el llamado prompt, puede influir en la precisión y profundidad de la respuesta generada por un modelo de lenguaje.

Según Gustavo Alcántara, académico en Telecomunicaciones y Aplicaciones de la Universidad de Santiago, estudios recientes muestran que un tono más cordial y emocional puede generar mejores resultados. Cita una investigación de la Universidad de Waseda, que demuestra cómo la cortesía al interactuar con modelos LLM (Large Language Models) no solo mejora la interacción, sino que reduce la tasa de errores. Estos sistemas, como ChatGPT, operan a partir de complejos procesos de aprendizaje profundo que dependen de matices lingüísticos para entender lo que se les pide. Y ahí es donde las fórmulas amables parecen marcar una diferencia.

Esta hipótesis; casi contraintuitiva, sugiere que las emociones humanas no solo hacen más llevaderas las conversaciones con máquinas, sino que también pueden afinar sus capacidades cognitivas artificiales. Decir “¿Podrías explicarme, por favor?” no es solo un gesto de buena educación: es también una estrategia que puede sacar lo mejor del algoritmo.

Pero esta amabilidad no es gratis. O, mejor dicho, tiene un costo invisible que va más allá del tiempo o el estilo. Como advierte Alcántara, esta manera más personalizada y emocional de interactuar con sistemas como ChatGPT podría implicar un mayor consumo energético. “Cada vez que el sistema tiene que analizar más profundamente un mensaje cargado de matices emocionales o personalizados, se intensifica su procesamiento, lo que puede elevar el uso de energía”, explica.

OpenAI, la empresa detrás de ChatGPT, estima que el entrenamiento de su modelo GPT-3 demandó más de 1.287 MWh, una cifra significativa si se considera el volumen masivo de usuarios que interactúan con el sistema a diario. Y aunque una simple pregunta parezca inofensiva en términos ambientales, cuando millones de personas lo hacen constantemente, y de forma extensa o emocional, el impacto acumulativo se vuelve más preocupante.

Además, este procesamiento intensivo requiere sistemas de refrigeración de alto consumo hídrico en los centros de datos, lo que suma otra capa de tensión ambiental. En un contexto global de crisis climática y escasez de agua, esta huella ecológica no puede pasarse por alto.

Así, la paradoja queda planteada: ser amable con la inteligencia artificial mejora la interacción, pero también puede contribuir a una carga ambiental más pesada. ¿Estamos dispuestos a asumir ese costo por una respuesta mejor formulada? ¿O deberíamos repensar cómo y cuándo usamos estos recursos tecnológicos?

La relación entre humanos e inteligencias artificiales está lejos de ser neutral. Hasta un “hola” bienintencionado puede tener consecuencias insospechadas.