Es posible que en esta época, y mientras navegabas por las redes sociales, te hayas topado con uno de esos memes que comunican mucho con solo una imagen. Se trata de un hombre que, a punto de ser destruido por robots, logra salvarse en el último instante porque uno de ellos le recuerda que «siempre dijo gracias». Este gesto, aparentemente simple y casi instintivo, resulta ser lo que lo redime en un futuro distópico, al tiempo que provoca una sonrisa en el algoritmo que gestiona esa realidad.
Por supuesto, no estamos esperando que las máquinas tomen control absoluto de nuestro planeta. Sin embargo, el hecho de que esta noción haya cobrado popularidad en las redes no es una coincidencia. Desde tiempo atrás, el cine y la literatura han cultivado un imaginario colectivo lleno de tanto temor como fascinación ante la posibilidad de la inteligencia artificial. Lo realmente curioso es que, más allá de lo ficticio, hay una realidad muy palpable que subyace a este fenómeno: la interacción con inteligencia artificial (AI) no es gratuita en ningún sentido. Nuestra amabilidad, esos gestos rutinarios y casi automáticos, también tiene un costo significativo, y no el más bajo, que digamos.
La realidad detrás del funcionamiento de la IA es todo menos económica. Cuando utilizamos un chatbot que opera con inteligencia artificial, rara vez nos paramos a reflexionar sobre la cantidad de recursos que implica cada uno de nuestros mensajes. Herramientas como ChatGPT y otros sistemas similares se basan en modelos de lenguaje avanzados, también conocidos como LLM (Large Language Models), que existen gracias a centros de datos dotados de hardware altamente especializado, como las GPU NVIDIA H100. El proceso de ejecución de estos modelos, referenciado como inferencia, requiere una cantidad inmensa de capacidad de procesamiento y, por ende, un considerable consumo de electricidad.
A esta situación se suma la necesidad de inversión no solo para construir y mantener esa infraestructura, sino también el impacto ambiental que genera. Por poner un ejemplo, se sabe que muchos de estos centros consumen grandes volúmenes de agua para enfriar los sistemas, ya que este tipo de computación produce un calor extremo. Sin embargo, el costo real de cada solicitud sigue siendo un tema de debate, y las cifras pueden variar considerablemente entre diferentes empresas. Aun así, Sam Altman, el CEO de OpenAI, ha hecho una reveladora mención sobre este asunto.
El notable costo asociado a la amabilidad. Recientemente, un usuario en redes sociales preguntó cuántos recursos habría perdido OpenAI porque las personas añadieron «por favor» y «gracias» al interactuar con sus modelos. La respuesta de Altman no pasó desapercibida: «Docenas de millones de dólares bien gastados». Esta declaración se refiere no a una única interacción, sino a la acumulación de millones de interacciones amables a lo largo del tiempo.
Haga clic para ver el mensaje original en x
Es interesante observar que, a pesar del alto consumo energético y de los costes económicos asociados a estos procesos, Altman considera que tales gastos están justificados.
¿Realmente deberíamos ser amables con una inteligencia artificial? Tal como sucede en muchos ámbitos de la vida, hay individuos que prefieren ir directo al grano, mientras que otros optan por mantener un tono más educado y considerado. Esta elección probablemente se relaciona con cómo cada uno se comunica de manera habitual en su día a día. En este contexto, ser amables no es solo una cuestión de buenos modales, sino de estrategia efectiva.
Un estudio titulado «¿Deberíamos respetar los LLM? Un estudio interlingüístico de la cortesía rápida en el desempeño académico» investigó el papel que juega la cortesía en las indicaciones hacia los chatbots y dejó algunas conclusiones notables. Entre ellas, se destaca que los mensajes menos amables tienden a generar resultados desfavorables en relación al rendimiento. Sin embargo, es crucial aclarar que un exceso de amabilidad tampoco garantiza el éxito deseado.
Lo que parece ser evidente para aquellos que usan estos chatbots de manera frecuente —y ahora, más que nunca, a medida que pueden aprender y retener información de forma más precisa— es que pueden adaptarse al tono del usuario. Si aspiramos a tener interacciones más respetuosas, coherentes y un poco más humanas, probablemente deberíamos iniciar con un cambio en nuestra propia forma de comunicarnos.
Imágenes | X captura de pantalla
En | Las alucinaciones siguen siendo el talón de Aquiles de la IA: los últimos modelos de OpenAI inventan más de la cuenta