Su cortesía hacia ChatGPT está aumentando los costos de energía de OpenAI 

Todo el mundo ha oído la expresión “La cortesía no cuesta nada”, pero con la llegada de los chatbots con IA, es posible que haya que revisarla.

Recientemente, alguien en X se preguntó cuánto gasta OpenAI en electricidad en sus centros de datos para procesar términos corteses como "por favor" y "gracias" cuando las personas interactúan con su chatbot ChatGPT .

Para sorpresa probable del cartel, OpenAI Sam Altman respondió diciendo: "Decenas de millones de dólares bien gastados", antes de agregar: "Nunca se sabe".

Muchas personas que interactúan con chatbots de IA, ya sea a través de texto o voz, encuentran la experiencia de conversación tan realista que les parece normal solicitar y responder cortésmente. Pero, como confirmó Altman, esos pequeños extras deben ser procesados ​​por sus herramientas de inteligencia artificial, que consumen mucha energía, lo que significa más costos para la empresa y también para el medio ambiente, ya que la mayoría de los centros de datos todavía funcionan con electricidad generada a partir de combustibles fósiles.

Piénselo. Cada frase cortés aumenta la carga de procesamiento que, cuando se multiplica en miles de millones de consultas, resulta en un uso adicional significativo de energía.

Una encuesta realizada en EE. UU. el año pasado encontró que el 67% de los encuestados informaron ser corteses con los chatbots de IA, lo que sugiere que al 33% le gusta saltarse las sutilezas e ir directo al grano.

Entonces, ¿deberíamos intentar dejar los modales y ser menos corteses en nuestros intercambios con ChatGPT y otros chatbots de IA? O simplemente seguir siendo educado, a pesar de los inconvenientes.

Una investigación realizada el año pasado encontró que el nivel de cortesía bien puede afectar la calidad del modelo de lenguaje grande (LLM) que entrega respuestas a través de los chatbots.

"Las indicaciones descorteses pueden provocar un deterioro en el rendimiento del modelo, incluidas generaciones que contienen errores, sesgos más fuertes y omisión de información", concluyeron los investigadores.

Sobre el mismo tema, un reportero de TechRadar que recientemente experimentó conversando con ChatGPT de una manera menos cortés descubrió que las respuestas "parecían menos útiles".

Para muchos, ser menos educado con los chatbots de IA puede ser un desafío, e incluso podría hacer mucho más que simplemente reducir los costos de energía de OpenAI y aliviar la carga sobre el medio ambiente. El temor entre algunos que estudian el asunto es que si se vuelve socialmente aceptable ser directo con los chatbots de IA, ese comportamiento podría comenzar afiltrarse en las interacciones interpersonales , haciendo potencialmente que los intercambios humanos sean menos corteses con el tiempo.