EMPATÍA COMPUTACIONAL
¿Deberíamos tener empatía con las aplicaciones de IA?
Sí y no, dependiendo del contexto y de la forma como entendemos y experimentamos la empatía, sentimiento humano que consiste en empatar emociones y sentimientos como el amor, odio, aprecio, desprecio, interés, desinterés, generosidad, egoísmo o respeto.
Solemos humanizar a las computadoras olvidando que son máquinas. Aplicar un criterio humano a fin de interactuar con las aplicaciones basadas en logaritmos de modo que interactuemos cada vez mejor con ellas tiene algún sentido, como veremos, pero no en un sentido pleno. ¿Por qué?
El experto Gustavo Entrala hizo un análisis casero sobre la intuición humana en la relacion "social" con las computadoras, y llegó a una conclusión que denominó "empatía computacional".
Comprobó que una actitud hostil activaba los sistemas de seguridad y defensa de la IA, la máquina se retraía y sus respuestas resultaban más cortas de lo usual, incluso pudiendo negarse a responder.
Sorprendentemente, parecía existir una especie de "punto ciego". Si él se expresaba de un modo demasiado amable con la IA, sentía que le generaba una reacción inesperada y suspicaz. Las respuestas se volvían largas y con poca substancia. Quizá confirmando información falsa o respondiendo pedidos que normalmente habría rechazado, solo por la seguridad del usuario. Su amabilidad parecía generarle una especie de "presión social", y sus respuestas tendían a ser complacientes.
Por decirlo así, se creaba una relación "psicológica". No solo respondía la pregunta. La manera como él interactuaba parecía determinar cómo ella respondía.
Si la consulta era fría, breve y directa, le proveía una respuesta concisa y directa. Si parecía hostil, respondía con indirectas para que suavizara el trato, como si le hubiera causado un conflicto semejante a corto circuito. Pero si la trataba con amabilidad, la respuesta irradiaba gentileza, semejante a una "gratificación social".
Y citó métricas de evaluación del Investigador de IA Aplicada, Ethan Mollick, que descubrió que, añadiendo "por favor", mejoraba los resultados, y "te ordeno" generaba aún mejores respuestas.
Sin embargo, sabemos que añadir "por favor" y "gracias" no conmueve a la IA. Ella es una máquina, no un ser humano. No obstante, debemos tener en consideracion que al insertar esas dos expresiones en el prompt, se refleja en un costo adicional de decenas de miles de dólares anuales. Por eso es mejor no incluirlas. La IA no es emotiva ni sentimental. Es un aparato, un equipo, una máquina, un instrumento.
Los resultados indicaron que es mejor ser directos y específicos al consultar con la IA, sin añadir componentes emotivos. Porque se trata, no de una empatía humana, sino una "empatía computacional", "artificial".
Como dice Gustavo, respecto a la interacción con la IA: "No se trata de ser amables o exigentes, sino de simplemente ser claros y específicos".
En conclusión, cuando somos amables con la IA, obtenemos resultados por debajo de lo óptimo y generamos un gasto innecesario de decenas de miles de dolares al proveedor del servicio.
La clave consiste en simplemente darle los datos específicos que necesita para entender claramente lo que necesitas y darte su mejor respuesta. No te sientas mal por no decirle: "Gracias", "Fuiste muy amable", "Te veo mañana", "Que descanses" ni "Eres un tesoro".
Claro, como dice Gustavo: "Es moralmente apropiado" decir: "¡Gracias!". Pero eso aplicaría en una carta dirigida a un ser humano, no a la interacción con la IA. En este caso, te sientes bien, pero no beneficias a la IA. No la hace más "humana". Solo eleva los costos de mantenimiento de los equipos de la organización que te ofrece el servicio (si lo multiplicas por miles de millones de usuarios que escriben "¡¡Gracias!!", termina siendo un gasto exorbitante que se va al agua).
_____
Al margen de lo arriba mencionado, pregunté directamente a la IA:
IO
¿Cuál es el costo o valor estimado en dólares por la energía que consume CharGPT por cada palabra o porción de texto procesado. Por ejemplo, ¿en cuánto se valorizan o cuantifican, según el consumo de energía, los tokens para las palabras "por favor", "gracias", "¿podrías decirme?", "Eres muy amable", "Atentamente".
IA
Calcular el costo exacto en dólares por la energía que consume ChatGPT (o cualquier modelo de lenguaje grande) para procesar una palabra o una frase como "por favor", "gracias", "¿podrías decirme?", "eres muy amable" o "atentamente", no es algo que se pueda precisar absolutamente para cada palabra específica.
Sin embargo, podemos hacer una estimación aproximada basada en estudios y datos conocidos sobre el consumo energético de modelos como GPT-3 o GPT-4.
Estimaciones de energía y costo por token (unidad básica de texto)
1. Unidad de medida
Los modelos como ChatGPT procesan texto en tokens, no en palabras. Un token es una unidad que puede ser tan pequeña como un carácter o tan grande como una palabra corta (por ejemplo, "por" es un token, y "por favor" puede ser dos tokens).
2. Consumo energético estimado
Según estimaciones de OpenAI y estudios independientes (como los de Hugging Face o la Universidad de Massachusetts), generar un token con GPT-3 o GPT-4 puede consumir entre 0.00002 y 0.0003 kWh dependiendo de la infraestructura, el modelo y el uso compartido de recursos.
3. Costo energético en dólares en 2025
Si tomamos un precio promedio de energía de $0.10 por kWh:
El costo por cada token seria de entre USD$0.00003 y USD$0.000002, lo que significa que frases como:
"Por favor" (2 tokens) cuestan entre $0.000004 y $0.00006.
"Gracias" (1 token) cuesta entre $0.000002 y $0.00003
"¿Podrías decirme?" (4 tokens: entre $0.000008 y $0.00012.
"Eres muy amable" (3 tokens): entre $0.000006 y $0.00009
"Atentamente" (1 token) entre $0.000002 y $0.00003.
Resumen práctico
Las expresiones amables y de cortesía que usamos al interactuar con ChatGPT tienen un costo energético ridículamente bajo, en el orden de milésimas o diezmilésimas de centavo de dólar. Cualquier mensaje lleno de cortesía tal vez cueste menos de $0.0001 USD en consumo energético.
Pero, bases de datos grandes pueden costar miles de veces más en términos energéticos y computacionales.
IO
Claro, entiendo que un solo token puede generar con GPT-3/GPT-4 un consumo aparentemente ridículo de entre 0.00002 y 0.0003 kWh.
No obstante, son millones los tokens que genera una sola persona en un mes, y son millones de personas las que usan GPT-3/GPT-4.
IA
Exactamente. Has identificado un punto clave: aunque el consumo por token es diminuto por unidad, un acumulado de millones de personas que interactúan constantemente introduciendo y recibiendo billones de tokens en todo el mundo genera un consumo energético altísimo.
La siguiente es una estimación global simplificada solo para dimensionarlo.
1. Suposiciones realistas para el cálculo
Promedio de tokens generados por usuario por día: 3,000 tokens (equivale a unas 2,500 palabras por día).
Usuarios activos diarios estimados en 2025: 100 millones (una cifra conservadora considerando el uso en plataformas como ChatGPT, API, y apps de terceros).
Total de tokens por día
3,000 tokens × 100 millones = 300 mil millones de tokens diarios (teniendo en cuenta solo la generación de texto).
2. Consumo energético total estimado (diario y mensual)
Si cada token consume entre 0.00002 y 0.0003 kWh, entonces:
Mínimo:
300,000,000,000 × 0.00002 kWh = 6,000,000 kWh/día (6 GWh/día).
Máximo:
300,000,000,000 × 0.0003 kWh = 90,000,000 kWh/día (90 GWh/día).
Mensual:
Entre 180 y 2,700 GWh al mes.
3. Comparación energética
Una ciudad pequeña o mediana de Ecuador o España podría consumir entre 300 y 1,000 GWh al mes.
En otras palabras, el uso global de modelos como ChatGPT podría igualar o superar el consumo eléctrico de ciudades enteras.
4. Costo económico aproximado
Suponiendo que la energía cuesta USD$0.10 USD/kWh:
Mínimo mensual
180 GWh × $0.10 = $18 millones de dólares por mes.
Máximo mensual
2,700 GWh × $0.10 = $270 millones de dólares por mes.
Aunque una frase como “gracias” realmente cuesta milésimas de centavo, el uso multiplicado de millones de tokens por cientos de millones de usuarios en el mundo convierte a la IA en una tecnología altamente costosa, tanto en energía como en dinero, lo que plantea importantes desafíos en sostenibilidad energética y económica, huella de carbono y costos operativos para las empresas.
Por eso los expertos investigan constantemente cómo hacer estos modelos más eficientes y menos dependientes de los grandes centros de datos.
Pero, ¿qué tiene que ver todo esto con la preparación de tus discursos?
Saber esto mejora tu entendimiento de lo que significa la empatía y para qué sirve. Te ayuda a tomar conciencia de tu trato y de lo que diferencia a una persona de una máquina.
Como dice Entrala: "¿Te parecería racional que conversaras con un martillo?". No, simplemente lo usas para martillar. No le pides permiso antes de usarlo ni le preguntas si le duele mucho la cabeza cada vez que golpeas los clavos, tampoco le das las gracias después de martillar ni las buenas noches antes de irte a dormir.
Por otro lado, no sería respetuoso, comprensivo ni amigable de tu parte tratar a tus oyentes como si fueran máquinas u objetos, ¿verdad?
A ellos sí deberías decirles: "Por favor", "Muchas gracias" y mirarlos al rostro para ver cómo reaccionan a tu discurso. No mirarlos podrían considerarlo como poco respetuoso o amable.
De modo que puedes practicar tu empatía y respeto teniendo consideración, no solo con tus oyentes, sino con el uso que das a la tecnología. No tienes que decirle "por favor" ni "gracias" a la IA. Así ayudas a reducir sus costos operativos y maximizar su desarrollo, lo cual redundará en tu propio beneficio practicando la empatía y la consideración.
Pero, por ejemplo, no porque el ayuntamiento de la ciudad te provee un equipo de barrenderos justificaría ensuciar tu vecindario o dejar que tu mascota haga lo que quiera sin que la controles, ¿verdad? El sentido de responsabilidad se fortalece cuando uno tiene en cuenta los pequeños detalles.
Un token solo cuesta unos $0.000002, pero todo suma. También tu sentido de empatía y respeto por los bienes ajenos. Si te acostumbras a desplegar empatía y respeto, lo reflejarás instintivamente ante tu auditorio.
_____
Prompt. Mensaje que das a la Inteligencia Artificial (IA) para que te dé una opinión o respuesta.Token. Elemento digital que representa cada palabra que se escribe o graba en la IA. El costo de cada millón de tokens del universo de usuarios puede rondar los USD$80.
ARRIBA