La inteligencia humana, la verdadera materia prima de la IA.
- Despacho Dip. Martin Yeza
- 29 jun
- 4 Min. de lectura
Actualizado: 14 jul
Newsletter #3 Democracia.exe — julio 2025
por Martín Yeza, para Colossus Lab

En el último newsletter analizamos cómo los algoritmos comenzaron moldeando nuestro comportamiento, volviéndonos más predecibles y complacientes, y cómo ahora también están moldeando a las inteligencias artificiales: más correctas, menos sorprendentes. Más eficaces, menos libres.
Hablamos de cómo esa lógica de optimización, que premia lo útil por sobre la verdad, puede estar afectando el pensamiento y la creatividad.
Esta vez, el foco está un paso más atrás: ¿Cuál es la verdadera materia prima de la inteligencia
artificial?
La respuesta más común es: los datos. Pero creo que esa afirmación es incorrecta.
Los datos no existen por sí solos. No brotan del suelo. No son un recurso pasivo.
Cada dato significativo proviene de una decisión, una observación, una pregunta, un error.
Es decir: de inteligencia humana.
Durante años se repitió que “los datos son el nuevo petróleo”. La comparación es imprecisa. El petróleo se extrae. Se refina. Se quema.
Los datos, en cambio, se generan con actividad humana. Una búsqueda, una playlist, una línea de código, una reseña, una selfie: todos son productos de pensamiento. No son materia inerte.
Son rastros de razonamiento, preferencia, lenguaje.
La IA, en su esencia, se entrena sobre estos rastros acumulados. No sobre información neutral, sino sobre elecciones hechas por personas.
El problema de la consanguinidad digital
A medida que los modelos generan contenido, ese contenido empieza a utilizarse como insumo para entrenar nuevos modelos.
El proceso es eficiente, pero tiene consecuencias. El fenómeno ya fue identificado: model collapse.
Un paper publicado en arXiv por investigadores de Oxford y Cambridge documenta cómo el entrenamiento de modelos con outputs generados por otras IA provoca una pérdida de diversidad, ambigüedad y capacidad de generalización.
Cuando más del 30% de los datos de entrenamiento provienen de contenido sintético, los modelos tienden a repetirse, volverse literales y perder matices.
El sistema se retroalimenta con sus propios límites.
Hasta ahora, los modelos se entrenaron con una acumulación de contenido generado por humanos: libros, artículos, imágenes, discusiones, código.
Esa reserva no es infinita.
Según un estudio de Epoch AI, los datos de alta calidad podrían agotarse hacia 2026-2027.
La proyección se basa en el ritmo actual de expansión de los modelos y la disponibilidad
limitada de información útil no redundante.
La conclusión técnica es sencilla: cuando los datos humanos ya estén procesados, los modelos deberán encontrar nuevas fuentes de entrenamiento. La más probable sigue siendo la misma: nosotros.
El cerebro humano consume 20 watts de potencia constante. Con eso mantiene lenguaje, memoria, razonamiento, imaginación. A lo largo de una vida promedio (75 años), eso equivale a
unos 13.140 kilovatios-hora (13,1 MWh).
Entrenar GPT-3 demandó unos 1.287 MWh. Lo mismo que consumirían 100 cerebros humanos durante toda su vida. GPT-4, según estimaciones indirectas, habría requerido entre 4.000 y
10.000 MWh, es decir, entre 300 y 750 vidas cognitivas humanas en energía.
Y eso es solo el entrenamiento. El uso continuo es mucho más alto.
Según la Agencia Internacional de Energía (IEA), los sistemas de IA podrían superar los 134 teravatios-hora anuales hacia 2027 —más que toda la demanda eléctrica de Argentina en 2022.
Estamos replicando un cerebro que consume 20 watts con infraestructuras que demandan lo mismo que un país entero.
Matrix: ¿Cuán lejos estás?
En Matrix, las máquinas utilizaban a los humanos como baterías. Hoy, millones de personas —al escribir, buscar, corregir o decidir— producen material de entrenamiento para sistemas que podrían reemplazarlos. No se extrae electricidad. Se extrae lenguaje, estilo, inferencias. La producción cognitiva individual se transforma en insumo para modelos estadísticos.
El cerebro humano es compacto, autónomo, silencioso. Funciona sin ventiladores, sin refrigeración líquida, sin GPU. No requiere escalabilidad para generar ironía, resolver problemas o inventar soluciones. Antes de intentar superarlo, conviene entender qué estamos dejando atrás.
La carrera por romper el límite: AGI
La dependencia de datos humanos, el problema de la consanguinidad y la escasez de contenido original explican por qué tantas empresas compiten por alcanzar la AGI. AGI significa: inteligencia artificial general: Una IA capaz de razonar, adaptarse y generar conocimiento nuevo sin necesidad de datos humanos. Podría producir información sintética con criterios propios.
Existen alternativas en desarrollo: datos sintéticos más sofisticados, nuevas fuentes multimodales, algoritmos más eficientes. Pero todas estas soluciones siguen dependiendo, en última instancia, de criterios y patrones que derivan de inteligencia humana. Pueden estirar el recurso, refinarlo, usarlo mejor. No lo reemplazan.
Por eso la AGI resolvería el problema de la degradación. No necesitaría alimentarse de nosotros. Por eso muchos especialistas plantean reservas sobre su desarrollo. Si esa frontera se cruza, el valor diferencial de la inteligencia humana podría diluirse rápidamente. Por ahora, eso no ocurrió.
Y mientras no ocurra, la inteligencia humana sigue siendo un recurso insustituible.
¿A quién le pertenece la inteligencia humana que se produce?
Si la inteligencia natural es escasa y tiene valor, su origen importa. Y también su administración.
¿Tiene el mismo valor una red escolar que genera pensamiento creativo, que otra que reproduce manuales? ¿Quién mide ese valor? ¿Quién lo captura? ¿Quién lo representa?
La pregunta es política y económica. Si el pensamiento humano es materia prima, y su producción es limitada, entonces se vuelve un activo estratégico: ¿Individual? ¿Colectivo? ¿Municipal? ¿Nacional?
¿Vamos hacia una gobernanza de la inteligencia como recurso común?
¿O hacia una lógica donde unos producen y otros entrenan sus modelos con eso?
Naciones como reservas de inteligencia natural
Durante siglos, las naciones compitieron por recursos naturales y posiciones geopolíticas.
Hoy podrían empezar a competir por otra cosa: capacidad de generar inteligencia humana
valiosa.
No solo talento técnico. No solo capital humano. Sino diversidad cognitiva estructural.
Capacidad de razonar fuera del guión. De formular preguntas originales.
En ese escenario, la soberanía cognitiva adquiere una dimensión nueva.
Y los países que no lo entiendan corren el riesgo de convertirse en exportadores involuntarios de pensamiento predecible. Si dejamos de producir pensamiento original, los sistemas aprenderán a parecerse a nosotros... justo cuando nosotros estamos empezando a parecernos a ellos.
Cerrar el círculo o abrirlo
Lo que está en juego no es solo qué IA queremos tener. Es qué clase de inteligencia natural estamos dispuestos a preservar, incluso cuál queremos desarrollar.
No se trata solo de regular modelos. Se trata de proteger una capacidad humana: pensar con criterio propio.
La próxima frontera no será tecnológica. Será cognitiva. Y no se disputará en laboratorios, sino en escuelas, medios, conversaciones, hábitos. En la forma en que razonamos con otros y frente
a otros.
Hasta la semana que viene.
Martín Yeza


Muy interesante todo esto sobre la dependencia de la inteligencia humana. Me pregunto qué podemos hacer en Argentina para generar políticas y entornos que protejan esa capacidad creativa y crítica. ¿Cómo evitar convertirnos en simples exportadores de pensamiento predecible?