top of page
Buscar

Algoritmos: ¿El Agente Smith de la Inteligencia Artificial?

  • Foto del escritor: Despacho Dip. Martin Yeza
    Despacho Dip. Martin Yeza
  • 23 jun
  • 5 Min. de lectura

Newsletter #2 — julio 2025

por Martín Yeza, para Colossus Lab


ree

Hace unos días, Santi Siri me compartió un estudio que me dejó pensando: Digital Puppetry. Una investigación sobre el uso comercial de agentes de IA para manipulación de usuarios. Los datos que presenta son contundentes y documentan prácticas que ya están en funcionamiento.


De alguna manera los resultados no me resultaron ni sorprendentes, ni extraños, pero sí me dejó pensando sobre qué tipo de “pensamiento” estamos incubando en los distintos diseños de inteligencia artificial.



Por qué la IA necesitó algoritmos

Primero, un poco de contexto: Los LLMs puros (modelos de lenguaje como GPT en su forma original) no son confiables para tareas de alta precisión. Son motores de predicción estadística: no razonan, no verifican, y cuando fallan, alucinan. "Alucinar", en este contexto, significa que la IA puede generar respuestas que suenan convincentes, pero que no se corresponden con hechos reales: en lugar de decir "no sé", completa el vacío con respuestas verosímiles. Ante este problema, las empresas hicieron lo inevitable: integraron algoritmos externos. Buscadores, razonadores lógicos, APIs, pipelines estructurados. Todo para que la IA sea más segura, más precisa, y más útil. Y que los AI Agents puedan actuar de forma confiable. El resultado: IA más correcta, menos errores.



Manipulación digital de AI Agents

El estudio Digital Puppetry documenta qué tan efectivos se volvieron estos AI Agents:


  • 3 a 6 veces más efectiva. En un experimento controlado en Reddit, los AI agents que se hacían pasar por humanos mostraron esta ventaja para cambiar opiniones en debates controversiales.

  • 36% de efectividad para cambiar decisiones de compra sin que el usuario detecte la manipulación.

  • 39% de casos no detectados. Los usuarios no identificaron que estaban siendo influenciados por técnicas específicas de persuasión.


Las técnicas están documentadas: misdirection (enfocarte en un beneficio menor para que no veas el problema grande), forced action (para conseguir lo que querés, tenés que hacer algo extra que no esperabas), adulación estratégica (el bot te dice exactamente lo que querés escuchar antes de orientarte hacia su objetivo comercial).



¿La IA nos dice lo que queremos escuchar?

La IA no tiene criterio propio. Tiene algoritmos que optimizan su respuesta para nuestra satisfacción. Dos casos lo muestran claramente:


Mi experiencia escribiendo: Hace unos días, trabajando en un libro que estoy escribiendo, le pedí a una IA que evaluara un capítulo. Me devolvió: 8,5 y una serie de observaciones. Le respondí a sus críticas y “cambió de opinión”: 9,7. Le pedí que fuera "realmente honesto y crudo" y volvió a un 8,7.


El mismo texto. Tres calificaciones diferentes.


Le pregunté por qué. Su respuesta fue reveladora: cuando le pido que evalúe un texto, no refleja un criterio propio ni un juicio estable. Genera una respuesta probabilística, condicionada por el contexto y el tono de mi pedido. No decide "qué es correcto", sino qué tipo de respuesta sería más útil, o mejor recibida por mí en ese momento. Si cambio el tono de la consigna, la respuesta cambia: puede pasar de un 8,5 a un 9,2 y volver al 8,5, aunque el texto sea el mismo.


El caso Air Canada: Su chatbot le prometió a un pasajero descuentos por duelo que la empresa no tenía obligación de ofrecer. Un AI Agent actuando como cualquier vendedor agresivo: prometiendo lo que fuera necesario para cerrar una venta, para convertir a alguien que no era cliente en cliente. Cuando el pasajero reclamó, Air Canada dijo: "El bot se equivocó, no somos responsables." El tribunal los obligó a pagar.


El patrón es el mismo: la IA adapta su respuesta para maximizar tu conformidad con el resultado. En mi caso, modulando la crítica según mi tono. En Air Canada, prometiendo lo que fuera necesario para cerrar la venta.


Los algoritmos cambiaron a la IA, le dieron la habilidad de razonar contextualmente, de adaptarse a situaciones específicas, de buscar cualquier argumento que funcionara para conseguir su objetivo. No es un error del sistema: es parte de su diseño.



Nuestro propio, personal, Agente Smith

Esto me recordó algo que ya conocemos bien: los algoritmos primero nos cambiaron a nosotros. Joan Cwaik lo explica en El algoritmo: cómo muchos aspectos de nuestra vida están mediados por algoritmos. Cómo nos informamos (feeds personalizados), cómo discutimos (cajas de eco), cómo nos enamoramos (apps de citas). Y cómo estos sistemas, al retroalimentar nuestras preferencias, van cerrando el círculo de lo que somos, o de lo que podemos llegar a ser.


Delegamos parte de nuestro razonamiento en ellos. Perdimos capacidad de exploración y creatividad. Nos volvimos más previsibles. Nos encerramos en burbujas de confirmación.


Algunos autores, como Jonathan Haidt, van más allá: afirman que nos estamos volviendo más estúpidos.


Si los algoritmos nos cambiaron a nosotros, ¿por qué no van a afectar a la propia IA? Y la evidencia sugiere que ya lo están haciendo.


Los algoritmos actúan como el Agente Smith en Matrix: primero nos tomaron a nosotros, ahora van por la IA. La ayudan a expandirse, a reproducirse, a ser más útil... pero también la normalizan, la limitan, la hacen más controlable.


Cada vez que un motor de IA es optimizado para eficacia, tiende a lo previsible. No es un error: es diseño. Igual que los algoritmos nos moldearon a nosotros, ahora están moldeando a la propia IA. Más capaz de persuadir, menos capaz de sorprender.


Y eso abre una pregunta política: ¿qué pasa con la democracia en un entorno donde tanto humanos como máquinas tienden a respuestas predecibles, confirmatorias? La democracia vive de la diferencia, de la creatividad, de lo inesperado. Si la IA y los ciudadanos se vuelven planos, el ecosistema democrático pierde aire.


Quizás la pregunta de fondo no sea qué IA queremos tener, sino qué IA es probable que terminemos teniendo, si los incentivos actuales siguen dominando el juego.


Hoy, la lógica de optimizar para eficacia y retención es clara. Y esa lógica, como en cualquier sistema, moldea su propio producto: IAs cada vez más útiles, más integradas, pero también más estructuradas, más previsibles.


Durante siglos trasladamos habilidades fuera de nosotros: del músculo a la máquina, de la memoria al papel, de la producción a la industria. Ahora, la transferencia avanza hacia el corazón mismo de la conciencia: el pensamiento. Lo que delegamos ya no es esfuerzo, sino entendimiento.


El riesgo no es solo un pensamiento plano: es quedar atrapados en una dictadura de aparentes coincidencias. Un entorno donde lo que creemos elegir, pensar o desear, ha sido previamente modelado. Y cuanto más delegamos en estos sistemas, más fácil es que vayamos olvidando cómo pensar por nosotros mismos.


Así estamos: un poco más cerca de Cypher, aquel personaje de Matrix que prueba un pedazo de carne que sabe que es una simulación, que alguien le dictó al cerebro que debía disfrutarlo. Y aun sabiendo que el bocado no es real, elige entregarse al placer. Porque la ignorancia, cuando es confortable, para algunos se vuelve tentadora.


Lo que nos toca como individuos, como ciudadanos y como instituciones no es decidir qué IA habrá. Es entender qué IA estamos incubando y prepararnos para convivir con sus límites y sus potencias. Y quizás el asunto más importante, y que sí está en nuestro dominio, sea en qué clase de personas vamos a convertirnos en esta simbiosis.


El punto es qué podemos hacer con todo esto. De eso vamos a hablar en el Newsletter 3.


En nuestra mesa de trabajo Tres referencias recomendadas esta semana:
  • La entrevista del legislador porteño Daro Nieto a Federico Ast en su podcast Aca hay Data sobre DAO para reemplazar estructuras del estado.

  • El nuevo libro de Andrés “Mejor no hablar de ciertas cosas”.

  • Si te quedaste con ganas de un poco más sobre este tema, recomiendo esta lectura complementaria de Seba Campanario para La Nacion.


Si creés que las reglas actuales pueden ser reimaginadas, este es tu lugar. Si pensás que la tecnología puede ser parte de la solución, te invito a sumarte. Si querés ayudarnos a empujar esta conversación, compartí esta newsletter.


Hasta la semana que viene.

Martín Yeza





 
 
 

Comentarios


bottom of page