Actores políticos sintéticos. La nueva frontera de la representación democrática
Por: Néstor Solís Valdés
La irrupción de actores políticos basados en inteligencia artificial, presentados como candidatos, portavoces o “líderes” de proyectos partidarios, no es un fenómeno aislado ni un simple truco mediático. Es la manifestación más reciente de lo que la literatura académica denomina synthetic political actors, y obliga a replantear categorías fundamentales del derecho electoral, la teoría de la representación y la legitimidad democrática.
Un campo académico en formación
El término “actores políticos sintéticos” designa a partidos y candidatos cuyo representante visible, portavoz o “líder” es un agente de inteligencia artificial, un chatbot o un avatar generado algorítmicamente. La primera sistematización empírica del fenómeno fue publicada en septiembre de 2025 por investigadores vinculados al ECPR (European Consortium for Political Research), bajo el título Synthetic Candidates and Political Parties. El dataset reúne doce casos documentados en Dinamarca, Finlandia, Japón, Suecia, Nueva Zelanda, Brasil, Polonia y Reino Unido, y los clasifica según tipo de agente de IA, año de creación, participación electoral efectiva, agenda política, forma organizativa y presencia digital. Un paper complementario presentado en el congreso general de esa misma red académica, titulado Synthetic Politics: A Global Typology of AI Political Actors, propone una tipología que distingue al menos cuatro funciones que estos actores desempeñan: representación, disidencia, administración gubernamental y provocación artístico-política.
Que exista ya un dataset global y una tipología académica revela que estamos ante algo más que una anécdota tecnológica. El fenómeno tiene morfología propia y requiere herramientas analíticas específicas.
El caso fundacional danés
Todo linaje tiene un punto de origen, y el de la política sintética se encuentra en Copenhague. En mayo de 2022, el filósofo Asker Bryld Staunaes, de la Universidad de Aarhau, fundó Det Syntetiske Parti (El Partido Sintético), cuyo “secretario general” es Computer Lars, un chatbot entrenado con los textos programáticos de más de doscientos micropartidos daneses que desde 1970 no lograron acceder al parlamento. La premisa era sugestiva: si entre el 15% y el 20% de los daneses se abstiene sistemáticamente de votar, y simultáneamente existen cientos de micropartidos incapaces de obtener un escaño, tal vez un agente algorítmico podría sintetizar esas voces dispersas y devolverlas al sistema como una oferta política coherente.
El Partido Sintético no aspiraba a gobernar. Aspiraba a interrogar. En 2024, Staunaes organizó la Synthetic Summit, una cumbre internacional de “políticos virtuales” con participación de proyectos análogos de Japón, Finlandia, Suecia, Nueva Zelanda, Brasil, Egipto y Polonia, de la cual surgió una Synthetic Summit Resolution sobre gobernanza algorítmica. En términos académicos, Staunaes y la co-creadora Maja Bak herrie punlicaron en la revista APRJA un ensayo titutaldo Deep Faking in a Flat Reality?, donde argumentan que estos partidos revelan un “aplanamiento” de la realidad política: la frontera entre representación auténtica y simulación se vuelve indistinguible, lo que alter la morfología misma de la democracia formal.
La pregunta filosófica de fondo
¿Puede una IA “actuar en nuestro nombre”? Isaac Taylor, en un artículo publicado en Free and Equal journal bajo el título Representative Robots: Can AI Systems Act in Our Name?, aborda directamente esta cuestión extrayendo de la teoría democrática las condiciones necesarias para que un agente represente legítimamente a otro. Su análisis identifica tres niveles de condiciones:
Condiciones externas. Se refieren al comportamiento observable del representante. La más básica es la condición de mandato. Para actuar en nombre de otro, el agente debe operar dentro de una interpretación razonable de la autorización recibida. Taylor argumenta que un sistema de IA puede cumplir esta condición si su programación restringe efectivamente el dominio de la acción. La segunda es la condición de autorización; la delegación debe ser válida, es decir, el delegante debe tener el poder moral de delegar esa función.
Condiciones internas. Aquí emerge el problema más espinoso. Chiara Cordelli exige que el representante actúe intencionalmente dentro de su mandato, no por accidente. Taylo reformula este requisito como una condición de robustez, donde el agente debe estar establemente dispuesto a cumplir el mandato bajo un rango amplio de circunstancias. Una IA puede satisfacer esto si su funcionamiento es insensible a variaciones que la desviarían del mandato. Pero la cuestión de las razones compartidas es más complicada: ¿las causas por las cuales actúa la IA supervienen sobre las razones motivacionales de los representados? Taylor propone una “condición de razones supervinientes” como puente entre la causalidad algorítmica y la intencionalidad humana.
Condiciones relacionales. Ni las condiciones externas ni las internas bastan Cordelli, Salkin, Dorfman y Harel coinciden en que la representación genuina requiere consulta y revocabilidad. El representado debe poder influir en las decisiones del representante antes de que se ejecuten, y debe poder retirarlo si deja de representarlo. En el caso de una IA, esto equivale a transparencia algorítmica (que el ciudadano pueda entender y cuestionar los criterios de decisión) y a un mecanismo efectivo de desactivación.
La conclusión de Taylor es cautelosamente afirmativa. En principio, una IA puede cumplir con versiones funcionalmente equivalentes de todas estas condiciones. Pero la distancia entre el principio y la práctica es enorme, y exactamente en esa distancia se juegan los problemas reales.
Deliberación aumentada o plebiscitarismo automatizado
David Altman, politólogo de la Pontificia Universidad Católica de Chile, publicó en enero de 2026 en el Journal of Democracy un ensayo que reformula el debate con claridad meridiana. Su argumento es que la IA generativa funciona como un “acelerador potente” de los mecanismos de democracia directa iniciados por los ciudadanos: abarata la redacción de leyes, optimiza la recolección de firmas, automatiza la movilización y permite persuasión hiperpersonalizada. Esto suena a democratización. Pero Altman advierte que esa eficiencia amenaza las tres condiciones de legitimidad democrática.
La primera es la deliberación informada. Si una IA puede generar una iniciativa legislativa en minutos y lanzar una campaña de firmas antes de que la sociedad haya procesado el tema, la deliberación se convierte en un trámite posterior a la decisión, no en su fundamento. La segunda es una sociedad civil robusta. Las organizaciones cívicas tradicionales dependen de tiempo, voluntariado y debate interno para articular posiciones; una plataforma algorítmica puede producir movilización sin organización, generando lo que Altman llama “astrosurfing masivo con IA” que desborda a los actores sociales genuinos. La tercera es la confianza institucional. Cuando el discurso público se inunda de contenido sintético, la duda sobre la autenticidad de cualquier mensaje erosiona la base epistémica que necesita una democracia para funcionar.
Altman contrasta dos escenarios: uno distópico, de “plebiscitos automatizados”, donde la IA convierte los mecanismos de democracia directa en motores de inestabilidad plebiscitaria; y otro preferible, de “deliberación aumentada”, donde la tecnología se somete a barreras institucionales. Para transitar hacia el segundo, propone marcado obligatorio de contenido sintético (watermarking), plataforma de IA de interés público, periodos obligatorios de enfriamiento deliberativo y auditorías algorítmicas independientes.
La amenaza de la algocracia
John Danaher, de la Universidad de Galway, formuló en 2016 el concepto de alcocracy para designar una situación en la cual “sistemas basados en algoritmos estructuran y restringen las oportunidades de participación humana en, y comprensión de, la toma de decisiones públicas”. Su análisis identificó dos preocupaciones centrales que siguen siendo las más citadas en la literatura:
La hiddennes concern se refiere a que los datos y criterios que alimentan al algoritmo se recolectan y procesan sin consentimiento informado ni visibilidad pública. La opacity concern señala que la lógica interna del modelo es una caja negra que impide la fiscalización ciudadana. Juntas, generan un déficit de legitimidad: el algoritmo decide, pero nadie puede explicar cómo ni por qué.
Danaher advirtió que el riesgo último es que “los humanos introduzcan y cedan ante más y más sistemas algocráticos, empezando por los relativamente fáciles de seguir, pero que mutan hacia sistemas mucho más complejos y que exceden lo límites superiores de la razón humana”. Diez años después, su advertencia parece profética.
Preferencias construidas, no descubiertas
Un artículo de Manon Revel (Meta/Harvard) y Théophile Pénigaud (Yale), titulado AI-Enhanced Deliberative Democracy and the Future of the Collective Will, introduce un concepto que debería ser central en cualquier análisis de actores políticos sintéticos: la indeterminación de la voluntad colectiva.
Los autores distinguen tres niveles de esa indeterminación. La indeterminación empírica señala que las preferencias no son objetos estables que se descubren, sino construcciones que cambian según el contexto de la pregunta, las alternativas disponibles y el proceso de elicitación. La indeterminación agregativa, fundamentada en la teoría de la elección social, demuestra que resultados colectivos coherentes a menudo carecen de consistencia cuando se cambia la regla de agregación. Y la indeterminación normativa, siguiendo a Claude Lefort, sostiene que la democracia es precisamente el régimen donde la identidad del pueblo “permanece latente, permanentemente abierta a la pregunta”.
Si la voluntad colectiva es indeterminada por naturaleza, un sistema que pretenda “capturarla” mediante un chatbot y un algoritmo de agregación no está descubriendo la voz del pueblo, sino que lo está fabricando. Los autores advierten contra lo que llaman la “hipótesis de la calculabilidad”, la creencia de que las preferencias existen como variables latentes independientes y que el único problema es computarlas mejor. Esa creencia, argumentan, “confunde democracia con congruencia” y amenaza con sustituir el lento y participativo procesos de autodeterminación colectiva por una optimización técnica.
Disidencia sintética en contextos autoritarios.
No todo el espectro es distopico. Staunaes y Michal Maly publicaron en febrero de 2026 un análisis titulado Synthetic Dissidents, donde argumentar que en regímenes represivos la política sintética cumple una función radicalmente distinta. Cuando la represión se organiza alrededor de la identificación de los hablantes (listas negras, reconocimiento facial, hackeo de dispositivos), un avatar sintético puede funcionar como “interfaz protectora” que separa el discurso del cuerpo castigable.
Los casos documentados son elocuentes. En Venezuela, la Operación Retuit (2024) creó avatares como “La Chama” y “El Pana” para difundir noticias verificadas sin exponer a periodistas tras la represión poselectoral. En Bielorrusia, el chatbot-candidato opositor Yas Gaspadar fue respaldado públicamente por Sviatlana Tsikhanouskaya, quien afirmó que ese agente algorítmico “es más real que cualquier candidato que ofrece el régimen. Y lo mejor es que no lo pueden arrestar”.
Pero los autores introducen una advertencia crucial: los regímenes pueden cooptar la misma lógica. Pueden crear “oposiciones sintéticas” falsas para fragmenta la disidencia, inundar plataformas con resistencia simulada, o argumentar que toda disidencia es artificial. La herramienta es ambivalente; su valor depende del contexto político en el que despliega.
El veredicto de las urnas (hasta ahora)
La evidencia empírica es, por el momento, contundente en un sentido. Los votantes no confían en representantes sintéticos. El caso mas comparable a Gaitana es AI Steve, un avatar creado por el empresario Steve Endacott para las elecciones generales británicas de julio de 2024 en la circunscripción de Brighton Pavilion. A pesar de una cobertura mediática estimada en cien millones de visualizaciones televisivas globales, AI Steve obtuvo 179 votos, un 0.3%, y quedó en último lugar. El propio equipo reconoció en su evaluación poselectoral que la novedad tecnológica generó atención pero no confianza, y que los votantes prefirieron candidatos con presencia local y capacidad de acción real.
Este dato no es anecdótico. Sugiere que la representación política sigue siendo una relación fundamentalmente humana, donde la confianza se construye con presencia y capacidad de responder personalmente por decisiones tomadas.
El desafío para el derecho electoral.
Desde la perspectiva del derecho electoral, los actores políticos sintéticos planean vacíos regulatorios que ninguna legislación vigente aborda de manera integral. El EU AI Act clasifica ciertos sistemas de IA vinculados a elecciones como “de alto riesgo”, pero sus disposiciones están diseñadas para regular herramientas que influyen en los procesos electorales, no entidades que participan directamente en ellos como candidatos. La dificultad de demostrar “intencionalidad” y “daño significativo” bajo el marco europeo deja lagunas considerables.
En el espacio regulatorio estadounidense, las iniciativas legislativas como el Protect Elections from Despective AI Act, se centran en prohibir la distribución de contenido sintético materialmente engañoso sobre candidato, no es la figura del candidato sintético en sí. Y en América Latina, la discusión es prácticamente inexistente en términos normativos. Colombia permitió la inscripción de Gaitana porque, técnicamente, el candidato legal es Carlos Redondo; la IA es “solo una herramienta de campaña”. Pero esa distinción formal elude la pregunta sustantiva: si la promesa electoral es que las decisiones legislativas las tomará un algoritmo alimentado por un chatbot, ¿qué queda del contrato de representación entre elector y elegido?
De la simulación a la morfología democrática
Lo que está en juego no es si las IA son útiles para hacer campañas, gestionar datos o personalizar mensajes; eso ya ocurre masivamente y es un debate distinto. Lo que planten los actores políticos sintéticos es algo más profundo. Es la propia representación; y si esta puede delegarse a un sistema algorítmico sin que la democracia pierda su sustancia.
Staunaes y Bak Herrie lo formularon con precisión. Estamos ante una mutación de la “morfología política”, donde la democracia formal se alter por la simulación sintética. Reve y Pénigaud advierten desde Harvard y Yale que las herramientas algorítmicas de agregación de preferencias solo son legítimas si imperan como “espejos reflexivos” en la esfera pública informal, nunca como sustitutos de la deliberación vinculante. Y Altman, recuerda que “la promesa seductora de la IA es una democracia que parece más responsiva y eficiente, un sistema donde la voluntad del pueblo traducirse en ley con velocidad y escala sin precedentes. Sin embargo, esa promesa contiene una amenaza fundamental”.
La política sintética no es el futuro. Ya está aquí. La pregunta es si los sistemas electorales, los tribunales, los organismos de gestión electoral y la teoría democrática están preparados para procesarla. La evidencia sugiere que no. Y el reloj, como siempre en los procesos electorales, corre contra todos.
Resumen y contexto
Resumen (clic para ver)
Actores políticos sintéticos. La nueva frontera de la representación democrática Por: Néstor Solís Valdés La irrupción de actores políticos basados en inteligencia artificial, presentados como candidatos, portavoces o “líderes” de proyectos partidarios, no es un fenómeno aislado ni un simple truco mediático. Es la manifestación más reciente de lo que la literatura académica denomina synthetic political actors, y obliga a replantear categorías fundamentales del derecho electoral, la teoría de la representación y la legitimidad democrática. Un campo académico en formación El término “actores políticos sintéticos” designa a partidos y candidatos…












