Inteligencia artificial y asuntos públicos: ¿hasta dónde llega la tecnología y dónde empieza la responsabilidad humana?
- 14 feb
- 4 Min. de lectura

Por Irene Matías, Advocacy Strategy
Esta reflexión parte de una clase magistral impartida por Alan Hardacre, fundador de Advocacy Academy, en la que se abordó el impacto real —y no teórico— de la inteligencia artificial en el ámbito de los asuntos públicos. Más allá del entusiasmo tecnológico, la sesión planteó una pregunta tan pertinente como compartida por muchos profesionales del sector: qué puede hacer realmente la IA en esta profesión y, sobre todo, qué no debería hacer nunca.
La inteligencia artificial no es nueva en los asuntos públicos. Desde hace más de dos décadas, la tecnología ha acompañado y transformado la forma en que monitorizamos, analizamos y gestionamos el entorno político y regulatorio. Lo verdaderamente nuevo no es su presencia, sino la velocidad, la escala y la profundidad con la que hoy puede intervenir en prácticamente todas las fases del trabajo de los asuntos públicos.
La pregunta ya no es si la IA tendrá impacto, sino dónde están sus límites reales y qué implicaciones tiene esto para la profesión.
La línea que la IA no cruza (todavía)
La tecnología puede ayudar y mucho en la preparación: análisis, seguimiento legislativo, priorización de asuntos, elaboración de briefings, simulación de escenarios o identificación de stakeholders. Incluso puede entrenar conversaciones, anticipar preguntas y ayudar a estructurar argumentos con una rapidez impensable hace solo unos años.
Pero hay un punto en el que la IA se detiene. No construye relaciones, no genera confianza y no ejerce juicio moral. No tiene conciencia, ni contexto tácito, ni comprensión profunda del comportamiento humano fuera de lo que está explícitamente documentado. La influencia real la que se ejerce cara a cara, en conversaciones complejas, ambiguas y políticas sigue siendo profundamente humana.
La IA iguala la preparación; la experiencia marca la diferencia en la ejecución
Alan Hardcare, fundador de Advocacy Academy, lo ilustrar muy bien en un experimento que desarrollo en una de sus clases: equipos junior, apoyados intensivamente por IA, fueron capaces de preparar documentos de briefing de un nivel muy similar a los elaborados por profesionales con décadas de experiencia. Sin embargo, en el momento del encuentro real con un stakeholder, la diferencia fue abismal.
La IA iguala la preparación; la experiencia marca la diferencia en la ejecución. Esto confirma algo esencial: la tecnología puede llevarte rápidamente hasta la puerta de la reunión, pero no puede cruzarla por ti.
Dónde está hoy la IA en los asuntos públicos
En la práctica, el uso de la inteligencia artificial se concentra especialmente en tres grandes áreas. Por un lado, en la monitorización e inteligencia, mediante el seguimiento normativo, el scraping de fuentes, la generación de alertas automatizadas, el análisis de tendencias y la detección temprana de riesgos. Por otro, en la gestión de la información, facilitando la organización de documentos, la creación y mantenimiento de bases de datos de stakeholders, la elaboración de resúmenes ejecutivos y la transcripción y síntesis de eventos, hearings y comparecencias. Finalmente, la IA se aplica en la preparación estratégica, apoyando la elaboración de argumentarios, la simulación de posiciones políticas, las pruebas de mensajes, el análisis de actores y el entrenamiento previo a reuniones clave. Aquí la IA no solo ahorra tiempo: cambia radicalmente la escala y la velocidad del trabajo.
El riesgo silencioso: la pirámide del talento
Hay, sin embargo, un riesgo estructural poco discutido. La IA impacta con más fuerza en la base de la pirámide profesional: tareas junior, de aprendizaje y exposición inicial al sistema político. Si esas funciones desaparecen o se automatizan sin una estrategia clara, se rompe la cadena de formación del talento futuro. El resultado puede ser una profesión más eficiente a corto plazo, pero más frágil a medio y largo plazo.
El verdadero valor no está en la IA, sino en el conocimiento
La ventaja competitiva ya no está en usar IA genérica —porque todos pueden hacerlo—, sino en qué conocimiento, experiencia y metodología se integran en ella. La propiedad intelectual, los marcos analíticos, la memoria organizativa y el criterio profesional son lo que convierte una herramienta en una ventaja real.
Por eso, el futuro no está en “usar ChatGPT” u otras IAS, sino en crear agentes especializados, entrenados con conocimiento propio, y sobre todo compartidos a nivel de equipo y organización. Cuando el conocimiento se queda en la cabeza de las personas, se pierde cuando se van. Cuando se estructura, se queda.
Un último aviso: confianza y manipulación
A medida que los modelos de lenguaje se alimentan de contenidos generados por otros modelos, la frontera entre información, persuasión y manipulación se vuelve más difusa. La capacidad de “ingeniería del consentimiento” ya presente en la comunicación política, puede escalar de forma exponencial si no se gestiona con ética y responsabilidad.
Cuanto mejor sea la tecnología, más crítico será el criterio humano.
La inteligencia artificial no va a sustituir a los profesionales de los asuntos públicos, pero sí va a transformar radicalmente su trabajo. Quienes entiendan la tecnología como una aliada estratégica y no como un atajo serán más eficaces, más influyentes y más relevantes. Porque, al final, la pregunta clave no es qué puede hacer la IA, sino qué tipo de profesionales queremos ser en un entorno donde la tecnología ya no es opcional.




Comentarios