La incorporación de sistemas de Inteligencia Artificial (IA) en la administración pública ya no es una promesa a futuro; es una realidad que está transformando la gestión estatal en Argentina y el mundo. Desde la optimización en la asignación de recursos y la detección de fraudes hasta la predicción de comportamientos tributarios, la IA promete una eficiencia sin precedentes. Sin embargo, esta revolución tecnológica trae consigo un desafío fundamental:
¿Podemos confiar en decisiones que afectan la vida de los ciudadanos si no podemos entender cómo se toman?
Esta pregunta nos sitúa en el centro de un debate crucial sobre la transparencia, los derechos y la necesidad de una «IA Explicable».
El dilema central: Eficiencia vs. Derechos Ciudadanos
El motor de cualquier sistema de IA son los datos. Para aprender, predecir e inferir, los algoritmos necesitan analizar enormes volúmenes de información histórica. Aquí es donde reside tanto su poder como su principal riesgo. Si un sistema se entrena con datos del pasado para, por ejemplo, determinar el nivel de vulnerabilidad de una familia, puede aprender y replicar sesgos históricos sin que nos demos cuenta.
Imaginemos un algoritmo que, al analizar años de registros de asignaciones sociales, concluye que las personas sin un historial previo de solicitudes tienen una baja probabilidad de necesitarlas. La inferencia (la conclusión a la que llega el sistema) parece lógica desde un punto de vista puramente estadístico. Sin embargo, el sesgo (la distorsión que la desvirtúa) es peligroso: podría excluir automáticamente a familias que caen en la vulnerabilidad por primera vez y que, precisamente por eso, no tienen historial.
La IA no es neutral: aprende los prejuicios que, consciente o inconscientemente, están presentes en nuestros datos. Cuando un sistema opera como una «caja negra», estas decisiones automatizadas pueden generar exclusión y afectar derechos fundamentales sin que haya una explicación clara del porqué.
El marco regulatorio: Una mirada desde Argentina
A nivel global, la preocupación por este tema es central. En Europa, normativas como el Reglamento General de Protección de Datos (RGPD) y el nuevo Reglamento de Inteligencia Artificial (RIA) buscan crear un marco que proteja a los ciudadanos. De hecho, tribunales europeos ya están consolidando un «derecho a la explicación», que obliga a informar a las personas sobre la lógica detrás de una decisión automatizada que las afecte significativamente.
En Argentina, si bien el debate está en una fase más incipiente, contamos con la Ley de Protección de Datos Personales (N° 25.326). Esta ley ya establece que, si una decisión basada únicamente en el tratamiento automatizado de datos perjudica a una persona, esta puede exigir una explicación sobre la lógica aplicada. Además, existen múltiples proyectos de ley en el Congreso que buscan regular la IA de manera más específica, proponiendo principios de transparencia, explicabilidad y supervisión humana para sistemas de alto impacto.
Este panorama indica que, aunque el camino regulatorio aún está en desarrollo, la dirección es clara: la opacidad algorítmica no es una opción viable para el sector público.
El camino hacia la confianza: ¿Qué es la IA Explicable (XAI)?
Frente al problema de las «cajas negras», emerge el concepto de Inteligencia Artificial Explicable (XAI, por sus siglas en inglés). No se trata de una tecnología única, sino de un conjunto de métodos y prácticas diseñadas para que las decisiones y predicciones de los sistemas de IA puedan ser comprendidas por los seres humanos.
En la gestión pública, la explicabilidad no es un lujo técnico, sino una necesidad fundamental por tres motivos:
- Para el Ciudadano: Garantiza su derecho a entender por qué se le denegó una habilitación, se le asignó un determinado plan o se le marcó como un perfil de riesgo fiscal. Le permite identificar posibles errores o sesgos y, si es necesario, impugnar la decisión con fundamentos.
- Para el Agente Público: Le otorga confianza en la herramienta que utiliza. Un funcionario no puede ni debe aplicar una decisión que no comprende. La explicabilidad le permite validar, supervisar y justificar las recomendaciones del sistema, manteniendo la responsabilidad final de la decisión.
- Para la Institución: Construye confianza pública, un activo invaluable para cualquier gobierno. Un Estado que puede explicar cómo toma sus decisiones es un Estado más transparente, justo y democrático.
El futuro es transparente o no será
La inteligencia artificial es, sin duda, una de las herramientas más poderosas para modernizar el Estado. Sin embargo, su legitimidad en el ámbito público dependerá directamente de nuestra capacidad para hacerla transparente y responsable.
El debate ya no es sobre si necesitamos que la IA sea explicable, sino sobre cómo vamos a implementar los mecanismos técnicos y regulatorios para garantizarlo. Este es un desafío que nos involucra a todos: tecnólogos, legisladores, funcionarios y ciudadanos, en la construcción de una administración pública más eficiente, pero, sobre todo, más justa.