INTELIGENCIA ARTIFICIAL Y POLÍTICAS PÚBLICAS: UN DEBATE INCIPIENTE

DANTE AVARO (14 de octubre de 2019)

La reciente imbricación entre inteligencia artificial y políticas públicas resulta una actividad novedosa, pero sumamente compleja. Sin embargo, al abrir este debate comenzando por enfatizar lugares comunes, lejos de construir problemas con solución, corremos el riesgo de perder de vista lo verdaderamente relevante para los públicos ciudadanos.

La inteligencia artificial es un paraguas conceptual que se utiliza para cubrir una extensa variedad de técnicas y artefactos. Por ejemplo, algoritmos, big data, árboles de decisiones de aprendizaje, clasificadores bayesianos, aprendizaje profundo, y la lista continúa.

Para simplificar, podríamos decir que la inteligencia artificial se reduce a: construir un criterio o plan de entrenamiento para una máquina, alimentarla con datos (videos, fotografías, audios, números, etc.), entrenarla para que pueda analizar esos datos sobre ciertos asuntos que son de nuestro interés y, luego, si todo funciona como lo planificamos, aguardar a que la máquina termine aprendiendo y mejorando mediante la introducción de nuevos datos. Llamemos a esta actividad industria de los datos.

Al respecto, el Estado tiene dos formas básicas de relacionarse con esa actividad. La primera, es fijar criterios regulatorios al desarrollo de la industria. La segunda, consiste en incorporar la inteligencia artificial a la formulación, diseño e implementación de las políticas públicas.

En el primer caso, el Estado tiene la capacidad para fijar los límites de lo que los particulares involucrados en la industria de datos pueden, o no, hacer. Pero también tiene las herramientas de política pública que le permiten promover ciertos aspectos u orientar el desarrollo de la industria citada en algún sentido.

Más allá de intentar promover la industria en cuestión, y tomando en cuenta la experiencia internacional reciente, se observa que el Estado se puede mover entre dos tipos ideales: a) puede regular en un sentido altamente prudencial, o bien b) puede hacerlo aplicando un criterio muy experimental. Si la regulación a la industria es altamente prudencial se corre el riesgo de aplastar gran parte de los desarrollos emergentes al interior de la industria. Si se opta por un criterio muy experimental, el Estado debe ser consciente de que la industria de datos puede generar consecuencias negativas en términos de equidad moral, violación de los derechos humanos, y niveles de bienestar.

Encontrar el punto adecuado entre estos extremos no es tarea fácil, y difícilmente pueda resolverse apelando a frases hechas o políticamente correctas. La misión requiere, entre otras cosas, un alto nivel de involucramiento de los políticos.

Ahora bien. Cuando el Estado utiliza inteligencia artificial que le provee la propia industria de los datos para mejorar su funcionamiento, el asunto se vuelve más complejo aún.

Los hacedores de política no sólo son responsables por el espacio público o ámbito en el que se va a implementar la inteligencia artificial (por ejemplo, contaminación ambiental, mantenimiento predictivo de infraestructura, etc.), sino por la tecnología misma que se incorpora (cierto tipo de algoritmos provistos por tal o cual empresa o consorcio público-privado). Aquí hay un problema doble que presentaré así: la mejor tecnología, digamos, el mejor algoritmo, sobre el asunto más relevante puede no ser de interés de los políticos; y lo que resulta de interés para los políticos puede quedar en manos de tecnologías que impongan un gran costo, en términos de equidad moral, a los ciudadanos (sesgos cognitivos sobre ciertos grupos sociales, violación de los derechos humanos, etc.).

Aun en el mejor de los mundos posibles, es decir, en donde la mejor tecnología resulta de interés para los políticos en las áreas de mayor interés de la ciudadanía, el asunto de la imbricación de la inteligencia artificial y las políticas públicas debe sortear un problema fundamental: ¿Cómo garantizar el control democrático en la formulación e implementación de políticas públicas basada en la inteligencia artificial? Lo que deviene en lo siguiente: ¿Quién es responsable de qué, frente a quiénes?

Estas preguntas van más allá del cómodo terreno en donde se suele afirmar que las políticas públicas y el accionar del Estado deben respetar el criterio moral del mantenimiento del anonimato o el respeto por la privacidad en la recolección y el tratamiento de datos.

Solo para tirar de un hilo de este complejo ovillo, tomemos el “quién” de la última pregunta. Los políticos son responsables frente a sus electores, y los expertos que manufacturan la inteligencia artificial son responsables frente a los políticos, que deberán contratar a otros expertos para supervisar el trabajo de los primeros. Y ambos, en conjunto, deberían ser supervisados por los públicos ciudadanos. Para ello, el código de programación, elemento clave en los algoritmos, debería estar abierto. Lo cual se relaciona con el tipo de regulación que el Estado mantenga con la industria de los datos. Nuevamente, el involucramiento de los legisladores es crucial.

Este es un debate que recién comienza. Hay mucho por observar, analizar y reflexionar. Sin embargo, no deberíamos olvidarnos de algo muy básico: mejorar la calidad democrática e incorporar inteligencia artificial en las políticas públicas pueden generar sinergias positivas; pero, en principio, son dos asuntos que van por carriles separados.

Los escasos estudios que existen muestran que los regímenes políticos con mayor corrupción son más proclives a aceptar el uso de la inteligencia artificial en las políticas públicas. Por ahora, en democracias de baja calidad institucional, la recomendación más prudente sería que, como paso previo y necesario para la incorporación de inteligencia artificial, primero apuesten por una política concreta y sistemática de mejoramiento de la calidad democrática.

Última actualización