Pensaba en la tarde de ayer: ¿Qué pasaría con
la democracia si una parte de las decisiones que se deben tomar después de una
deliberación pasan a estar automatizadas por sistemas algorítmicos?
Hasta ahora la tecnología la estamos mirando
como algo apartado de la política, solamente se usa para fines muy definidos.
Sin embargo, con la fuerte irrupción de la inteligencia artificial, esos fines se
pueden ampliar. Si repasamos lo que hacen los algoritmos veremos que no se usan
solo para cumplir órdenes, sino que en unos determinados entornos es posible que
puedan tomar decisiones, clasificando, precediendo y haciendo recomendaciones. De
hecho, ya eligen qué opciones vas a ver primero, qué ideas se vuelven
invisibles y que riesgos son aceptables. Lo que están haciendo de momento no es
sustituir la decisión humana, sino que rediseñan la situación para que podamos
decidir con más sentido.
Pero dar un paso adelante y permitir que los
algoritmos tomen decisiones es muy sencillo. Esa mutación si se llega a dar en
la política nos plantea un serio problema y es que no debemos olvidar que la
democracia moderna se apoya en la opción de atribuir decisiones y poder
discutirlas públicamente. Sin embargo, ¿Cómo mantener esa idea democrática
cuando los procesos de una decisión se vuelvan opacos y estadísticos? ¿Quién es
responsable cuando nadie decide en un sentido estricto?
Este tipo de preguntas ya nos las hemos
planteado en alguna ocasión, pero no recuerdo haberlo hecho en el contexto democrático
y político. No quiero ahora meterme en los problemas del poder de una
superinteligencia y alimentar ideas sobre el control total de las maquinas, lo
que me interesa es pensar sobre cómo puede cambiar una decisión democrática en
un espacio cada vez más automatizado.
Todavía no sé cómo afectara a una democracia
si las decisiones importantes son delegadas a sistemas informáticos que suelen
ser opacos y por supuesto adaptarse a unas ideas concretas.
Para ir entendiendo el problema primero debo tener
claro los dos tipos de inteligencia que tengo delante. La IA (Inteligencia
Artificial) que ahora tenemos está basada en una gran capacidad de procesar
datos, detectar patrones y optimizar funciones a lo que tenemos que añadir en
un buen aprendizaje automático y en un lenguaje cada día más perfecto y
comprensible. Pero toda esa potencia de trabajo no equivale a tener una
comprensión de los temas. Un sistema informático aprende a partir de
estadísticas que va recibiendo, o sea de hechos y datos que ya han sucedido. No
comprenden las situaciones y no generan sentido pues no se enfrentan a lo nuevo
como tal.
En cambio, nuestra inteligencia, que no llama
la atención por su eficacia en procesar datos, incluye juicio, imaginación,
comprensión contextual y una capacidad para deliberar en condiciones de
incertidumbre, incluso a partir de un solo caso en concreto. Nuestra inteligencia
está claro que no tiene más velocidad ni es capaz de acumular tanta información,
sin embargo, tiene la posibilidad de rediseñar fines, introducir desvíos y
hacerse cargo de lo indeterminado que pueda surgir.
Lo que quiero aclarar ahora no es el orden de
preferencia entre una máquina y nosotros. La cuestión es otra: y es que si
confundimos lo que es juicio con calculo, vamos a terminar organizando nuestra
vida pública como si toda dificultad pudiera resolverse mediante la elección de
lo más rentable. Y es aquí donde la política dejaría de ser una deliberación
sobre fines para terminar convirtiéndose en una simple gestión de
probabilidades en manos de algoritmos. La dificultad que se me presenta no es
que una máquina piense demasiado, sino que seamos nosotros los que pensemos
cada vez menos en términos políticos y dejemos ese trabajo a un ordenador.
La deliberación puede ser desplazada por la
predicción si aceptamos una neutralidad algorítmica, cosa por otra parte muy discutible, que
intentaré aclarar otro día.





