El filósofo y ensayista Daniel Innerarity cerró con brillantez el ciclo Conversaciones de otoño de la Universidad Internacional Menéndez Pelayo, sede Pirineos, con una charla en la Fundación Ibercaja de Huesca. Acompañado por la politóloga Carmen Lumbierres, dialogó sobre su último libro, Una teoría crítica de la inteligencia artificial, en el que analiza la relación entre tecnología y democracia. Innerarity defendió que “el gran desafío de la humanidad es juntar bien poder y conocimiento”, en una conversación cercana que despertó el interés del público asistente.
Daniel Innerarity, director del Instituto de Gobernanza Democrática, comenzó trasladando que, cuando una tecnología irrumpe y se desarrolla a gran velocidad, se crean dos bandos. “En uno están aquellos a quienes les parece que se puede aplicar a todo. Ahí están Elon Musk, Chuck Eberle y toda esta gente pensando que va a sustituir a los gobiernos. Y en el otro, personas que lamentablemente tienen miedo a la tecnología. La sobreestiman pensando que lo destroza todo”. Como indicó, estas situaciones se producen cuando se da ese gran desarrollo tecnológico, pero llegará un momento en que se frenará. “Porque me atrevo a hacer una profecía: estamos en una burbuja de la inteligencia artificial”, compartió.
Innerarity explicó que Una teoría crítica de la inteligencia artificial es una obra que tenía pendiente, ya que su gran tema de reflexión es la democracia, sobre todo desde el punto de vista de la complejidad, y en trabajos anteriores había abordado esta cuestión desde la perspectiva del espacio, el tiempo y el conocimiento, y le faltaba incorporar la tecnología como elemento clave. En los últimos años, ha centrado su investigación en “cómo encaja la tecnología dentro de un cuadro de valores democráticos”.

LA DEMOCRACIA COMO CONVERSACIÓN Y DECISIÓN
La obra es también fruto de un trabajo que la Unesco encargó a la cátedra que Innerarity dirige en el Instituto Universitario Europeo de Florencia como extensión de su documento sobre ética e inteligencia artificial. Carmen Lumbierres se refirió a que el autor apunta que, ante el uso de la inteligencia artificial, se ha reaccionado o marcando normas, como la Unión Europea, o bien desde encontrar una ética propia que se le pueda aplicar, mientras que Innerarity traslada que hay que abarcarla desde el punto de vista de la filosofía política.
“Me parecía que faltaba esa perspectiva. La ética no cubre todo lo que podemos hacer con esta tecnología. Hay una parte que tiene que ver con la política, y más concretamente con la democracia. Son dos perspectivas muy distintas. Hay una excesiva moralización de la política”, consideró.
El autor explicó que en el documento que le encargó la Unesco – Inteligencia Artificial y Democracia- reivindica fundamentalmente “que la democracia son dos grandes asuntos: un tipo de conversación y un tipo de decisión”. Respecto a la primera, expuso que “tiene que ser de calidad” y que ha sufrido “una cierta sacudida” con las redes sociales.

Para Innerarity, “la idea del viejo periodismo, con un director que establecía qué era y no era noticia, ahora tiene que convivir con una horizontalización del espacio en el que cualquiera puede intervenir. Era una opinión pública muy vertical, jerarquizada y muy paternalista con respecto a los ciudadanos -consideró-. Está bien que se rompa la distinción tan drástica entre información acreditada, de la que se encargan periodistas y políticos, y la conversación pública, de la que se encarga la gente en calles y plazas. Creo que es una conquista democrática. Otra cosa son los problemas de las redes sociales”, dejó apuntado.
El segundo “gran pilar” de la democracia es que es un sistema de toma de decisiones “basado en un principio que hemos formulado en los últimos 300 años como soberanía popular, autodeterminación y derecho a decidir”. Con esa base, planteó una cuestión central: ¿Qué pasa cuando los gobiernos hacen uso cada vez más de procedimientos algorítmicos para la toma de decisiones?“. Para el filósofo, “es muy razonable porque, volviendo a la idea de complejidad, hay cantidad de decisiones que los gobiernos tienen que tomar que requieren un tratamiento de información muy sofisticado. Pensemos en el caso de la justicia. Los juzgados están sobrecargados de dosieres, de asuntos que tienen que decidir y hay una parte del proceso judicial que simplemente tiene que ver con el manejo de datos, la jurisprudencia… ¿Por qué no confiar esa parte a una máquina?”, argumentó.
Sin embargo, advirtió que la pregunta clave que aborda en el informe y el libro es cómo configurar nuestros sistemas de toma de decisiones para que podamos seguir afirmando de ellos que son democráticos, es decir, que nosotros somos los autores”.
Carmen Lumbierres se refirió en este punto de la conversación a que se da un discurso “muy pegado a la tecnología que plantea que los políticos no sirven y que hay que dejar actuar a los que saben. Pero al final la decisión no puede estar en manos de los técnicos, porque tampoco es un saber objetivo, sino que debe estar en la deliberación en primer lugar y luego en la decisión”.

Innerarity expuso que es necesaria “mucha tecnología, mucho conocimiento, mucho dato para anticiparnos a cosas que van a suceder". Como citó como ejemplo, "tras la pandemia, encargaron a la Cátedra que dirijo en Florenciaun informe sobre cómo la tecnología de datos había contribuido a gestionarla. Lo primero, es qué bien que teníamos bastantes datos. En 1918, cuando la famosa gripe española, nadie sabía qué había que hacer. Aquí tardamos muy poco tiempo en detectar el mecanismo de transmisión, la famosa curva que había que doblegar, que había una tecnología afortunadamente ya desarrollada…”. Por eso, abogó por destinan inversión a la tecnología. Más desarrollo tecnológico podrá apoyar, por ejemplo, ante la “próxima pandemia”, que está seguro de que llegará.
“Pero esa tecnología tiene que ser bien entendida -explicó-. Por sí misma no arregla a los problemas de naturaleza política. Actualmente, el gran desafío de la humanidad es juntar bien poder y conocimiento. Si conseguimos que el poder y conocimiento vayan de la mano, se relacionen bien, las cosas saldrán bien. Pero como tengamos solo poder, por un lado, o solo conocimiento, por otro lado, esto va a salir mal”.
Innerarity citó a Peter Thiel quien dijo que la democracia era un marco completamente inadecuado para resolver los problemas de la humanidad, y es el autor del proyecto en el que se basó el programa electoral de Donald Trump. “Hay una cosa que me llama mucho la atención, y escribí un artículo sobre esto, que se llamaba el autoritarismo digital: por qué la gente más optimista con la tecnología es al mismo tiempo la más escéptica con la democracia. Es muy curioso que piensen que ya la política no resuelve nada, y que la tecnología puede hacerlo todo”.
Se refirió a la situación de Estados Unidos, donde “personas que durante mucho tiempo querían que los gobiernos regularan un poco, ahora mismo creen que lo que hay que hacer es capturar el poder político. Y la toma de posición de Elon Musk fue una expresión obscena de eso: queremos que el poder político se haga con criterios puramente tecnológicos”, criticó.
En opinión del autor, “no se puede ahorrar cierta inclusión de los afectados en el proceso de toma de decisiones. Evidentemente, si no lo haces, vas a ir mucho más rápido al lugar donde quieres ir, pero el asunto es que a lo mejor yo no quiero ir ahí, y quizá ese lugar no vale la pena. ¿Y cómo lo sabemos? Discutiendo. La democracia es esa discusión acerca de a qué lugar queremos ir”, resumió.

ENTRE EL YO FÁCTICO Y EL YO ASPIRACIONAL
Abordando otros asuntos con relación a las redes sociales, Innerarity trasladó que “lo más importante que tenemos los seres humanos no son las preferencias exactamente, porque las preferencias son esas cosas que la inteligencia artificial descubre, y va a descubrir cada vez mejor, a través de nuestro comportamiento de hecho. Estuve en un hotel, encima del Duero, donde había un pequeño puerto deportivo con lanchas y yates, y al entrar después en mi periódico habitual me aparecía publicidad de yates. Por la geolocalización o lo que sea, descubrió que estaba ahí, pero, claro, mi preferencia no es esa”.
“No quiero ser lo que mis huellas digitales dicen que soy”, añadió. “Esto funciona de tal manera que, como saben por dónde nos movemos, qué compramos, qué decimos en las redes sociales… deducen que nosotros en el fondo somos así. Y alguien puede decir: qué bien, es más democrático, vamos a darle a la gente lo que quiere, ¿qué problema tiene esto? Que la política no es darle a la gente lo que la gente quiere”, contestó.
Lo defendió con una reflexión sobre la distancia entre nuestras ideas y nuestras acciones con un ejemplo cercano. “Si ahora os preguntara cuál es vuestra conciencia medioambiental, del uno al diez, por las caras que veo aquí diría que entre un ocho y un nueve”, comentó ante el público. “Pero si fuéramos a vuestras casas, viéramos qué hacéis con la basura, os acompañáramos a la compra o analizáramos el uso que hacéis del coche, seguramente habría que bajaros la nota”, añadió. De esta forma, Innerarity explicó la diferencia entre lo que llamó el “yo fáctico”, es decir, cómo actuamos realmente, y el “yo aspiracional”, aquello que nos gustaría ser. “Tenemos más conciencia ecológica y más voluntad de transformación de la que, en la práctica, nuestro comportamiento refleja”, resumió.
Llevó su argumentación al terreno político preguntando: “¿Qué ministro o ministra de Transformación Ecológica quieres? ¿Una persona que responda a lo que tú de hecho haces o a lo que tú aspiras? Si gobierna conforme al yo aspiracional nos va a molestar un poco: nos va a poner multas, nos va a poner otro contenedor, nos va a gravar el diésel, no nos va a dejar entrar en coche hasta la catedral. Pero creo que podemos querer que hagan eso por nosotros. Eso es antipopulismo puro, gobiernos que no sigan exactamente lo que nosotros queremos, sino que vayan un poquitín más allá. Debemos reclamar a nuestros gobiernos que sean un poco exigentes con nosotros. Porque la dinámica de la sociedad abandonada a su evolución natural va a acabar muy mal. Gobernar es intervenir para que las cosas acaben bien, pero corrigiendo el curso espontáneo de las cosas, que ya vemos que no están muy bien”, reflexionó.
Lumbierres se refirió al planeamiento del filósofo de que hay “problemas salvajes” ante los que el autor distingue partes en las que la inteligencia artificial sirve para tomar decisiones y otras que no se pueden resolver simplemente con la acumulación de datos.
“A veces un problema troceado tiene una parte con una dimensión técnica y otra de decisión política”, señaló el escritor, y puso como ejemplo la pandemia, en la que se contaba con los datos aportados por los técnicos de salud, “pero pasar de los datos al relajo de las medidas de confinamiento era una decisión política”.
“Esa es la parte política -continuó-, que en el libro defiendo que es en la que no vamos a ser sustituidos por las máquinas, o si somos tan estúpidos de dejar las máquinas tomar ese tipo de decisiones, cometeremos muchísimos desastres”. Se refirió a que “los humanos tenemos una inteligencia implícita y explícita. Las máquinas solo tienen inteligencia explícita. A una máquina le dices lo que tiene que aprender y lo hace bien, pero se lo tienes que explicar. Nosotros entendemos con gran rapidez. Estamos con que la inteligencia artificial nos va a sobrepasar… No, no tiene sentido común, no se hace cargo bien de los contextos, no tiene esa agilidad de la intuición, no tiene empatía. Sin empatía, no comprendemos la mitad del mundo”, dijo.
QUE TODOS LLEGUEN AL LUGAR AL QUE VAMOS
El autor opinó que se está “sobrevalorando la capacidad disruptiva de esta tecnología, que es muy disruptiva -reconoció-. Todas las profesiones van a experimentar una sacudida brutal y tenemos que hacerlo bien, con mucha vigilancia, solidaridad, examinando las brechas digitales. Hablamos de una transformación digital, y quiero que estemos todos en el lugar al que vamos. Ya tengo la experiencia de transiciones que se han hecho mal, como la brutal transformación industrial del XIX”, recordó.
“Pero estamos en un punto de exageración -aclaró-. La idea del ‘sorpasso’ es menos creíble que la de Podemos y Ciudadanos”, bromeó. “Hay una cierta sobrestimación tanto en los optimistas como en los pesimistas de la fuerza que tiene, pero hay un punto inquietante a mi juicio que tenemos que vigilar. Esta tecnología tiene una cosa nueva radical. Estamos diseñando máquinas cuyo desarrollo no va a responder exactamente a lo que los diseñadores habían establecido. Van a tomar lo que nosotros le digamos como una información interesante pero no la van a seguir al pie de la letra”.
Agregó que no está reñido con la experiencia de trato ya conocido con la tecnología, como los frenos ABS, “que por su propio diseño están destinados a desobedecernos. Regula que no frenes demasiado en momentos de pánico, porque te puedes matar. También pasa en los procesos constitucionales. Muchas veces una sociedad es libre cuando se dota de una Constitución para prohibirse ciertas cosas. Una constitución es un conjunto de prohibiciones”.
Para Innerarity, “la tecnología no tiene que ser controlada en el sentido tradicional, hay que pensar más sofisticadamente y llegar a un punto intermedio, darle un poco de vida”, expresó.