La inteligencia artificial como apoyo para tomar decisiones de voto fundadas
Ante las elecciones federales del próximo domingo, muchos alemanes se preguntan a quién votar. STAT-UP ha lanzado una herramienta para ayudar a facilitarles la decisión, mediante preguntas que ellos mismos pueden formular.
Lisa Kauck, Max Woldrich, Ingrid Stevens
“Ni idea a quién votar el 23 de febrero”. No es una afirmación rara estos días en Alemania. ¿A qué se debe? Si bien algunos desaciertos de los partidos no han ayudado, el problema radica también en desconocimiento de los programas electorales de los partidos por parte de los electores. Pero tomar decisiones de voto informadas es más importante que nunca, en estos tiempos en los que hay tanto en juego políticamente.
En STAT-UP hemos desarrollado un sistema que analiza los programas electorales de los principales partidos alemanes. Mientras otras aplicaciones de orientación de voto, como la de la Agencia Federal de Educación Cívica, muy popular en Alemania, pregunta a los votantes si están de acuerdo con determinadas afirmaciones para determinar su grado de afinidad con los partidos, aquí son los propios votantes que pueden hacer preguntas según sus intereses y criterios.
¿Cómo funciona?
Empleamos un método conocido como Generación Aumentada de Recuperación (del inglés Retrieval-Augmented Generation, RAG) que combina lo siguiente:
La búsqueda y recuperación de información relevante de una base de datos, que en nuestro caso está compuesta por los textos de los programas electorales.
El procesamiento generativo a través de un Modelo Extenso de Lenguaje (del inglés Large Language Modell, LLM). Los LLM (como él en que se basa el chatbot de inteligencia artificial generativa ChatGPT) son sistemas que a partir de cantidades ingentes de datos lingüísticos han aprendido a predecir la siguiente palabra más probable. Es decir, generan textos basados en probabilidades.
Esquemáticamente, funciona de la siguiente forma:
Lectura y preparación de los programas: Cada programa electoral se divide en secciones más pequeñas (chunks).
Representación matemática de los textos: Para poder buscar posteriormente de forma eficiente la información relevante, estas secciones de texto se convierten en una forma especial, denominada representaciones vectoriales. La idea es que si los vectores están cerca unos de otros en el espacio vectorial, los textos que representan son similares entre sí. Se almacenan en una base de datos vectorial.
Búsqueda vectorial - la clave de la RAG: Si el usuario formula una pregunta, el sistema busca en esta base de datos las secciones más relevantes, basándose en la similitud semántica. Luego, estas secciones se pasan al modelo de lenguaje como contexto junto a la consulta del usuario.
Generación de resultados: La técnica descrita en el punto anterior ayuda a evitar "alucinaciones" del modelo de IA generativa o que se invente respuestas. Las contestaciones se aproximan a los programas electorales de los partidos, pudiéndose citar además como referencias los pasajes de texto utilizados para generar la respuesta.
Naturalmente, el sistema no puede proporcionar el nivel de información que se obtendría mediante la lectura detallada de los programas electorales, pero puede permitir al usuario obtener información sobre los puntos que más le importan de una forma menos ardua que la lectura completa. La especificación de los pasajes de texto de los que proceden las afirmaciones del sistema, aportan transparencia y trazabilidad. El diseño estructurado de la herramienta facilita la comparativa entre partidos (pudiendo elegir entre una disposición horizontal o vertical, dependiendo de las características del dispositivo desde el que se lleva a cabo la consulta).
¿Quiere probarlo?
Sin problema - eso sí, solo en alemán. En este enlace puede "chatear" con los programas electorales de los principales partidos que concurren a las elecciones federales.
IMPORTANTE: Téngase en cuenta que las afirmaciones basadas en un LLM nunca están exentos de posibles errores, lo cual aplica también aquí. Por eso no podemos garantizar la calidad y veracidad de las respuestas.
La calidad depende en gran medida de la precisión de la consulta de búsqueda y de la evaluación de la relevancia de los textos recuperados.
A pesar de la información contextual proporcionada, el modelo de lenguaje puede cometer errores de interpretación o generar respuestas que no coincidan exactamente con los textos originales.
En algunos casos, la búsqueda vectorial puede no encontrar los pasajes de texto idóneos, especialmente cuando los conceptos claves están formuladas de manera diferente a la pregunta del usuario.