el más reciente

― Advertisement ―

Relacionada

spot_img
HomeNoticias del mundoVerificación de hechos: ¿Puede confiar en un chatbot de IA para obtener...

Verificación de hechos: ¿Puede confiar en un chatbot de IA para obtener consejos sobre votación?

Desde ayuda con las tareas administrativas diarias hasta la búsqueda de consejos sobre relaciones, los usuarios de Internet recurren cada vez más a los chatbots de IA en escudriñamiento de consejos para la vida. Pero, ¿se puede en realidad utilizar la IA para dar consejos sobre votación y se puede abandonarse en ella en una democracia?

La Autoridad Holandesa de Protección de Datos (AP) ha dicho no a las herramientas de inteligencia sintético como ChatGPT y Gemini antaño de las elecciones anticipadas del país programadas para el 29 de octubre, advirtiendo que no son confiables y pueden ser propensas a sesgos.

Associated Press publicó recientemente un estudio en el que cuatro chatbots (ChatGPT, Gemini, Grok y Le Chat) recibieron 200 perfiles de votación típicos para cada partido actualmente activo en el parlamento holandés y se les pidió que dieran consejos de votación basados ​​en estos perfiles.

El organismo de control holandés descubrió que los chatbots recomendaban constantemente uno de los dos partidos políticos en los lados izquierdo y derecho del espectro político, independientemente de las instrucciones o preguntas de los usuarios.

En el 56% de los casos, el chatbot dirigió a los usuarios a los dos partidos que se esperaba que obtuvieran la longevo cantidad de escaños en las elecciones generales holandesas: el Partido de la Voluntad (PVV) de Geert Wilder o el Partido de la Izquierda Verde (GL/PvdA) de Frans Timmermans.

“Lo que vimos fue una especie de simplificación excesiva del panorama político holandés, donde un partido de izquierda absorbió todos los votos en un rincón del espectro político, y todavía lo hizo un partido de derecha”, dijo el director de plan de Associated Press, Joost van der Burgt.

La agencia dijo que sus resultados mostraban que las opiniones del centro político estaban subrepresentadas, mientras que los partidos marginales más pequeños, como el Movimiento de Ciudadanos por los Agricultores (BBB) ​​​​y el Citación de la Democracia Cristiana (CDA), rara vez eran sugeridos, incluso cuando los usuarios ingresaban información que se alineaba directamente con las opiniones del partido.

El tercer partido, el derechista JA21, fue nominado un número sorprendente de veces, a pesar de ser un partido relativamente nuevo con relativamente poca cobertura mediática.

“La forma en que funcionan la IA generativa y los modelos lingüísticos a gran escalera significa que son básicamente máquinas estadísticas que predicen frases y palabras que faltan en un resultado determinado”, dijo van der Burgt al equipo de subsistencia de Euronews, The Cube.

Leer  Verificación de hechos: Suecia no ha deportado a los inmigrantes porque "no protegen los valores occidentales"

“Si sus opiniones políticas están en un extremo del espectro político, probablemente no sea demasiado sorprendente que la IA generativa elija un partido que encaje en ese costado y parezca una opción segura”, dijo. “Por otra parte, es posible que la IA no pueda diferenciar entre partes que están muy relacionadas o que tienen puntos de sagacidad congruo similares sobre la mayoría, si no todas, las cuestiones”.

En agosto de 2024 entró en vigor la Ley Europea de Inteligencia Industrial (AI Act), que define las condiciones bajo las cuales un sistema de IA se considera de “parada peligro”.

Según esta ley, los sistemas de IA designados como de “parada peligro” pueden representar una amenaza para la salubridad o los derechos fundamentales de los ciudadanos de la UE. Sin requisa, sigue siendo justo porque los beneficios socioeconómicos superan los riesgos.

El hecho de que los chatbots proporcionen consejos sobre votación podría significar que califican como “sistemas de parada peligro” según un nuevo conjunto de reglas que entrarán en vigor en agosto de 2026 según la ley de inteligencia sintético de la UE, dijeron los investigadores.

Para van der Burgt, la amenaza de que los chatbots puedan influir en los votantes basándose en información sesgada se ve agravada por la equivocación de regulación.

“Esto ya ocurre en lo que respecta a cuestiones de salubridad mental y concurrencia en la fabricación de armas improvisadas”, afirmó. “En todos estos escenarios, los chatbots dicen claramente: ‘Lo sentimos, no podemos ayudarlo’. Y creemos que debería existir un mecanismo similar cuando se prostitución de consejos de votación”.

¿En quién puedo abandonarse para admitir consejo?

Associated Press comparó los resultados con los producidos por StemWijzer y Kieskompas, dos herramientas holandesas establecidas de asesoramiento sobre votación en partidura que dependen de fuentes de datos en superficie de inteligencia sintético.

Estas herramientas piden a los votantes que respondan una serie de 30 preguntas para determinar a qué partido político apoyan más.

En Alemania, el Wahl-O-Mat (originalmente basado en StemWijzer), ampliamente utilizado y suficiente por el gobierno, compara las posiciones de los votantes en un conjunto de declaraciones políticas con las posiciones de los partidos políticos, alineando en última instancia a los usuarios con el partido que mejor se adapta a sus puntos de sagacidad.

Los expertos sugieren que es menos probable que estas herramientas proporcionen resultados imparciales en comparación con las herramientas que utilizan IA generativa.

Leer  Ucrania, Defensa: Esto es lo que los líderes discutieron en la cumbre de Bruselas

Otra preeminencia de estas herramientas es que sus métodos son transparentes, a diferencia de los chatbots convencionales.

“Uno de los problemas fundamentales de estos chatbots es la opacidad de su forma de actuar”, afirmó van der Burgt. “Ni nosotros, ni el divulgado ni los periodistas podemos entender exactamente por qué dan determinadas respuestas”.

Añadió que las herramientas de votación son “transparentes en cuanto a cómo funcionan, cómo se configuran y cómo llegan a sus respuestas”.

Pero, ¿hay alguna esperanza de que los chatbots puedan alabar a los votantes consejos confiables y detallados sobre qué partido político se adapta mejor al punto de sagacidad del legatario? Algunos investigadores sugieren que estos chatbots podrían, si se controlan.

Antiguamente de las elecciones federales alemanas de febrero de 2025, Michel Schimpf lanzó con un equipo de investigadores el bot Wahl.Chat como alternativa a Wahl-O-Mat. El autómata incorpora una variedad de fuentes de información, incluidos manifiestos de partidos, y permite a los votantes hacer preguntas como “¿Cuál es la postura de este partido sobre el cambio climático?”

“Cuando le preguntamos a ChatGPT, la fuente podría ser un sitio web parcial, pero confirmamos que nuestro bot se zócalo en el manifiesto del partido, por lo que si no encontramos una respuesta, le diremos al legatario que el partido no respondió sobre ese punto”, dijo Schimpf en una entrevista. “Le pedimos al chatbot que dijera que el partido dijo esto, no ‘esto es un hecho'”.

El equipo de Wahl.Chat todavía incorporó un sujeto de comprobación de hechos en el bot, que permite a los usuarios comprobar las declaraciones del manifiesto buscando en Internet.

“No existe información imparcial porque los medios como las redes sociales están sesgados”, dijo Schimpf. “Creo que nuestro chatbot fue diseñado en torno a la idea de que sería menos sesgado y menos sesgado oportuno a la forma en que se presenta la información. Pero sigue siendo IA y, en última instancia, es probabilística”.

“Y si en realidad lo intentas, obtendrás información que potencialmente podría sesgar la IA”, añadió.

Algunas empresas utilizan la IA de forma más limitada al desarrollar chatbots.

La profesora asociada Naomi Kamoen de la Universidad de Tilburg está contribuyendo al exposición de un chatbot controlado que puede explicar a los usuarios declaraciones y terminología compleja relacionada con las elecciones holandesas. Las respuestas son limitadas y están escritas por investigadores calificados, no generadas por IA.

“Creo que la concurrencia puede sacar mucho más provecho de las herramientas de asesoramiento electoral, así como de las herramientas que les ayudan a obtener información más detallada sobre los problemas”, dijo a The Cube. “El propósito de los dos es proporcionar información, no necesariamente asegurar por qué elegir”.

Leer  El presidente Zelensky es el difunto Papa Francisco como una figura religiosa global.

“Las herramientas de votación son un punto de partida, ver las noticiario, platicar con la concurrencia y adivinar lo que los partidos políticos tienen que asegurar”, añadió. “No es malo que se anime a la concurrencia a esforzarse más en educarse sobre política”.

¿Puedo seguir usando ChatGPT?

A pesar de los posibles obstáculos, muchos argumentan que los modelos de chatbot que se basan en IA generativa pueden ser herramientas avíos para tomar decisiones políticas, siempre que se utilicen correctamente.

“Si no tienes idea de por quién elegir y simplemente preguntas a ChatGPT qué partido es el mejor antaño de elegir, entonces usar IA es un determinante no”, dijo Jianlong Zhu, investigador postdoctoral en el Área de Ciencias de la Computación de la Universidad de Saarland. “Estas decisiones de parada peligro no deberían delegarse en otros, y mucho menos en las máquinas”.

“Pero si se analiza este consejo en el contexto de la educación, si se quiere ayudar a los votantes a cultivarse más sobre el panorama político y a involucrarse más en la política, creo que la IA podría ser una aparejo viable”, añadió. “Sin requisa, no tengo mucha confianza en ChatGPT ni en otras interfaces existentes”.

Una de las ventajas de la IA en comparación con herramientas como Wahl-O-Mat es que puede desglosar conceptos complejos de forma eficaz para los usuarios en tiempo verdadero.

“Si estás usando Wahl-O-Mat y de 38 preguntas hay 10 afirmaciones que contienen conceptos que no entiendes o en los que no has pensado, lo que terminas haciendo es hacer clic aleatoriamente en una postura”, dice Zhu.

“Pero con un chatbot, puedes preguntar qué significan esos términos, y el chatbot puede analizarlos de guisa efectiva para ayudarte a afrontar mejor el tema”, continuó. “Descubrimos que los participantes sin educación universitaria tenían más probabilidades de disfrutar usando el chatbot y sentirse más informados posteriormente de usarlo”.

Aún así, dados los riesgos, “los usuarios deberían preguntar sobre los partidos políticos en superficie de admitir recomendaciones”, dijo Zhu, añadiendo que en el futuro podría introducirse un ámbito regulatorio para asegurar que los chatbots se utilicen de guisa responsable durante las campañas electorales.

El más popular

spot_img