A-Z Site Index

¿Puede la Inteligencia Artificial influenciar los procesos electorales?

2024 es un año electoral histórico. Más de 60 países , casi la mitad de la población mundial, acudirán a las urnas. Con el paso del tiempo, la tecnología está cada vez más presente en los procesos electorales, como el voto electrónico, y es una herramienta valiosa para que este proceso sea eficiente y seguro.

Sin embargo, los recientes avances en inteligencia artificial, en particular la IA generativa como ChatGPT (OpenAI) y Copilot (Microsoft), podrían tener un impacto mayúsculo en los procesos electorales.

Influir en la toma de decisiones

La IA puede aprovechar los macrodatos para influir en la toma de decisiones de los votantes. Su capacidad para lanzar ciberataques, producir deepfakes y difundir desinformación podría desestabilizar los procesos democráticos, amenazar la integridad del discurso político y erosionar la confianza pública.

El Secretario General de la ONU, António Guterres, destacó la naturaleza dual de la IA en su discurso ante el Consejo de Seguridad, señalando que, si bien la IA puede acelerar el desarrollo humano, también plantea riesgos significativos si se utiliza maliciosamente.

En este artículo exploraremos brevemente las ventajas y los retos que la IA está aportando a los procesos electorales.

¿Cómo puede la IA mejorar los procesos electorales?

Según la Guía para profesionales electorales de la UNESCO: «Elecciones en la era digital», la IA tiene el potencial de mejorar la eficacia y la precisión de las elecciones. Llega a los votantes y se relaciona con ellos más directamente a través de una comunicación personalizada adaptada a las preferencias y comportamientos individuales.

Los chatbots con IA pueden proporcionar información en tiempo real sobre los colegios electorales, las plataformas de candidatos y los procedimientos de votación, haciendo que el proceso electoral sea más accesible y transparente.

La IA también mejora la gestión de datos al garantizar la recopilación, el almacenamiento y el análisis precisos de una gran cantidad de datos electorales, lo que permite a los funcionarios tomar decisiones rápidas e identificar tendencias con eficacia.

Además, la IA refuerza la seguridad electoral fortaleciendo las medidas de ciberseguridad contra las ciberamenazas, garantizando la integridad y resistencia de la infraestructura electoral y detectando anomalías y actividades fraudulentas.

Daniel Innerarity, en «Artificial Intelligence and Democracy», señala que la IA puede implicar a los votantes individualmente en el proceso electoral a través de chatbots y foros de debate en las redes sociales. Puede recoger información valiosa de los comentarios de los usuarios y permitir el análisis de datos en tiempo real para que los estrategas de campaña ajusten sus planteamientos en función de la opinión pública.

A pesar de sus ventajas, la IA utilizada en el proceso electoral también puede plantear múltiples riesgos, incluido el potencial de manipular a los votantes e influir en sus decisiones.

Riesgos de la IA: deepfakes, ciberataques, ética

La sofisticación de los contenidos generados por IA hace que la desinformación sea más convincente y emocionalmente impactante. También es más fácil de crear y cada vez más difícil de detectar y contrarrestar. A medida que avanza la tecnología de IA, distinguir entre información auténtica y propaganda se hace más complejo.

Uno de los riesgos más importantes de la IA es la posible propagación de la desinformación. Los deepfakes generados por IA -audios, vídeos e imágenes muy realistas pero falsos- pueden utilizarse para engañar a los votantes y socavar la confianza en el proceso electoral. Los deepfakes pueden hacer que las personas parezcan hacer o decir cosas que nunca hicieron.

Los ciberataques son otra de los desafíos, como destacó el Secretario General de la ONU, los ataques cibernéticos contra infraestructuras críticas posibilitados por la IA podrían afectar gravemente a la paz y la seguridad mundiales, ya que las barreras técnicas y financieras para acceder a las herramientas de IA son bajas.

Además, el uso de la IA implica la recopilación y el análisis de grandes cantidades de datos personales, lo que plantea problemas de privacidad y requiere medidas sólidas de protección de datos para mantener la confianza de los votantes y cumplir con las leyes de privacidad.

Por lo que el despliegue de la IA en las elecciones plantea numerosas cuestiones éticas, como garantizar que los sistemas de IA estén libres de prejuicios y no influyan injustamente en los resultados electorales. También es crucial determinar quién es responsable de supervisar el uso de la IA en los procesos electorales para garantizar la transparencia y la rendición de cuentas. Los algoritmos de IA pueden manipularse para favorecer a determinados candidatos o partidos, de forma intencionada o no.

Los sesgos en los sistemas de IA pueden surgir de los datos o del diseño de los algoritmos. Esto puede reforzar las formas existentes de discriminación, prejuicios y estereotipos. Los algoritmos de IA sesgados podrían influir injustamente en el comportamiento de los votantes, comprometiendo la imparcialidad del proceso electoral. Estos riesgos subrayan la necesidad de unas directrices éticas claras y una supervisión cuidadosa para garantizar que la IA se utiliza de forma responsable.

¿Qué se está haciendo para regular el uso de la IA?

La Organización de las Naciones Unidas (ONU) ha abogado por un enfoque global y colaborativo de la gobernanza de la IA, centrado en el establecimiento de normas globales y directrices éticas, el desarrollo de estrategias nacionales, la mitigación de los riesgos globales a largo plazo, la resolución de las carencias de cualificación, el fomento de la colaboración internacional, el desarrollo de marcos reguladores y la mejora de la concienciación pública.

El jefe de la ONU puso en marcha su nuevo Órgano Asesor sobre IA, que incluye a expertos de gobiernos, empresas, la comunidad tecnológica, la sociedad civil y el mundo académico. Su función es apoyar los esfuerzos de la comunidad internacional para regular la inteligencia artificial. A principios de este año, el jefe de Derechos Humanos de la ONU, Volker Türk, advirtió de que las poderosas campañas de propaganda y desinformación podrían perturbar las elecciones, engañar a la gente y difundir la misoginia y el odio, y pidió políticas y prácticas de IA ancladas en los derechos humanos.

En marzo de 2024, la Asamblea General de la ONU adoptó una resolución, liderada por Estados Unidos y apoyada por más de 120 Estados miembros, para promover sistemas de IA «seguros y fiables» que respeten los derechos humanos y contribuyan al desarrollo sostenible. La resolución pide a todas las partes interesadas que se abstengan de utilizar la IA de forma que viole los derechos humanos y hace hincapié en la necesidad de reducir la brecha digital, sobre todo ayudando a los países en desarrollo.

A través de las cumbres «AI for Good», la ONU facilita la colaboración internacional, compartiendo las mejores prácticas y alineando el desarrollo de la IA con los Objetivos de Desarrollo Sostenible (ODS).

En cuanto a los actores regionales, en mayo de 2024, el Consejo de la Unión Europea aprobó la Ley de Inteligencia Artificial (IA), cuyo objetivo es armonizar las normas sobre inteligencia artificial. Esta legislación pretende equilibrar la innovación, la transparencia, la responsabilidad y la protección de los derechos fundamentales clasificando los sistemas de IA en función del riesgo. Los sistemas de IA de alto riesgo se enfrentarán a requisitos estrictos, mientras que se prohibirán prácticas extremas como la manipulación cognitiva del comportamiento y la policía predictiva.

La Ley de Inteligencia Artificial entrará en vigor en 2026. Esta legislación forma parte de la estrategia reguladora más amplia de la UE, que también incluye el Código de Buenas Prácticas sobre Desinformación, que obliga a las plataformas a supervisar la publicidad política, y la Ley de Servicios Digitales, que establece obligaciones para los servicios en línea con el fin de garantizar un entorno digital más seguro.

Conclusión: puede aumentar la participación pero debe gestionarse

La integración de la IA en el proceso electoral puede aumentar la participación de los votantes y mejorar la seguridad, haciendo que las elecciones sean más eficientes e inclusivas. Sin embargo, deben gestionarse cuidadosamente los riesgos de desinformación, las amenazas a la ciberseguridad y los sesgos.

Mediante el establecimiento de normas mundiales, la ONU está trabajando para garantizar que la IA sirva para reforzar la democracia en lugar de socavarla. Salvaguardar la integridad de la información es especialmente crucial para la transparencia de las elecciones. La comunidad internacional debe aunar esfuerzos para garantizar que las tecnologías de IA refuercen la democracia y promuevan la participación activa de los ciudadanos, respetando la libertad de opinión y de expresión.

Referencias Aprovechar las oportunidades que brindan los sistemas de inteligencia artificial seguros y fiables para el desarrollo sostenible Las elecciones de 2024 ponen a prueba la salud de la democracia PNUD, Integridad de la información para las instituciones y los procesos electorales La Asamblea General adopta una resolución histórica sobre inteligencia artificial Observaciones del Secretario General al Consejo de Seguridad sobre inteligencia artificial En la Cumbre sobre IA del Reino Unido, Guterres afirma que los riesgos son mayores que las recompensas sin una supervisión mundial Los derechos humanos deben ser el núcleo de las tecnologías de IA generativa, afirma Türk.

Inteligencia Artificial – Recursos en línea seleccionados:

El poder de la Inteligencia Artificial y sus desafíos en el marco de las Naciones Unidas

El poder de la Inteligencia Artificial y sus desafíos en el marco de las Naciones Unidas

 

 

últimos articulos