Skip to content Skip to footer

Los algoritmos se preparan para las elecciones presidenciales en 2024


Antojo vs operación

El uso de redes sociales y la interacción que tienen los usuarios con su smartphone han acabado que la industria de marketing digital cambie. El uso de big data para poder analizar las interacciones que tienen los usuarios con diversos intereses han permitido que incluso en la escalera electoral se tengan que agenciárselas nuevas narrativas y posibles tecnológicos.

Una de las primeras elecciones en las que se usó de guisa exitosa este tipo de descomposición fue la de Barack Obama, en 2012, cuando las encuestas tradicionales se complementaron con descomposición de social media, pues a través de la tecnología de procesamiento de habla natural (machine learning), era posible que los analistas políticos supieran los sentimientos que remitían los votantes a través de posteos en bisectriz.

Este tipo de posibles incluso se convirtió en polémica en 2016, cuando la campaña de Donald Trump uso la inteligencia de Cambridge Analytica para un caso que se perfiló como ‘manipulación masiva’ y que llevó al CEO de Facebook, Mark Zuckerberg, a una auditoría con el Congreso de Estados Unidos para explicar el funcionamiento del ‘humor de los votantes’.

El enfoque de Cambridge Analytica se basó en métodos psicométricos desarrollados por el doctor Michal Kosinski, que podían desarrollar un perfil de heredero integral analizando una pequeña cantidad de me gusta en las redes sociales. Y aunque el problema no es técnico, el incentivo que existió en 2019 fue cómo las campañas la utilizan en secreto para la manipulación psicológica de votantes vulnerables, apelando directamente a sus emociones y difundiendo deliberadamente parte falsas a través de robots.

Esto, adicionalmente de evidenciar la proliferación de parte falsas en plataformas digitales, incluso cansó a los usuarios de redes sociales. De acuerdo con el referencia Digital News Report 2023, esmerado por Reuters, México ha gastado una caída en la confianza en las parte, que ha bajado del 50% en 2019 al 36% hoy y de los 46 mercados en los que se realizó el referencia, la mayoría de las personas expresan desconfianza de lo que dicen en conversaciones políticas tanto en bisectriz (54%) como en medios tradicionales (52%).

Esta percepción negativa con destino a las parte políticas y con destino a la difusión de parte falsas se ha incrementado por el potencial de IA que se puede aplicar en las campañas electorales. Y se han gastado ejemplos. Unos meses ayer de las últimas elecciones presidenciales de Dinamarca, celebradas en noviembre del año pasado, surgió un nuevo partido, el Partido Sintético (o Synthetic Party), liderado por un chatbot llamado Lars. Detrás de él estáAsker Brykd Staunæs, filósofo de la Universidad de Aarhus y cómico conceptual, adicionalmente de la Fundación Mind Future. Lars fue entrenado con todos los manifiestos políticos de los partidos políticos de Dinamarca desde 1970, con el fin de desarrollar una plataforma que atraer al 20% de la población del país que nunca vota. El año pasado no llegó a presentarse a las elecciones, pero sus responsables señalaron que aspiraba a hacerlo en 2025.

Vórtice automatizada

Aunque los retos para las plataformas, en torno a la conversación se ven potenciados por el uso de IA y por el tono radical que han tomado algunas posturas políticas, como lo sucedido con la topa del Capitolio de Estados Unidos en 2021, las empresas han evolucionado sus herramientas para tener una conversación vacío de parte falsas (las fake news) y polarización.

Facebook, tras su polémico caso con Cambridge Analytica, lanzó un centro de comprobación de parte en el que se investigación tener información confiable circulando en la plataforma y donde en torno a de 40,000 personas están dedicadas a temas de seguridad, adicionalmente de contar con más de 90 verificadores de datos, organismos independientes que le ayudan en esta revisión de contenido.

De acuerdo con la plataforma, en las elecciones de EU de 2020, no sólo se usaron estos posibles humanos para revisar y moderar la información, sino que incluso logró eliminar 180 millones de publicaciones en Facebook e Instagram que violaban las políticas de interferencia electoral de la empresa.

“Rechazamos 265,000 anuncios que podrían interferir en el proceso electoral y que no contaban con una adecuada autorización”, apunta el referencia A Look at Facebook and

US 2020 Elections. Esto significa que muchas de las publicaciones comerciales que buscaban balbucir de un tema social o que generaban una conversación que podía devenir en posturas políticas fueron rechazadas.

Por su parte WhatsApp ha enfocado sus esfuerzos en tres pilares: reducción de la viralidad, combatir el comportamiento excesivo en el interior de la plataforma y convidar a los usuarios herramientas para revisar la información. Para resumir el primero, la plataforma implementó etiquetas de reenvío que indican cuando un mensaje que se recibe en una conversación fue reenviado muchas veces, adicionalmente de impedir esta argumento de envió a sólo cinco conversaciones grupales, lo que disminuyó en un 70% el número de mensajes en extremo reenviados en todo el mundo.

“Durante los últimos primaveras hemos trabajando para mejorar nuestra plataforma y crear acciones que contribuyan a las jornadas electorales en diferentes países a través de la tecnología y la colaboración con gobiernos, autoridades electorales y diferentes organizaciones civiles”, afirma Paloma Szerman, director de Políticas Públicas para WhatsApp en América Latina.

Con el fin de resumir el comportamiento excesivo en la plataforma, incluso utiliza una útil que detecta y suspende automáticamente cuentas relacionadas con comportamientos anómalos, como la creación de cuentas automatizadas, expedición de mensajes en monolito o en altos volúmenes, la creación de grupos de guisa masiva e inorgánica. Gracias a esta útil la empresa ha suspendido cerca de ocho millones de cuentas, en promedio, anualmente.

En 2021, la plataforma lanzó Inés, un chatbot en alianza con el Instituto Doméstico Electoral (INE), que brindó información verificada a la ciudadanía sobre la viaje electoral de ese año. A través de este chatbot los usuarios de WhatsApp pudieron hacer consultas sobre el proceso, cómo dónde sufragar o medidas sanitarias a seguir o los cargos que se elegían en la viaje.

Y aunque estas tres plataformas fueron de las más usadas en la conversación digital de 2018, su uso ha bajado: en el caso de Facebook, desde 2017 disminuyó 8 puntos porcentuales, mientras que otras apps, como TikTok lo han incrementado en 3 puntos porcentuales, de acuerdo con el referencia de Reuters. Esta numeralia puede ser importante, sobre todo para atraer a la población más mancebo a sufragar.

“Para datar a estas nuevas audiencias, más jóvenes, las redes sociales más importantes son TikTok e Instagram, pero no podemos olvidar a YouTube, principalmente si uno quiere tener una discusión más profunda”, apunta Geana Barbosa, de Hootsuite Latinoamérica.

El video: atraer y poner en alerta

Hoy, 73.4% de la población del país accede a redes sociales, lo que significa que 94 millones usan estas plataformas, especialmente a las de video, apunta Barbosa. Ya sea en un reel de Instagram, un video de TikTok o un contenido de YouTube, estas plataformas son las principales en el país, según el estudio Digital 2023 esmerado por We Are Social y Meltwater.

YouTube logró que en 2022 las personas pasaran 21 horas invertidas al mes viendo contenido en su plataforma, mientras que en TikTok el tiempo de visualización de la app creció exponencialmente respecto al año antecedente, pues los mexicanos pasaron un total de 27 horas y 36 minutos. Sin requisa, este éxito incluso genera nuevas tareas para las plataformas, como la identificación de videos potencialmente peligrosos o con información falsa.

“Debemos ser muy claros, y así está establecido públicamente, TikTok no permite pauta política pagada, no solo para campañas electorales, sino para temas políticos en militar, pauta de gobiernos (…) Sin requisa, al difundir contenido de carácter político, sepan que las normas de comunidad se aplican a todas y a todos, y es la pulvínulo sobre la cual moderamos contenido”, explica Edgar Rodríguez Rudich, Public Policy Director de TikTok Latinoamérica.

Estas normas van desde descender contenido con información falsa o potencialmente peligrosa para la sanidad de los usuarios, hasta aquel que usa tecnologías de IA sin precisarlo. Esta última norma surgió en 2022, cuando el uso de herramientas como ChatGPT o Midjourney empezó a crecer.

La IA generativa es capaz de crear contenido con fines políticos, lo que puede hacer la bordadura de comprobación de la información más difícil. Ya han circulado imágenes y audios falsos de candidatos, incluido un anuncio de campaña generado por inteligencia fabricado que ataca a Joe Biden y videos falsos que imitan imágenes de parte de la vida actual.

“Hoy, cualquiera puede utilizar Stable Diffusion o Midjourney para crear imágenes fotorrealistas de cosas que en realidad no existen en el mundo. Esto, en torno a las elecciones de 2024, en realidad ha captado la atención del sabido”, señaló a The Guardian, Renée DiResta, directora de investigación técnica del Observatorio de Internet de Stanford. La entendido señaló que más allá de satanizar esta tecnología, las plataformas de IA generativa permiten la engendramiento de este contenido a un último costo, lo que puede traer un liza exclusivo para las plataformas digitales, en torno a la cantidad de bots o publicaciones mal intencionadas.

Las plataformas de contenido de video están utilizando tanto herramientas tecnológicas, como equipos de verificadores humanos que analizan y ven todo lo que el operación deja ocurrir, o donde tiene duda de si se está violando o no una norma comunitaria.

YouTube tiene una política exclusivo sobre desinformación electoral, donde la castigo máxima es la suspensión de los canales y la ocaso de contenido de la plataforma, donde adicionalmente de mejorar su revisión de contenidos, investigación retornar a la conversación de elecciones pasadas como la de 2020 en Estados Unidos.

“En el entorno coetáneo, encontramos que, si proporcionadamente eliminar este contenido frena cierta información errónea, incluso podría tener el propósito no deseado de restringir el discurso político sin resumir significativamente el peligro de violencia u otros daños en el mundo actual. Con eso en mente, y con las campañas de 2024 en marcha, dejaremos de eliminar contenido que presente afirmaciones falsas de que se produjeron fraudes, errores o fallas generalizadas en las elecciones presidenciales de EU de 2020 y otras pasadas”, precisó la plataforma en un anuncio en el interior del mercado estadounidense en junio de este año.

Esta política investigación que los usuarios se informen con veterano contexto sobre los procesos electorales que están por proceder, pero manteniendo el discurso extremista y de odio fuera de la plataforma.

Más herramientas para salir a sufragar

Los principales avances que han tenido las plataformas en torno a la moderación de contenido es la implementación de sistemas automatizados de revisan millones de publicaciones a diario, adicionalmente de tener equipos humanos que trabajan en el entrenamiento de estas herramientas y en una moderación de las imágenes y videos que hay en la red. Pero otro esfuerzo que llevan a límite la mayoría de las plataformas excursión en torno al llamado a sufragar. “Hemos gastado que de guisa orgánica los institutos electorales y las autoridades electorales están viniendo a TikTok con el fin de impulsar la billete electoral, pero incluso para conocer de qué guisa se combate la desinformación”, indica Rodríguez, quien señala que para los próximas elecciones de México y EU la plataforma tiene una agenda electoral exclusivo, con el fin de que se use la app para que los votantes sepan dónde, cuándo y por qué es importante sufragar.

Google incluso tiene un par de actualizaciones en el país con el fin de prepararse para 2024. Una de ellas es Google News Showcase, donde los usuarios pueden consultar medios de comunicación verificados sobre distintos temas sociales, adicionalmente de la Red de Capacitación de la tecnológica en alianza con Factual, que continuará entrenando a redacciones en el país y donde se retraso que 1,400 periodistas se capaciten a lo generoso de más de 100 sesiones que se realizarán en estados esencia de la República.



Creditos a Eréndira Reyes

Fuente

Leave a comment

0.0/5