Red social X endurece políticas contra desinformación en conflictos armados
La red social X, propiedad del magnate Elon Musk, implementó este martes una medida drástica contra la propagación de contenidos engañosos durante conflictos bélicos. La compañía anunció que suspenderá durante noventa días la participación en su programa de distribución de ingresos a aquellos creadores que publiquen videos de guerras generados con inteligencia artificial sin revelar adecuadamente su origen tecnológico.
Sanción económica para garantizar transparencia
Según explicó Nikita Bier, director de producto de X, "en tiempos de guerra es fundamental que las personas tengan acceso a información auténtica sobre el terreno". La sanción contempla la exclusión temporal del programa de Participación en los Ingresos para Creadores, mecanismo mediante el cual usuarios seleccionados reciben porcentajes de los ingresos publicitarios generados por sus publicaciones.
El ejecutivo advirtió que las tecnologías actuales de inteligencia artificial "trivializan la creación de contenido que engaña a las personas", especialmente en contextos donde circulan imágenes y videos hiperrealistas que pueden confundirse fácilmente con material grabado en zonas de combate reales.
Mecanismos de detección y consecuencias por reincidencia
La empresa detalló que las infracciones serán identificadas a través de múltiples sistemas:
- Notas de la Comunidad: sistema colaborativo que permite a usuarios añadir contexto a publicaciones potencialmente engañosas
- Análisis de metadatos integrados en contenidos generados con IA
- Señales técnicas específicas para contenido artificial
En casos de reincidencia, la suspensión del programa de monetización podrá volverse permanente, estableciendo así un precedente significativo en la regulación de contenidos digitales.
Cambio de rumbo en políticas de moderación
Este anuncio representa un giro notable en la política de moderación de X, plataforma que desde su adquisición por Elon Musk en 2022 ha enfrentado críticas constantes por relajar sus estándares de contenido y permitir incrementos en desinformación sobre temas sensibles, particularmente conflictos armados internacionales.
El lunes anterior al anuncio, la empresa ya había anticipado que "continuaría refinando" sus políticas y productos para garantizar mayor confiabilidad en momentos críticos. La nueva regla de transparencia sobre uso de inteligencia artificial se inscribe precisamente en este proceso de ajustes institucionales.
Contexto informativo crítico
La medida llega en un momento donde contenidos generados con IA -desde supuestas explosiones hasta discursos falsificados de líderes políticos- circulan con velocidad alarmante en redes sociales durante conflictos recientes, complicando sustancialmente la verificación periodística y la cobertura informativa responsable.
Un ejemplo destacado es un video que alcanzó más de catorce millones de visualizaciones, pretendiendo mostrar "material genuino y verificado" de múltiples ataques contra Tel Aviv, cuando en realidad fue generado completamente mediante inteligencia artificial y contenía numerosos errores característicos de este tipo de producciones.
Con esta decisión, X busca reforzar la credibilidad de la información que circula en su plataforma durante escenarios bélicos, aunque permanecen interrogantes sobre la implementación práctica de la norma y su impacto real en creadores que dependen económicamente de la monetización para sostener sus actividades digitales.
