Meta enfrenta multa millonaria en EE.UU. por presunta explotación infantil en sus plataformas
Meta multada por presunta explotación infantil en sus plataformas

Meta enfrenta sanción histórica por presunta negligencia en protección de menores

Un jurado en el estado de Nuevo México, Estados Unidos, ha determinado que la empresa Meta, propietaria de Facebook, Instagram y WhatsApp, es responsable de poner en riesgo a menores de edad en sus plataformas digitales. El fallo judicial, emitido tras un extenso juicio de seis semanas, establece que la compañía no implementó las medidas suficientes para proteger a niños y adolescentes de situaciones de abuso y explotación en línea.

Multa millonaria y precedente legal

Como consecuencia del veredicto, el jurado ha ordenado a Meta el pago de 375 millones de dólares en daños y perjuicios, una cifra que, aunque inferior a la inicialmente solicitada por el estado, marca un precedente significativo en la responsabilidad legal de las plataformas digitales. Este caso representa uno de los primeros en Estados Unidos donde un jurado se pronuncia explícitamente sobre la obligación de las empresas tecnológicas de garantizar la seguridad infantil en sus servicios.

Acusaciones específicas contra las prácticas de Meta

Durante el proceso judicial, la Fiscalía del estado de Nuevo México, liderada por el fiscal general Raúl Torrez, presentó evidencias que sugerían que:

Banner ancho de Pickt — app de listas de compras colaborativas para Telegram
  • Los algoritmos de Meta facilitaron contactos inapropiados entre adultos y menores
  • La empresa no reveló completamente los riesgos detectados internamente
  • Las plataformas podrían haber sido utilizadas por redes de trata de personas

Torrez calificó la decisión judicial como una "victoria histórica para las familias", destacando la importancia de que las grandes tecnológicas asuman su responsabilidad en la protección de usuarios vulnerables.

Respuesta de Meta y próximos pasos legales

Desde la compañía, un portavoz oficial manifestó su desacuerdo con el fallo y confirmó que apelarán la decisión judicial. Meta defendió sus esfuerzos en materia de seguridad, argumentando que trabajan constantemente para detectar y eliminar contenido dañino, aunque reconocieron que la magnitud de sus plataformas representa un desafío complejo en esta materia.

El proceso legal aún no concluye completamente. Está programada una segunda fase para el mes de mayo, donde se analizarán posibles sanciones adicionales y cambios obligatorios en el funcionamiento de las plataformas de Meta. Este caso, junto con otros procesos similares en desarrollo en Estados Unidos, podría abrir la puerta a nuevas demandas y regulaciones más estrictas para las grandes empresas tecnológicas a nivel global.

La decisión judicial ocurre en un contexto de creciente preocupación internacional sobre el impacto de las redes sociales en la salud mental y seguridad de menores, y podría influir en futuras legislaciones sobre responsabilidad digital en múltiples países.

Banner post-artículo de Pickt — app de listas de compras colaborativas con ilustración familiar