Actualidad Tecnológica

West Virginia lleva a Apple a los tribunales por su inacción ante el abuso infantil en iCloud

Hoy, el Fiscal General de West Virginia, JB McCuskey, ha decidido dar un paso al frente y presentar una demanda contra Apple. La acusación es grave: la compañía habría permitido que su servicio iCloud se convirtiera en un refugio para la distribución y almacenamiento de material de abuso sexual infantil (CSAM). En sus palabras, McCuskey afirma que Apple ha elegido «no hacer nada al respecto» durante años.

«Preservar la privacidad de los depredadores infantiles es absolutamente inaceptable. Más aún, esto viola las leyes de West Virginia. Como Apple ha rehusado hasta ahora a regularse a sí misma y hacer lo correcto desde el punto de vista moral, presento esta demanda para exigir que cumplan con la ley, reporten estas imágenes y detengan la revictimización de los niños permitiendo que se compartan y almacenen estos contenidos», expresó el Fiscal General con una firmeza que no deja lugar a dudas.

Un monopolio silencioso

La demanda también sostiene que internamente Apple se ha definido como la «mejor plataforma para distribuir pornografía infantil», aunque sorprendentemente envía muchas menos denuncias sobre CSAM comparado con otros gigantes como Google o Meta. En 2021, Apple prometió nuevas características para proteger a los menores, incluyendo un sistema destinado a detectar CSAM en las fotos almacenadas en iCloud. Pero tras recibir una avalancha de críticas por parte de consumidores, grupos defensores de derechos digitales y expertos en seguridad, decidieron tirar esos planes por la borda.

¿Privacidad o irresponsabilidad?

Apple defendió su decisión diciendo que escanear datos privados podría abrir puertas peligrosas para ladrones de información. Sin embargo, el Fiscal General McCuskey señala que esa justificación es solo una máscara; asegura que no implementar tecnología de detección es una decisión consciente, no una simple negligencia. Con control total sobre su hardware y software, argumenta McCuskey, no pueden hacerse pasar por un «conducto inocente» del CSAM.

Aparte del daño moral causado por esta situación alarmante, la demanda busca además daños punitivos e imponer medidas efectivas para detectar CSAM. Recordemos también que en 2024 ya enfrentaron otra demanda similar relacionada con su decisión de abandonar las herramientas necesarias para monitorear este tipo de contenido. Esa acción legal representa potencialmente a 2,680 víctimas, buscando $1.2 mil millones en compensación.

Comentarios

Apple Watch Tech es la primera magazine online de habla hispana especializada en el smartwatch de Apple, el Apple Watch. Además de eso, nos encanta la tecnología en todos y cada uno de sus ámbitos y es por eso que también ofrecemos todo tipo de noticias y repasamos la actualidad de aquellos dispositivos de calidad y sorprendentes como pueden ser el iPhone, iPad, smartphones, tabletas, wearables y mucho más

To Top
Close