Apple retrasa funcionalidad que detecta imágenes de abuso sexual infantil

Share
Apple retrasa funcionalidad que detecta imágenes de abuso sexual infantil

Apple anunció el viernes que retrasará el conjunto de funciones destinadas a limitar la difusión de material de abuso sexual infantil (CSAM) a través de sus dispositivos, y que había suscitado graves problemas de privacidad entre los usuarios.

El contexto: Una de las funciones alertaba a los padres si sus hijos envían o reciben imágenes sexualmente explícitas. La otra, escanea las fotos en el iCloud de un usuario en busca de CSAM e informa de cualquier contenido infractor a los moderadores de Apple.

  • Apple informaría del material detectado al Centro Nacional para Niños Desaparecidos y Explotados, una agencia de intercambio de información que trabaja con las fuerzas del orden.
  • A pesar de las garantías de privacidad ofrecidas por la compañía, los organismos de control, los expertos y los defensores se alinearon rápidamente para oponerse a la implementación del plan.

¿Qué dicen? "Basándonos en los comentarios de los clientes, los grupos de defensa, los investigadores y otros, hemos decidido tomarnos un tiempo adicional, durante los próximos meses, para recopilar información y realizar mejoras antes de lanzar estas funciones de seguridad infantil de importancia crítica", dijo Apple en un comunicado a The Hill.

  • La compañía afirmó que el escaneo de imágenes en la nube estaba "diseñado para pensar en la privacidad del usuario", y que analizaría cada imagen antes de marcar el material como contenido sexual.
  • Los críticos agregaron que la capacidad de escaneo de imágenes podría funcionar como una puerta trasera para una nueva vigilancia y censura.

Fuente principal de la noticia: The Hill