Apple elimina la mayoría de las menciones de funciones controvertidas de CSAM después de la actualización de iOS 15.2
Apple lanzó esta semana iOS 15.2 con una serie de funciones nuevas, incluida una función de seguridad de comunicación para la aplicación Mensajes que se centra en la protección infantil. Sin embargo, la compañía no incluyó su controvertida función de escaneo de material de abuso sexual infantil de iCloud Photos y parece haber borrado toda mención de su existencia.
A modo de resumen, iOS 15.2 originalmente estaba destinado a venir con una función de detección de material de abuso sexual infantil (CSAM). La actualización habría implementado una función de escaneo en el dispositivo destinada a recorrer la biblioteca de fotos de iCloud de un usuario para el material CSAM. La compañía señaló que lo haría en el dispositivo para obtener la máxima privacidad. Los expertos en privacidad se opusieron , señalando que el concepto mismo de escanear la biblioteca de fotos de un usuario en busca de material prohibido era una violación de la privacidad en sí misma, una que podría expandirse para incluir otro material una vez que se haya establecido el precedente.
“Anteriormente, anunciamos planes para funciones destinadas a ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos y para ayudar a limitar la propagación de material sobre abuso sexual infantil. Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica ", dijo Apple en una nota que agregó anteriormente a su página de seguridad infantil original .
Como lo descubrió MacRumors , la compañía ha eliminado ese segmento de la página y cualquier mención de la función de escaneo de fotos de iCloud. Nos comunicamos con Apple para obtener una aclaración sobre este punto.
Apple también realizó algunos cambios leves en la seguridad de las comunicaciones en su función de Mensajes. En lugar de notificar automáticamente a los padres si un niño menor de 18 años elige ver o enviar una imagen de desnudo a través de la aplicación Mensajes, la compañía ahora eliminó el requisito de notificación en respuesta a los comentarios de los expertos.
En cambio, ahora se advertirá a todos los menores de 18 años que la imagen podría contener materiales sensibles y recibirán una explicación de qué son las fotos sensibles y cómo podrían usarse para causar daño, en lugar de especificar la naturaleza de la foto explícita en sí.