Apple lanza la función de escaneo de desnudos en Mensajes al Reino Unido y otros países
Apple lanzó el año pasado una función de seguridad en los EE. UU. que busca imágenes sexualmente explícitas en la aplicación Mensajes en iPhones, iPads y Mac que usan niños menores de 18 años, y les advierte a ellos y a sus padres cuando las reciben o las envían. Ahora, la compañía está implementando esa función para los usuarios de iOS en el Reino Unido, Canadá, Australia y Nueva Zelanda.
The Guardian informó por primera vez que los usuarios de Apple que viven en el Reino Unido verán la función de escaneo de desnudos, llamada " Seguridad de la comunicación ", en la aplicación Mensajes relativamente pronto, aunque se desconoce la fecha exacta. Ya está disponible en Canadá como parte de la actualización beta de iOS 15.5, pero se desconoce cuándo los usuarios de los otros países mencionados recibirán la función.
Para refrescar su memoria sobre cómo funciona la función de escaneo de desnudos, los padres pueden activarla en la configuración de Tiempo de pantalla para la cuenta de su hijo. Cualquier foto de desnudo entrante o saliente se borra automáticamente y aparecen notificaciones de advertencia para brindarle al niño (o adolescente) orientación sobre cómo buscar ayuda, redirigirlo a recursos de seguridad en línea y asegurarle que está bien si no quiere ver el foto o para continuar la conversación. También se les recomienda enviar un mensaje a un adulto de confianza sobre la foto inapropiada y bloquear el contacto que les envió dicha foto. La aplicación Mensajes activa un intercambio de texto con los padres o tutores del niño si es menor de 13 años.
Los menores que viven en el Reino Unido, Canadá, Australia y Nueva Zelanda verán las mismas advertencias y obtendrán las mismas opciones para hablar con un adulto de confianza sobre las fotos no solicitadas que recibieron. También serán redirigidos a recursos de seguridad en línea específicos de su región.
Cuando se anunció la función en agosto, los defensores de la seguridad infantil aplaudieron el último esfuerzo de Apple para combatir el abuso sexual infantil (CSA) y proteger a los niños de los depredadores sexuales, pero los críticos señalaron algunos de sus defectos de privacidad. Denunciaron que la programación original de la función de notificar automáticamente a los padres sobre imágenes que contienen desnudez, independientemente de la edad del usuario menor,revelaría a los niños LGBTQ+ a los padres , quienes podrían abusar de ellos, echarlos de sus hogares o castigarlos de otra manera, y que el escaneado las fotos se almacenarían en iCloud Photos para que los moderadores de Apple las revisen y las envíen al Centro Nacional para Niños Desaparecidos y Explotados. La controversia llevó a Apple a retrasar el lanzamiento de la función de escaneo de fotos, así como otras funciones de seguridad infantil, hasta noviembre.