Después de un año en el limbo, Apple está eliminando silenciosamente su controvertida función de escaneo de fotos CSAM
El año pasado, Apple anunció planes para ayudar a combatir el abuso sexual infantil en varias áreas. Como parte de iOS 15.2, Apple implementó una nueva función de control parental para Mensajes para evitar que los niños vean o envíen imágenes sexuales, y reforzó a Siri y Search para brindar recursos dirigidos a los niños que probablemente sean víctimas. Sin embargo, su función más controvertida, que analizaría sus fotos a medida que se suben a iCloud para ver si coinciden con material conocido de abuso sexual infantil (CSAM), se ha retrasado.
Aunque Apple tomó medidas importantes para garantizar que la privacidad de los usuarios estuviera protegida y que los actores externos (como las agencias gubernamentales) no pudieran usar la tecnología para obligar a Apple a buscar imágenes de cosas como disidentes, esto ha levantado muchas banderas rojas en la comunidad de la privacidad. Desde el momento en que se anunció, a la gente le preocupaba la perspectiva de una «vigilancia masiva» y permitir que Apple ejecutara un sistema que podría usarse para investigar
En una entrevista con The Wall Street Journal el miércoles, Craig Federighi, vicepresidente senior de ingeniería de software de Apple, confirmó que la función de escaneo CSAM ha sido descontinuada. Las otras características han estado en vigor en iOS desde el año pasado. Federighi dijo: “El abuso sexual infantil se puede prevenir antes de que suceda. Aquí es donde ponemos nuestra energía para seguir adelante.
En una declaración a Wired, Apple aclaró: “Hemos decidido no seguir adelante con nuestra herramienta de detección de CSAM propuesta anteriormente para iCloud Photos. Los niños pueden estar protegidos sin que las empresas revisen los datos personales, y continuaremos trabajando con los gobiernos, los defensores de los niños y otras empresas para ayudar a proteger a los jóvenes, preservar su derecho a la vida privada y hacer de Internet un lugar más seguro para los niños y para todos. de nosotros. .”
Es posible que el sistema también haya encontrado obstáculos técnicos. Apple anunció el miércoles que proporcionaría una opción de cifrado de extremo a extremo en la mayoría de los datos de iCloud, incluidas las fotos, lo que podría haber hecho que el escaneo CSAM sea demasiado difícil de implementar correctamente.