Etiqueta: buscar

Apple retiene planes de buscar pornografía infantil en iOS

Apple retiene planes de buscar pornografía infantil en iOS



El lunes 13 de diciembre de 2021, Apple lanzó la versión final de iOS 15.2. La compañía cerró algunas vulnerabilidades de seguridad con la actualización e incorporó algunas características nuevas, incluidas nuevas protecciones para niños que incluyen una advertencia de contenido explícito en iMessage y protección de búsqueda a través de Siri, Spotlight y Safari. Estos cambios fueron anunciados por la compañía a principios de 2021.

Las protecciones significan que en iOS 15.2, los padres pueden habilitar advertencias si sus hijos reciben o envían contenido explícito.

Los cambios se describen en detalle en la página web de seguridad infantil de Apple, pero una publicación de Reddit señala que una sección ha desaparecido de esa página: el anuncio de una revisión de CSAM de las fotos de iCloud.

La página de Apple sobre las próximas funciones de seguridad infantil se publicó originalmente el 5 de agosto. La última versión estaba fechada el 13 de diciembre y eliminó cualquier referencia a información relacionada con la revisión de CSAM. El párrafo correspondiente en la página era anteriormente el más completo de las tres características de seguridad. Además, Apple se había referido a documentación técnica como los libros blancos y la revisión de innovaciones por parte de los investigadores. Estos PDF en sí todavía están activos, pero ahora faltan todos los enlaces en la página de anuncios.

Apple había recibido una reacción violenta por su anuncio de que revisaría las Fotos de iCloud en busca de imágenes que muestren material de abuso sexual infantil. La gente estaba claramente más preocupada de que esto fuera una invasión de su propia privacidad que una forma de proteger a los niños. Pero no todos los usuarios de Apple son padres. Craig Federighi de Apple explicó que la digitalización de fotos de Apple fue «en gran parte incomprendida» en una entrevista con el Wall Street Journal en agosto.

Luego, la compañía actualizó su página web de seguridad infantil en septiembre de 2021 para declarar:

«Anteriormente, habíamos anunciado planes de funciones para ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos y para ayudar a limitar la propagación de material de abuso sexual infantil. Según los comentarios de los clientes, los grupos de defensa, los investigadores y otros, han decidido dedicar más tiempo durante los próximos meses a recopilar comentarios y realizar mejoras antes de lanzar estas funciones de seguridad para niños de importancia crítica «.

Y ahora los planes de Apple al respecto ya no están claros. ¿Los planes siempre se posponen o ya no se planifican?

Con suerte, Apple puede encontrar una manera de identificar este tipo de material criminal que los usuarios de Apple no ven como una invasión a su privacidad.

Este artículo apareció originalmente en Macwelt. Traducción de Karen Haslam.

A %d blogueros les gusta esto: