Etiqueta: escaneo

Escaneo de virus de Mac: cómo buscar virus en una Mac

Escaneo de virus de Mac: cómo buscar virus en una Mac


Después de un año en el limbo, Apple está eliminando silenciosamente su controvertida función de escaneo de fotos CSAM

Después de un año en el limbo, Apple está eliminando silenciosamente su controvertida función de escaneo de fotos CSAM



La aplicación de escaneo número 1 de la App Store cuesta $40 y una parte apoya una buena causa

La aplicación de escaneo número 1 de la App Store cuesta $40 y una parte apoya una buena causa



Apple retrasa el lanzamiento del escaneo de fotos CSAM

Apple retrasa el lanzamiento del escaneo de fotos CSAM



Apple ha decidido posponer la introducción de sus funciones de software de protección infantil, según The Verge, tras muchas críticas al plan.

Las políticas de protección infantil fueron presentadas el mes pasado por Apple e incluían un método para abordar la propagación de la pornografía infantil (CSAM). Para hacer esto, utiliza un algoritmo para hacer coincidir el contenido de las imágenes en los teléfonos de los usuarios con el hardware CSAM ya conocido.

La iniciativa recibió muchas críticas. Entre otras cosas, varias organizaciones de derechos humanos de todo el mundo han señalado que el enfoque de "protección infantil", aunque bien intencionado, podría infringir la privacidad de los usuarios y crear una herramienta de seguimiento. El director ejecutivo de Epic Games, que puede no ser un comentarista totalmente imparcial, lo describió como software espía del gobierno.

Apple inicialmente defendió su plan, diciendo que se había malinterpretado en gran medida y que estaba trabajando duro para explicar las complejidades de dónde, cómo y quién escanearía las imágenes. (Craig Federighi negó que la compañía tuviera la intención de espiar los teléfonos de los usuarios, insistiendo en que el escaneo solo se llevaría a cabo si las imágenes se cargan en la biblioteca de fotos de iCloud, pero ha enturbiado un poco las aguas al admitir que una fase inicial de digitalización tener lugar en el teléfono.) Ahora, sin embargo, acordó posponer el lanzamiento de la función mientras trabaja para mejorar su implementación.

Las políticas debían lanzarse a finales de este año, pero ahora se retrasarán. Apple no ha anunciado una nueva línea de tiempo, pero solo dijo que tomaría "tiempo extra" responder a las críticas y trabajar en el proyecto.

"El mes pasado, anunciamos planes de funciones para ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, y para limitar la propagación de material de abuso sexual de todo el mundo. Niños", dijo la compañía en un declaración a The Verge.

"Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar comentarios y realizar mejoras antes de publicarlos. Características de seguridad infantil de importancia crucial. "

Pero no todo el mundo está contento con esta concesión. La Electronic Frontier Foundation (EFF), aunque dijo que estaba contenta con la demora, instó a Apple a abandonar el plan por completo.

"EFF se complace de que Apple esté escuchando las preocupaciones de los clientes, investigadores, organizaciones de libertades civiles, activistas de derechos humanos, personas LGBTQ, jóvenes y representantes de la juventud y representantes de todo el mundo. Otros grupos, con respecto a los peligros que plantean sus herramientas de análisis telefónico ", escribió el grupo (a través de Cult of Mac).

"Pero la empresa necesita ir más allá de la mera escucha y abandonar por completo su plan de poner una puerta trasera en su cifrado. Las funciones que Apple anunció hace un mes, destinadas a ayudar a proteger a los niños, crearían una infraestructura demasiado fácil de redirigir a más vigilancia y censura". . "

Este artículo apareció originalmente en Macworld Suecia. Traducción y reportaje adicional de David Price.