Craig Federighi aclara detalles sobre el escaneo de seguridad infantil de Apple


Craig Federighi, ejecutivo de Apple, dice iCloud Photos ’ planea buscar material de abuso sexual infantil (o CSAM) incluirá «múltiples niveles de auditabilidad». En una entrevista con El periodico de Wall Street, Federighi, vicepresidente senior de ingeniería de software de Apple, ofreció nuevos detalles sobre sus controvertidas medidas de seguridad infantil. Eso incluye la afirmación de que el escaneo a nivel de dispositivo del iPad y el iPhone ayudará a los expertos en seguridad a verificar que Apple está usando el sistema de manera responsable.

Al igual que muchas empresas con servicios de almacenamiento en la nube, Apple comparará las imágenes de iCloud Photos con una lista del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), buscando coincidencias exactas con imágenes conocidas de CSAM. Pero a diferencia de muchos servicios, ejecutará búsquedas en el dispositivo, no de forma totalmente remota. “Imagínese que alguien estuviera escaneando imágenes en la nube. Bueno, ¿quién sabe qué se está escaneando? Federighi dijo, refiriéndose a los escaneos remotos. “En nuestro caso, la base de datos se envía en el dispositivo. La gente puede ver y es una sola imagen en todos los países «.

Federighi elaboró ​​un poco sobre cómo esto podría dar confianza a la gente. Apple no está ampliando mucho la base de datos para incluir material además de CSAM ilegal, particularmente en países con políticas de censura restrictivas.

“Enviamos el mismo software en China con la misma base de datos que enviamos en Estados Unidos, como enviamos en Europa. Si alguien viniera a Apple [with a request to scan for data beyond CSAM], Apple diría que no. Pero digamos que no tiene confianza. No querrás confiar simplemente en que Apple diga que no. Quieres estar seguro de que Apple no se saldrá con la suya si dijimos que sí «, le dijo al diario. «Hay varios niveles de auditabilidad, por lo que nos aseguramos de que no tenga que confiar en ninguna entidad, o incluso en ningún país, en cuanto a las imágenes que forman parte de este proceso».

Apple ha dicho anteriormente que solo está implementando el sistema en los Estados Unidos y que lo hará considerar lanzar en otros países sobre una base de caso por caso. La empresa confirmó El borde que Apple enviará la base de datos hash de CSAM conocido en el sistema operativo en todos los países, pero solo se usará para escanear en los EE. UU. El diario Además aclara que habrá un auditor independiente que podrá verificar las imágenes involucradas.

Federighi también ofreció más detalles sobre cuándo el sistema de escaneo notificará a un moderador de Apple sobre un posible contenido ilegal. Apple ha dicho antes que una sola coincidencia no activará una bandera roja, una medida destinada a prevenir falsos positivos. En cambio, el sistema genera «vales de seguridad» para cada partido y alerta a Apple si el número alcanza un cierto umbral. Apple se ha negado a publicar el umbral exacto, diciendo que esto podría permitir a los abusadores evadir la detección. Pero Federighi dice que es «del orden de 30 imágenes de pornografía infantil conocidas».

Algunos expertos en seguridad han elogiado cautelosamente el sistema de Apple y han reconocido la importancia de encontrar CSAM en línea. Pero muchos tienen criticó el lanzamiento abrupto de Apple y falta de claridad sobre cómo funcionaba el sistema. En su entrevista con el diario, Federighi reconoció la confusión. «Está realmente claro que muchos mensajes se mezclaron bastante mal en términos de cómo se entendieron las cosas», dijo.



Fuente: The Verge

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad