Apple anunciado que el El iPhone pronto escaneará fotos en el dispositivo para buscar contenidos nefastos. A medida que los usuarios actualicen su iOS, esta función pronto estará en los más de 1.000 millones de iPhones en todos los países 1 .
El primer uso de esta nueva función es escanear fotos de iPhones estadounidenses en busca de material de abuso sexual infantil (CSAM). Pero no está claro qué usos futuros tiene, sobre todo fuera de EE.UU., y especialmente en países cuyos gobiernos no son tolerantes con la disidencia política, LGBTQ, los derechos de las mujeres y otras actividades "ilegales".
Pregunta
¿Ha publicado Apple un documento normativo en el que se detalla cómo va a trabajar con los gobiernos para decidir qué escanear, y si hay algún límite que ponga a lo que los gobiernos pueden solicitar que Apple escanee?
Ejemplo
Supongamos que se crea un meme burlándose de un líder político ruso o chino; y que los respectivos gobiernos piden a Apple que escanee los iPhones en busca de ese meme para averiguar quién más puede haberlo compartido o incluso quién lo ha creado: ¿hay algún documento de política disponible para que podamos saber de antemano si Apple cumpliría automáticamente?
1 En los iPhones que utilizan iOS15 y que hacen copias de seguridad de las fotos en iCloud ( <a href="https://edwardsnowden.substack.com/p/all-seeing-i" rel="nofollow noreferrer">~85% de todos los iPhones </a>).