Los planes de Apple para escanear en busca de imágenes sexuales infantiles avanzan

Durante el verano, Apple lanzó planes para escanear automáticamente fotos de iPhone en busca de material de abuso sexual infantil (CSAM), una decisión que recibió una reacción inmediata de algunos expertos en privacidad.

Ahora, un grupo de destacados expertos en informática y seguridad ha publicado un artículo que documenta sus preocupaciones sobre el software propuesto, según ComputerWeekly.com. El documento, no revisado por pares, se publicó a través de la Universidad de Columbia y Arxiv, una base de datos de investigación de acceso abierto.

Muchas empresas de Internet buscan MASI, incluidos los gigantes de las redes sociales como Facebook, informa Vox. Pero mientras estos escaneos se realizan en servidores externos, el plan de Apple escanearía fotos destinadas a cuentas de iCloud en dispositivos personales como iPhones. Además, Apple planea permitir que los padres opten por escanear fotos enviadas a través de Mensajes por usuarios menores de 12 años. Vox informes.

Escanear fotos en los teléfonos, a diferencia de los servidores centralizados, se denomina «escaneo del lado del cliente» o CSS, y eso es lo que preocupa a los autores de este nuevo artículo. Dicen que el problema no es escanear en busca de CSAM, sino los posibles usos futuros de la tecnología CSS.

El escaneo del lado del cliente (CSS) podría ser enormemente problemático para la privacidad personal y la seguridad

“Incluso si se implementara inicialmente para escanear material de abuso sexual infantil, contenido que es claramente ilegal, habría una enorme presión para expandir su alcance”, escriben los autores. “Entonces nos veríamos en apuros para encontrar alguna forma de resistir su expansión o controlar el abuso del sistema”.

Los autores señalan preocupaciones sobre el potencial para apuntar a todo, desde el activismo político hasta el crimen organizado y el terrorismo y las personas LGBTQ+, dependiendo de a quién busque un gobierno determinado. Si esta tecnología abrió la puerta a los teléfonos de las personas, podría imaginarse la presión para abrir esa puerta y buscar imágenes asociadas con opiniones políticas impopulares o mensajes antiautoritarios de gobiernos autoritarios.

La reacción inicial al plan llevó a la compañía a reelaborar, pero mantener, la propuesta para iPhone CSS, informa Ars Technica. Además, Apple escribió una serie de respuestas a algunas preguntas sobre el tema. En respuesta a una pregunta sobre si los gobiernos podrían hacer que Apple escanee en busca de cosas que no sean CSAM, la compañía dijo que «rechazaría tales demandas» y que «esta tecnología se limita a detectar CSAM almacenado en iCloud y no accederemos a ningún gobierno». solicitud para ampliarlo.”

Apple se ha mantenido firme en cuestiones de privacidad antes, como con la solicitud del FBI para desbloquear el iPhone del tirador de San Bernardino en 2016. Aunque el FBI finalmente se metió en el teléfono, Apple se negó a ayudar, según el borde.

Pero las preocupaciones no se limitan a los actores estatales. El documento cita preocupaciones con personas como policías corruptos o incluso familiares. “Considere, por ejemplo, una mujer que planea escapar de una pareja violenta o controladora que abusa tanto de ella como de sus hijos”, escriben los autores. «El abusador a menudo instalará software de acosador en los teléfonos familiares, y puede usar la infraestructura de ‘hogar inteligente’, como timbres de video, como una forma de controlarlos».

Apple ha respondido a preguntas como si la función «evitará que los niños en hogares abusivos busquen ayuda» declarando en su sitio web que «la función de seguridad de la comunicación se aplica solo a fotos sexualmente explícitas compartidas o recibidas en Mensajes». Otras comunicaciones que las víctimas pueden usar para buscar ayuda, incluido el texto en Mensajes, no se ven afectadas”, y tenga en cuenta que están agregando soporte en Siri y Search para brindar más apoyo a las víctimas de abuso.

La respuesta a esta propuesta no ha sido uniformemente negativa: el borde señala que algunos expertos están satisfechos con el potencial para interceptar MASI. Y para los niños que crecen en una sociedad centrada en Internet, es increíblemente importante mantenerlos seguros en línea.

Asegúrese de mantener a sus hijos fuera de línea tanto como sea posible y educados cuando estén en línea

Una de las cosas más importantes que puede hacer, además de mantener a sus hijos alejados de Internet y de los teléfonos inteligentes durante el mayor tiempo posible, es hablar con sus hijos sobre la seguridad en Internet y la privacidad de los datos, haciéndoles saber la realidad de la vigilancia, la recopilación de datos , y posibles malos actores en el mundo de hoy.

A medida que el mundo crece en línea, será un desafío encontrar soluciones viables para mantener a las personas, y en particular a los niños, seguras y mantener nuestros datos fuera de la vista de todos, desde delincuentes hasta gobiernos autoritarios y empresas privadas.

Los autores de este nuevo artículo señalan algunas de las mayores implicaciones potenciales de la vigilancia masiva. “La introducción del escaneo en nuestros dispositivos personales, dispositivos que guardan información desde notas de tareas pendientes hasta textos y fotos de seres queridos, desgarra el corazón de la privacidad de los ciudadanos individuales”, escriben. “Tal vigilancia masiva puede resultar en un efecto paralizador significativo en la libertad de expresión y, de hecho, en la democracia misma”.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *