Apple no dará el brazo a torcer con NeuralMatch ante los gobiernos

Retomando la historia de ayer, habíamos establecido que existen muchas preocupaciones por parte de los defensores de la privacidad con respecto al nuevo software de Apple, NeuralMatch, el cual está encaminado a combatir el abuso sexual y la pornografía infantil. Como recordarán, el principal argumento gira en torno a la posibilidad que Apple esté construyendo una puerta trasera; la cual podría ser convertida en una herramienta de vigilancia por gobiernos autoritarios. 

No obstante, Apple ha salido al paso para calmar las aguas y aclarar la situación. En un preguntas y respuestas oficial, la manzana americana clarificó, entre varias cosas, que “esta tecnología se limita a detectar CSAM (material de abuso sexual infantil) almacenado en iCloud y no accederemos a la solicitud de ningún gobierno para expandirlo”. 

Organizaciones defensoras de las libertades civiles como la Electronic Frontier Foundation, han señalado que una de las primeras tecnologías de este tipo fue reutilizada para crear un base de datos de “contenido terrorista”, a la cual las compañías pueden contribuir con muestras para banear dicho tipo de contenido. Así que ¿Qué detiene al proyecto de Apple de sufrir el mismo destino? 

Apple promete que este no será el caso 

En el documento publicado por la compañía, Apple argumenta que cuenta con salvaguardias para evitar que sus sistemas se utilicen para detectar cualquier otra cosa que no sean imágenes de abuso sexual. Dice que su lista de imágenes prohibidas es proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y otras organizaciones de seguridad infantil. Adicionalmente, no hay reporte automatizado a las autoridades, un humano revisará cada caso de manera individual. 

Apple promete que este no será el caso

“Como resultado, el sistema está diseñado únicamente para reportar fotos que se conocen como CSAM en iCloud Photos”, aseguró la empresa americana. 

Apple indica que rechazará las demandas de cualquier gobierno por añadir imágenes a la base de datos que no entren en esta categoría. Encima de eso, la compañía saca pecho de haber rechazado firmemente en el pasado demandas de gobiernos en buscar de implementar funciones que degradan la privacidad de los usuarios. 

En la otra cara de la moneda, están aquellos que argumentan que esto último no es del todo cierto. Como evidencia de ello mencionan el hecho de que la marca vende iPhones con FaceTime desactivado en países que no aceptan llamadas telefónicas encriptadas; esto por no mencionar aquel infame momento en que dobló la rodilla a China al remover miles de aplicaciones de la App Store. 

No obstante, el documento peca de no abordar algunas inquietudes sobre la función que escanea los mensajes en busca de material sexualmente explícito. Supuestamente la función no comparte ninguna información con Apple o la policía; pero no dice cómo se asegura de que el enfoque de la herramienta permanezca únicamente en imágenes sexualmente explícitas. 

Por último, existe la preocupación de que el algoritmo clasifique erróneamente el contenido, pues como todos sabrán, a la tecnología de aprendizaje automático le lleva su tiempo madurar. 

Vía | Apple 

Nos gustaría tener tu opinión

Deje una respuesta

Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Más información

ACEPTAR
Aviso de cookies
GizLogic
Logo