Apple aborta la propuesta de escanear iCloud en busca de material de abuso infantil

En verano de 2021 la manzana americana presentaba una de sus propuestas más controversiales hasta la fecha, que se trataba de una serie de medidas para iOS, iPadOS y sus demás sistemas operativos, las cuales estaban encaminadas a combatir el abuso sexual infantil y la circulación de contenido de esta clase. No obstante, y a pesar de las nobles intenciones de Apple, en su momento esta propuesta fue recibida con escepticismo y críticas por los expertos y defensores de la privacidad en línea; esto debido a los medios necesarios para lograrlo y sus posibles repercusiones sobre los usuarios.

En este sentido, Apple tenía en mente usar aprendizaje automático y otras técnicas avanzadas para escanear el contenido almacenado en iCloud de todos sus usuarios en busca de material o evidencia de CSAM (material sobre abuso sexual infantil).

En teoría aquel que no tiene que esconder nada tiene que temer, ¿Verdad? Así es, pero el problema radica en lo sencillo que es para Apple reutilizar esta herramienta para buscar otro tipo de contenidos e implementar una puerta trasera que se prestaría al espionaje. En su momento se discutió lo altamente probable que sería que otras entidades; como el gobierno estadounidense, exigiesen a Apple aplicar su tecnología para luchar contra el terrorismo y la disidencia política; sobra decir que una herramienta así podría abrir la caja de Pandora en más de un país con régimen autoritario.

Petición de oposición contra la herramienta de detección de CSAM de Apple

Apple cancela los planes de su herramienta de detección de CSAM

Con todo eso dicho, y después de haberse pospuesto su implementación de manera indefinida, hoy tenemos confirmación oficial de que la marca de Cupertino decidió echarse para atrás por completo con el plan.

Entrando en detalles, la publicación en línea Wired recogió las más recientes declaraciones de Apple sobre el tema. Por lo tanto, queda totalmente claro que la compañía ha optado por una ruta diferente para lograr sus objetivos.

“Después de una extensa consulta con expertos para recopilar comentarios sobre las iniciativas de protección infantil que propusimos el año pasado, estamos profundizando nuestra inversión en la función Seguridad de la comunicación que pusimos a disposición por primera vez en diciembre de 2021. Además, hemos decidido no seguir adelante con nuestra herramienta de detección de CSAM propuesta anteriormente para iCloud Photos”.

Nuevamente, la manzana mordida tiene buenas intenciones con todo esto; pero la tecnología subyacente presenta muchos riesgos para la privacidad de sus usuarios y entra en el territorio de lo orwelliano. Por lo tanto, quizás sea lo mejor para la compañía abordar el problema desde otra dirección. Además, esto contrasta mucho con la imagen de empresa respetuosa de la privacidad que Apple trata de mantener públicamente.

Vía | Wired

Nos gustaría tener tu opinión

Deje una respuesta

Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Más información

ACEPTAR
Aviso de cookies
GizLogic
Logo