Smartphones

Apple analizará fotos en iPhones e iCloud en busca de abuso infantil

El tema seguridad vs. privacidad se vuelve cada vez más complicado

La relación entre la seguridad y la privacidad en medios digitales siempre ha sido un tema muy delicado, a medida que más y más de nuestra información se encuentra al alcance de grandes compañías. Hoy, se acaba de revelar que Apple va a revisar todas tus fotografías en búsqueda de cuentas que muestren abuso a menores.

De acuerdo con un reporte de The Financial Times, Apple acaba de poner en marcha un sistema llamado neuralMatch en Estados Unidos, el cual analizará todas y cada una de las fotografía que los usuarios tengan en su aplicación de Fotos o iCloud. El objetivo es encontrar imágenes de abuso infantil para poder reportar esas cuentas a las autoridades.

"Según fuentes, cada foto que se suba a iCloud en Estados Unidos recibirá un 'vale de seguridad', que indica si es sospechosa o no", aseguró The Financial Times. "Una vez que un cierto número de fotos se marcan como sospechosas, Apple permitirá que todas las fotos sospechosas se descifren y, si aparentemente son ilegales, se transmitirán a las autoridades pertinentes".

Según The Verge, cualquier compañía que tenga infraestructura en la nube ya analiza todos los contenidos en busca de imágenes de abuso infantil. No obstante, Apple estaría cruzando más la línea, al permitir a su sistema analizar archivos locales en los smartphones de sus usuarios.

Por otra parte, si bien la compañía dice que neuralMatch solo se utilizará para buscar imágenes de abuso infantil, en cualquier momento podría cambiar de parecer y darle más permisos o indicaciones. Y llegado a ese punto, ¿en dónde queda la privacidad del usuario? Sin duda, el tema privacidad vs. seguridad en lo digital solo se volverá más y más incómodo a medida que avance la tecnología.

¿Qué te parece esta noticia? ¡Déjanos tus comentarios!

Deja tu comentario

Nuevo

  • Nuevo

  • Trending

Subir
Advertising