La compañía Apple adelantó que nuevas herramientas detectarán las imágenes de contenido sexual que involucran a niñas o niños en sus diferentes equipos. La acción abarcará a iPhone, iPad e iCloud en Estados Unidos. El tema genera preocupación a quienes defienden la privacidad.
La empresa expresó en un comunicado que “queremos ayudar a proteger a los niños de los depredadores”. Para ello buscan “limitar la difusión de pornografía infantil”. Apple utilizará unas herramientas de cifrado que analizarán y vincularán las imágenes que consideren sospechosas.
La tecnológica también comparará las fotografías subidas al sistema iCloud con un archivo que administra el Centro Nacional de Niños Desaparecidos y Explotados (NCMEC). Se trata de una corporación privada que trabaja para reducir la explotación sexual infantil.
Apple asegura que no accederá a las imágenes, pero cuando una se parezca a una del archivo, la revisará manualmente. Luego deshabilitaría la cuenta y se informará el caso al NCMEC. La empresa también busca prevenir a los menores de edad y a sus responsables con la cuenta “Family Sharing”.
Reuters indica que Apple avisará cuando las fotos explícitas les sean enviadas a la aplicación de mensajes. Se verán borrosas y se remitirá al niño o niña a los mensajes de prevención con una advertencia. Siri y Search también podrán intervenir cuando los usuarios busquen imágenes de pornografía infantil, al advertirles que ese contenido es problemático.
… [Trackback]
[…] Info to that Topic: owl.cactus24.com.ve/2021/08/06/apple-detectara-las-fotos-de-abuso-sexual-infantil-en-sus-equipos/ […]
… [Trackback]
[…] Info to that Topic: owl.cactus24.com.ve/2021/08/06/apple-detectara-las-fotos-de-abuso-sexual-infantil-en-sus-equipos/ […]