Contenido creado por Marina Santini
Ciencia y Tecnología

Gran hermano 2019

Informante confesó que Apple escucha conversaciones privadas grabadas por Siri

Los trabajadores escuchan negocios de drogas, información médica confidencial e incluso grabaciones de personas teniendo sexo.

27.07.2019 15:25

Lectura: 3'

2019-07-27T15:25:00-03:00
Compartir en

Los contratistas de Apple escuchan con regularidad información médica confidencial, negocios de drogas y grabaciones de parejas que tienen relaciones sexuales, como parte de su trabajo que proporciona control de calidad, o "clasificación", al asistente de voz de Siri, según informó una fuente reservada al medio inglés The Guardian.

Aunque Apple no lo divulga explícitamente en su documentación de privacidad, una pequeña proporción de las grabaciones de Siri se transfieren a contratistas que trabajan para la compañía en todo el mundo. Tienen la tarea de calificar las respuestas en una variedad de factores, que incluyen si la activación del asistente de voz fue deliberada o accidental, si la consulta era algo en lo que se podía esperar que Siri ayudara y si la respuesta de Siri era apropiada.

Apple dice que los datos "se utilizan para ayudar a Siri y al dictado a comprenderlo mejor y reconocer lo que dice".

"Una pequeña parte de las solicitudes de Siri se analizan para mejorar Siri y el dictado. Las solicitudes de los usuarios no están asociadas con el ID de Apple del usuario. Las respuestas de Siri se analizan en instalaciones seguras y todos los revisores tienen la obligación de cumplir con los estrictos requisitos de confidencialidad de Apple", aseguró la empresa.

La compañía agregó que un subconjunto aleatorio muy pequeño, menos del 1% de las activaciones diarias de Siri, se utilizan para calificar, y los que se utilizan por lo general solo duran unos segundos.

Un informante que trabaja para la firma, que solicitó permanecer en el anonimato debido a los temores sobre su trabajo, expresó su preocupación por esta falta de divulgación, especialmente dada la frecuencia con la que las activaciones accidentales recogen información personal extremadamente sensible.

Siri puede activarse accidentalmente cuando oye erróneamente su "palabra de alerta", la frase "hey Siri". Esos errores pueden ser comprensibles: una entrevista de la BBC sobre Siria fue interrumpida por el asistente el año pasado. "El sonido de una cremallera, Siri a menudo lo escucha como un disparador", dijo el contratista. El servicio también se puede activar de otras maneras. Por ejemplo, si un Apple Watch detecta que se ha activado y luego escucha el habla, Siri se activa automáticamente.

El informante dijo: "Ha habido innumerables casos de grabaciones que muestran discusiones privadas entre médicos y pacientes, negocios, aparentemente asuntos criminales, encuentros sexuales, etc. Estas grabaciones van acompañadas de datos del usuario que muestran la ubicación, los datos de contacto y los datos de la aplicación".