Apple se disculpa por las escuchas de Siri y anuncia mejoras en las protecciones de privacidad

La compañía ha interrumpido el programa de evaluación de su asistente virtual y pretenden retomarlo en otoño cuando las actualizaciones de software estén disponibles para los usuarios.

Publicado el 29 Ago 2019

Apple se disculpa por las escuchas de Siri y anuncias mejoras en las protecciones de privacidad.

Tras hacerse público que el asistente digital de Apple, Siri, compartió escuchas de usuarios con trabajadores de control de calidad, la compañía de la manzana ha lanzado un comunicado en el que se disculpa por esta actividad poco lícita y anuncia mejoras en las protecciones de privacidad.

“En Apple creemos que la privacidad es un derecho humano fundamental. Diseñamos nuestros productos para proteger los datos personales de los usuarios y trabajamos constantemente para reforzar esas protecciones. Esto también se aplica a nuestros servicios. Nuestro objetivo con Siri, el pionero asistente inteligente, es ofrecer la mejor experiencia a los clientes al tiempo que protegemos con toda atención su privacidad”, señala la firma.

“Sabemos que los clientes han tenido dudas debido a noticias recientes sobre personas que escuchaban las grabaciones de audio de Siri como parte de nuestro proceso de evaluación de la calidad de Siri (en inglés, “grading”). Atendiendo a sus dudas, suspendimos de inmediato la evaluación por parte de humanos de las peticiones a Siri y hemos iniciado una profunda revisión de nuestras prácticas y políticas. Como resultado, hemos decidido hacer algunos cambios en Siri”, continúa.

En este sentido, Apple reconoce que su asistente se ha diseñado para proteger la privacidad del usuario desde el principio. “Nuestra prioridad es hacer que el máximo de tareas se realicen en el propio dispositivo, minimizando la cantidad de datos que recogemos con Siri. Cuando almacenamos datos de Siri en nuestros servidores, no los usamos para crear un perfil de marketing y nunca los vendemos a nadie. Usamos los datos de Siri únicamente para mejorar Siri, y desarrollamos tecnologías constantemente para que Siri sea aún más privado”, admite.

Explica la compañía que Siri utiliza la menor cantidad posible de datos para ofrecer un resultado preciso. Por ejemplo, al preguntar sobre un evento deportivo, Siri utiliza la ubicación general para ofrecer resultados adecuados. Y al preguntar por el supermercado más cercano utiliza datos de ubicación más específicos. Si se pide a Siri que lea los mensajes nuevos, Siri simplemente da la instrucción al propio dispositivo para que los lea en voz alta. El contenido de los mensajes no se transmite a los servidores de Siri porque no es necesario para cumplir esa petición del usuario.

Asimismo, el asistente emplea un identificador aleatorio (una larga cadena de letras y números asociada a un solo dispositivo) para hacer un seguimiento de los datos mientras se procesan, de modo que los datos no son vinculados a la identidad del usuario mediante su ID de Apple o número de teléfono, y creemos que este proceso es único entre los asistentes digitales utilizados actualmente. Para mayor protección aún, después de seis meses, los datos del dispositivo se desvinculan incluso del identificador aleatorio.

El uso de datos de Siri

Para poder realizar de forma precisa tareas personalizadas, Siri recoge y almacena algunos datos del dispositivo del usuario. Por ejemplo, cuando Siri detecta un nombre poco habitual, puede usar los nombres de Contactos para asegurarse de reconocerlo correctamente.

Siri también se apoya en datos de las interacciones del usuario con él. Eso incluye el audio de la petición que hace el usuario y una transcripción de ese audio generada por ordenador. En ocasiones Apple utiliza la grabación de audio de una petición, junto con la transcripción, en un proceso de aprendizaje automático que “enseña” a Siri a mejorar.

Antes de suspender el programa de evaluación, entre nuestros procesos estaba el revisar una pequeña muestra de audio de peticiones a Siri (menos de un 0,2%) y sus transcripciones generadas por ordenador para medir hasta qué punto Siri respondía correctamente y para mejorar su fiabilidad. Por ejemplo, ¿era la intención del usuario activar Siri? ¿Entendió Siri la petición correctamente? ¿Y la respondió de forma adecuada?

Modificaciones

Como resultado del análisis llevado a cabo por Apple, “hemos llegado a la conclusión de que no hemos estado totalmente a la altura de nuestros elevados ideales y pedimos disculpas por ello”. Así las cosas, han interrumpido el programa de evaluación de Siri y pretenden retomarlo en otoño “cuando las actualizaciones de software estén disponibles para los usuarios”, y solo después de haber hecho los siguientes cambios:

En primer lugar, por definición, ya no conservaremos grabaciones de audio de las interacciones con Siri. Y seguiremos usando transcripciones generadas por ordenador para ayudar a mejorar Siri.

En segundo lugar, los usuarios podrán activar la opción de ayudar a mejorar Siri mediante el aprendizaje a partir de muestras de audio de sus peticiones. Esperamos que muchas personas elijan contribuir a la mejora de Siri sabiendo que Apple respeta sus datos y cuenta con estrictos controles de privacidad. Las personas que decidan participar podrán retirarse en cualquier momento.

En tercer lugar, si un usuario decide activar la opción de ayudar a mejorar Siri, solo empleados de Apple podrán escuchar las muestras de audio de las interacciones con Siri. Nuestro equipo borrará toda grabación en la que se determine que no había intención de activar Siri.

“Apple tiene el compromiso de poner al cliente en el centro de todo lo que hacemos, lo que incluye proteger su privacidad. Creamos Siri para ayudarles a hacer tareas de forma más rápida y sencilla sin comprometer su derecho a la privacidad. Estamos muy agradecidos a nuestros usuarios por su pasión por Siri y por impulsarnos a mejorar de forma constante”, concluye el texto.

¿Qué te ha parecido este artículo?

Tu opinión es importante para nosotros.

R
Redacción RedesTelecom

Artículos relacionados

Artículo 1 de 2