Revista Capital

Asistentes inteligentes en casa: cómo la voz revela más de lo que pensamos

Los asistentes inteligentes crean perfiles de usuario a partir de voz y metadatos, que pueden usarse con fines comerciales, aunque no se vendan grabaciones

Por Marta Menéndez

En muchas casas actuales, un pequeño altavoz en una esquina o un reloj inteligente en la mesilla han dejado de ser objetos pasivos para convertirse en testigos constantes. Preguntas la previsión del tiempo, enciendes la luz o solicitas una receta y, en cuestión de segundos, una inteligencia artificial (IA) responde. Detrás de esa interacción hay sensores, transmisión de audio, modelos de lenguaje y servidores en la nube que transforman una frase en acción. Pero también hay decisiones empresariales y legales que determinan qué se guarda, cómo se analiza y quién puede acceder a lo que, hasta hace poco, entendíamos como una conversación privada. 

Los asistentes domésticos como Alexa, Google Assistant, Siri y sus equivalentes recogen, procesan y, en muchos casos, almacenan fragmentos de audio junto con metadatos: hora de la interacción, identificador del dispositivo, ubicación aproximada (si está activada) y las rutinas o skills utilizadas. Esa información puede vincularse a una cuenta personal, lo que permite elaborar perfiles de uso: a qué horas pides música, qué compras consultaste o qué recordatorios creaste. Los fabricantes reconocen públicamente este proceso: cuando pronuncias la palabra de activación, el micrófono ‘despierta’ y el audio se envía a los servidores de la empresa para transcribirse y procesarse, salvo funciones puntuales que se resuelven localmente. 

La industria justifica esta transferencia de voz a la nube como necesaria para ofrecer un servicio eficaz: reconocer la solicitud, interpretar el contexto, ejecutar acciones y, cada vez más, utilizar modelos de IA generativa que requieren gran capacidad de cálculo. Cuanto más ‘inteligente’ se vuelve el asistente, más depende del procesamiento remoto y menos del dispositivo. Esa evolución tiene consecuencias prácticas: limita la privacidad local y aumenta el volumen de datos que pueden almacenarse o analizarse externamente. 

Un ejemplo reciente es la decisión de Amazon, en marzo de 2025, de retirar en algunos dispositivos Echo la opción de procesar peticiones de voz sin enviarlas a la nube, alegando que las nuevas funciones de Alexa con IA generativa necesitan procesamiento ‘seguro’ en su infraestructura. El cambio reabre el debate sobre si queremos asistentes más capaces a costa de ceder autonomía de procesamiento doméstico. 

¿Qué hacen las empresas con nuestras voces?

Las respuestas oficiales se agrupan en varias finalidades: mejora del servicio, personalización, seguridad y mantenimiento técnico. Las grabaciones se emplean para entrenar algoritmos de reconocimiento de voz, adaptarse a acentos o corregir errores. También sirven para personalizar la experiencia, como recomendar música según tus hábitos o sugerir rutinas basadas en tu estilo de vida. Además, los registros ayudan a detectar fallos técnicos o usos indebidos. En la práctica, estos fines conviven con una capacidad real de utilizar los datos con otros propósitos menos visibles, como investigación aplicada o análisis de patrones de consumo. 

El profesor Florian Schaub, de la University of Michigan, lo resume así: “Realmente tenemos que confiar en Google y Amazon para que respeten la privacidad de las personas y cumplan con lo que dicen. Sigue siendo un hecho que estás poniendo un micrófono activo dentro de tu casa y en tus espacios íntimos, y es el software el que decide si está grabando solo con la palabra de activación o todo el tiempo”. 

Revisión humana y vulnerabilidad de las grabaciones

La posibilidad de que personas escuchen ciertos fragmentos de audio es uno de los aspectos que más inquieta a los usuarios. Aunque la mayoría de las interacciones se gestionan automáticamente, las empresas han reconocido que parte del audio puede ser revisado por empleados o contratistas para etiquetar, corregir o evaluar la calidad de las transcripciones. Informes de autoridades y medios han documentado cómo estas prácticas han expuesto conversaciones sensibles: activaciones accidentales, voces de menores o datos privados captados sin intención. 

A ello se suma que investigaciones independientes han demostrado que esos datos no solo se usan para mejorar el servicio, sino también con fines comerciales. El profesor Umar Iqbal, de la Washington University in St. Louis, lo explica así: “Mi equipo y yo descubrimos que Amazon utiliza los datos de interacción con los altavoces inteligentes para inferir los intereses del usuario y, posteriormente, emplea esa información para mostrar publicidad personalizada. Antes de nuestra investigación, Amazon no había sido del todo transparente sobre este uso”. 

¿Se venden nuestras grabaciones?

La pregunta es inevitable: ¿las grandes tecnológicas venden nuestras conversaciones? La respuesta no es simple. Apple sostiene que Siri procesa la mayoría de las interacciones en el dispositivo y que no vende grabaciones de voz. Google y Amazon también niegan comercializar audios de forma directa. Sin embargo, los servicios publicitarios dentro de sus ecosistemas sí pueden aprovechar señales derivadas de la voz como patrones de uso, intereses inferidos o metadatos, para mejorar la segmentación de anuncios. 

Estudios académicos y autoridades de protección de datos han concluido que, aunque no exista un mercado directo de ‘grabaciones de voz’, la combinación de metadatos, historial y comportamiento permite elaborar perfiles extremadamente precisos. La tensión entre lo que las empresas afirman (“no vendemos audios”) y lo que técnicamente pueden hacer con los datos es uno de los principales focos del debate ético y regulatorio. 

Riesgos reales

Los riesgos no son hipotéticos. Las activaciones involuntarias pueden registrar conversaciones íntimas, discusiones familiares o datos personales que, en algunos casos, han llegado a revisores humanos. La vinculación de los asistentes a cuentas de compras, calendarios o salud aumenta esa exposición: se construye una imagen detallada de la vida doméstica. 

Niños y visitantes son colectivos especialmente vulnerables, porque nadie les ha pedido consentimiento para convivir con un micrófono permanente. Además, las grabaciones pueden estar sujetas a solicitudes legales: las empresas publican informes de transparencia sobre requerimientos gubernamentales y, ante una orden judicial válida, pueden verse obligadas a entregar datos. 

Regulación en Europa y España

En Europa, el debate ha avanzado más que en otras regiones en materia de protección de datos. El Comité Europeo de Protección de Datos (EDPB) ha publicado directrices específicas para asistentes de voz, que insisten en la necesidad de transparencia desde la instalación, opciones claras para gestionar el consentimiento mediante voz y la obligación de no ocultar información dentro de políticas de privacidad extensas o combinadas con otros servicios. 

En España, la Agencia Española de Protección de Datos (AEPD) y otros organismos han difundido guías sobre privacidad digital que, aunque no se centran exclusivamente en altavoces inteligentes, proporcionan marcos para proteger a menores y promover buenas prácticas. El Reglamento General de Protección de Datos (RGPD) ya reconoce derechos como acceso, rectificación, supresión y limitación del tratamiento, pero la complejidad técnica de los asistentes plantea retos a la hora de ejercerlos de forma efectiva. 

Qué puede hacer el usuario

A pesar de la complejidad, los usuarios disponen de herramientas para protegerse, aunque a veces implican sacrificar comodidad. Es posible revisar y eliminar el historial de voz asociado a la cuenta, desactivar compras por voz, limitar permisos a aplicaciones o utilizar el botón físico de ‘mute’ cuando se desea privacidad total. 

También existen alternativas como proyectos de código abierto que permiten asistentes locales sin enviar datos a la nube, aunque la experiencia suele ser menos pulida y, en algunos casos, estas opciones están perdiendo terreno a medida que los fabricantes retiran funciones de procesamiento local. La situación actual puede resumirse en una elección: mayor inteligencia y comodidad a cambio de menor control sobre dónde y cómo se procesa nuestra voz. 

Mirando al futuro

En los próximos años, la regulación europea, junto con iniciativas como la Ley de Servicios Digitales y el Reglamento de IA que está en proceso de implementación, pretenden establecer límites más claros sobre transparencia, explicabilidad y supervisión de los modelos que utilizan datos personales. Las autoridades nacionales están reforzando inspecciones y guías prácticas, y los casos judiciales recientes demuestran que la presión legal puede impulsar cambios en contratos y diseños tecnológicos. 

Al mismo tiempo, la tecnología evoluciona con rapidez: la integración de modelos generativos en los asistentes multiplica sus capacidades, pero también las dudas sobre quién controla los datos, cómo se utilizan y quién puede supervisarlos. En última instancia, la discusión sobre asistentes domésticos no es solo técnica, sino política y social.  

Requiere que la industria abandone las políticas de privacidad interminables y que los reguladores exijan opciones reales y comprensibles para los usuarios. Como ciudadanos, informarse, revisar configuraciones, entender qué datos se almacenan y exigir transparencia sobre quién accede a ellos y con qué fines, ya no es una recomendación, sino una forma de recuperar el control en un entorno donde la voz, literalmente, lo dice todo. 

Illa anuncia 1.000 millones hasta 2030 para la estrategia de inteligencia artificial en Cataluña

Únete a nuestra Newsletter

A través de nuestra Newsletter con Capital te hacemos llegar lo más importante que ocurre en el mundo de la #economía, los #negocios, las #empresas, etc… Desde las últimas noticias hasta un resumen con toda la información más relevante al final del día, con toda comodidad.