La llegada de la inteligencia artificial a las operaciones diarias de las empresas españolas ha supuesto un salto cualitativo en su productividad, pero también plantea nuevos desafíos en materia de privacidad de los datos. Según un estudio, el 84% de las compañías en España ya han incorporado la IA en su flujo de trabajo diario, mientras que seis de cada diez (61%) han reforzado las medidas de protección de datos para reducir los riesgos asociados a su adopción.
El estudio también revela que el uso de la inteligencia artificial aún no se extiende a todas las áreas de las empresas: solo una de cada cuatro (27%) afirma haberla integrado en la mayoría de sus procesos o haber alcanzado un nivel avanzado de implementación. Estos datos muestran que las organizaciones españolas continúan priorizando la consolidación y mejora de sus procesos internos antes que apostar decididamente por la innovación disruptiva.
La percepción del riesgo es real, pero no existe una estrategia para mitigarlo
Aunque los directivos españoles son conscientes de los riesgos que implica el uso de la inteligencia artificial en el ámbito laboral, solo uno de cada cinco (20%) ha destinado parte del presupuesto tecnológico a nuevas medidas de protección. La mayoría opta por optimizar procesos existentes antes que invertir en soluciones específicas.
El 36% de las empresas prefiere obtener el consentimiento explícito de los usuarios y fomentar la transparencia como garantía de privacidad, mientras que otro 36% recurre a la anonimización de datos. Todo ello evidencia que, en general, las compañías españolas carecen de una estrategia uniforme para mitigar los riesgos sobre la privacidad y actúan de manera reactiva ante cada situación.
La adopción correcta y segura de la IA requiere una base digital sólida, en la que los proveedores de software desempeñan un papel fundamental en el acompañamiento y la implementación adecuada
La gran mayoría de las empresas no cuentan con planes de riesgo de IA
El estudio de Zoho también destaca los principales obstáculos para la implementación de la IA. Un 33% de los encuestados señala la falta de preparación técnica como la causa principal del retraso, un 32% expresa preocupación por los riesgos de privacidad y seguridad, un 25% alude a las dificultades normativas y un 15% admite que su desconfianza surge tras haber sufrido incidentes o robos de información sensible.
Ante posibles errores o fallos en los modelos de inteligencia artificial, solo un 27% de las empresas estaría dispuesta a abandonar su uso, un 37% mantendría la tecnología incrementando la supervisión humana y un 22% optaría por reducir su implementación. Llama la atención que apenas el 14% de los directivos cuenta con planes de contingencia para responder a incidentes relacionados con la IA, lo que significa que el 86% de las compañías sigue sin una estrategia de gestión de riesgos específica.
Ahora más que nunca, no se trata de una aplicación concreta, sino de una estrategia integral para maximizar la IA en el ámbito de la empresa, con garantías
Para garantizar la integridad de los datos, una de cada tres empresas (33%) recurre a auditorías de calidad y riesgo realizadas por terceros, mientras que un 34% las lleva a cabo de forma periódica. Sin embargo, solo el 23% de las compañías dispone de comités éticos que regulen el uso de la inteligencia artificial, lo que evidencia que la gestión del riesgo operativo sigue siendo prioritaria frente a la reflexión ética sobre el impacto de la tecnología.
