Ya ha pasado un año desde la entrada en vigor del Reglamento General de Protección de Datos —el famoso RGPD—, que prometía blindar nuestra privacidad en internet frente a los abusos empresariales en el entorno digital. En teoría, hemos sido partícipes de una revolución en la gestión de la información durante esta nueva era. Pero, en la práctica… ¿Hemos notado algo en la práctica? Lo cierto es que las sanciones europeas que hemos visto durante este primer año han sido puntuales y aisladas. ¿Será cuestión de tiempo que veamos más y mayores castigos o es que las empresas están empezando a portarse bien?
En caso de que sea esto último, todavía les queda bastante camino por recorrer. Según el informe Why addressing ethical questions in will benefit organizations, llevado a cabo por la consultora Capgemini, nueve de cada diez directivos —concretamente, el 86% de ellos— reconocen haber visto usos éticamente cuestionables de inteligencia artificial en su empresa en los dos o tres últimos años. Las encuestas a 1.580 altos cargos de grandes empresas para la realización de este informe desvelaron que, entre las prácticas más cuestionables que realizan las grandes corporaciones, destacan el uso de datos de clientes sin su consentimiento o la excesiva dependencia de la analítica de datos en la toma de decisiones, sobre todo en el sector bancario.
Para los directivos, la principal razón para que esto suceda es la presión para implementar soluciones de inteligencia artificial en su compañía, una presión que suele venir motivada por la urgencia de obtener ventaja frente a sus competidores en un ecosistema en el que el pez más rápido se come al lento. En este contexto, las empresas pueden incrementar el ritmo de la innovación en detrimento de las consideraciones éticas inherentes al tratamiento de grandes volúmenes de información.
Siguiendo este razonamiento, no es de extrañar que entre los siguientes motivos que citan los encuestados para explicar los usos cuestionables que hacen sus empresas de la inteligencia artificial se encuentren la falta de recursos para construir sistemas que tengan en cuenta cuestiones de privacidad o la posible existencia de sesgos en los algoritmos o, directamente, la ausencia de una perspectiva ética en el desarrollo de estos sistemas.
“El principal problema es que muchas personas quieren aplicar ciertos métodos solo porque está de moda, pero no entienden realmente en qué consisten y no saben si están alineados con el problema de negocio ni cómo han sido entrenados”, critica Diego Miranda-Saavedra, científico de datos y profesor de la Universitat Oberta de Cataluya. “La dependencia de la analitica de datos, por ejemplo, puede darse en estas circunstancias, cuando estás vendido porque no entiendes bien lo que estás haciendo. Cuando dependes del ordenador y no es este quien depende de ti”.
Para este docente, el reto al que se enfrentan las empresas a la hora de eliminar los sesgos presentes en los algoritmos también se acrecienta por este motivo y apunta que la falta de comprensión a la hora de definir los sistemas inteligentes puede alejarlas de este propósito. “Para combatir estos sesgos es necesario sentarse a pensar con papel y lápiz”, apunta. “Por desgracia, esto es contrario a la corriente actual por la que mucha gente piensa que todo consiste en apretar un botón y ya está, que es posible modificar cosas complejas sin llegar a entenderlas en profundidad”.
Muchos quieren aplicar ciertos métodos solo porque está de moda, sin entender en qué consisten o si están alineados con el problema de negocio
Diego Miranda-Saavedra, científico de datos y profesor de la Universitat Oberta de Cataluya
Moisés Barrio, letrado del Consejo de Estado, profesor y experto en ciberderecho, considera que, al hablar de incumplimiento de normativas, no existe un problema de falta de regulación de la inteligencia artificial que sí está presente en otros contextos, como en el desarrollo del coche autónomo. No obstante, opina que, pese a que la protección de datos es un derecho fundamental en la Unión Europea desde hace cerca de 20 años, el sistema actual no termina de proteger a los ciudadanos como debería.
“El modelo en la práctica es de aviso y consentimiento y concluye que la privacidad se pierde una vez que la información es revelada voluntariamente”, resume. “Este régimen pudo funcionar antes, pero no ahora, en un entorno en el que la desnudez constante es el precio de la admisión en los servicios digitales”.
La solución que propone Barrio pasa por reforzar los controles públicos para asegurar que se cumple la normativa. Incluso va un paso más allá e indica que tendría sentido reconfigurar el modelo en un nuevo paradigma en el que se establezca una relación más fuerte entre privacidad y confianza. “El usuario controlaría en tiempo real el acceso y el uso de sus datos por medio de un sistema que se completaría con tecnología blockchain para mantener en todo momento la soberanía del usuario sobre sus datos”, plantea.
No hay comentarios:
Publicar un comentario