La GDPR es la nueva regulación sobre la protección y privacidad de datos personales a nivel europeo que pone de manifiesto que los datos pertenecen a los usuarios y no a las empresas que los captan y los gestionan.
El 25 de mayo de 2018 se cumple el plazo de aplicación de la normativa en todos los países miembros de la Comunidad Europea y su incumplimiento implica sanciones desde 10M€ para infracciones leves hasta 20 M€ o el 4% de la facturación anual mundial para infracciones graves.
Si tenemos en cuenta la complejidad de la implantación de la GDPR en aquellas empresas u organismos con una estructura de captación de datos muy diversificada, es evidente el nivel de complejidad para llevar a cabo dicha implantación.
En Enzyme Advising Group hemos desarrollado un Web Crawler para un proyecto empresarial a nivel local que permite, mediante Data Discovery Services, nuestro servicio de agregación contenido web, rastrear aquellas webs del propio organismo en las que existen formularios de entrada de datos para los usuarios.
La magnitud del análisis es ingente, ya que existen multitud de sites en más de 10M webs donde buscar formularios que están descentralizados y en un entorno totalmente heterogéneo.
Para poder ofrecer una solución ágil y segura que facilite el trabajo de revisión de todos los formularios de las diferentes webs, se ha desarrollado en Java un Web Crawler para que rastree de forma automática todas las webs del cliente y así poder identificar si existen formularios que sean susceptibles de incumplir la nueva directiva europea de la GDPR.
Con el objetivo de poder hacer el seguimiento de la efectividad del Web Crawler se realiza un contraste aleatorio de algunos resultados para poder ajustar su fiabilidad.
Mediante el Web Crawler se generan informes aplicando filtros selectivos que permitan realizar acciones concretas. Un Web Crawler actúa como una araña que recorre miles de sites.
Para abordar un proyecto de esta envergadura, bien por las dimensiones del cliente, bien por la cantidad de dispersión que este pueda tener en la red en diferentes sites o webs repartidas con formularios de entrada de datos de clientes, es necesario pensar en una solución global, automatizada que permita filtrar por diferentes criterios.
Con un proyecto de Web Crawler aplicado a la GDPR se puede llevar a cabo una labor que podría ser de una magnitud importante, de una manera ágil y automatizada. En nuestro caso los resultados hablan por si solos:
Si consideramos las cuantías especificadas por la Unión Europea en caso de incumplimiento de la nueva directiva y aunque quizá, en un principio no se aplique con todo el rigor, es obvio que la dirección a la que debemos apuntar es a la de no dejar nada en el tintero susceptible de pasar por el tamiz de la GDPR.
De ahí, la necesidad de poder contar con tecnologías como las basadas en el Information as a Service que brindan la posibilidad de encontrar en un mar infinito lo que estamos buscando. Son muchos los portales que aplican este tipo de tecnología para convertirse en agregadores de información que permiten que los clientes puedan realizar comparativas de un mismo servicio o producto ofrecido por diversas empresas.
Si requieres de más información de GDPR descargate nuestro eBook gratuito aquí y descubrirás un caso de uso en el que se aplica a chatbots.
Creamos nuevos productos y servicios superiores hibridando la tecnología con los modelos de negocio
¿En que estás interesado?
¡Ya has completado el formulario!
¡Ya has completado el formulario! Revisaremos tu solicitud y nos pondremos en contacto contigo lo antes posible.
Gracias por confiar en nosotros.