¿Qué Software es apto para su empresa?

Acceda a nuestros evaluadores

Gracias al uso de datos, con el talento adecuado y la imprescindible alineación de las estrategias de negocio a la hora de implementar soluciones innovadoras, es posible generar inteligencias que ayudan a resolver una gran diversidad de problemas así como a abordar nuevas oportunidades.

En este artículo, se abordan las claves para hacer un uso responsable de los datos y algoritmos que refuerce la confianza de la sociedad en los nuevos servicios digitales.

Tenemos a nuestro alcance una capacidad mejorada para tomar decisiones, tenemos una visión mucho más profunda de cómo son y qué necesitan nuestros clientes. Pero estas nuevas capacidades, como cualquier otra herramienta, se pueden usar para finalidades positivas, y para otras que pueden no serlo tanto, ya sea de forma deliberada o no. Analicemos los riesgos asociados al uso de datos y algoritmos, y orientemos sus aplicaciones hacia el refuerzo de la confianza de la sociedad en los nuevos servicios digitales sobre los siguientes elementos fundamentales: la autorregulación, la transparencia, la divulgación y pedagogía sobre el uso de los datos (data literacy, precisamente lo que motiva este artículo), y por último, el diseño de servicios centrados en las personas, utilizando los datos para resolver los problemas de la gente.

Tipos de datos

Para comprender mejor las implicaciones en el uso de datos primero debemos entender cómo se clasifican. En una taxonomía simplificada la primera bifurcación que podemos hacer es entre datos relativos a “objetos” por un lado, y datos relativos a “personas” por otro.

Un ejemplo sobre el primer tipo de datos es la cartografía de una ciudad: la representación de sus calles, parques, edificios, servicios públicos y privados, y todos sus cambios a lo largo del tiempo. Estos datos pueden ser registrados y ordenados por el sector público o por empresas privadas(Google, Apple). Los casos de uso de dichas fuentes quedarán regulados por los términos de uso que haya definido la institución que recabó la información, la procesó, limpió y que la pone a disposición de quienes quieran utilizarla.

Sin embargo, para poder hacer uso del segundo tipo de datos hace falta además el permiso explícito de la persona a la que está referida la información, del mismo modo que un fotógrafo no puede hacer uso libre de una imagen en la que aparezca una persona: por mucho que la cámara y la tarjeta de memoria en la que quedó registrada la obra sean de su propiedad, necesitará el consentimiento de la persona en el uso de su imagen, porque este uso puede afectar a su derecho a la intimidad. Es el caso de los datos que recaban y procesan las empresas privadas en la prestación de servicios a sus clientes, que pueden clasificarse del siguiente modo:

  1. Datos directamente declarados por el usuario (ej. domicilio de residencia informado en el momento de contratar un servicio)
  2. Datos directamente observados (ej. datos que registra el banco sobre pagos con tarjeta, al posibilitar dichos pagos)
  3. Datos inferidos (ej. propensión a contratar determinados servicios, obtenido como resultado de un modelo que emplea como ‘input’ datos declarados u observados, o incluso fuentes tipo D)
  4. Datos recabados por terceros.

Es importante destacar que en cualquiera de los casos, resulta imprescindible informar y obtener el consentimiento explícito por parte de la persona que generó esta huella ante los usos previstos, Entre las regulaciones que estipulan el uso de los datos privados se encuentra el reglamento general de protección de datos de la unión europea (GDPR).

Décadas atrás –al comienzo de la digitalización de los sistemas de información– para una empresa (o gobierno), los clientes (o ciudadanos) eran representados por vectores de muy pocos campos (básicamente los de tipo A). Sin embargo, hoy en día cada persona es definida por vectores de muchas más variables, pues las componentes B y C han aumentado muchísimo en volumen e importancia, y en determinados casos se han comenzado a combinar también con componentes tipo D, si el cliente ha otorgado las debidas autorizaciones. Esta mayor profundidad en la información, junto con la capacidad de hallar correlaciones antes invisibles entre multitud de hechos –que luego guiarán decisiones que van a afectar a las personas–, deposita sobre quienes trabajamos con datos una gran responsabilidad.

Aunque contemos con la asistencia de inteligencias aumentadas, la responsabilidad de la acción sigue siendo de los humanos

Riesgos en el desarrollo de soluciones basadas en datos y formas de evitarlos

En este sentido, hay distintas cuestiones a considerar. la información deficiente sobre qué datos recoge una compañía y para qué propósitos se emplean por un lado, junto con violaciones de la privacidad por otro.

La adecuada custodia de la información personal, garantizando su seguridad, y el establecimiento de canales informativos que permitan ejercer fácilmente los derechos de la persona, junto con el máximo rigor en la interpretación del marco legal y ético, son las claves para no incurrir en estos riesgos, siendo uno de los más graves el uso no consentido de datos (tanto por cesión como por adquisición de datos sobre los cuales la persona no está al tanto). La transparencia y la autorregulación han de guiar toda nueva propuesta de aplicación basada en datos.

Soluciones disfuncionales

Un exceso de confianza en los datos y en los algoritmos, o presiones para lanzar aplicaciones insuficientemente avaladas, pueden llevar a ofrecer respuestas equivocadas. Son paradigmáticos algunos errores en la información cartográfica de los sistemas de navegación que han causado accidentes, y podemos imaginarnos las implicaciones de un falso negativo en un sistema de diagnóstico clínico. La solución ante esto ha de ser doble: por un lado el buen gobierno de datos ha de velar por la calidad de los mismos, y por otro, los procesos de auditoría algorítmica y de revisión por pares han de garantizar siempre el rigor metodológico y la validez de las soluciones antes de su lanzamiento.

Discriminación injusta

Dado que hemos pasado de programar máquinas a ayudarles a aprender, un modelo analítico puede reflejar hechos implícitos en los datos de aprendizaje que resulten discriminatorios para determinados colectivos vulnerables. Es nuestro deber conocer los sesgos existentes en los datos de entrenamiento, controlarlos y mitigarlos, y no utilizar la inteligencia artificial para ampliar brechas preexistentes. Tampoco podemos escudarse en la inescrutabilidad de los modelos que emplean redes neuronales: a la hora de aplicarlos a decisiones de negocio han de ser identificadas en la medida de lo posible las variables que más pesaron en la decisión adoptada, para informar a las personas afectadas, en un ejercicio de transparencia orientado a que puedan corregir aquello que esté en su mano en futuras ocasiones. Aunque contemos con la asistencia de inteligencias aumentadas, la responsabilidad de la acción sigue siendo de los humanos que se apoyan en ellas.

Fuente: BBVA – Uso respondanle de datos y algoritmos.

Adaptado por la división consultoría de EvaluandoSoftware.com

 

¿Qué Software es apto para su empresa?

Acceda a nuestros evaluadores