¿Qué Software es apto para su empresa?

Acceda a nuestros evaluadores

Inteligencia artificial es uno de los términos del momento. Es evidente que esta tecnología disruptiva afectará notablemente a la economía y a la sociedad, pero es pronto para conocer su impacto. En consecuencia, las autoridades de diferentes países están tratando de entender los efectos potenciales de esta tecnología y de diseñar su aproximación normativa inicial.

Inteligencia Artificial, el debate

La Inteligencia Artificial (IA) se define como la teoría y el desarrollo de sistemas informáticos capaces de realizar tareas que normalmente requieren inteligencia humana, como el conocimiento, la representación, el razonamiento, la percepción, el aprendizaje, la predicción y la interacción con el entorno.

Esta tecnología se está volviendo omnipresente gracias a las mejoras en el cálculo y a la amplia disponibilidad de datos, la verdadera materia prima de esta tecnología. Además, la evolución de la IA parece exponencial, además del dominio de tareas que requieren fuertes habilidades analíticas, comienza a mostrar capacidades que tradicionalmente se han asociado exclusivamente con los humanos, como la creatividad.

Algunos expertos sostienen que la IA puede hacer realidad la “sociedad del ocio” keynesiana, aumentando la productividad de los factores y asumiendo un gran número de actividades aburridas, peligrosas y sucias actualmente realizadas por humanos. Igualmente, la IA podría proporcionar nuevas herramientas para afrontar problemas mundiales como el cambio climático, la escasez de alimentos o las enfermedades.

Por el contrario, los críticos creen que una adopción “descontrolada” de la IA podría aumentar las tasas de desempleo, la discriminación y la desigualdad social.
Incluso personalidades como Elon Musk, Bill Gates, Mark Zuckerberg, Larry Page o Stephen Hawking han participado en un animado debate sobre las implicaciones éticas, los riesgos y las oportunidades de la IA.

Enfoques políticos para la inteligencia artificial

Aunque se tiende a destacar algunos de sus riesgos, la IA es en la mayoría de los casos tan solo una tecnología más que se puede aplicar a la resolución de un problema determinado sin suponer ningún inconveniente especial. En estos casos, la IA no debe regularse de manera distinta a otras tecnologías y su adopción debe dejarse a las fuerzas del mercado.

Con respecto a las aplicaciones de la IA que pueden tener impacto social, dada la naturaleza global de esta tecnología, su evaluación no se debe realizar de manera aislada por parte de un país o una región, sino en cooperación con gobiernos nacionales, organizaciones internacionales y actores privados. Organizaciones internacionales como la ONU, la OCDE y el FEM ya han señalado los riesgos potenciales de esta tecnología y están facilitando el diálogo a nivel internacional. Al mismo tiempo, asociaciones privadas como el partnership on AI y openAI están haciendo llamamientos para que los problemas éticos ocupen un lugar central en los desarrollos de IA.

En el ámbito nacional, la mayoría de las organizaciones y gobiernos reconocen el potencial disruptivo de la IA, pero algunos de ellos se muestran reticentes a esta tecnología. Esto podría manifestarse como un gran error en el futuro, pues los países con un enfoque reactivo podrían perder competitividad ante los que lideran la adopción de la IA.

Sin embargo, la mayoría de los responsables políticos están tratando de encontrar el equilibrio entre la promoción y el control de la IA. A este respecto, parece que existe consenso político sobre bastantes temas a considerar, como los aspectos éticos asociados a la IA, el impacto potencial de la inteligencia artificial sobre la economía y el mercado laboral y la necesidad de desarrollar nuevas habilidades relacionadas con la IA.

Al mismo tiempo, las normativas que están surgiendo en el mundo se centran principalmente en la privacidad y disponibilidad de los datos, la transparencia, la responsabilidad civil de los sistemas de inteligencia artificial y en asegurar el correcto funcionamiento de los mercado con presencia relevante de agentes automáticos. Sin embargo, la regulación de la IA se está abordando a un ritmo diferente por cada Autoridad.

En 2016, el Grupo de Trabajo de Inteligencia Artificial de EE.UU., un grupo transversal promovido por la administración Obama, fue sin duda el grupo de trabajo gubernamental más prolífico en el mundo, elaborando dos estudios en octubre y diciembre de 2016 así como un plan estratégico.

En Europa, el Parlamento Europeo emitió un informe sobre IA a finales de 2016 y aprobó una resolución basada en este informe que recomendaba a la Comisión Europea y al Consejo:

  • Presentar una Directiva sobre leyes civiles sobre robótica.
  • Crear una Agencia Europea de robótica.
  • Adaptar las reglas de responsabilidad a las especificidades de los sistemas automatizados.

Por su parte, países como Canadá, China, Japón o Corea del Sur han establecido estrategias de IA que comparten algunas características comunes. Su intención de convertirse en líderes mundiales en el ámbito de la inteligencia artificial, haciendo uso de herramientas similares: cooperación, educación, apoyo (legal o financiero) e investigación.

Como parte de estos primeros movimientos, algunos países y organizaciones ya han asignado fondos para desarrollar inteligencia artificial, aunque con cantidades y objetivos dispares. Por ejemplo, Corea del Sur y la Unión Europea asignaron casi mil millones de dólares a asociaciones público-privadas, mientras que Canadá y el Reino Unido asignaron 100 millones de dólares y 20 millones, respectivamente, para inversiones e investigaciones adicionales.

Regulación de AI la en el sector financiero

Con respecto al sector financiero, los controles sobre los asesores automáticos (conocidos como robo-advisors en inglés) y los sistemas de negociación automatizados son los principales protagonistas de la normativa financiera.

En particular, la Comisión del Mercado de Valores de EE.UU. (la SEC) emitió algunas directrices sobre la asesoría automatizada en febrero de 2017 y el Reino Unido ofrece orientación sobre este asunto a través de la Unidad de Asesoramiento de la FCA. Las dos autoridades se muestran optimistas sobre el potencial del asesoramiento automatizado, pero subrayan la necesidad de garantizar la transparencia y la protección del cliente.

En cuanto a la negociación automatizada, la Comisión de Futuros de Hong Kong publicó una circular en diciembre de 2016 señalando las áreas de mejora en el comercio algorítmico, principalmente solicitando mejoras en los controles y una mayor formalización de algunos procesos.

Las autoridades supervisoras europeas llevaron a cabo una consulta sobre el uso de Big Data por las instituciones financieras durante el primer trimestre de 2017 y la ABE publicó un informe sobre los usos innovadores de los datos en junio de 2017. La conclusión principal fue que no es necesaria una acción específica de las Autoridades Financieras en este momento.

La inteligencia artificial también fue parte de las consultas sobre tecnofinanzas (fintech) realizadas por la Comisión Europea, la ABE y el BCBS a lo largo de este año. En esas consultas, las autoridades solicitaron opiniones sobre la necesidad de una regulación específica para el uso de la inteligencia artificial en materia de finanzas.

Además, iniciativas de acceso bancario como el Open Banking Standard del Reino Unido y la revisión de la Directiva europea de servicios de pago (PSD2), que permiten a terceros acceder a los datos de las cuentas de los clientes, en combinación con regulaciones generales como el Reglamento general sobre la protección de datos de la UE facilitarán el acceso e intercambio de datos financieros, ampliando las fuentes de datos disponibles para el desarrollo de sistemas de inteligencia artificial y, en consecuencia, la tasa de adopción de esta tecnología por parte del sector financiero.

Finalmente, el 1 de noviembre de 2017, el Consejo de Estabilidad Financiera publicó un documento sobre el impacto de la inteligencia artificial y el aprendizaje automático en los servicios financieros que analiza la IA desde la perspectiva de la estabilidad financiera.

Como conclusión, aunque la inteligencia artificial todavía es una tecnología en desarrollo, su amplia disponibilidad y su creciente adopción por parte de las empresas, las entidades financieras y las Autoridades Públicas hacen necesaria una evaluación de su futuro impacto social y económico, en cooperación con los gobiernos nacionales, las organizaciones internacionales y el sector privado.

No obstante, los gobiernos deberían desarrollar sus propias estrategias de inteligencia artificial para familiarizarse con los desafíos que plantea esta nueva tecnología y apoyar su desarrollo dentro de sus fronteras para que estén en condiciones de competir internacionalmente en caso de que la IA sea masivamente adoptada tal como se espera.

Fuente: Situación Economía Digital, Diciembre 2017, BBVA Research.

Adaptado por la División Consultoría de EvaluandoSoftware.com

 

¿Qué Software es apto para su empresa?

Acceda a nuestros evaluadores