Los principales riesgos asociados al uso de la Inteligencia Artificial en las empresas

El informe 'Afrontando los riesgos de la Inteligencia Artificial', de McKinsey, explica cómo identificarlos y minimizarlos

Network Security Issues
John LundGetty Images

En los últimos meses se viene hablando mucho de las ventajas que la aplicación de la Inteligencia Artificial (IA) aporta y aportará a las empresas, en particular, y a la sociedad, en general, pero su implantación lleva implícita también un aumento de una serie de riesgos asociados.

La consultora internacional McKinsey & Company los ha recogido en el informe Afrontando los riesgos de la Inteligencia aArtificial, donde explica los pasos a seguir para minimizarlos.

Según el citado estudio, para el año 2030, la IA podría generar 13 miles de millones de dólares anuales en la economía mundial, una fuente de valor indiscutible para las empresas. "Los datos no hacen más que demostrar la creciente importancia que la IA está cobrando, ya que casi el 80% de los ejecutivos de las compañías que han implementado recientemente procesos de IA perciben valor en su uso".

Sin embargo, en paralelo a este crecimiento –advierte el informe–, surgen una serie de riesgos asociados que, a simple vista, pueden parecer irrelevantes pero que pueden acabar incidiendo en el buen funcionamiento de las empresas.

"Y es que el uso de IA en las compañías aún está en una fase muy embrionaria, lo que puede dar lugar a una serie de consecuencias, a veces, no deseadas, relacionadas con la privacidad, discriminación, accidentes o manipulación en los sistemas políticos. Es más, la implementación de la IA puede tener consecuencias desconocidas y mucho más impredecibles, como la puesta en peligro de la seguridad como en el caso, por ejemplo, del fallo de un algoritmo médico o militar".

Así, según McKinsey & Company, existen cinco puntos en los que se pueden originar riesgos:

1. Problemas en el uso de datos

"El uso adecuado de los datos se ha hecho cada vez más difícil ya que ha incrementado exponencialmente la cantidad de datos no estructurados obtenidos a partir de fuentes como webs, redes sociales, dispositivos móviles e Internet de las cosas (IoT). Como resultado, es fácil caer en el uso involuntario o en la revelación de información confidencial oculta entre datos anónimos".

2. Problemas tecnológicos

"Diversos problemas en los procesos operativos pueden afectar negativamente al rendimiento de los sistemas de IA, generando riesgos".

3. Problemas de seguridad

"Un problema emergente es la utilización de datos aparentemente inofensivos –financieros, de marketing o de salud– que las empresas recopilan por parte de estafadores para crear identidades falsas".

4. Errores en el establecimiento de modelos

"Con unas muestras mal establecidas se pueden generar resultados sesgados que representen erróneamente a las poblaciones analizadas".

5. Problemas de interacción

"La interacción entre personas y máquinas es otro punto de riesgo clave. Entre los más visibles, se encuentran los desafíos en los sistemas automatizados de transporte, producción e infraestructura, en los que pueden darse accidentes debido a errores humanos, involuntarios en la mayoría de los casos".

El citado informe también señala que comprendiendo dónde están los riesgos no identificados, hay más posibilidades de minimizar sus efectos. Y se pregunta cómo se gestionan esos riesgos:

1. Identificar los riesgos más críticos

"Uno de los riesgos identificados más inesperados ha sido la recomendación pobre o sesgada de productos a los consumidores finales, hechos que pueden resultar en la disminución de ventas, pérdida de confianza e incluso perjuicios a la reputación, con las consiguientes multas. Para evitarlo, es esencial lograr que los responsables de las principales áreas de una compañía –negocio, IT, seguridad y gestión de riesgos– identifiquen de forma conjunta riesgos actuales y posibles situaciones problemáticas ligadas al uso de la IA".

2. Instaurar controles generales estrictos

"Es crucial la aplicación de controles en toda la compañía para guiar el desarrollo y uso de los sistemas de IA, asegurar una supervisión adecuada y poner en práctica procedimientos y planes de contingencia sólidos. Sin esfuerzos colectivos, aumentan las probabilidades de que los factores de riesgo se amplifiquen. Todos los empleados deben recibir comunicaciones completas sobre dónde se está utilizando la IA y qué pasos está tomando la compañía para garantizar decisiones justas y para proteger los datos de los clientes".

3. Reforzar controles específicos dependiendo de la naturaleza del riesgo

"Por importantes que sean los controles, rara vez, son suficientes para contrarrestar el conjunto de riesgos posibles. A menudo es necesario más rigor, y los controles requeridos dependerán de factores como la complejidad de los algoritmos, la naturaleza de la interacción persona-máquina (o máquina-máquina) y hasta qué punto la IA está incorporada a los procesos de negocio. También son necesarios controles específicos de datos y análisis (incluidos los requisitos de transparencia), así como la monitorización y el análisis de rendimiento para detectar posibles sesgos".

Publicidad - Sigue leyendo debajo
Más de Gestión