Si estás creando un chatbot, no olvides estos requerimientos legales

No se trata solo de instalar una solución que te ayude a interactuar con tus clientes, también hay aspectos legales que debes cumplir.

La inteligencia artificial trasladada al chatbot es una tecnología cada vez más utilizada por las empresas para interactuar con los clientes. La ventajas principales son la comunicación inmediata y personalizada, pero un software de mensajería puede incurrir también en faltas graves al vulnerar los límites legales.

Publicidad - Sigue leyendo debajo

Para evitar, de forma voluntaria o no, el quebrantamiento de la ley, el despacho de abogados ECIJA y la empresa especializada Chatbot Chocolate han elaborado una pequeña guía donde se advierte de los principales riesgos e infracciones legales en las que podríamos incurrir a la hora de diseñar un chatbot. Son estos:

Vulneración de derechos y riesgo reputacional

Tay fue un bot de conversación de inteligencia artificial creado para la plataforma de Twitter y creado por la empresa Microsoft. A las pocas horas de ser presentando, el 23 de marzo de 2016, Tay empezó a proporcionar respuestas ofensivas a los usuarios, emitiendo contenidos racistas, políticos, sexistas… El 25 de marzo, el bot fue dado de baja. La explicación que dieron sus creadores es que la máquina aprendía del lenguaje y las interacciones de los usuarios de Twitter pero, independientemente del motivo que fuese, el resultado, además de ofender el honor, la imagen o la intimidad de algunos usuarios, fue un daño reputacional en la red con los consecuentes abandonos.

Para minimizar riesgos como el de Twitter, la mayoría de los chatbots que se desarrollan recogen respuestas programadas por la propia empresa, en lugar de dejar que sea la máquina la que aprenda por sí misma. No obstante, en el supuesto de que el chatbot se quiera programar para recoger respuestas de manera automáticamente de otras fuentes, la recomendación es valorar “la necesidad de implementar mecanismos de prevención y monitorización del aprendizaje autónomo del chatbot”.

Dar respuestas erróneas

Proporcionar una respuesta equivocada que conduzca a los usuarios a tomar una decisión errónea puede derivar en responsabilidades legales. Para evitar errores como este, Ángel Hernández, socio director de Chatbot Chocolate, asegura que “en líneas generales, tanto por imagen de marca como por dilución de responsabilidades, durante la primera fase de creación de un chatbot, se aborda con las empresas el diseño de las respuestas y los diálogos que éste debe mantener, para evitar así sufrir problemas legales”.

Publicidad - Sigue leyendo debajo

Conviene recordar siempre que, aunque los chatbots sean una herramienta automática, interactúan con personas cuyos derechos deben quedar siempre protegidos de la misma manera en la que quedarían si ambos interlocutores fueran personas físicas .

La protección de los datos

En determinadas ocasiones es preciso disponer de datos personales de los clientes para llevar a cabo una operación. La ley obliga a informar debidamente al usuario y ceñirse conforme a una serie de principios contemplados en el Reglamento General de Protección de Datos (RGPD), ley a la que están sometidos también los chabots.

Alejandro Touriño, socio director de ECIJA y responsable del área de Information Technology de la Firma, explica que “para evitar responsabilidades legales debemos contar con el consentimiento expreso del usuario, además de informarles de la identidad de la empresa y del periodo durante el que se conservará dicha información. Su incumplimiento puede acarrear sanciones económicas que pueden alcanzar los 20 millones de euros o una cuantía equivalente al 4% del volumen de negocio anual del ejercicio financiero anterior, imponiéndose la de mayor cuantía”.

En el supuesto de que el chatbot no realice tratamiento ni almacenamiento de datos no será necesario cumplir con las obligaciones expuestas en el RGPD.

La propiedad intelectual o industrial

En el caso de contratar a una empresa de desarrollo de chatbots que utiliza librerías de código o plataformas de terceros para su creación, la pregunta que podría sirgir es la siguiente: ¿quién ostenta los derechos sobre el mismo?

La respuesta que se recoge en la guía es que “en lo que a propiedad intelectual se refiere, es necesario proteger los derechos tanto de sus creadores como de terceros”. En consecuencia, será necesario realizar un análisis jurídico en profundidad de la naturaleza del código e implementar las medidas oportunas para que el chatbot no infrinja la propiedad intelectual o industrial ajena. Tal y como puntualiza Hernández, “en el mercado nos encontramos servicios de terceros que en ocasiones son útiles para cuestiones como el entendimiento del lenguaje, analizar el sentimiento de quién nos escribe o para convertir la voz en texto. Servicios que se comercializan en un modelo SaaS, donde la empresa tiene la posibilidad de uso a cambio de un coste. Sin embargo, no pasan a ser de su propiedad. La empresa no posee la propiedad intelectual sobre dichos motores o tecnología”, advierte.

No obstante, y aunque es poco común, un chatbot podría construirse desde cero, en cuyo caso la totalidad de los derechos sobre el mismo serían atribuidos a su autor originario exclusivamente.

Publicidad - Sigue leyendo debajo
Más de Gestión