En este nuevo episodio de Digital Talks by t2ó, hablamos sobre sobre Inteligencia Artificial Conversacional; para comprender qué es exactamente, y qué oportunidades ofrece dentro de las empresas, y en su relación con los consumidores.
Para ello, hemos tenido una agradable charla con José Quesada, CEO de Lekta, una compañía con más de 20 años de experiencia, focalizada en ofrecer a las empresas y entidades soluciones avanzadas mediante un sistema de inteligencia conversacional orientado al negocio.
¿Te unes a nosotros para descubrir más sobre ello? 🎧👇
¿Qué podrás escuchar en este podcast?
- 🤔 ¿En qué consiste la Inteligencia Conversacional Artificial y en qué se diferencia con el resto de conceptos del mercado?
- ⛓️ ¿Qué es Lekta y cómo emplean este tipo de tecnología?
- 💻 ¿Cuáles son los sectores más demandantes de este tipo de tecnologías?
- 👏 ¿Qué se necesita para que un proyecto de Inteligencia Artificial de estas características sea realista?
- 📢 ¿A qué retos se enfrenta este tipo de tecnología?
- 🔐 ¿Cuál es el valor de los datos sintéticos y qué pueden aportar a las empresas?
- 🗂️ ¿Cuáles son las limitaciones de estos datos?
- 👩💻 ¿Qué aspectos debe tener un proyecto de Inteligencia Artificial conversacional para que se esté dentro de las expectativas de lo que regula la Ley de Servicios de Atención al Cliente?
- 📱 ¿Qué sistemas existen en la actualidad para asegurar la autenticación y gestión de datos de los usuarios cuando se emplea esta tecnología?
[Transcripción del podcast]
EC: Hola, soy Esther Checa y hoy vamos a tener un episodio donde retomaremos el impacto que tiene la incorporación de la Inteligencia Artificial Conversacional en el negocio. A nivel mundial, para el 2030 se espera que la industria de la tecnología de voz genere ingresos de más de 43 mil millones de dólares, por lo que profundizar en esta temática ayudará a tener una visión más clara de su oportunidad dentro de la organización y en la relación con los consumidores. Para esto hoy contamos con José Quesada, CEO del Lekta, que es una empresa centrada en el desarrollo de sistemas conversacionales basados en Inteligencia Artificial y orientados al negocio. La trayectoria de José siempre ha estado ligada al ámbito académico. Ha colaborado con el Laboratorio de Ciencias de la Computación del Instituto de Investigación de Stanford. Ha participado en diferentes proyectos de investigación a nivel nacional y europeo relacionados con las áreas de las tecnologías del lenguaje, y es autor de más de 100 publicaciones científicas en revistas. Muchas gracias por estar hoy con nosotros, José.
JQ: Hola, el placer es mío. Muchas gracias por la invitación para participar en esta serie de podcasts. Encantado de poder estar con vosotros y poder contaros qué es lo que hacemos en Lekta.
EC: Un lujazo tenerte hoy, José. Me gustaría que nos contaras cuáles son las características clave y más relevantes de la Inteligencia Artificial Conversacional, sobre todo por la posible confusión terminológica que hay, ya que ahora mismo en el mercado se habla de conceptos como chatbot, asistentes virtuales, sistemas de diálogo o sistemas conversacionales. ¿Dónde están las diferencias?
JQ: Es una pregunta relevante y bastante interesante. Actualmente existe quizás una profusión terminológica. A mí me gustaría, para centrar la presentación de estas tecnologías, considerar que estamos en el ámbito genérico de la Inteligencia Artificial, entendida como conjunto de técnicas, metodologías y tecnologías para modelar y simular comportamientos humanos. Dentro de ese ámbito, el lenguaje en sí mismo es uno de los retos más relevantes de la Inteligencia Artificial, por lo complejo que es el lenguaje humano, y dentro del ámbito de lo que podríamos denominar tecnologías del lenguaje, procesamiento del lenguaje natural, aparecen los sistemas conversacionales.
Previamente, un término que ha sido muy frecuente ha sido el de sistemas de diálogo. Se entendía como Sistemas de Interacción Dialogada Hombre-Máquina. Recientemente se está usando con bastante profusión la idea de Inteligencia Artificial Conversacional. La cuestión clave es que el objetivo de un sistema conversacional es modelar una interacción dinámica entre dos o más agentes, donde uno de ellos va a ser una máquina y, por lo tanto, va a ser un sistema computacional. ¿Y cuáles son los rasgos entonces, o los retos que se nos presentan? En primer lugar, que es un proceso dinámico, es decir, la propia conversación va a evolucionar y como parte de esa evolución el sistema tiene que estar acomodándose dinámicamente a lo que el interlocutor o interlocutores van demandando.
Por tanto, esa característica lo convierte en un proceso muy relevante porque tenemos que ser capaces de modelar incluso las capacidades cognitivas de los agentes que intervienen. Y así, van a aparecer una serie de fenómenos que hacen específica la Inteligencia Artificial Conversacional, como es la aparición de sub diálogos, pues como parte de un diálogo, es posible que el interlocutor tenga un nuevo sub diálogo de clarificación. Además, van a aparecer fenómenos como la negociación, es decir, no debemos reducir el sistema conversacional a una simple secuencia de preguntas y respuestas, sino que durante la conversación va a ser necesario llegar a compromisos entre las partes que dialogan. Y así nos aparece el reto de la negociación, de la clarificación e incluso, una cuestión que es muy relevante es la capacidad de hacer una evaluación dinámica de la validez y fiabilidad de la información que comparten los interlocutores. Es decir, tenemos que tener la capacidad de modelar en el sistema conversacional lo que éste cree que el interlocutor quiere hacer y cómo lo quiere hacer.
EC: Muy bien, como arranque de episodio creo que queda bastante claro que con lo que comentas, José. Voy a aprovechar esta introducción que has hecho para marcar las diferencias, para que nos hagas una presentación para conocer más de Lekta, y cómo estáis abordando los diferentes casos de uso cuando hacéis empleo de estas tecnologías.
JQ: Lekta es una empresa relativamente reciente, y la creamos en 2016 un grupo empresarial, en el que participé también yo como co-fundador de la empresa, y nuestro reto fue convertirnos en fabricantes de un ecosistema o framework tecnológico para el desarrollo de sistemas conversacionales. Es decir. En ese sentido, una de las características que me gustaría destacar de Lekta es nuestro perfil de fabricantes. Es decir, fabricamos la parte más tecnológica para la construcción de sistemas conversacionales. Esa es una característica muy distintiva de Lekta, y para llevar a cabo esa construcción de todo ese marco tecnológico, evidentemente, uno de los puntos clave es la interdisciplinariedad, es decir, cómo integrar. Cada vez más, la cuestión de la interdisciplinariedad es un punto bastante iterativo en entrevistas, congresos… pero no es una cuestión trivial. Aquí tenemos el reto de que tenemos que resolver computacional utilizando enfoques de tecnologías de la información, ciencias de la computación, Inteligencia Artificial, problemas de naturaleza lingüística, con lo cual tenemos que involucrar experiencia y conocimientos en el área de lingüística. Hacer modelizaciones que requieren enfoques utilizando principios lógicos, incluso matemáticos, estadísticos y, sobre todo, incorporando las más recientes aproximaciones en cuestiones como machine learning, deep learning, big data, data science, modelos de análisis predictivos, etcétera. Teniendo en cuenta eso, en Lekta hemos desarrollado este framework y actualmente estamos centrados en la implantación de de grandes proyectos de envergadura. Estamos en sectores como la banca, las telecomunicaciones, las administraciones públicas, el sector sanitario, energéticas. En última instancia, podemos ver que hay un factor común en nuestros clientes y es la necesidad de llevar a cabo grandes cantidades de interacción con clientes y usuarios de estos sectores industriales.
EC: Has mencionado sectores con los que trabajáis y una de las preguntas que tenía es: ¿ahora mismo, cuáles son los sectores más demandantes de este tipo de tecnologías y, sobre todo, qué buscan responder con estas?
JQ: Desde mi punto de vista hay dos factores clave. Por un lado, hay que mencionar lo del ahorro de costes. Es decir, cuando estamos, por ejemplo, trabajando en un banco con una telco o con una empresa en el sector energético, tenemos que considerar como punto de partida que tenemos empresas cuyo volumen de usuarios está en las decenas de millones. Es decir, un banco puede tener 10, 15 o 20 millones de clientes. Por tanto, las necesidades de interacción son muy amplias. Y, además, me gustaría destacar que recientemente lo que estamos observando es que todos los usuarios en nuestro perfil de ciudadano somos muy exigentes. Es decir, cada vez esperamos que la calidad que nos va a ofrecer el servicio de atención a clientes o usuarios tiene que ser muy alto. Así, el primer factor que encontramos es el ahorro de costes, pues este tipo de empresas o sectores se enfrentan a tener que hacer una oferta 24-7 prácticamente de todos sus servicios durante los 365 días del año. Otro factor relevante que añadiría es el de la modernización tecnológica, ya que muchos sectores están ahora mismo ante el reto de, no solo reducir sus costes de explotación, sino de modernizar sus propias estrategias de interacción con sus usuarios. Si estamos en el ámbito de las administraciones públicas, llamémosle la ciudadanía o, en cualquier caso, los usuarios. Con lo cual esos dos factores se han convertido en clave a la hora de modelar el enfoque, tanto de desarrollo de negocio como de evolución tecnológica.
EC: En el caso, aprovechando esto último que comentábamos… y para aquellas empresas que se están planteando el uso de estas tecnologías, y que ya tienen el caso de uso muy claro, ya has marcado dos casos de uso muy concretos o objetivos muy concretos para el uso de estas tecnologías. ¿Qué se necesitaría para que un proyecto de Inteligencia Artificial de estas características fuese realista?
JQ: Pues hay dos mensajes, quizás uno positivo y otro negativo. Desde el punto de vista positivo, la práctica nos está llevando y lo estamos observando en la evolución de los enfoques incluso más tecnológicos a nivel de Inteligencia Artificial y machine learning, que cada vez se cuenta con más y mejores recursos para abordar proyectos. Con lo cual el mensaje positivo es que se pueden abordar proyectos prácticamente en días o semanas en muchos sectores y con un nivel de calidad y éxito muy alto. El mensaje negativo es que nos estamos dando cuenta de que, actualmente, no es tanto un reto para nosotros como fabricantes y desarrolladores de sistemas conversacionales, sino que en muchas ocasiones es un reto para la propia organización que tiene que adecuar sus sistemas de interacción a todo su backend o backoffice a la automatización. En muchos casos nos encontramos que es posible hacer una llamada telefónica que atiende un agente humano porque está interactuando a través de un interfaz desarrollado para una interacción, para crear un registro, consultar… Y cuando intentamos automatizarlo, tenemos la dificultad de que no está previsto que haya un modelo para acceder. Evidentemente hay técnicas tipo RPA de automatización de procesos que nos permiten abordar ese tipo de dificultades. Pero, en cualquier caso, el mensaje que yo trasladaría es que el nivel de madurez, de disponibilidad de recursos, de experiencia y desarrollo de proyectos nos hace tener una visión relativamente optimista a la hora de abordar proyectos. Hemos abordado proyectos en cuestión de días, semanas, con un nivel de calidad francamente muy alto.
EC: En el caso de incorporar Inteligencia Artificial Conversacional a la omnicanalidad de las marcas como forma de dar respuesta al consumidor sin generar fricciones, que es parte uno de los grandes retos a los que las marcas están enfrentando. En vuestra experiencia, ¿cuál es la realidad a la que os enfrentáis vosotros?
JQ: La omnicanalidad yo creo que recientemente se ha convertido casi en un tópico muy frecuente que se está hablando en múltiples foros y, desde mi punto de vista, es un objetivo que todas las corporaciones tienen y deben asumir antes o después. El reto está en ser capaz, no tanto de atender a través de múltiples canales, sino de coordinar la atención a través de esos diferentes canales. Entonces, en ese sentido, nosotros a nivel de Lekta, nuestro framework, nuestro ecosistema tecnológico y también el modelo metodológico que aplicamos, está totalmente adaptado para adecuaciones omnicanal. De hecho, tenemos proyectos en grandes corporaciones, como puede ser Orange Polonia, un proyecto que ahora mismo tiene 15 millones de usuarios, y allí estamos trabajando en todos los canales de atención a sus usuarios de Orange Polonia, recibiendo por ejemplo, entre 70.000 u 80.000 llamadas telefónicas a diario que atiende directamente Lekta. El reto, desde mi punto de vista, está en ser capaces de modelar de forma coordinada entre los desarrolladores, los modelos de Inteligencia Artificial Conversacional, esos modelos de interacción con los sistemas de información de estas grandes compañías que deben de ser capaces, no solo de facilitar, es decir, si un usuario inicia una interacción, por ejemplo, para solicitar un nuevo servicio, el reto no está tanto en que nosotros, a nivel de sistema conversacional, seamos capaces de entender y gestionar esa conversación, sino que además todo eso quede registrado en tiempo real en los sistemas de información de estas grandes compañías, de forma que a continuación el usuario, en lugar de llamar por teléfono, inicie una conversación a través de mensajería instantánea a través de un canal tipo chat o a través de otro de cualquiera de los canales disponibles, ya que todo está integrado en última instancia. Desde mi punto de vista, hemos evolucionado mucho a nivel del Lekta en esta capacidad de adecuación omnicanal y ahora mismo el reto está en adecuarnos de forma óptima con los sistemas de información de estas grandes corporaciones.
EC: Cuando hablamos de asistentes virtuales se tiende a pensar en éstos desde el rol más de que dan una respuesta de capacidades reactivas. Pero aquí ¿dónde ves el reto de que éstos den respuesta de forma proactiva?
JQ: Enlazamos quizás con la cuestión inicial de la presentación, ya que es donde se definen las características relevantes de un sistema conversacional. Desde mi punto de vista hay cierta confusión, esto está provocando una frustración en las expectativas tanto de las empresas como de los clientes en el uso de estos sistemas. Y es que, en última instancia, no se están creando sistemas conversacionales, se están creando sistemas tipo pregunta-respuesta, que pueden ser muy útiles, de hecho, nosotros tenemos la capacidad de hacer con Lekta, yo puedo preguntar dime cuál es el horario de la biblioteca, y el sistema me dice que el horario de la biblioteca mañana va a ser de 09:00 a 21:00 de la noche. Pero cuando hablamos de un sistema conversacional, lo que estamos planteando es una capacidad mayor de interacción conversacional, y en esa capacidad de mayor interacción conversacional, el reto está en esa adecuación dinámica durante la conversación a las características del propio usuario que está participando en la conversación del interlocutor. En ese sentido, hay que dotar al sistema conversacional con la capacidad de adecuación dinámica y, por lo tanto, de reacción y proacción. Es decir, el sistema debe de ser capaz de responder si me preguntan por algo, pero también adecuar su comportamiento a lo que está ocurriendo en la conversación.
Entonces, en ese sentido, una conversación es el resultado de la integración de varias fuentes de información. Una de ellas es el usuario. Si el usuario dice quiero X, el sistema debería de atender ese X. Pero es que, además, hay más fuentes de información, y la incorporación dinámica de esas fuentes adicionales de información es lo que termina generando un comportamiento proactivo. En última instancia, la clave está en esa capacidad de la adecuación dinámica. Y otro punto muy importante en relación con la proactividad es la capacidad, durante el diseño de un sistema conversacional, de adecuarnos a las reglas de negocio. Es decir, cuando nosotros entramos en una corporación a hacer un proyecto con estas características, no todo el diseño de un sistema conversacional se reduce a un entrenamiento, podríamos decir casi académico de machine learning. Hay que tener en cuenta que además, una gran corporación tiene reglas de negocio, y con esas reglas de negocio tenemos que tener la capacidad, en el framework tecnológico, de modelarlas, integrarlas y hacer que el sistema las utilice. Entonces, esa segunda cuestión añade todos los retos que estamos comentando de proactividad en el sistema final.
EC: Me gusta esto último que estás comentando porque quiero conectarlo con con la siguiente pregunta. Y es que de alguna forma, debido a las limitaciones que a veces tiene trabajar con datos reales para entrenar estos modelos de Inteligencia Artificial, las empresas empiezan a hacer uso de datos sintéticos. De hecho, Amazon ha basado parte de su entrenamiento y refinamiento de Alexa con datos sintéticos. Y aquí me gustaría que me dieses tu punto de vista sobre el valor que tienen estos y, sobre todo, en qué situaciones ves que estos datos sintéticos pueden aportar valor a la empresa.
JQ: La verdad es que es uno de los puntos más calientes, incluso en la literatura científica y en las aplicaciones industriales, la utilización del ámbito que se llama el sintético data center. La motivación realmente es bien conocida y, aunque el término datos sintéticos quizá se ha puesto de moda recientemente, respecto a la motivación de qué hay detrás, vengo trabajando con ella desde hace 25 años que inicié mi investigación a nivel académico en tecnologías del lenguaje. En última instancia, lo que nos ocurre es que es un patrón común prácticamente a todos los ámbitos de la Inteligencia Artificial, y que se ha reforzado recientemente con la implantación de modelos de machine learning y deep learning, es la necesidad de datos masivos, es decir, en muchas situaciones necesitamos hacer entrenamientos, y esos entrenamientos se basan en la capacidad de exponer a esa algorítmica de propósito general, que sería el componente de machine learning, exponerlo a una cantidad considerablemente amplia de datos, de forma que cuantos más datos y más diversidad de esos datos existan, pues se supone que la capacidad de entrenamiento del sistema será mejor. ¿Qué ocurre? Generar datos es costoso en tiempo y en recursos, entonces siempre nos hemos expuesto a la necesidad de cómo crear más datos, cómo forzar a hacer algoritmos que generasen datos de forma automática.
Al fin y al cabo, estamos en la misma línea. ¿Cómo hemos evolucionado? Hace unos 20 años implantamos prácticamente algoritmos ad hoc para hacer generación automática de datos. Hace 10 años aproximadamente, hablo ya específicamente de los sistemas conversacionales, aparecieron un conjunto de técnicas que engloban lo que se llamaba el User Modeling. Es decir, la idea es, en vez de tener que interactuar cuando hacemos el entrenamiento y la evaluación de sistemas conversacionales con decenas, centenas o miles de usuarios reales, que es muy costoso en tiempo, en organización, en recursos; hacer un programa informático que modelaba el comportamiento del usuario, de forma que prácticamente el programa informático-sistema conversacional interactuaba con el programa informático Modelador de Usuarios. Sobre hacia dónde hemos avanzado, se han conseguido modelos generativos muy potentes. El lenguaje natural, es decir, los modelos de los últimos dos, tres o cuatro años, tiene una capacidad generativa muy potente. Pues a partir de semillas de lenguaje natural permiten generar construcciones muy coherentes. De esta manera, el enfoque ha sido utilizar esas técnicas para hacer esa generación o automatización de la generación de casos de uso, y esa es la motivación. De hecho, hay alguna publicación por ahí que conecta los datos sintéticos con los Digital Twins, la posibilidad de automatizar, en el caso de los Digital Twins (más en sectores industriales), el modelado del comportamiento de un sistema.
En el caso de la generación de datos sintéticos, hay que ser un poco cautos, porque es una línea de exploración muy prometedora y muy interesante. Pero es importante tener en cuenta que no se trata tanto de generar de forma masiva datos, quizás eso ya se ha superado en el ámbito de las tecnologías del lenguaje. No importa tanto la cantidad de datos, sino una serie de factores como la representatividad de esos datos a la tarea que se quiere diseñar, o cuestiones como la adecuación de esos datos a la tarea. Es decir, aparecen una serie de factores a tener en cuenta en la generación de los datos sintéticos. Nosotros a nivel de Lekta, nuestro enfoque actualmente se basa en lo que denominamos modelos híbridos. Utilizamos de forma simultánea estrategias basadas en aprendizaje automático y de forma simultánea, estrategias basadas en un modelado semántico con unas características formales más complejas. Hay tareas que, en este momento, el resultado óptimo se obtiene con la combinación de estos dos enfoques.
EC: José, lo has ido avanzando, pero me gustaría saber qué limitaciones crees que pueden tener a día de hoy estos datos para ser utilizados.
JQ: El ámbito del dato es un sector a la vez relevante, y a la vez problemático. Quizás la palabra problemático no es la mejor, pero es un ámbito en el que hay que ser muy cauteloso y me gustaría resaltar varios aspectos. En primer lugar, habría que diferenciar la utilización del dato como fuente de información para crear un sistema. En segundo lugar, habría que entender la capacidad que un sistema tiene para generar dato que puede ser útil. En última instancia, habría que conectar los dos mundos, lograr la retroalimentación entre dos componentes. Primeramente, necesitamos datos para modelar un sistema, en el caso de un sistema conversacional, podemos pensar que necesitamos ejemplos de diálogos para modelar el diseño del propio sistema conversacional. ¿Qué ocurre? Que para la construcción de esos sistemas, con esos datos, debemos de partir de algún sitio, y aquí nos enfrentamos a un reto, pues si una corporación me dice que quiere crear un sistema conversacional, puede ocurrir que lo que plantea sea la automatización de un servicio de atención que ya tiene y podemos contar con conversaciones con usuarios reales. Pero aquí entonces tendremos que ser muy cautelosos, entender si podemos o no podemos usar los datos que ha generado una persona en una conversación. Es decir, aquí empiezan a intervenir temas éticos en Inteligencia Artificial, así como la capacidad que tenemos para aprovechar esos datos, la anonimidad que pudiéramos hacer de esas conversaciones, etcétera.
La otra faceta, a la que en el ámbito de Lekta le hemos dado mucha importancia, de hecho la hemos convertido prácticamente en uno de los de los ejes directores de nuestro enfoque, es la capacidad que un sistema conversacional tiene para generar información. Es decir, como parte de una conversación se genera mucha información que puede ser útil tanto para el usuario como para la corporación para la cual se construye el sistema conversacional. Desde mi punto de vista hay que ser garantista con los derechos de protección de datos, con los límites que no debemos de sobrepasar, porque creo que son límites que de los cuales hay que ser consciente, pero respetando estrategias de anonimización, preferencias de los usuarios, etcétera, respetando todo ese marco normativo. Lo que sí es cierto es que los sistemas conversacionales permiten generar mucha información muy relevante para las grandes corporaciones, para adecuar, por ejemplo, la oferta de sus servicios, o dar una mejor atención. Y esto de alguna forma enlaza con retos de los sistemas conversacionales a nivel de experiencia de usuario, porque en última instancia esa retroalimentación lo que también nos va a permitir es mejorar la capacidad de un sistema para atender a los usuarios, clientes o ciudadanos.
EC: Hace unos meses se publicó la Ley de Servicios de Atención al Cliente, y esto es una normativa que principalmente busca una mayor protección de los consumidores y, de alguna forma, regular los servicios de atención al cliente destinados a esos consumidores para garantizar una atención eficaz. Desde tu punto de vista, ¿qué aspectos debería tener un proyecto de Inteligencia Artificial conversacional para que se esté dentro de las expectativas de lo que regula esta normativa?
JQ: Efectivamente. Los titulares de esa ley parecían que podían ir en contra con estrategias de automatización conversacional, pero realmente la lectura que puedo hacer de esa normativa es positiva, y de hecho encaja totalmente con las directrices de Lekta. Hablamos de sistemas realmente conversacionales y, en ese sentido, las directrices que marca esa normativa, como los tiempos máximos de espera; o si el interlocutor solicita que se le pase con un agente qué se puede hacer… son importantes. Además, sobre los desarrollos que pueden surgir a raíz de esa normativa, me gustaría destacar la experiencia de usuario, pues hay una sensibilidad a nivel normativo por la satisfacción del usuario, no vale cualquier cosa, se requieren unas características mínimas de calidad de interacción, es una limitación normativa a los excesos que se han hecho automatizando mal.
EC: Me gustaría que cerraremos con dos aspectos recurrentes y que preocupan al usuario cuando se usan estas tecnologías. Uno es la autenticación y otro es la gestión de sus datos, ¿qué sistemas existen ahora para asegurar la autenticación?
JQ: La voz es una de las señales de carácter biométrico que nos permiten identificarnos con un alto nivel de diferenciación. En ese sentido, la utilización de la voz como parte de un proceso es relevante. Hay que tener en cuenta que eso supone estresar un sistema conversacional más de lo que estamos hablando, pues entramos en el nivel de autenticación y verificación de identidad a través de huella vocal. Se están haciendo avances en la utilización de la voz como mecanismo de firma digital, es decir, que mediante un sistema conversacional se pueda solicitar un servicio que requiera la firma, o la verificación como cliente o ciudadano, que lo que harían sería incrustar la confirmación de la validez de un contrato a través de la huella vocal, dentro del propio documento firmado, y en ello estamos trabajando en Lekta.
El otro aspecto, el de la gestión del dato, enlaza con el punto anterior, pues un sistema puede generar muchos datos y hay que entender qué garantías introducimos a la hora de manejar estos datos. Desde Lekta, aprovechando la capacidad de comprensión del sistema conversacional, podemos implantar estrategias incluso de no almacenamiento de determinados datos como parte de una conversación, es decir, que el interlocutor a través de la configuración del sistema elija qué determinadas partes de la información suministrada en la conversación nunca se almacenen, o incluso de anonimización selectiva de esos datos por parte del sistema conversacional. De hecho son técnicas que estamos aplicando ya en el sector bancario, tenemos implantamos sistemas conversacionales en 5 de los 8 bancos más grandes de Polonia.
EC: Muchas gracias José por este episodio. Probablemente es el más académico y con mayor nivel de profundidad para ayudarnos a entender el valor de la Inteligencia Artificial e Inteligencia Conversacional dentro del contexto empresarial, entender el valor de estos proyectos cuando se tiene el caso de uso ya definido por parte de las marcas y, sobre todo, cómo incorporar la Inteligencia Artificial Conversacional a la estrategia de la omnicanalidad de las marcas con un reto muy claro: dar respuesta al consumidor sin generar fricciones.