Consultoría & Consultores

Hasta hace poco, el uso de la Inteligencia Artificial (IA) estaba siendo liderado por las grandes compañías del sector tecnológico principalmente en determinadas tareas, como el uso de robots en almacenes para la recogida de artículos comprados desde el móvil o la aplicación de algoritmos para intuir el comportamiento de los consumidores.

Estos ejemplos han calado hondo en el resto de compañías. Éstas han acabo entendiendo que de no avanzar en el uso de tecnologías como la Inteligencia Artificial podrían quedarse atrás y que su negocio, en algún momento, podría quedar fagocitado por los grandes jinetes tecnológicos.

Según The Economist, en el último trimestre de 2017, las empresas públicas de todo el mundo mencionaron la Inteligencia Artificial y el Machine Learning en sus informes anuales más de 700 veces, siete veces más que en el mismo período de 2015.

La velocidad con las que las compañías incorporan la Inteligencia Artificial a sus negocios, sin embargo, es comparable a la de un niño en triciclo, cuesta arriba. Y esto es debido a dos motivos principales: por un lado los ejecutivos no terminan de entender exactamente en qué consiste la IA y les cuesta encontrarle aplicación; por otro, es difícil poner nombre a los riesgos asociados a estas nuevas tecnologías, y eso provoca parálisis.

La única manera de coger velocidad parece ser entender mejor la tecnología y estos riesgos. Sin este ejercicio, nadie en su sano juicio cometería la imprudencia de incorporar la IA de forma masiva en sus ciclos de negocio. Algunos de estos riesgos son:

  • Gestión incorrecta de los datos. A la hora de alimentar los algoritmos es necesario incorporar grandes sets de información, estructurada y no estructurada, y con distintos orígenes como imágenes, webs, sensores, redes sociales, etc. Gestionar toda esa información resulta complejo y las posibilidades de revelar (de manera intencionada o no) información sensible incumpliendo con el Reglamento General de Protección de Datos se multiplican.
  • Sesgo de los modelos. Los modelos son entrenados con una población inicial. Esta población ha de ser suficientemente representativa de todos los posibles casos a los que se enfrentará el algoritmo. Si la información de entrenamiento, la que sirve para calibrar el modelo, está sesgada, los resultados serán inestables, erróneos y/o incompletos. Adicionalmente, existe un factor ético, si la exclusión de cierto colectivo se hace de manera intencionada para manipular los resultados de los algoritmos
  • Interacción física. Las aplicaciones de la IA en el sector del transporte o de las infraestructuras son múltiples, sin embargo, en estos casos la interacción de elementos gobernados por la IA con personas puede poner en riesgo a éstos últimos. El año pasado, sin ir más lejos, un coche autónomo atropelló a una mujer de 49 años.
  • Calibración dinámica. La Inteligencia Artificial, y en particular el Machine Learning no son elementos estáticos. Los modelos modifican sus parámetros de manera dinámica para reflejar nuevos patrones. Esto altera el enfoque tradicional, dado que el control periódico de los riesgos deja de ser válido y es necesario buscar alternativas también dinámicas que den respuesta a los algoritmos.

Éstos son sólo algunos ejemplos de riesgos iniciales que deben identificar las compañías si quieren aplicar la IA. El objetivo es cambiar el triciclo por un vehículo más veloz, a poder ser autónomo, pero la única manera de acelerar es entender cuáles son estos peligros.