Consultoría & Consultores

Sonaba muy prometedor: una startup que decía tener tecnología de Inteligencia Artificial (IA) capaz de automatizar el desarrollo de aplicaciones móviles. ¿Cuál es el problema? Que puede que no sea cierto. Según The Wall Street Journal esta empresa que, recientemente, ha levantado casi 30 millones de dólares de fondos de capital riesgo especializados en IA, puede que apenas tenga capacidades o conocimientos de esta tecnología.

Resulta que este escenario es bastante común. Según un estudio de la empresa londinense MMC Ventures, en el que se analizaron 2.830 startups europeas, el 40% de las que afirmaron ser «startups de IA» apenas tenían IA.

A este fenómeno se le llama IA washing -que en castellano podría ser algo así como lavado de IA o, por qué no, postureo de IA. Básicamente, se trata de compañías y personas que inducen al engaño respecto de sus capacidades en esta tecnología. En mi trabajo, que está a medio camino entre el marketing y las tecnologías emergentes lo estoy viendo cada vez más a menudo.

Un peligro para inversores y directivos

El nombre de este fenómeno en inglés es una variante del más extendido green-washing, en el que algunas empresas presentan sus actividades como sostenibles, cuando no lo son. Para los directivos, los riesgos del postureo de IA son todavía mayores que el de los reclamos sostenibles de mentira.

Ya sea aliándote con otros para poner en marcha la IA en tu empresa o haciéndolo de forma orgánica, el imperativo es el mismo: asegúrate de que lo que has puesto en marcha es una IA responsable

Un riesgo muy claro es el que se plantea a la hora acometer la compra de una compañía de IA. Teniendo en cuenta que las valoraciones de empresas con IA están por las nubes, las empresas compradoras deberían ser capaces de hacer una due dilligence particular en materia de IA para saber si realmente te van a dar aquello por lo que están pagando.

Más allá de la compra y venta de empresas, hay otro riesgo para aquellas compañías que están desplegando la IA de forma agresiva, y comunicándoselo, por todo lo alto, a sus socios y a sus clientes. Para estos negocios podría ser devastador si alguien de sus propias filas estuviera mintiendo o maquillando la realidad sobre la madurez de la IA en su empresa.

Y las promesas engañosas pueden ocurrir más fácilmente de lo que crees. La IA es difícil. A menos que tengas un doctorado en informática, ¿cómo puedes estar seguro de que tus herramientas de IA están haciendo realmente todo lo que tus equipos de tecnología y marketing dicen que hacen?

Puede que ni siquiera haya una intención consciente de engañar. Tal vez, en el equipo de Tecnología estén siendo demasiado optimistas. O puede que alguien de Marketing esté exagerando un pelín en busca de una campaña más potente, o que no entiendan bien la tecnología.

Cómo no ser una víctima: IA responsable

Ya sea aliándote con otros para poner en marcha la IA en tu empresa o haciéndolo de forma orgánica, el imperativo es el mismo: asegúrate de que lo que has puesto en marcha es una IA responsable.

Esto significa que todos tus stakeholders -clientes, empleados o distintos grupos de interés- pueden estar seguros de que tu IA hace lo que se supone que debe hacer, de una manera beneficiosa para ellos y basada en estos cinco pilares:

  1. Gobierno. Un equipo multifuncional debe supervisar la IA en toda la empresa durante todo el ciclo de vida de la IA.
  2. Explicabilidad e interpretabilidad. Incluso cuando la IA hace su trabajo entre bastidores, debería ser posible levantar el telón y ver qué está pasando.
  3. Sesgos y procedimientos. Es fundamental tener controles para detectar sesgos, y procedimientos para arreglarlo rápidamente.
  4. Solidez y seguridad. Te interesa monitorizar las ciberamenazas, pero también cómo la IA puede degradarse de forma natural o volverse menos precisa a medida que sus datos o modelos envejecen.
  5. Ética y regulación. No basta con cumplir la ley -sobre todo, porque muchas leyes aún están evolucionando-. La IA debe estar alineada tanto con los principios corporativos como con cuestiones éticas más amplias.

Si cuentas con estos pilares internamente, puedes estar seguro de que tu IA es una fuente de confianza, no de riesgo. Cuando se analizan empresas, se deben examinar estos cinco pilares en relación con sus propias necesidades.

Por ejemplo, puede que descubran que la IA de una pequeña empresa es lo suficientemente sólida para sus propias necesidades, que son limitadas. Pero puede que no funcione o no sea segura si intentas escalarla para utilizarla en tus operaciones en todo el mundo.

Si una startup no cuenta con mecanismos de buen gobierno o dice que es imposible explicar cómo funciona su IA, podrías estar ante signos claros de que deberías alejarte. Sin embargo, si profundizas un poco más y descubres que la IA que tienen en marcha sí está funcionando, estos defectos podrían ser oportunidades para que la adquieras y la lleves a otro nivel.

Así que, si la mala noticia es que muchos están pintando todo demasiado bonito en su mundo de IA, también hay buenas noticias: si sabes en qué fijarte, puedes sortear los riesgos y ser un líder de la IA, no un bluf.


Artículo de Matthew Lieberman, líder de Marketing de PwC, publicado originalmente en la revista Forbes.