banner

Blog

Aug 05, 2023

Seis desafíos del aprendizaje automático que enfrentan las empresas

Getty Images/iStockphoto

El aprendizaje automático promete conocimientos que pueden ayudar a las empresas a mejorar la atención al cliente, combatir el fraude y anticipar la demanda de productos o servicios.

Pero implementar la tecnología (y obtener los beneficios previstos) puede resultar, cuando menos, difícil. Entran en juego los espinosos problemas de la introducción de cualquier herramienta nueva: entre los obstáculos se encuentran la inversión insuficiente y la falta de aceptación por parte de los usuarios. Pero las organizaciones que implementan el aprendizaje automático (ML) deben abordar un conjunto aún más amplio de preocupaciones, desde la ética hasta la incertidumbre epistémica.

Aquí hay seis desafíos de ML que las empresas deberían considerar:

Las organizaciones asumen una cierta cantidad de riesgo cuando buscan tecnologías emergentes. En el caso del LA, los peligros potenciales cobran gran importancia y tienden a ser multidimensionales.

"Los mayores desafíos que estamos viendo, en los que están trabajando todas las organizaciones, están realmente relacionados con preocupaciones éticas, preocupaciones de seguridad, preocupaciones económicas y consideraciones legales", dijo Zakir Hussain, líder de datos para América de la consultora EY. "Esos cuatro suelen ser sobre los que muchos de nuestros clientes preguntan constantemente".

El sesgo en los modelos de ML se encuentra entre los principales problemas éticos. Por ejemplo, es posible que los datos utilizados para entrenar dichos modelos no incluyan datos representativos de todos los grupos de personas dentro de una población determinada. El modelo resultante producirá resultados sistémicamente prejuiciosos.

En cuanto a la seguridad, quienes adoptan el ML deben abordar varias cuestiones. Entre ellos se incluyen científicos de datos que potencialmente descargan malware junto con los modelos de código abierto que planean personalizar, así como ataques de ingeniería rápidos, dijo David Frigeri, director general de Slalom y líder de su práctica de IA/ML en Filadelfia. Slalom es una consultora centrada en estrategia y tecnología.

También citó el envenenamiento de datos, un ataque en el que un actor de amenazas se infiltra en los datos de capacitación de una empresa para influir en los resultados de los análisis o los resultados del modelo.

Los problemas de seguridad encajan con preocupaciones más amplias sobre la confianza, especialmente con el aspecto de creación de contenido de la IA generativa. "En algunos casos, no siempre puedes confiar en el contenido que [la IA] ha creado para ti", dijo Frigeri. "Tiene que haber algunos controles y equilibrios para determinar en qué se puede confiar y en qué no".

Mientras tanto, las preocupaciones económicas giran en torno a cuestiones laborales y los 300 millones de empleos estimados que se espera que afecte la IA, dijo Hussain. Señaló que algunas empresas ya han dejado de contratar personas para puestos en los que creen que la IA puede hacer el trabajo.

Y en el ámbito legal, Hussain señaló el caso de un abogado de la ciudad de Nueva York que confió en ChatGPT para crear un escrito. La herramienta de IA inventó citaciones legales, lo que subraya cómo la tecnología puede alucinar e introducir errores.

Las organizaciones que implementan ML deben abordar estos problemas de frente, afirmó Hussain. Las medidas que ayudan a mitigar el riesgo incluyen establecer directrices éticas y de gobernanza claras, priorizar la calidad de los datos, enfatizar la equidad en el desarrollo de modelos y garantizar la explicabilidad de los modelos, añadió.

En un apuro por construir modelos, las organizaciones podrían pasar por alto la difícil tarea de formular un problema que el ML pueda abordar.

"Comenzamos la conversación con nuestros clientes con la simple noción de amar el problema", dijo Frigeri. "Muchas veces, la gente se enamora de la solución antes de comprender plenamente, cualitativa y cuantitativamente, cuál es el problema".

Los proyectos se evaporan cuando las organizaciones no logran seleccionar un candidato problemático sólido para ML. Si el problema elegido no mueve la aguja proverbial, las pruebas de concepto carecen de recursos suficientes y no logran ofrecer "aprendizajes ni operacionalización", señaló Frigeri.

Las organizaciones que luchan por enmarcar el problema también tendrán dificultades para encontrar casos de uso apropiados, lo que dificultará la implementación. Más de la mitad de los 200 estrategas corporativos entrevistados por Gartner citaron "establecer un caso de uso claro" como el principal obstáculo a la hora de implementar tecnologías emergentes. El informe de julio de 2023 de la firma de investigación de mercado señaló que solo el 20% de los estrategas utilizaban herramientas relacionadas con la inteligencia artificial, como el aprendizaje automático.

La identificación de casos de uso "tradicionalmente no forma parte de la estrategia corporativa", dijo David Akers, director de investigación de Gartner.

Los datos deben prepararse, limpiarse y estructurarse antes de que las organizaciones puedan crear herramientas de aprendizaje automático efectivas. Pero muchas empresas quieren saltarse este paso de ingeniería de datos y lanzarse al desarrollo de modelos, dijo Matt Mead, CTO de SPR, una empresa de modernización tecnológica en Chicago. Citó la resistencia organizacional a la inversión en datos como un desafío clave en el aprendizaje automático.

"Todas las empresas necesitan hacer esa inversión inicial", dijo Mead. "Pero es una especie de inversión sin ningún valor comercial tangible específico".

Los resultados de la ingeniería de datos, por más críticos que sean, podrían no impresionar inicialmente a los altos directivos fuera del campo de TI. Por esa razón, es importante que los líderes de proyectos de ML se aseguren de que los ejecutivos de alto nivel reconozcan la necesidad de invertir en datos de calidad antes de embarcarse en el viaje de la ciencia de datos, señaló Mead.

Descuidar la preparación de datos a menudo genera problemas más adelante en un proyecto.

"Lo que estamos viendo es que casi el 90% del trabajo que se realiza para descubrir por qué un modelo de IA o un modelo de aprendizaje automático no funciona está realmente relacionado con los datos", dijo Hussain.

Enumeró algunas consideraciones sobre los datos: ¿De dónde provienen los datos y cómo? ¿Cuál es su nivel actual de calidad? ¿Y cómo gestionan las organizaciones la calidad de los datos?

Por supuesto, una implementación de ML bien planificada es importante. Pero una búsqueda decidida de esa fase del proyecto podría obstaculizar el objetivo final de la adopción de tecnología.

La mayoría de las organizaciones se centran estrictamente en la implementación, afirmó Mead. Pero no lograrán obtener resultados si los empleados no utilizan las herramientas de aprendizaje automático según lo previsto, o no las utilizan en absoluto. Mead citó el ejemplo de un cliente que introdujo ML en un call center para guiar a los agentes en sus conversaciones con los clientes. Pero la función ML estaba enterrada a tres o cuatro clics de profundidad en la pila de software del centro de llamadas.

"Se implementó maravillosamente desde una perspectiva de ciencia de datos", dijo Mead. "Desde una perspectiva de integración, fue atroz. No tuvo adopción y, por lo tanto, la herramienta nunca proporcionó el valor comercial".

Frigeri enfatizó que la gestión, la habilitación y la adopción del cambio de los empleados son fundamentales para realizar el valor del ML.

"Si los empleados lo dejan en el estante, no obtendrán la devolución", dijo.

La accesibilidad y la usabilidad encabezan la lista de impulsores de la adopción, dijo Frigeri. Señaló el ejemplo de ChatGPT y le dio crédito al aspecto del chat por impulsar la prevalencia de la IA entre el público en general.

Dentro de las organizaciones, la accesibilidad surge de la participación del usuario. Mead recomendó incorporar a los usuarios y "campeones" al proceso de aprendizaje automático y obtener comentarios de ellos "temprano y con frecuencia". Los campeones podrían incluir gerentes motivados para estimular la adopción de ML, así como empleados con influencia en la organización, independientemente de su título, que pueden ayudar a garantizar que los usuarios adopten una implementación, dijo.

Los equipos de proyectos multifuncionales también ayudan a garantizar que el aprendizaje automático se integre y presente de manera efectiva dentro de una organización, agregó Mead.

"Los equipos de ciencia de datos son fantásticos en matemáticas y modelos", dijo. "Pero no tienen experiencia en experiencia de usuario ni en diseño de interfaces ni en cómo construir sistemas empresariales resistentes", dijo Mead.

Otro problema de adopción: los empleados podrían resistirse a usar ML si no han tocado las estadísticas a un nivel sofisticado desde sus días universitarios, según Frigeri. De hecho, las organizaciones deben reconocer que la alfabetización en datos es una consideración a la hora de implementar ML.

"A veces los empleados simplemente no se sienten seguros al intentar usar [ML] porque pueden ser descubiertos; realmente no entienden qué es", dijo Frigeri.

Las organizaciones pueden contratar servicios de gestión de cambios de terceros para ayudar con la aceptación de los empleados. Pero la principal parte interesada del negocio debería ser la parte responsable de la adopción, con el apoyo de TI y las oficinas internas de gestión de cambios, señaló Frigeri.

"Lo que hemos encontrado más eficaz es cuando la empresa realmente es responsable de la adopción", añadió.

Las empresas deben estar dispuestas a aceptar el riesgo de invertir en un proyecto de ML que nunca da frutos.

Tradicionalmente, los proyectos de desarrollo de software han sido deterministas, afirmó Mead. Las organizaciones a menudo necesitan superar retrasos y sobrecostos, pero la mayoría de las veces terminan con un software que implementa sus requisitos. "En su mayor parte, creo que la gente llega a donde necesita ir", afirmó.

Sin embargo, no existe el mismo grado de certeza con el ML.

"No sabes con certeza si podrás hacer lo que te propones", dijo Mead. "Y esa es simplemente la naturaleza de la ciencia de datos".

Una empresa podría gastar un tercio del presupuesto de un proyecto antes de darse cuenta de que el caso de uso previsto no es adecuado o que un modelo predictivo no alcanzará al menos un 75% de precisión, afirmó.

"Creo que mucha gente no comprende los riesgos", dijo Mead. "Hay que hacer un desarrollo preliminar del modelo para ver dónde están las cosas y si se puede obtener el valor comercial deseado".

David Frigeri
COMPARTIR