Por qué el EVI® es tan importante para la Experiencia de Cliente

5 preguntas que debes responder antes de implementar la IA

por | 22 Jun 2023 | Tendencias | 0 Comentarios

Nadie puede dudar que estamos viviendo tiempos de cambio en la sociedad, similares a la invención de la imprenta, la computadora y la internet. Aunque esta vez el invento es algo que rompe aún más los esquemas: La Inteligencia Artificial. Pero ¿Estamos preparados para implementar la IA en tu negocio?

Realmente la tecnología es algo que me apasiona, por eso invierto tiempo investigando y buscando material de la IA. Justamente en esa búsqueda me encontré un artículo de la profesora Tsedal Neeley, quien es decana asociada de profesorado e investigación en la Harvard Business School.

En su escrito, la profesora Neeley, ofrece algunas preguntas que los líderes de compañías deben responderse antes de implementar soluciones de IA. A continuación, les compartimos 5 preguntas que, para nosotros, son obligatorias:

¿Cómo debo prepararme para incorporar la IA a la empresa?

Para empezar, es importante reconocer que la forma óptima de trabajar con la IA es diferente a la utilizada con otras nuevas tecnologías. En el pasado, la mayoría de las nuevas herramientas simplemente nos permitían realizar tareas de forma más eficiente. La gente escribía con bolígrafos, luego con máquinas de escribir (que eran más rápidas), luego con computadoras (que eran aún más rápidas). Cada nueva herramienta permitía escribir con más eficacia, pero los procesos generales (redacción, revisión, edición) seguían siendo prácticamente los mismos.

La IA es diferente. Tiene una influencia más sustancial en nuestro trabajo y nuestros procesos, porque es capaz de encontrar patrones que nosotros no podemos ver y utilizarlos para proporcionar ideas y análisis, predicciones, sugerencias e incluso borradores completos por sí sola. Así que en lugar de pensar en la IA como las herramientas que utilizamos, deberíamos pensar en ella como un conjunto de sistemas con los que podemos colaborar.

Para colaborar eficazmente con la IA en la empresa, hay que centrarse en tres aspectos:

En primer lugar, asegúrate que todo el mundo tiene una comprensión básica de cómo funcionan los sistemas digitales. Una mentalidad digital es un conjunto de actitudes y comportamientos que te ayudan a ver nuevas posibilidades utilizando datos, tecnología, algoritmos e IA

En segundo lugar, asegúrate que tu empresa está preparada para la adaptación y el cambio continuos. La incorporación de nueva IA exige que los empleados se acostumbren a procesar nuevos flujos de datos y contenidos, analizarlos y utilizar sus conclusiones y resultados para desarrollar una nueva perspectiva. Del mismo modo, para utilizar los datos y la tecnología de la forma más eficiente, las organizaciones necesitan una estructura organizativa integrada.

En tercer lugar, incorpora la IA al modelo operativo. Como han demostrado mis colegas Marco Iansiti y Karim R. Lakhani, la estructura de una organización refleja la arquitectura de los sistemas tecnológicos que contiene, y viceversa. Si los sistemas tecnológicos son estáticos, tu organización será estática. Pero si son flexibles, la empresa será flexible. Esta estrategia funcionó con éxito en Amazon. Según Iansiti y Lakhani, la compañía tenía problemas para mantener su crecimiento y su infraestructura de software se estaba «resquebrajando bajo presión».

Así que Jeff Bezos escribió un memorándum a los empleados anunciando que todos los equipos debían enrutar sus datos a través de «interfaces de programación de aplicaciones» (API), que permiten a varios tipos de software comunicarse y compartir datos utilizando protocolos establecidos. Quien no lo hiciera sería despedido. Este fue un intento de romper la inercia dentro de los sistemas tecnológicos de Amazon, y funcionó, desmantelando los silos de datos, aumentando la colaboración y ayudando a construir el modelo operativo basado en software y datos que vemos hoy en día. Si bien es posible que no desee recurrir a un ultimátum similar, debe pensar en cómo la introducción de la IA puede -y debe- cambiar sus operaciones para mejor.

¿Cuáles son las acciones que podemos aplicar para garantizar la transparencia en la toma de decisiones mediante IA?

Reconocer que la IA es invisible e inescrutable y adoptar una actitud transparente al presentar y utilizar los sistemas de IA.

Los directivos deben reconocer que no siempre es posible saber cómo toman sus decisiones los sistemas de IA. Algunas de las mismas características que permiten a la IA procesar rápidamente enormes cantidades de datos y realizar determinadas tareas con mayor precisión o eficacia que los humanos también pueden convertirla en una caja negra: No podemos ver cómo se produce el resultado. Sin embargo, todos podemos contribuir a aumentar la transparencia y la responsabilidad en los procesos de toma de decisiones de la IA de dos maneras:

Callen Anthony, Beth A. Bechky y Anne-Laure Fayard identifican la invisibilidad y la inescrutabilidad como características fundamentales que diferencian la IA de las tecnologías anteriores. Es invisible porque a menudo se ejecuta en segundo plano de otras tecnologías o plataformas sin que los usuarios sean conscientes de ello; por cada Siri o Alexa que la gente entiende como IA, hay muchas tecnologías, como los frenos antibloqueo, que contienen sistemas de IA invisibles. Es inescrutable porque, incluso para los desarrolladores de IA, a menudo es imposible entender cómo un modelo llega a un resultado, o incluso identificar todos los puntos de datos que está utilizando para llegar allí, buenos, malos o de otro tipo.

A medida que las IA se basan en conjuntos de datos cada vez mayores, esto se hace cada vez más cierto. Pensemos en los grandes modelos lingüísticos (LLM), como ChatGPT de OpenAI o Bing de Microsoft. El LLM de OpenAI se entrenó con 175.000 millones de parámetros y se creó para predecir la probabilidad de que algo ocurra (un carácter, una palabra o una cadena de palabras, o incluso una imagen o un cambio tonal en tu voz) basándose en su contexto precedente o circundante. La función de autocorrección de tu teléfono es un ejemplo de la exactitud -e inexactitud- de este tipo de predicciones. Pero no se trata sólo del tamaño de los datos de entrenamiento: Muchos algoritmos de Inteligencia Artificial aprenden por sí mismos y van perfeccionando su capacidad predictiva a medida que obtienen más datos y comentarios de los usuarios, añadiendo nuevos parámetros.

Dar prioridad a la explicación como objetivo central del diseño.

El informe de investigación «Artificial Intelligence and the Future of Work» (Inteligencia Artificial y el futuro del trabajo), elaborado por científicos del MIT, señala que los modelos de IA pueden ser más transparentes mediante prácticas como destacar áreas específicas de los datos que contribuyen a los resultados de la IA, crear modelos más interpretables y desarrollar algoritmos que puedan utilizarse para comprobar cómo funciona un modelo diferente.

Del mismo modo, Timnit Gebru, destacado informático especializado en IA, y sus colegas Emily Bender, Angelina McMillan-Major y Margaret Mitchell (conocida como «Shmargaret Shmitchell») sostienen que prácticas como los análisis premortem, que incitan a los desarrolladores a considerar tanto los riesgos del proyecto como las posibles alternativas a los planes actuales, pueden aumentar la transparencia de las tecnologías futuras. Haciéndose eco de este punto, en marzo de 2023, los destacados empresarios tecnológicos Steve Wozniak y Elon Musk, junto con empleados de Google y Microsoft, firmaron una carta abogando por que el desarrollo de la IA sea más transparente e interpretable.

¿Qué podemos hacer para poner barreras a los LLM para que sus respuestas sean verdaderas y coherentes con la imagen de marca que se quiere proyectar?

Los LLM conllevan varios riesgos graves. Pueden:

  • Perpetuar prejuicios perjudiciales utilizando estereotipos negativos o minimizando los puntos de vista minoritarios difundir información errónea repitiendo falsedades o inventando hechos y citas
  • Violar la intimidad al utilizar datos sin el consentimiento de las personas
  • Provocar brechas de seguridad si se utilizan para generar correos electrónicos de phishing u otros ciberataques
  • Dañar el medio ambiente debido a los importantes recursos informáticos necesarios para entrenar y ejecutar estas herramientas.

La curación de datos y la documentación son dos formas de reducir esos riesgos y garantizar que los LLM den respuestas más coherentes con su imagen de marca, no perjudiciales para ella.

¿Cómo podemos asegurarnos que el conjunto de datos que utilizamos para entrenar modelos de IA es representativo y no incluye sesgos perjudiciales?

El saneamiento de los grupos de datos es un reto que las organizaciones pueden ayudar a superar dando prioridad a la transparencia y la equidad sobre el tamaño del modelo y representando a diversas poblaciones en la conservación de datos.

En primer lugar, hay que considerar los compromisos que se asumen. Las empresas tecnológicas han estado buscando sistemas de IA más grandes porque tienden a ser más eficaces en ciertas tareas, como mantener conversaciones que parecen humanas. Sin embargo, si un modelo es demasiado grande para comprenderlo en su totalidad, es imposible librarlo de posibles sesgos. Para combatir plenamente los sesgos perjudiciales, los desarrolladores deben ser capaces de comprender y documentar los riesgos inherentes a un conjunto de datos, lo que podría significar utilizar uno más pequeño.

En segundo lugar, si equipos diversos, incluidos miembros de poblaciones poco representadas, recopilan y producen los datos utilizados para entrenar los modelos, tendrá más posibilidades de garantizar que en ellos estén representadas personas con una variedad de perspectivas e identidades. Esta práctica también ayuda a identificar sesgos o puntos ciegos no reconocidos en los datos.

La IA solo será digna de confianza cuando funcione de forma equitativa, y eso solo ocurrirá si se da prioridad a la diversificación de los datos y los equipos de desarrollo y se documenta claramente cómo se ha diseñado la IA para que sea justa.

¿Hasta qué punto debe preocuparnos que la IA reemplace puestos de trabajo?

Cada revolución tecnológica ha creado más puestos de trabajo de los que ha destruido. Los automóviles dejaron fuera de juego a los conductores de carros de caballos, pero crearon nuevos puestos de trabajo en la construcción y reparación de coches, la gestión de gasolineras, etc. La novedad de las tecnologías de IA hace que sea fácil temer que sustituyan a los humanos en el mercado laboral. La novedad de las tecnologías de IA hace que sea fácil temer que sustituyan a los humanos en la mano de obra.

Las personas y las organizaciones deben centrarse en la mejora de las cualificaciones y la ampliación de escala para prepararse para aprovechar al máximo las nuevas tecnologías. La IA y los robots no van a sustituir a los humanos a corto plazo. Lo más probable es que las personas con mentalidad digital sustituyan a las que no la tienen.

 

 

WOW! Customer Experience

Autor

Para más información escribir al correo: [email protected] o en https://www.linkedin.com/company/wowcx

Suscribirme al Newsletter

Categorías
Entradas recientes
¿Qué es la innovación abierta en Service Design?

¿Qué es la innovación abierta en Service Design?

¿Sabías que debido a la competencia muchas empresas están recurriendo a enfoques innovadores para diferenciarse y destacarse en el mercado? Uno de ellos es la innovación abierta en el diseño de servicios, una estrategia que promueve la colaboración y la co-creación...

leer más

Ten acceso instantáneo a cientos de recursos exclusivos para ganar conocimientos, inspiración y hacer crecer tu negocio.

Artículos relacionados

Comentarios

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *