Los siete pecados de la Inteligencia Artificial

Aprovecha el potencial de la IA. Te ayudamos a evitar los errores más comunes a la hora de implementarla con ejemplos claros y consejos prácticos.
plus big
zoom
Tecnología

Este contenido propio y exclusivo te ofrece:

INFORME

Pecado I. Ignorancia

 

No plantear correctamente el problema a solucionar y creer que la IA es aplicable en todas las situaciones.

Para hablar de Inteligencia Artificial, primero debemos hablar de la Inteligencia humana a la que trata de imitar. En este caso, se define la inteligencia como la capacidad de adquirir conocimiento a partir de la información del entorno. Hay tres maneras en las que los seres humanos hacemos esto (y no todas han sido imitadas por la IA):

 

1. La deducción: se basa en combinar ideas y silogismos ya conocidos. Ej. si sabemos que “Todos los hombres son mortales” y “Sócrates es un hombre”, entonces podemos deducir: “Sócrates es mortal”. Curiosamente, la deducción no nos permite adquirir conocimiento. Simplemente se basa en combinar reglas ya conocidas del mundo, generando reglas nuevas. Este sistema fue el primero en tratar de ser implementado, pero tuvo poco éxito.

 

2. La inducción: se basa en generar reglas a partir de la experiencia. 

Ej: si solo veo cuervos negros, puedo generar una regla de “Todos los cuervos son negros”. Si hoy vemos un cuervo albino, esta regla será invalidada aunque pasará a ser “La mayoría de cuervos son negros”.

Todo lo que llamamos IA en el siglo XXI, los modelos actuales supervisados necesitan un entrenamiento, un proceso por el cual se le dan ejemplos al modelo para que genere una regla nueva mediante inducción. Dependen de manera exclusiva de la experiencia. Esto hace imposible que actúe de manera general para todos los problemas del mundo, solo para aquellos para los que ha sido entrenado. (Ej. si quiero un modelo para detectar sillas, primero tendré que mostrarle miles de sillas diferentes durante el entrenamiento y solo funcionará para ello. No reconocerá personas)

 

3. La abducción: se basa en adquirir conocimiento mediante suposiciones y probabilidades. Ej: Si vemos el suelo mojado, podremos indicar que alguien debe haber derramado agua. Esta inferencia se realiza de manera casual, sin entrenamiento, y con un alto porcentaje de fallo. Ante la presencia del charco, inferimos esta posibilidad pero sabemos que no es la única: puede haber humedad, un grifo roto, una condensación de la ventana… mantenemos varias explicaciones al mismo tiempo mientras encontramos la correcta.

Actualmente ninguna IA es capaz de imitar este tipo de lógica, que nos permitiría salir de la dictadura del entrenamiento y tener una inteligencia artificial generalista.

Si queremos montar nuestra propia IA, tendremos que pensar qué tipo de problema pretendemos atacar, o cómo adaptarlo para que se parezca a uno de estos. Si logramos hacer esto, tendremos el primer paso para montar con soltura nuestra propia IA. Los problemas fundamentales que la IA puede resolver son:

  • Clasificación: etiquetar un dato con una o varias categorías a la que pertenece.
  • Asociación: agrupar varios datos por parecerse entre sí.
  • Predicción: predecir los siguientes datos usando como referencia datos previos.
  • Optimización: tomar diferentes vías de respuesta ante determinados datos para conseguir un objetivo.

Así, si queremos montar un modelo de recomendación de películas tipo Netflix, podemos plantearlo de dos maneras diferentes:

  • Como un problema de asociación, agrupando las películas disponibles con sus etiquetas y descripción, y devolviendo las películas más similares a la última que ha visto el usuario.
  • Como un problema de predicción, tratando de predecir la siguiente película que quiere ver un usuario dado su historial previo.

Si no tenemos asociada nuestra solución a ninguno de estos problemas… puede que la solución no requiera IA, y haya otras soluciones más sencillas. O peor, que sea imposible de resolver.

 

Pecado II. Soberbia

Pensar que la eficacia del modelo de IA será suficiente para resolver cualquier problema.

Todo modelo de IA tiene un porcentaje de fallo y es importante considerar la gravedad de estos fallos en relación con el problema que se intenta resolver. 

Ej: Gravedad de un fallo de Netflix al recomendarnos películas vs Fallo de un vehículo de conducción autónoma. El segundo no se puede implementar aunque el porcentaje de fallo sea ínfimo o mucho menor que el de Netflix, porque nos costaría una vida.

Es crucial realizar un análisis de riesgos para determinar si la implementación de un modelo de IA es adecuada en términos de coste y beneficio.

Por este motivo, si la gravedad en el fallo es alta, es importante cambiar el problema para caer dentro de la zona segura. Esto puede ser realizado cambiando de modelo de IA para reducir errores, ya sea reentrenándolo o usando otros modelos actualizados del estado del arte; o reducir la gravedad del error cambiando el problema. Ej: no podemos lograr la conducción totalmente automática pero si la conducción asistida, que ayude al humano a conducir y cuyo fallo no implique un accidente.

 

Pecado III. Pobreza de datos

No tener datos suficientes para entrenar o mejorar los modelos de IA. 

La calidad y cantidad de los datos de entrenamiento son fundamentales para el éxito de un modelo de IA. Es necesario asegurarse de que los datos sean:

  •  Suficientes. Depende del modelo puede que necesitemos más o menos cantidad de datos para entrenarlo. Como valores de referencia podemos tener:
  • Modelos no supervisados o Zero-Shot > No requieren datos de entrenamiento (aunque sus resultados pueden no adaptarse a nuestra solución).
  • Fine Tunning > Reentrenar un modelo de IA ya entrenado para adaptarlo a nuestra solución. Como ya está entrenado, normalmente necesitan menos datos. Habitualmente 1000 datos por categoría.
  • Entrenamiento nuevo > Entrenar un modelo desde cero, sin ningún tipo de entrenamiento previo. Habitualmente 100000 datos por categoría.
  • Coherentes. Es importante que los datos sean similares a los que luego va a encontrarse el modelo durante su inferencia. Ej: en el modelo para reconocer sillas, es necesario que las imágenes de sillas del entrenamiento tengan la calidad y tamaño de las sillas que luego se encontrará. 
  • Legales. Podemos usar bases de datos externas para entrenar nuestros modelos, pero muchas tienen licencia para ser usadas sólo en investigación, y no permiten las soluciones comerciales ni de venta.

Es bastante habitual no encontrar ninguna base de datos pública compatible con nuestra solución. En estos casos, tenemos unos últimos recursos que podemos seguir:

  • Generar nuestro propio dataset. Existen herramientas open-source como LabelStudio para etiquetar tus datos de entrenamiento por tu cuenta, también hay negocios asociados a este proceso como Amazon Mechanical Turk. El problema es que este proceso requerirá bastante tiempo y esfuerzo.
  • Usar datos sintéticos. Empieza a haber estudios sobre la eficacia del uso de IAs generativas para generar la base de datos de manera artificial. Este sistema es útil y rápido pero es peligroso, ya que el modelo puede heredar los sesgos y fallos de la IA generativa usada.
  • Alternativas sin datos. Como decíamos, existen modelos Zero-Shot, basados en asociaciones de patrones lingüísticos y/o visuales que permiten poder usarse sin necesidad de entrenamiento. Los dos únicos problemas es que suelen ser modelos de inferencia lenta (lo que dificulta implementar algunas soluciones) y que no siempre se adaptan a lo que necesitamos montar.

 

Pecado IV. Impaciencia

No tener en cuenta los tiempos de inferencia de la IA, lo que limita algunas soluciones de negocio. 

Es importante considerar el tiempo que tarda un modelo de IA en devolver resultados, especialmente en aplicaciones en tiempo real. Podemos diferenciar las soluciones de IA en dos tipos según su tiempo medio de inferencia:

  • Soluciones en tiempo real. La inferencia tarda menos de 1 segundo. Los modelos que cumplen esta condición, salvo excepciones, suelen ser más sencillos y menos precisos, por lo que dan más posibilidades de fallo. Además, las soluciones en las que se combinan varios modelos son más limitadas, ya que el tiempo de inferencia de todos los modelos se suman entre sí.
  • Soluciones asíncronas. Si la inferencia tarda más de un segundo, estamos ante una solución que debe ser implementada de manera asíncrona, y el usuario no debe esperar los resultados de manera inmediata. Ej: modelo de HeyGen capaz de traducir videos, cambiando el audio al idioma asignado y haciendo que encaje con la voz y el movimiento de labios del actor en escena. Tardaba, mínimo, 3 minutos por cada segundo de video introducido, un tiempo algo prohibitivo para una sociedad acostumbrada a las soluciones inmediatas.

    Normalmente los modelos grandes y complejos de las demos suelen tener tiempos de inferencia elevados, aunque hay algunos trucos para evitarlo como:
  • Cachear los resultados para no ser llamados dos veces.
  • Autocompletar con resultados ya generados similares a lo pedido.
  • Incluir algo que hacer en la espera.

 

Pecado V. Codicia

Implementar modelos de IA demasiado pesados y costosos, difíciles de escalar.

Es esencial tener en cuenta el coste de mantener un modelo de IA en una plataforma en la nube, como AWS o Azure, incluyendo el precio de la infraestructura y el consumo de recursos. Cada máquina tiene sus propias características relativas a la potencia, la memoria y el precio por hora, los cuales tendremos que tener en cuenta.

Las soluciones a tiempo real siempre son más caras, ya que requieren que el modelo esté disponible las 24 horas del día. También, los modelos más pesados y complejos aumentarán el coste de nuestra solución, ya que requieren máquinas más potentes y caras. Otro detalle más sutil es el número de llamadas recurrentes, si mucha gente llama al modelo al mismo tiempo, será necesario contratar más máquinas simultáneas, elevando el coste al doble o triple.

En este sentido, para implementar un modelo de IA tendremos siempre que hacer un presupuesto de cuánto nos va a costar mantener ese modelo en la nube. Puede que el coste sea demasiado elevado para los beneficios que nos puede dar, dando una sorpresa a final de mes.

 

Pecado VI. Desidia

No monitorizar la calidad del modelo en el tiempo ni tener en cuenta variaciones en su eficacia. 

Los modelos de IA pueden deteriorarse con el tiempo debido al fenómeno del model drifting. Ej: un modelo de recomendación de contenido no devolverá nuevas películas porque no están incluidas en su entrenamiento, y sus resultados se vuelven obsoletos con el tiempo.

Es fundamental establecer métricas de evaluación (Ej: el número de clicks en contenido recomendado, el porcentaje de imágenes sin detecciones en un detector de sillas, etc.) y monitorizar el rendimiento del modelo de forma continua para detectar y corregir posibles problemas con un reentrenamiento.

 

Pecado VII. Oscurantismo

No saber cómo funciona el modelo de IA implementado, usándolo como una caja negra. 

Aunque tengan matemáticas complejas por debajo, no es complicado saber cómo funciona en términos generales un modelo de IA determinado.

Es necesario entender los puntos fuertes y débiles de los modelos de IA para utilizarlos correctamente.
– ChatGPT y otros LMMs son modelos predictivos de lenguaje, que devuelven combinaciones de patrones lingüísticos y keywords asociados a unas preguntas dadas. Al ser un modelo centrado en autocompletar nuestras oraciones, depende demasiado de la base de datos que tenga, por lo que no puede dar verdades absolutas ni ser usado como una fuente de la verdad.

– Los clasificadores de imágenes asocian patrones visuales a una o varias categorías a través de su entrenamiento, pero no tienen por qué ser los más coherentes para un ser humano. Ej: en 2016 se publicó un modelo entrenado para diferenciar entre lobos y perros de la especie Husky. Como son tan parecidos entre sí, se consideraba que este modelo podría ser útil para distinguir aspectos visuales sutiles. Lamentablemente tras varias pruebas se comprobó que el modelo aprendió a diferenciar la nieve del fondo de la imagen, no al animal. Si no había nieve, era un lobo. Si no, un Husky.

– Las IA generativas forman una imagen, vídeo o audio usando patrones visuales/auditivos en base a lo pedido en un prompt. Este contenido se genera usando ruido como parte de su composición, por lo que los resultados son aleatorios y cambian cada vez. Ante palabras raras, la falta de imágenes en la base de datos provoca que los resultados empeoren o sean inexistentes.

La divulgación y la transparencia en torno al funcionamiento de los modelos son fundamentales para evitar un mal uso de la IA.

En Multimarkts aplicamos nuestra propia IA, teniendo en cuenta todo lo anterior de manera que podamos ofrecer la mejor experiencia a nuestros clientes, minimizando errores. Os invitamos a conocernos y ver una demostración real y muy provechosa del uso de la IA

Preguntas frecuentes

Para poder: 1. Mejorar tu experiencia en nuestra plataforma personalizando tu navegación según tus preferencias. 2. Enviarte información relevante por correo electrónico u otros medios que puede interesarte (poca y puedes darte de baja cuando quieras) 3. Proporcionarte comunicaciones de marketing que pensamos que pueden serte útiles. Puedes obtener más detalles sobre nuestra política de privacidad. en esta página.

Completamente gratis 


Queremos compartir conocimiento para ayudarte en tu día a día y que nos conozcas un poco más.

Los siete pecados de la Inteligencia Artificial

Los siete pecados de la Inteligencia Artificial