Les sept péchés de l’intelligence artificielle

Exploitez le potentiel de l’IA. Nous vous aidons à éviter les erreurs les plus courantes lors de sa mise en œuvre grâce à des exemples clairs et des conseils pratiques.
plus big
zoom
Technologie

Ce contenu propre et exclusif vous offre :

RAPPORT

Péché I. L’ignorance

Ne pas énoncer correctement le problème à résoudre et croire que l’IA est applicable dans toutes les situations.

Pour parler d’intelligence artificielle, il faut d’abord parler de l’intelligence humaine qu’elle tente d’imiter. Dans ce cas, l’intelligence est définie comme la capacité à acquérir des connaissances à partir d’informations présentes dans l’environnement. L’homme procède de trois manières (qui n’ont pas toutes été imitées par l’IA) :

1. La déduction: est basée sur la combinaison d’idées et de syllogismes déjà connus. Par exemple, si nous savons que « Tous les hommes sont mortels » et que « Socrate est un homme », nous pouvons déduire : « Socrate est mortel ». Il est intéressant de noter que la déduction ne permet pas d’acquérir des connaissances. Elle est simplement basée sur la combinaison de règles du monde déjà connues, générant ainsi de nouvelles règles. Ce système a été le premier à tenter d’être mis en œuvre, mais il n’a guère eu de succès.

2. Induction : elle est basée sur l’élaboration de règles à partir de l’expérience.

Par exemple, si je ne vois que des corbeaux noirs, je peux générer une règle « Tous les corbeaux sont noirs ». Si aujourd’hui nous voyons un corbeau albinos, cette règle sera invalidée et deviendra « La plupart des corbeaux sont noirs ».

Tous les modèles que nous appelons IA au XXIe siècle, les modèles supervisés actuels ont besoin d’être entraînés, un processus par lequel le modèle reçoit des exemples pour générer une nouvelle règle par induction. Ils s’appuient exclusivement sur l’expérience. Cela les empêche d’agir de manière générale pour tous les problèmes du monde, mais seulement pour ceux pour lesquels ils ont été entraînés (par exemple, si je veux qu’un modèle détecte des chaises, je devrai d’abord lui montrer des milliers de chaises différentes pendant l’entraînement et il ne fonctionnera que pour cela. Il ne reconnaîtra pas les personnes)

3. Enlèvement : est basée sur l’acquisition de connaissances par le biais d’hypothèses et de probabilités. Par exemple : si nous voyons le sol mouillé, nous serons en mesure d’indiquer que quelqu’un a dû renverser de l’eau. Cette déduction est faite par hasard, sans formation et avec un taux d’échec élevé. En présence d’une flaque d’eau, nous déduisons cette possibilité mais nous savons qu’elle n’est pas la seule : il peut y avoir de l’humidité, un robinet cassé, de la condensation par la fenêtre… nous gardons plusieurs explications en même temps en attendant de trouver la bonne.

Actuellement, aucune IA n’est capable d’imiter ce type de logique, ce qui permettrait de sortir de la dictature de l’entraînement et d’avoir une intelligence artificielle généraliste.

Si nous voulons créer notre propre IA, nous devons réfléchir au type de problème auquel nous sommes confrontés. Nous pourrons ainsi déterminer la nature de l’attaque que nous comptons mener, ou comment l’adapter pour qu’elle ressemble à l’une d’entre elles. Si nous y parvenons, nous aurons franchi la première étape de la construction de notre propre IA. Les problèmes fondamentaux que l’IA peut résoudre sont les suivants :

  • Classification : étiquetage d’un élément de données avec une ou plusieurs catégories auxquelles il appartient.
  • Association : regroupement de plusieurs informations parce qu’elles se ressemblent.
  • Prédiction : prédire les données suivantes en utilisant les données précédentes comme référence.
  • Optimisation : adopter différentes manières de répondre à certaines données pour atteindre un objectif.

Ainsi, si nous voulons mettre en place un modèle de recommandation de films de type Netflix, nous pouvons l’aborder de deux manières différentes :

  • Il s’agit d’un problème d’association qui consiste à regrouper les films disponibles en fonction de leurs étiquettes et de leur description, et à renvoyer les films les plus similaires au dernier film regardé par l’utilisateur.
  • En tant que problème de prédiction, il s’agit d’essayer de prédire le prochain film qu’un utilisateur souhaite regarder en fonction de son historique.

Si nous n’avons pas associé notre solution à l’un de ces problèmes… la solution peut ne pas nécessiter d’IA et il peut y avoir d’autres solutions plus simples. Ou, pire encore, elle peut être impossible à résoudre.

Péché II. L’orgueil

Penser que l’efficacité du modèle d’IA suffira à résoudre n’importe quel problème.

Chaque modèle d’IA a un taux d’échec et il est important de prendre en compte la gravité de ces échecs par rapport au problème que vous essayez de résoudre.

Ex : gravité d’une défaillance de Netflix à recommander des films par rapport à une défaillance d’une voiture autopilotée. Cette dernière ne peut être mise en œuvre même si le taux d’échec est négligeable ou bien inférieur à celui de Netflix, car elle nous coûterait une vie.

Il est essentiel de procéder à une analyse des risques pour déterminer si la mise en œuvre d’un modèle d’IA est appropriée en termes de coûts et d’avantages.

C’est pourquoi, si la gravité de la défaillance est élevée, il est important de modifier le problème pour qu’il se situe dans la zone de sécurité..
Esto puede ser realizado cambiando de modelo de IA para reducir errores, ya sea reentrenándolo o usando otros modelos actualizados del estado del arte; o reducir la gravedad del error cambiando el problema.
Ej: no podemos lograr la conducción totalmente automática pero si la conducción asistida, que ayude al humano a conducir y cuyo fallo no implique un accidente.

Péché III. Pauvreté des données

Manque de données pour entraîner ou améliorer les modèles d’IA.

La qualité et la quantité des données d’entraînement sont essentielles au succès d’un modèle d’IA. Il est nécessaire de s’assurer que les données sont.. :

  • Cela suffit. En fonction du modèle, nous pouvons avoir besoin de plus ou moins de données pour l’entraîner. Comme valeurs de référence, nous pouvons avoir
  • Modèles non supervisés ou Zero-Shot> Ne nécessitent pas de données d’apprentissage (bien que leurs résultats puissent ne pas correspondre à notre solution).
  • Fine Tunning Retraiter> un modèle d’IA déjà entraîné pour l’adapter à notre solution. Comme il est déjà entraîné, il a généralement besoin de moins de données. Typiquement 1000 données par catégorie.
  • Nouvelle formation Former> un modèle à partir de zéro, sans aucune formation préalable. Typiquement 100000 données par catégorie.
  • Cohérent. Il est important que les données soient similaires à ce que le modèle rencontrera plus tard au cours de l’inférence. Par exemple, dans le modèle de reconnaissance de chaises, il est nécessaire que les images de chaises dans la formation aient la qualité et la taille des chaises que l’on rencontrera.
  • Juridique. Nous pouvons utiliser des bases de données externes pour entraîner nos modèles, mais nombre d’entre elles sont soumises à des licences réservées à la recherche et ne permettent pas l’utilisation de solutions commerciales prêtes à l’emploi.

Il est assez fréquent de ne pas trouver de base de données publique compatible avec notre solution. Dans ce cas, nous disposons de quelques dernières ressources que nous pouvons suivre :

  • Générer notre propre ensemble de données.
    Existen herramientas open-source como LabelStudio para etiquetar tus datos de entrenamiento por tu cuenta, también hay negocios asociados a este proceso como Amazon Mechanical Turk.
    El problema es que este proceso requerirá bastante tiempo y esfuerzo.
  • Utiliser des données synthétiques. Des études commencent à montrer l’efficacité de l’utilisation d’IA génératives pour générer artificiellement la base de données. Ce système est utile et rapide, mais dangereux, car le modèle peut hériter des biais et des échecs de l’IA générative utilisée.
  • Alternatives sans données.
    Como decíamos, existen modelos Zero-Shot, basados en asociaciones de patrones lingüísticos y/o visuales que permiten poder usarse sin necesidad de entrenamiento.
    Los dos únicos problemas es que suelen ser modelos de inferencia lenta (lo que dificulta implementar algunas soluciones) y que no siempre se adaptan a lo que necesitamos montar.

Péché IV. L’impatience

Ne pas prendre en compte les temps d’inférence de l’IA, ce qui limite certaines solutions commerciales.

Il est important de prendre en compte le temps nécessaire pour qu’un modèle d’IA renvoie des résultats, en particulier dans les applications en temps réel. On peut distinguer deux types de solutions d’IA en fonction de leur temps moyen d’inférence :

  • Solutions en temps réel.
    La inferencia tarda menos de 1 segundo.
    Los modelos que cumplen esta condición, salvo excepciones, suelen ser más sencillos y menos precisos, por lo que dan más posibilidades de fallo.
    Además, las soluciones en las que se combinan varios modelos son más limitadas, ya que el tiempo de inferencia de todos los modelos se suman entre sí.
  • Solutions asynchrones.
    Si la inferencia tarda más de un segundo, estamos ante una solución que debe ser implementada de manera asíncrona, y el usuario no debe esperar los resultados de manera inmediata.
    Ej: modelo de HeyGen capaz de traducir videos, cambiando el audio al idioma asignado y haciendo que encaje con la voz y el movimiento de labios del actor en escena.
    Tardaba, mínimo, 3 minutos por cada segundo de video introducido, un tiempo algo prohibitivo para una sociedad acostumbrada a las soluciones inmediatas.


    Les modèles importants et complexes des démonstrations ont tendance à avoir des temps d’inférence longs, bien qu’il existe quelques astuces pour éviter cela :
  • Mettre en cache les résultats afin de ne pas être appelé deux fois.
  • Autocomplétion avec des résultats déjà générés similaires à ceux demandés.
  • Prévoyez quelque chose à faire pendant l’attente.

Le péché contre la cupidité

Mettre en œuvre des modèles d’IA trop lourds et coûteux, difficiles à adapter.

Il est essentiel de prendre en compte le coût de la maintenance d’un modèle d’IA sur une plateforme cloud, comme AWS ou Azure, notamment le prix de l’infrastructure et la consommation de ressources. Chaque machine a ses propres caractéristiques en matière de puissance, de mémoire et de prix par heure, qu’il faudra prendre en compte.

Les solutions en temps réel sont toujours plus coûteuses, car elles exigent que le modèle soit disponible 24 heures sur 24. De même, des modèles plus lourds et plus complexes augmenteront le coût de notre solution, car ils nécessitent des machines plus puissantes et plus coûteuses. Un autre détail plus subtil est le nombre d’appels récurrents, si de nombreuses personnes appellent le modèle en même temps, il sera nécessaire d’engager plus de machines simultanées, ce qui fera doubler ou tripler le coût.

En ce sens, pour mettre en œuvre un modèle d’IA, nous devrons toujours établir un budget pour déterminer combien coûtera le maintien de ce modèle dans le nuage. Le coût peut être trop élevé par rapport aux avantages qu’il peut apporter, ce qui nous réserve une surprise à la fin du mois.

Péché VI. L’oisiveté

L’absence de suivi de la qualité du modèle dans le temps et de prise en compte des variations de son efficacité.

Les modèles d’IA peuvent se détériorer au fil du temps en raison du phénomène de dérive du modèle. Par exemple, un modèle de recommandation de contenu ne renverra pas de nouveaux films parce qu’ils n’ont pas été inclus dans son apprentissage, et ses résultats deviennent obsolètes avec le temps.

Il est essentiel d’établir des mesures d’évaluation (par exemple, le nombre de clics sur le contenu recommandé, le pourcentage d’images non détectées dans un détecteur de chaises, etc.) et de surveiller en permanence les performances du modèle afin de détecter et de corriger les problèmes éventuels par un réentraînement.

Péché VII. L’obscurantisme

Ne pas savoir comment fonctionne le modèle d’IA mis en œuvre, l’utiliser comme une boîte noire.

Même s’ils comportent des mathématiques complexes, il n’est pas compliqué de savoir comment un modèle d’IA donné fonctionne en termes généraux.

Il est nécessaire de comprendre les forces et les faiblesses des modèles d’IA afin de les utiliser correctement.
– ChatGPT et d’autres LMM sont des modèles linguistiques prédictifs qui renvoient des combinaisons de modèles linguistiques et de mots-clés associés à des questions données. S’agissant d’un modèle axé sur l’autocomplétion de nos phrases, il dépend trop de la base de données dont il dispose, de sorte qu’il ne peut ni donner des vérités absolues ni être utilisé comme source de vérité.

– Les classificateurs d’images associent des motifs visuels à une ou plusieurs catégories par le biais d’un entraînement, mais celles-ci ne doivent pas nécessairement être les plus cohérentes pour un être humain. Par exemple : en 2016, un modèle entraîné à différencier les loups et les chiens Husky a été publié. Comme ils se ressemblent beaucoup, on pensait que ce modèle pourrait être utile pour distinguer des aspects visuels subtils. Malheureusement, après plusieurs tests, il s’est avéré que le modèle apprenait à distinguer la neige en arrière-plan de l’image, et non l’animal. S’il n’y avait pas de neige, il s’agissait d’un loup. Sinon, c’était un Husky.

– Les IA génératives forment une image, une vidéo ou un son à l’aide de modèles visuels/auditifs basés sur une invite. Ce contenu est généré en utilisant du bruit dans sa composition, de sorte que les résultats sont aléatoires et changent à chaque fois. Dans le cas de mots rares, le manque d’images dans la base de données rend les résultats moins bons, voire inexistants.

La divulgation et la transparence sur le fonctionnement des modèles sont essentielles pour éviter l’utilisation abusive de l’IA.

Chez Multimarkts, nous appliquons notre propre IA, en tenant compte de tous les éléments ci-dessus, afin d’offrir la meilleure expérience à nos clients, en minimisant les erreurs. Nous vous invitons à nous rencontrer et à assister à une démonstration réelle et très rentable de l’utilisation de l’IA.

Questions fréquemment posées

Afin de pouvoir : 1. améliorer votre expérience sur notre plateforme en personnalisant votre navigation en fonction de vos préférences. 2. Vous envoyer des informations pertinentes par courrier électronique ou par d’autres moyens susceptibles de vous intéresser (peu et vous pouvez vous désabonner à tout moment). 3. Vous fournir des communications marketing que nous pensons pouvoir vous être utiles. Vous trouverez plus de détails sur notre politique de confidentialité sur cette page.

Entièrement gratuit

Nous voulons partager nos connaissances pour vous aider dans votre travail quotidien et vous permettre de nous connaître un peu mieux.

Les sept péchés de l’intelligence artificielle

Les sept péchés de l’intelligence artificielle