Glossaire

Ne laissez pas le jargon freiner vos initiatives d'IA

Le vocabulaire propre à l'IA évolue constamment, si bien qu'il peut s'avérer difficile de suivre le rythme. Ce glossaire a pour objectif de vous aider à comprendre tous les termes clés relatifs à l'IA que vous devez connaître pour travailler dans le domaine des data et de l'analytics.

A

assistants IA

Dis Siri, qu'est-ce qu'un assistant IA ? Il s'agit d'une solution optimisée par l'IA capable de comprendre et de répondre à des commandes en langage naturel. Son interface de type humain permet à l'utilisateur d'énoncer des prompts vocaux pour que l'assistant exécute des tâches et fournisse des réponses adaptées. Les assistants IA ne cessent de gagner du terrain dans notre quotidien et ont été intégrés dans de nombreux systèmes intelligents, notamment Alexa d'Amazon, Siri d'Apple, Copilot de Microsoft et l'assistant Google. Ils sont le principal moyen par lequel les utilisateurs entrent aujourd'hui en contact avec l'IA.

A

algorithme

Chaque modèle d'IA requiert un protocole ou un ensemble d'instructions à suivre. Ce sont des algorithmes. Ils indiquent au modèle la manière dont il doit fonctionner et déterminent sa capacité d'apprentissage. Pour ce faire, ils collectent des données d'entraînement et les utilisent comme base pour exécuter des tâches. Au fur et à mesure qu'il achève des tâches, l'algorithme peut analyser le degré de proximité des résultats par rapport à ceux souhaités et affiner le processus en conséquence. Puisque les algorithmes ont cette capacité de s'auto-affiner, les programmeurs sont souvent amenés à les surveiller de près pour s'assurer qu'ils agissent comme prévu et pour éviter que des erreurs ne s'y introduisent. Aujourd'hui, le domaine du machine learning et de l'IA regorge de nombreux types d'algorithmes qui accomplissent diverses tâches. Les data scientists et les machine learning engineers doivent comprendre comment et pourquoi appliquer une certaine approche algorithmique en fonction du problème, des données disponibles et des objectifs poursuivis. 

A

analytique augmentée

L'analytique augmentée permet aux utilisateurs data d'interagir avec des informations afin d'améliorer leurs connaissances. Selon Gartner, cela implique « l'utilisation de technologies habilitantes telles que le machine learning et l'IA pour aider à la préparation des données, à la génération d'insights et à l'explication de ces derniers » Ces outils permettent de pousser les capacités d'analyse plus loin, en élargissant les possibilités d'exploration des données. Au bout du compte, cela développe la capacité d'un être humain à interagir avec des données à un niveau contextuel et permet à un plus grand nombre de personnes d'utiliser des outils d'analytics.

Vous voulez en savoir plus sur la manière dont l'IA transforme le paysage de la Business Intelligence ?

Lisez le rapport New Wave de Forrester sur la Business Intelligence augmentée

A

intégration des données augmentée

Pour les professionnels de la data, les tâches d'intégration de données sont chronophages. Bien qu'importantes, elles ont une valeur relativement faible et empêchent l'utilisation optimale des compétences avancées de ces mêmes professionnels. L'intégration des données augmentée utilise l'IA pour accélérer ces processus, débarrassant ainsi les experts de ce fardeau. Selon Gartner, cela implique
« l'utilisation de technologies habilitantes telles que le machine learning et l'IA pour aider à la préparation des données, à la génération d'insights et à l'explication de ces derniers ».

Rapport Gartner® Ma Quadrant™ 2023 pour les outils d'intégration de données

Consultez-le pour en savoir plus sur ceux qui ouvrent la voie dans ce domaine.

A

qualité des données augmentée

La qualité des données joue un rôle essentiel dans les initiatives de gouvernance des données d'une entreprise. Elle permet d'évaluer l'exactitude, l'exhaustivité et le caractère partial des datasets et de déterminer ainsi s'ils sont adaptés à l'objectif visé. Les systèmes automatisés ne peuvent pas fonctionner comme prévu si la qualité des données analysées n'est pas optimale. La mise en place de l'automatisation dans le processus, c'est-à-dire l'introduction de la qualité des données augmentée, permet d'accélérer les choses. Elle s'avère particulièrement utile pour valider des datasets très volumineux, une tâche qui peut être chronophage à effectuer manuellement. Elle présente donc un double avantage : des données de haute qualité et une efficacité accrue pour des tâches essentielles, mais susceptibles de prendre beaucoup de temps.

A

classification automatisée

Les processus analytiques n'ont pas toujours pour but de révéler des insights granulaires à partir de datasets complexes. En fonction des besoins de l'organisation, il peut être suffisant de classer les documents ou autres actifs en grandes catégories. C'est le cas par exemple de l'analyse des sentiments. Elle peut encore être améliorée par l'IA grâce à la classification automatisée. Sur la base de critères prédéfinis, un système de classification automatisée scanne les documents et leur attribue des étiquettes pertinentes sans aucune intervention humaine.

Il est possible d'adapter les mots-clés recherchés par le modèle en fonction des besoins spécifiques de l'organisation. La classification automatisée est extrêmement utile pour la gestion de contenu, car elle permet aux utilisateurs d'ordonner rapidement du contenu par catégories. Elle est également essentielle pour améliorer la recherche optimisée par l'IA.

A

AutoML

AutoML™ est une solution conçue pour aider les équipes d'analytics à utiliser le machine learning (ML) sans avoir besoin d'en être expert. Selon Gartner, AutoML permet d'automatiser les tâches de préparation des données, d'ingénierie des caractéristiques et d'ingénierie des modèles, trois processus qui nécessitent habituellement une certaine expertise. Cette solution permet aux développeurs ayant une expertise limitée en ML d'accomplir des tâches très complexes et d'entraîner des modèles de haute qualité spécifiques aux besoins de leur entreprise. Ils peuvent ainsi passer de l'analyse historique à l'analyse prédictive pour un plus grand nombre de cas d'usage.

Concrètement, comment se présente AutoML ?

Dans la démo qui suit, vous verrez comment créer, configurer et déployer une expérience de ML. Vous y apprendrez également les définitions nécessaires pour vous aider à être opérationnel.

A

insights automatisés

Les insights automatisés permettent aux organisations de gagner sur tous les plans. Autrement dit, grâce à l'IA, les utilisateurs data bénéficient d'insights facilement compréhensibles et exploitables à partir de grands volumes de données, sans devoir procéder à une analyse manuelle exigeant une expertise technique.

Cela permet notamment aux utilisateurs ne possédant pas de compétences techniques de prendre des décisions plus rapidement. Les solutions d'insights automatisés peuvent faire appel au machine learning, au traitement du langage naturel ou à l'analyse statistique, afin d'identifier les principales conclusions et les actions suggérées sous une forme compréhensible.

A

équilibrage

Les datasets contiennent parfois des éléments qui ne sont pas équilibrés, dans lesquels une classe est considérablement plus volumineuse que les autres. On parle alors de classe déséquilibrée, dont il faut tenir compte dans le processus du machine learning. L'équilibrage est un processus très classique pour les data scientists. Si un dataset est déséquilibré, l'exactitude de l'analyse peut s'en trouver affectée et les modèles d'IA peuvent être faussés. Il existe plusieurs méthodes pour résoudre ce problème. Citons, par exemple, le rééchantillonnage ou la génération de données synthétiques. Le choix de la méthode la plus appropriée dépend des caractéristiques spécifiques du dataset.

A

data scientist citoyen

L'analytics, l'IA et les données ne sont plus exclusivement l'affaire des spécialistes techniques. Ce constat est flagrant, car de plus en plus de secteurs d'activité et de fonctions utilisent les données dans le cadre de leur travail. On assiste en effet à l'émergence d'un nouveau rôle, celui du « data scientist citoyen ». Il s'agit d'analystes métier qui s'intéressent à la data science dans le cadre de leurs fonctions, sans pour autant être des spécialistes du codage ou des statistiques.

Par exemple, les data scientists citoyens ont tendance à être plus axés « métier », comblant le fossé entre l'analyse et la prise de décision stratégique. Ils complètent le travail des data scientists, en mettant à profit leurs connaissances pour aider leur organisation à utiliser les données pour prendre des décisions au quotidien. Ainsi, les spécialistes peuvent se concentrer sur les tâches les plus techniques.

A

classification

Le processus de classification utilise le machine learning pour automatiser le tri de base des données ou des documents dans des groupes prédéfinis. Imaginez que vous jetiez un tas de chaussettes non appariées dans un tiroir. Lorsque vous ouvrez le tiroir ensuite, vous constatez qu'elles sont automatiquement appariées et classées par catégories (sport, travail, loisirs). Voilà qui illustre ce que les algorithmes de classification sont capables de faire. Pour réussir, les modèles doivent être entraînés à faire correspondre certains tags ou mots-clés aux bonnes catégories. Ils apprennent ainsi à classer de manière autonome les futurs datasets dans des catégories appropriées. Dans la pratique, les algorithmes de classification constituent un moyen très efficace pour les entreprises d'obtenir des insights prédictifs et de détecter des patterns cachés. 

A

BI cognitive

Pour permettre aux organisations de prendre des décisions data-driven, la BI cognitive combine les processus classiques de Business Intelligence (BI) avec des technologies d'informatique cognitive, telles que l'IA et le traitement du langage naturel. Cette combinaison de technologies transforme la façon dont les données sont utilisées dans les organisations, du marketing à la finance, en les dotant d'insights de valeur, accessibles, exploitables et data-driven. 

Découvrez comment Qlik Sense® peut dynamiser votre entreprise grâce à l'analyse augmentée, en mettant la puissance de la data science au service des décideurs.

A

IA conversationnelle

Pour que l'IA puisse avoir des applications grand public, elle doit être capable de comprendre, de traiter et de simuler le langage humain. C'est ici que l'IA conversationnelle entre en jeu. Il s'agit d'un type de modèle qui permet à l'homme de dialoguer avec l'IA. Les équipes de services client utilisent régulièrement l'IA conversationnelle sous la forme de chatbots. Ces derniers peuvent répondre à des questions et résoudre des problèmes en recherchant des mots-clés et en fournissant des réponses prédéfinies. Cette technologie est également à la base de l'analyse conversationnelle, qui permet aux organisations de tirer des enseignements des interactions avec les clients en comprenant et en extrayant des données des conversations humaines.

Découvrez comment Qlik Sense peut aider votre entreprise à exploiter des insights en utilisant le langage naturel et permettre ainsi à un nombre étendu de personnes de prendre des décisions data-driven.

Découvrez la facilité d'utilisation de Qlik Sense lors d'une visite auto-guidée.

A

gouvernance des données

Pour que l'analyse des données soit efficace, les organisations doivent établir des règles et des normes internes qui définissent la manière dont elles sont collectées, stockées, traitées et supprimées. Pour désigner l'ensemble de ces règles, on utilise le terme générique de « gouvernance des données ». La mise en place de structures de gouvernance adéquates permet non seulement de mieux assurer la sécurité des données, mais aussi de démontrer que les données détenues par une organisation sont dignes de confiance et ne sont pas utilisées de manière inappropriée. Le rôle grandissant des données dans la stratégie des entreprises a entraîné une évolution des réglementations en matière de confidentialité auxquelles les organisations doivent se conformer, conférant à la gouvernance des données une place critique.

A

étiquetage des données

L'étiquetage des données est le processus qui consiste à leur adjoindre des étiquettes ou des tags descriptifs ou informatifs pour les rendre compréhensibles et utilisables par les algorithmes de machine learning. L'étiquetage des données permet d'entrainer les algorithmes à faire des prédictions ou des classifications sur la base de ces informations. En retour, l'algorithme pourra par la suite effectuer des prédictions exactes sur la base de nouvelles données, non étiquetées.

A

intelligence au service de la qualité des données

La qualité d'un modèle d'IA est liée à celle des données qui l'alimentent. Si le modèle a été entraîné à l'aide de données de mauvaise qualité, il peut produire des résultats inexacts et peu fiables. Lorsque les organisations analysent la robustesse de leurs données et de leurs pratiques de gestion des données, l'intelligence au service de la qualité des données constitue le socle de toute bonne stratégie de gestion des données. Il est essentiel que des mesures soient prises sur la base de ces insights, faute de quoi il est impossible de garantir la fiabilité des informations sur lesquelles reposent les décisions data-driven.

Découvrez dans le livre blanc « Guide de référence de la qualité des données » comment les entreprises peuvent s'assurer que leurs données répondent à des normes élevées, sans compromettre la sécurité ni la gouvernance.

A

data science

Pour extraire insights et prédictions à partir de données, en particulier pour des volumes importants, il faut combiner plusieurs disciplines telles que les statistiques, l'informatique et les mathématiques. Cette combinaison constitue la data science. Elle permet de transformer des données brutes en informations qui peuvent être utilisées pour identifier des tendances et prendre des décisions éclairées.

Les professionnels de la data science, appelés aussi data scientists, disposent généralement de compétences avancées en matière de données. Toutefois, ils peuvent intervenir dans diverses opérations, comme la collecte de données, la modélisation ou le déploiement d'un modèle d'IA dans un contexte d'entreprise. C'est une discipline qui s'est rapidement imposée dans la plupart des secteurs d'activité, les organisations cherchant à utiliser plus efficacement les données pour prendre des décisions éclairées.

A

deep learning

Tous les types d'IA tentent d'imiter la façon dont le cerveau humain prend des décisions, mais certaines sous-disciplines s'en inspirent plus que d'autres. Le deep learning, par exemple, est un type de machine learning basé sur les réseaux neuronaux, tant dans sa structure que dans son utilisation de couches interconnectées de neurones artificiels pour traiter les données et en tirer des enseignements.

Selon Forrester, le meilleur usage qui est fait de cette technique consiste à
« construire, former et tester des réseaux neuronaux qui prédisent de manière probabiliste des résultats et/ou classifient des données non structurées». Dans la pratique, le deep learning est à la base de la reconnaissance des images et de la parole, de la traduction linguistique, de la conduite autonome et des systèmes de recommandation.

A

expérience

Les expériences sont des processus utilisés pour entraîner, évaluer et perfectionner les modèles de machine learning. Très structurées, elles permettent aux data scientists et aux utilisateurs d'AutoML d'organiser et de gérer toutes leurs exécutions de machine learning, appelées « runs ». Il faut souvent plusieurs itérations pour que le modèle fonctionne comme souhaité, ce qui implique souvent une visualisation et une comparaison entre les runs. Les expériences jouent un rôle essentiel dans la découverte de patterns et l'affinement du modèle, tout en permettant de s'assurer qu'il est prêt pour les déploiements dans le monde réel.

A

IA explicable

L'IA est un excellent outil pour générer des insights et effectuer des prévisions. Cependant, il est tout aussi important, si ce n'est plus, de comprendre comment elle parvient à ses conclusions. L'explicabilité est essentielle pour déterminer la meilleure façon d'agir sur les résultats, favoriser la compréhension et instaurer la confiance. Cependant, tous les modèles de machine learning ne sont pas explicables. Ainsi, lorsqu'il s'agit de choisir les algorithmes à utiliser, il convient d'évaluer le besoin de mesures d'explicabilité en fonction du contexte dans lequel les décisions sont prises. Sans explicabilité, les organisations risquent d'introduire des biais involontaires dans le processus de prise de décision.

A

prévision

L'un des principaux avantages liés à l'utilisation de l'IA pour l'analyse des données est sa capacité à considérer des informations historiques et à faire des prédictions dans un laps de temps donné. Ces prévisions de séries temporelles s'appuient sur un pattern historique de données et utilisent des régressions à une ou plusieurs variables pour prédire les résultats futurs.

Pour prévoir les événements à venir, les programmes de planification de l'IA évaluent de grandes quantités de données structurées et non structurées, établissent des liens et découvrent des patterns, d'une manière qui dépasse de loin les systèmes de prévision classiques. Cela permet non seulement aux organisations de prendre des décisions anticipatives, mais aussi de prévoir divers scénarios au cas où les choses ne se dérouleraient pas comme prévu.

A

modèle de fondation

Avant qu'un modèle d'IA générative ne soit développé avec des données d'entraînement et pour une application spécifique, on parle de modèle de fondation. Il s'agit de la base sur laquelle sont construits des algorithmes complexes, adaptés en fonction de l'emplacement où l'entreprise souhaite les déployer. Généralement, les modèles de fondation ont une grande portée et ont été entraînés sur des vastes datasets. Vous pouvez les voir à l’œuvre dans le cas des GPT-3 et GPT-4 d'OpenAI, qui sont utilisés pour développer ChatGPT.

A

IA générative

Bien que l'IA ait un nombre infini d'applications, elle n'était auparavant généralement pas considérée comme un substitut des fonctions créatives. Du moins, pas avant l'arrivée de l'IA générative. Les modèles génératifs sont spécialement conçus pour synthétiser de nouveaux contenus tels que du texte, du son, des images, de la vidéo ou de la musique.

Cependant, ils nécessitent encore des prompts humains et d'énormes volumes de données pour apprendre les patterns et les structures nécessaires à la création de contenus nouveaux et complexes. Cette branche de l'IA a suscité des préoccupations d'ordre éthique, car elle est souvent utilisée pour brouiller les frontières entre les fabulations et la réalité, notamment via l'utilisation de deepfakes.

Vous ne savez pas exactement comment tirer le meilleur parti de l'IA générative ?

Allez au-delà du buzz. Découvrez les expériences de vos pairs dans notre rapport GenAI Benchmark et voyez quels avantages pourrait en tirer votre entreprise.

A

analyse des facteurs clés

L'analyse des facteurs clés identifie les éléments déterminants qui ont un impact sur un résultat particulier et évalue leur importance relative dans la prédiction de ce résultat. Son application la plus répandue est la réalisation d'études de marché ou d'analyses des relations clients. Cela permet aux organisations de comprendre les facteurs qui sous-tendent le comportement des consommateurs et de cibler les résultats commerciaux, tels que la fidélité des clients. L'IA peut améliorer cette analyse en traitant des datasets extrêmement complexes et en identifiant des patterns et des relations, dans une démarche qui revient en arrière jusqu'à trouver les facteurs les plus importants.

A

large language model (LLM)

Vous êtes-vous déjà demandé comment l'IA parvient à créer des contenus tels que du texte, de la musique, des images et des vidéos ? La réponse réside dans les LLM. Ces algorithmes de deep learning sont à la base des produits et solutions d'IA générative comme ChatGPT. Ils apprennent à partir d'informations existantes pour produire quelque chose de nouveau.

Comme l'explique Gartner, les LLM sont entraînés sur des « quantités considérables » de données, nécessaires pour travailler efficacement en déduisant des patterns et des relations entre les mots et les phrases afin d'enrichir la production créative. Ils ont donc besoin d'une masse d'informations publiquement disponibles sur Internet, ce qui permet aux produits optimisés par les LLM d'apprendre automatiquement et de s'améliorer continuellement à mesure de leur utilisation.

A

low-code/no-code

L'essor des produits et services digitaux a fait du développement logiciel l'une des compétences les plus recherchées par les employeurs. Malheureusement, la demande reste supérieure à l'offre. Pour contourner ce problème, les organisations ont recours à des plateformes low-code ou no-code qui permettent aux utilisateurs non techniques de contribuer au processus de développement logiciel, même si leurs connaissances en codage sont limitées. Il s'agit généralement d'interfaces modulaires, de type glisser-déposer ou basées sur des assistants, qui permettent aux utilisateurs de développer des logiciels sans avoir besoin de coder.

En fonction de ses besoins, une entreprise peut déployer des outils low-code (qui nécessitent une légère intervention de développeurs experts) ou des outils no-code (qui n'en nécessitent aucune). Cela contribue à démocratiser la capacité à créer des systèmes d'IA et permet aux organisations d'optimiser le temps des développeurs experts.

A

machine learning

Le machine learning est une sous-discipline de l'IA. Il permet aux systèmes informatiques d'apprendre de façon automatique à partir de données sans avoir été expressément programmés. Cette discipline est utilisée pour découvrir des relations, des patterns cachés et pour faire des prédictions. En règle générale, plus il y a de données, mieux c'est. En effet, les algorithmes de machine learning apprennent à partir des données reçues et plus ils reçoivent d'informations, plus ils améliorent leurs résultats. Ses applications sont nombreuses : reconnaissance d'images, traitement du langage naturel, apprentissage supervisé et non supervisé, etc.

Lisez notre guide pratique pour comprendre comment votre entreprise peut mettre en œuvre des modèles de machine learning performants.

A

création de modèle

La conception et la création de modèles d'IA peuvent être un processus long et complexe, qui nécessite une expertise en data science et en techniques de machine learning. On appelle création de modèle la séquence de tâches nécessaires pour développer un modèle prêt à être utilisé dans des applications réelles. Elle commence par la collecte et la préparation des données d'entraînement pour le modèle et se termine par le déploiement et la maintenance de ce dernier. Cela nécessite une combinaison de compétences techniques, de créativité et de capacités de résolution de problèmes. 

A

déploiement de modèle

À l'issue de son entraînement, le modèle peut être implémenté dans un environnement de production réel. Là, des données nouvelles ou des données temps réel passent par le modèle pour être « scorées » ou faire des prédictions. Cependant, le processus de déploiement de modèle ne s'arrête pas là. Une fois le modèle mis à la disposition d'utilisateurs finaux ou d'autres systèmes logiciels, il sera mis en présence d'une large gamme de données nouvelles et inconnues, ce qui influencera les patterns et les connexions qu'il trouvera. Il convient donc d'évaluer et de tester en permanence les modèles d'IA afin de s'assurer qu'ils continuent à produire les résultats escomptés.

A

dérive de modèle

Les modèles d'IA sont basés sur des datasets qui sont les banques d'informations qu'ils utilisent pour prendre des décisions et fournir des résultats. Mais si ces datasets ne sont pas mis à jour au fil du temps, le modèle peut se dégrader, car les hypothèses sur lesquelles il repose ne sont plus valables. C'est ce qu'on appelle une dérive de modèle. Elle se traduit par des prédictions moins précises ou moins pertinentes, ainsi que par une augmentation des faux positifs et des faux négatifs. Si cette dérive de modèle n'est pas détectée et traitée rapidement, elle peut compromettre l'intégrité des modèles, des applications et des processus pour lesquels ils sont utilisés.

A

entraînement de modèle

Lors du développement de systèmes d'IA, il est important d'exposer chaque modèle à des données de qualité et à des exemples d'associations ou de résultats corrects. Ce processus d'entraînement de modèle est nécessaire pour éclairer ses résultats ultérieurs. Il consiste essentiellement à apprendre au modèle à reconnaître des patterns, à faire des prédictions ou à exécuter des tâches précises. Au fur et à mesure que le contexte ou les besoins organisationnels d'un modèle changent et qu'il continue d'apprendre, un entraînement supplémentaire peut s'avérer nécessaire pour compenser l'exposition à des données moins structurées. Si le modèle est laissé à lui-même sans entraînement régulier, il risque d'être faussé et de produire des résultats de qualité médiocre.

A

requête en langage naturel

Plus les solutions d'IA sont performantes, plus les volumes de données utilisés sont importants. Pour qu'elles restent accessibles à tous, les utilisateurs sans connaissances techniques doivent pouvoir effectuer des requêtes dans un langage courant. C'est là où les requêtes en langage naturel entrent en jeu.

Les systèmes d'IA tels que les assistants virtuels utilisent les requêtes en langage naturel pour analyser les données de l'utilisateur, rechercher les données pertinentes et fournir une réponse. Comme le dit Gartner, ces données sont transformées en « informations codées et structurées ». Selon le degré de sophistication de la solution de requêtes en langage naturel, les utilisateurs peuvent formuler leurs requêtes à l'écrit ou à l'oral. Ainsi, il n'est pas nécessaire d'utiliser des données non linguistiques. De plus, cela rend les systèmes d'IA accessibles à tous.

A

réseau neuronal

Inspirés du cerveau humain, les réseaux neuronaux sont les éléments fondamentaux de l'IA et du machine learning. Les modèles informatiques sont conçus pour traiter des données et apprendre à partir de celles-ci. À l'instar des synapses, ils sont constitués de nœuds interconnectés (un point de données dans un réseau ou un graphe) organisés en couches. Il existe trois types de couches : une couche d'entrée, des couches cachées et une couche de sortie. Ces couches sont la base de l'apprentissage et de la modélisation des relations complexes dans les données des réseaux neuronaux, ce qui leur permet d'analyser ces relations à un niveau non linéaire.

A

IA prédictive

L'IA prédictive est un élément clé de la prise de décision basée sur les données. Elle identifie des patterns dans les données historiques afin de générer des prévisions, de faire des prédictions ou des estimations sur des événements ou des résultats futurs. Les algorithmes d'IA peuvent analyser des datasets vastes et complexes qui dépassent les capacités cognitives humaines. Selon Gartner, leur objectif est de répondre à la question «Que va-t-il probablement se passer?». Cette prévision avancée, qui dépasse les capacités de l'analyse prédictive traditionnelle, permet aux entreprises d'élaborer des scénarios futurs sur la base de processus qui exploitent un énorme volume de données.

A

analyse prédictive

L'analytics s'appuie sur des données historiques. Après tout, on ne peut pas analyser quelque chose qui ne s'est pas encore produit. Mais cela ne signifie pas pour autant que les analyses ne peuvent pas être utilisées pour faire des prédictions sur les résultats futurs. C'est le but de l'analyse prédictive. IBM la définit comme l'action de combiner des données avec « la modélisation statistique, les techniques de data mining et le machine learning ». L'analyse prédictive, en s'appuyant sur des données historiques, permet d'identifier des patterns afin de développer des modèles prédictifs qui laissent présager des tendances, des événements et des résultats futurs. Les entreprises y ont recours pour prendre des décisions éclairées et surpasser leurs concurrents.

Suivez cette visite guidée et découvrez l'analyse prédictive en action. Prenez la place d'un responsable commercial qui s'interroge sur l'exactitude de ses prévisions et cherche à comprendre pourquoi le close rate de son équipe est inférieur à ses attentes.

A

prompt

Aussi sophistiqué que soit un modèle ou aussi complexe que soit le dataset qui l'alimente, l'IA est fondamentalement liée à une certaine forme de sollicitation humaine. Les prompts constituent le point de départ des interactions avec les modèles d'IA. Ils sont porteurs d'une requête ou instruction qui demande au système d'effectuer une certaine tâche. Il existe une grande variété de prompts, allant de simples questions en langage naturel à des demandes détaillées et riches en contexte. La clarté d'un prompt peut avoir un impact significatif sur la précision et la pertinence des résultats du modèle, comme le constatent les consommateurs du monde entier lorsqu'ils expérimentent l'IA générative. Les prompts peuvent par exemple être inefficaces s'ils ne respectent pas les capacités et les limites du modèle.

A

régression

Tandis que les modèles d'IA peuvent être basés sur toutes sortes de données, la régression est une technique de machine learning supervisé utilisée spécifiquement pour faire des prédictions basées sur des valeurs numériques. Parmi les formes de régression les plus courantes, citons la régression linéaire et la régression logistique. Le modèle de régression linéaire trace une ligne (ou une courbe) de meilleur ajustement entre les points de données et prédit des valeurs continues. La régression logistique, en revanche, est une méthode binaire qui évalue la probabilité qu'une chose se produise ou non, c'est-à-dire qu'elle répond à la question « oui ou non ? ». La régression est particulièrement utile pour la prise de décision dans les domaines qui utilisent régulièrement des données quantitatives, tels que la finance, l'économie, les soins de santé et l'ingénierie, y compris pour des applications telles que la prédiction du cours des actions ou l'estimation des revenus.

A

apprentissage auto-supervisé et apprentissage non supervisé

Contrairement à l'apprentissage supervisé, un trop petit nombre de données étiquetées rend parfois difficile l'entraînement des modèles d'IA. L'apprentissage auto-supervisé est une méthode qui permet de créer des tâches à partir de données non étiquetées, en utilisant la structure et les patterns inhérents à ces données pour prédire ou générer des parties du même dataset. Par exemple, la « retouche d'image » permet de combler les parties manquantes d'une image en se basant sur les pixels environnants. L'apprentissage non supervisé va encore plus loin. Il permet de découvrir des informations cachées en entraînant le modèle à détecter des patterns, des structures ou des regroupements sans étiquette ou cible explicite. C'est sur ce principe que reposent des technologies telles que la détection des anomalies. 

A

analyse des sentiments

L'IA est-elle capable de comprendre les émotions exprimées dans un texte ? Cette aptitude est encore réservée aux humains. Toutefois, grâce à l'analyse des sentiments, l'IA peut faire quelque chose de similaire, à condition que nous lui apportions d'abord notre aide. Pour cerner efficacement les sentiments qui se dégagent d'un texte, les algorithmes doivent être entraînés sur des données étiquetées afin d'associer certains mots à des émotions.

Forrester décrit l'analyse des sentiments comme la classification automatisée des commentaires en ligne dans les catégories : positif, neutre ou négatif. Toutefois, il convient de noter que des modèles plus complexes peuvent fournir une évaluation plus détaillée. Ils sont particulièrement utiles pour comprendre l'opinion publique et les grands volumes de texte.

A

valeurs de Shapley

Quand on considère la composition d'un modèle prédictif, il est logique que certaines valeurs aient plus d'impact que d'autres sur les prédictions. En machine learning, les développeurs s'intéressent de près aux valeurs de Shapley pour expliquer l'importance des caractéristiques individuelles dans la détermination des résultats attendus.

Ce concept est inspiré de la théorie des jeux, qui cherche à déterminer la contribution de chaque joueur dans un jeu collaboratif. Le but est de répartir mathématiquement et équitablement le « mérite » de la création du modèle entre ses caractéristiques d'entrée. Cela renseigne beaucoup sur le fonctionnement d'un modèle et permet de savoir comment il fait des prédictions, ce qui, en fin de compte, accroît la transparence et améliore le degré de confiance.

A

données structurées et données non structurées

Les datasets sont considérés comme structurés ou non structurés selon la façon dont ils sont définis et organisés. Les données structurées sont généralement stockées dans des tableaux et des bases de données, ce qui facilite la recherche et l'analyse. Les données non structurées, quant à elles, n'ont pas de format prédéfini et ne sont pas classées par catégories. Elles se présentent souvent sous la forme de textes tels que des e-mails, des messages sur les réseaux sociaux ou des commentaires de clients. Il est donc plus difficile de les traiter et d'en tirer des conclusions ayant du sens. L'IA est un puissant outil pour extraire des insights à partir de données non structurées. Elle permet aux entreprises de collecter des informations disparates, auparavant inutilisables, pour en tirer des insights exploitables.

A

apprentissage supervisé

Comme pour des élèves dans une salle de classe, la meilleure méthode d'enseignement consiste parfois à expliquer le cheminement qui permet de parvenir à la bonne réponse. Le processus d'apprentissage supervisé consiste à entraîner un modèle d'IA à l'aide d'un dataset étiqueté en vue de le guider vers les résultats souhaités. Ayant appris à partir de réponses correctes connues, l'algorithme d'apprentissage supervisé est capable de généraliser et de prendre ses propres décisions ou de faire ses propres prédictions sur la base de données inconnues. Ce principe est à la base de plusieurs techniques telles que le traitement du langage naturel et l'analyse de régression.

A

données synthétiques

Lorsqu'un volume suffisant de données réelles n'est pas disponible pour entraîner un modèle d'IA, le système génère artificiellement des données synthétiques. Ces données imitent toutes les caractéristiques et les propriétés statistiques de données réelles, en simulant les patterns, les distributions et les structures. Cela permet également de dissiper les inquiétudes liées à la protection de la vie privée, en donnant aux développeurs des informations sur lesquelles ils peuvent travailler sans risquer de compromettre les données des clients. Selon le cabinet IDC, cette méthode peut « contribuer à éviter certains biais lorsque l'entraînement est fait à partir d'une petite quantité de données ».

Cependant, générer des données synthétiques est une tâche délicate, car il faut s'assurer qu'elles représentent de manière authentique les propriétés du dataset d'origine. Sinon, le modèle risque de ne pas fournir des décisions ou des prévisions exactes.

A

analyse des séries chronologiques

L'analyse des séries chronologiques est une technique utilisée pour découvrir des patterns, des tendances et des structures sous-jacentes lorsqu'on recueille une séquence de points de données à intervalles réguliers sur une période donnée. Les informations peuvent varier, du chiffre d'affaires à la fréquence des ventes. Cette méthode est largement utilisée pour permettre aux entreprises de mieux comprendre les tendances et de prendre des décisions data-driven, qu'il s'agisse de faire un bilan ou de faire des prédictions.

A

données d'entraînement

Tous les modèles d'IA partent de zéro. Pour commencer à fournir des résultats, ils doivent d'abord être formés à l'aide de données d'entraînement qui leur apprennent à fonctionner. En alimentant le modèle avec des données d'entrée, il peut apprendre des patterns, des relations et des règles.

Toutefois, la qualité, la quantité et la variété des données d'entraînement sont cruciales. Ce sont les fondations sur lesquelles l'IA s'appuiera à l'avenir. Par conséquent, si les données sont insuffisantes en termes de volume ou de qualité, ou si elles présentent des biais, le modèle exprimera toujours ce même sentiment dans son analyse. Pour que les modèles d'IA soient performants, tout dataset d'entraînement doit être diversifié et suffisamment représentatif.

A

scénarios de simulation

Vous recherchez certains résultats dans votre modèle d'IA sans savoir quelles variables ajuster ? Les scénarios de simulation peuvent vous y aider. Ils servent à améliorer la transparence, l'équité et la fiabilité du modèle d'IA en explorant les résultats ou les conséquences potentielles de situations fictives. Il peut s'agir d'une question aussi simple que « Qu'adviendra-t-il si un fournisseur clé fait faillite ? » ou d'une question plus fantaisiste comme « Que se passera-t-il si le modèle d'IA devient sensible ? ». En étudiant l'impact de différentes variables sur le modèle, il est plus facile de comprendre ses limites et de savoir comment l'améliorer. Cela permet non seulement aux entreprises de prendre des décisions plus éclairées, mais aussi d'accroître leur responsabilité vis-à-vis de leurs modèles.