Qu’est-ce que l’IA ?
L’intelligence artificielle, ou IA, est une technologie qui permet aux ordinateurs et aux machines de simuler l’intelligence humaine et les capacités de résolution de problèmes.
Seule ou combinée à d’autres technologies (p. ex. capteurs, géolocalisation, robotique), l’IA peut effectuer des tâches qui nécessiteraient autrement l’intelligence ou l’intervention humaine. Les assistants numériques, le guidage GPS, les véhicules autonomes et les outils d’IA générative (comme Chat GPT d’Open AI) ne sont que quelques exemples de l’IA dans l’actualité quotidienne et dans notre vie quotidienne.
En tant que domaine de l’informatique, l’intelligence artificielle englobe (et est souvent mentionnée avec) l’apprentissage automatique et l’apprentissage profond. Ces disciplines impliquent le développement d’algorithmes d’IA, calqués sur les processus décisionnels du cerveau humain, capables « d’apprendre » à partir des données disponibles et d’effectuer des classifications ou des prédictions de plus en plus précises au fil du temps.
L’intelligence artificielle a connu de nombreux cycles de battage médiatique, mais même pour les sceptiques, la sortie de ChatGPT semble marquer un tournant. La dernière fois que l’IA générative a pris une telle ampleur, les avancées ont été réalisées dans le domaine de la vision par ordinateur, mais le bond en avant concerne désormais le traitement du langage naturel (NLP). Aujourd’hui, l’IA générative peut apprendre et synthétiser non seulement le langage humain, mais aussi d’autres types de données, notamment des images, des vidéos, du code logiciel et même des structures moléculaires.
Les applications de l’IA se multiplient chaque jour. Mais à mesure que le battage médiatique autour de l’utilisation des outils d’IA dans les entreprises prend de l’ampleur, les conversations autour de l’éthique de l’IA et de l’IA responsable deviennent d’une importance cruciale. Pour en savoir plus sur la position d’IBM sur ces questions, veuillez lire Construire la confiance dans l’IA.
Types d’intelligence artificielle : IA faible vs IA forte
L’IA faible, également connue sous le nom d’IA étroite ou d’intelligence artificielle étroite (ANI), est une IA formée et ciblée pour effectuer des tâches spécifiques. Une IA faible est à l’origine de la plupart de l’IA qui nous entoure aujourd’hui. « Étroite » pourrait être un descripteur plus approprié pour ce type d’IA car elle est tout sauf faible : elle permet des applications très robustes, telles que Siri d’Apple, Alexa d’Amazon, IBM Watsonx™ et des véhicules autonomes.
L’IA forte est composée de l’intelligence générale artificielle (AGI) et de la super intelligence artificielle (ASI). L’AGI, ou IA générale, est une forme théorique d’IA dans laquelle une machine aurait une intelligence égale à celle des humains ; il serait conscient de lui-même et doté d’une conscience qui aurait la capacité de résoudre des problèmes, d’apprendre et de planifier l’avenir. L’ASI, également connue sous le nom de superintelligence, surpasserait l’intelligence et les capacités du cerveau humain. Bien que l’IA forte soit encore entièrement théorique et qu’il n’y ait aucun exemple pratique utilisé aujourd’hui, cela ne signifie pas que les chercheurs en IA n’explorent pas également son développement. En attendant, les meilleurs exemples d’ASI pourraient provenir de la science-fiction, comme HAL, l’assistant informatique surhumain et voyou dans 2001 : l’Odyssée de l’espace.
Apprentissage profond vs apprentissage automatique
L’apprentissage automatique et l’apprentissage profond sont des sous-disciplines de l’IA, et l’apprentissage profond est une sous-discipline de l’apprentissage automatique.
Les algorithmes d’apprentissage automatique et d’apprentissage profond utilisent des réseaux de neurones pour « apprendre » à partir d’énormes quantités de données. Ces réseaux neuronaux sont des structures programmatiques calquées sur les processus décisionnels du cerveau humain. Ils sont constitués de couches de nœuds interconnectés qui extraient les caractéristiques des données et font des prédictions sur ce que représentent les données.
L’apprentissage automatique et l’apprentissage profond diffèrent par les types de réseaux neuronaux qu’ils utilisent et par le nombre d’interventions humaines impliquées. Les algorithmes classiques d’apprentissage automatique utilisent des réseaux de neurones avec une couche d’entrée, une ou deux couches « cachées » et une couche de sortie. En règle générale, ces algorithmes se limitent à l’apprentissage supervisé : les données doivent être structurées ou étiquetées par des experts humains pour permettre à l’algorithme d’extraire des fonctionnalités des données.
Les algorithmes d’apprentissage profond utilisent des réseaux de neurones profonds, des réseaux composés d’une couche d’entrée, de trois couches cachées ou plus (mais généralement des centaines) et d’une disposition de sortie. Ces multiples couches permettent un apprentissage non supervisé : elles automatisent l’extraction de fonctionnalités à partir d’ensembles de données volumineux, non étiquetés et non structurés. Parce qu’il ne nécessite pas d’intervention humaine, l’apprentissage profond permet essentiellement l’apprentissage automatique à grande échelle.
L’essor des modèles génératifs
L’IA générative fait référence à des modèles d’apprentissage en profondeur qui peuvent prendre des données brutes (par exemple, l’intégralité de Wikipédia ou les œuvres rassemblées de Rembrandt) et « apprendre » à générer des résultats statistiquement probables lorsque vous y êtes invité. À un niveau élevé, les modèles génératifs codent une représentation simplifiée de leurs données d’entraînement et s’en inspirent pour créer un nouveau travail similaire, mais pas identique, aux données d’origine.
Les modèles génératifs sont utilisés depuis des années en statistique pour analyser des données numériques. L’essor du deep learning a cependant permis de les étendre aux images, à la parole et à d’autres types de données complexes. Parmi les premiers modèles d’IA à réaliser cet exploit croisé figuraient les auto-encodeurs variationnels, ou VAE, introduits en 2013. Les VAE ont été les premiers modèles d’apprentissage en profondeur à être largement utilisés pour générer des i réalistes.
mages et discours.
« Les VAE ont ouvert les portes à une modélisation générative approfondie en rendant les modèles plus faciles à mettre à l’échelle », a déclaré Akash Srivastava, expert en IA générative au MIT-IBM Watson AI Lab. « Une grande partie de ce que nous considérons aujourd’hui comme l’IA générative a commencé ici. »
Les premiers exemples de modèles, notamment GPT-3, BERT ou DALL-E 2, ont montré ce qui était possible. À l’avenir, les modèles seront formés sur un large ensemble de données non étiquetées pouvant être utilisées pour différentes tâches, avec un minimum de réglages. Les systèmes qui exécutent des tâches spécifiques dans un seul domaine cèdent la place à de vastes systèmes d’IA qui apprennent de manière plus générale et fonctionnent sur plusieurs domaines et problèmes. Les modèles de base, formés sur de vastes ensembles de données non étiquetés et affinés pour un large éventail d’applications, sont à l’origine de ce changement.
Quant à l’avenir de l’IA, en ce qui concerne l’IA générative, il est prévu que les modèles de base accéléreront considérablement l’adoption de l’IA dans les entreprises. La réduction des exigences en matière d’étiquetage permettra aux entreprises de s’y lancer beaucoup plus facilement, et l’automatisation hautement précise et efficace basée sur l’IA qu’elles permettent signifiera que beaucoup plus d’entreprises seront en mesure de déployer l’IA dans un plus large éventail de situations critiques. Pour IBM, l’espoir est que la puissance de calcul des modèles de base puisse éventuellement être apportée à chaque entreprise dans un environnement de cloud hybride sans friction.
Explorez les modèles de fondations sur watsonx.ai
Applications de l’intelligence artificielle
Il existe aujourd’hui de nombreuses applications concrètes pour les systèmes d’IA. Vous trouverez ci-dessous quelques-uns des cas d’utilisation les plus courants :
Reconnaissance de la parole
Également connue sous le nom de reconnaissance vocale automatique (ASR), de reconnaissance vocale informatique ou de synthèse vocale, la reconnaissance vocale utilise la PNL pour traiter la parole humaine dans un format écrit. De nombreux appareils mobiles intègrent la reconnaissance vocale dans leurs systèmes pour effectuer des recherches vocales (Siri, par exemple) ou offrir une plus grande accessibilité pour l’envoi de SMS en anglais ou dans de nombreuses langues largement utilisées. Découvrez comment Don Johnston a utilisé IBM Watson Text to Speech pour améliorer l’accessibilité en classe avec notre étude de cas.
Service client
Les agents virtuels et les chatbots en ligne remplacent les agents humains tout au long du parcours client. Ils répondent aux questions fréquemment posées (FAQ) sur des sujets tels que l’expédition, ou fournissent des conseils personnalisés, des ventes croisées de produits ou des suggestions de tailles aux utilisateurs, changeant ainsi notre façon de penser l’engagement client sur les sites Web et les plateformes de médias sociaux. Les exemples incluent les robots de messagerie sur les sites de commerce électronique avec des agents virtuels, les applications de messagerie telles que Slack et Facebook Messenger, ainsi que les tâches généralement effectuées par des assistants virtuels et des assistants vocaux. Découvrez comment Autodesk Inc. a utilisé IBM Watsonx Assistant pour accélérer les temps de réponse des clients de 99 % grâce à notre étude de cas.
Vision par ordinateur
Cette technologie d’IA permet aux ordinateurs et aux systèmes de dériver des informations significatives à partir d’images numériques, de vidéos et d’autres entrées visuelles, et sur la base de ces entrées, d’agir. Cette capacité à fournir des recommandations la distingue des tâches de reconnaissance d’images. Alimentée par des réseaux de neurones convolutifs, la vision par ordinateur a des applications dans le marquage de photos dans les médias sociaux, l’imagerie radiologique dans le domaine de la santé et les voitures autonomes dans l’industrie automobile. Découvrez comment ProMare a utilisé IBM Maximo pour tracer une nouvelle voie en matière de recherche océanique avec notre étude de cas.
Chaîne d’approvisionnement
La robotique adaptative agit sur les informations des appareils Internet des objets (IoT) et sur les données structurées et non structurées pour prendre des décisions autonomes. Les outils PNL peuvent comprendre le discours humain et réagir à ce qu’on leur dit. L’analyse prédictive est appliquée à la réactivité à la demande, à l’optimisation des stocks et du réseau, à la maintenance préventive et à la fabrication numérique. Les algorithmes de recherche et de reconnaissance de formes, qui ne sont plus seulement prédictifs mais hiérarchiques, analysent les données en temps réel, aidant ainsi les chaînes d’approvisionnement à réagir à l’intelligence augmentée générée par la machine, tout en offrant une visibilité et une transparence instantanées. Découvrez comment Hendrickson a utilisé IBM Sterling pour alimenter les transactions en temps réel avec notre étude de cas.
Prévision météo
Les modèles météorologiques sur lesquels s’appuient les diffuseurs pour établir des prévisions précises sont constitués d’algorithmes complexes exécutés sur des superordinateurs. Les techniques d’apprentissage automatique améliorent ces modèles en les rendant plus applicables et plus précis. Découvrez comment Emnotion a utilisé IBM Cloud pour permettre aux entreprises sensibles aux conditions météorologiques de prendre des décisions plus proactives et basées sur les données avec notre étude de cas.
Détection d’une anomalie
Les modèles d’IA peuvent parcourir de grandes quantités de données et découvrir des points de données atypiques au sein d’un ensemble de données. Ces anomalies peuvent alerter sur des équipements défectueux, des erreurs humaines ou des failles de sécurité. Découvrez comment Netox a utilisé IBM QRadar pour protéger les entreprises numériques contre les cybermenaces grâce à notre étude de cas.
Histoire de l’intelligence artificielle : dates et noms clés
L’idée d’une « machine qui pense » remonte à la Grèce antique. Mais depuis l’avènement de l’informatique électronique (et par rapport à certains des sujets abordés dans cet article), des événements et des jalons importants dans l’évolution de l’intelligence artificielle ont eu lieu.
inclure les éléments suivants :
1950 : Alan Turing publie Computing Machinery and Intelligence (le lien réside en dehors d’ibm.com). Dans cet article, Turing – célèbre pour avoir déchiffré le code allemand ENIGMA pendant la Seconde Guerre mondiale et souvent qualifié de « père de l’informatique » – pose la question suivante : « Les machines peuvent-elles penser ? À partir de là, il propose un test, désormais connu sous le nom de « test de Turing », dans lequel un interrogateur humain tenterait de faire la distinction entre une réponse informatique et une réponse textuelle humaine. Bien que ce test ait fait l’objet de nombreux examens depuis sa publication, il reste une partie importante de l’histoire de l’IA, ainsi qu’un concept actuel en philosophie car il utilise des idées autour de la linguistique.
1956 : John McCarthy invente le terme « intelligence artificielle » lors de la toute première conférence sur l’IA au Dartmouth College. (McCarthy allait inventer le langage Lisp.) Plus tard cette année-là, Allen Newell, J.C. Shaw et Herbert Simon créent Logic Theorist, le tout premier logiciel d’IA jamais exécuté.
1967 : Frank Rosenblatt construit le Mark 1 Perceptron, le premier ordinateur basé sur un réseau neuronal qui « a appris » par essais et erreurs. À peine un an plus tard, Marvin Minsky et Seymour Papert publient un livre intitulé Perceptrons, qui devient à la fois l’ouvrage phare sur les réseaux de neurones et, au moins pour un certain temps, un argument contre les futurs projets de recherche sur les réseaux de neurones.
Années 1980 : Les réseaux de neurones qui utilisent un algorithme de rétropropagation pour s’entraîner sont largement utilisés dans les applications d’IA.
1995 : Stuart Russell et Peter Norvig publient Artificial Intelligence : A Modern Approach (lien externe à ibm.com), qui devient l’un des principaux manuels sur l’étude de l’IA. Dans ce document, ils approfondissent quatre objectifs ou définitions potentiels de l’IA, qui différencient les systèmes informatiques sur la base de la rationalité et de la pensée par rapport à l’action.
1997 : Deep Blue d’IBM bat le champion du monde d’échecs Garry Kasparov, dans un match d’échecs (et une revanche).
2004 : John McCarthy rédige un article intitulé Qu’est-ce que l’intelligence artificielle ? (le lien réside en dehors d’ibm.com) et propose une définition souvent citée de l’IA.
2011 : IBM Watson bat les champions Ken Jennings et Brad Rutter à Jeopardy !
2015 : le superordinateur Minwa de Baidu utilise un type particulier de réseau neuronal profond appelé réseau neuronal convolutif pour identifier et catégoriser les images avec un taux de précision supérieur à celui de l’humain moyen.
2016 : le programme AlphaGo de DeepMind, alimenté par un réseau neuronal profond, bat Lee Sodol, le champion du monde de Go, dans un match de cinq matchs. La victoire est significative étant donné le grand nombre de coups possibles au fur et à mesure de la progression du jeu (plus de 14 500 milliards après seulement quatre coups !). Plus tard, Google a acheté DeepMind pour un montant de 400 millions de dollars.
2023 : l’essor des grands modèles linguistiques, ou LLM, tels que ChatGPT, crée un
un énorme changement dans les performances de l’IA et son potentiel à générer de la valeur pour l’entreprise. Grâce à ces nouvelles pratiques d’IA générative, les modèles d’apprentissage profond peuvent être pré-entraînés sur de grandes quantités de données brutes et non étiquetées.
Solutions associées
Solutions d’intelligence artificielle (IA)
Mettez l’IA au service de votre entreprise avec l’expertise en IA de pointe et le portefeuille de solutions d’IBM à vos côtés.
Explorez les solutions d’IA
Services d’IA
Réinventez les flux de travail et les opérations critiques en ajoutant l’IA pour maximiser les expériences, la prise de décision en temps réel et la valeur commerciale.
Explorez les services d’IA
L’IA pour la cybersécurité
L’IA change la donne en matière de cybersécurité, en analysant d’énormes quantités de données sur les risques pour accélérer les temps de réponse et augmenter les opérations de sécurité manquant de ressources.
Explorez l’IA pour la cybersécurité
Ressources
EbookComment choisir le bon modèle de base d’IA
Découvrez comment utiliser le cadre de sélection de modèle pour sélectionner le modèle de base adapté aux besoins de votre entreprise.
FormationÉconomisez jusqu’à 70 % avec notre abonnement Digital Learning
Accédez à notre catalogue complet de plus de 100 cours en ligne en achetant dès aujourd’hui un abonnement d’apprentissage numérique individuel ou multi-utilisateurs, vous permettant d’élargir vos compétences sur une gamme de nos produits à un prix avantageux.
Étude de marché2023 Gartner Peer Insights Customers’ Choice
IBM Watsonx Assistant reconnu comme le choix des clients dans le rapport Gartner Peer Insights Voice of the Customer 2023 pour les plateformes d’IA conversationnelle d’entreprise
ArticleStratégie d’approvisionnement améliorée par l’IA
Découvrez comment l’apprentissage automatique peut prédire la demande et réduire les coûts.
Recent Comments