Publié le
artificial intelligence

Les Concepts

Image de l'article Avant de plonger dans les détails, commençons par définir quelques concepts clés (par ordre alphabétique).

Agent IA

Un agent d'intelligence artificielle (IA) est un programme logiciel conçu pour effectuer des tâches de manière autonome, sans intervention humaine directe.

Les agents IA peuvent interagir avec leur environnement, collecter des informations et prendre des mesures pour atteindre des objectifs spécifiques. Ils sont spécialisés pour diverses finalités, notamment l'automatisation des tâches, la prise de décision, la résolution de problèmes et l'interaction en langage naturel, souvent avec la capacité de s'adapter ou de s'améliorer au fil du temps.

Source(s) :
(https://startup-house.com/glossary/ai-agent-definition)

IA Générative

L'IA générative est une branche de l'intelligence artificielle qui se concentre sur la construction de modèles capables de créer de nouveaux contenus en apprenant des modèles à partir de données d'entraînement. Ce contenu peut inclure du texte, des images, de l'audio ou d'autres formes de données.

En termes probabilistes, l'IA générative vise à apprendre la distribution de probabilité p(x) sur un ensemble de données X, représentant la probabilité d'observer un point de données spécifique x. L'objectif ultime est de générer de nouveaux échantillons qui s'alignent sur cette distribution apprise. Les modèles génératifs tentent de capturer la structure sous-jacente des données en estimant ces probabilités.

En revanche, les modèles discriminatifs se concentrent sur l'estimation de la probabilité d'une étiquette y étant donné une observation x, ou p(y|x).

En combinant les deux concepts, les modèles génératifs conditionnels cherchent à modéliser la probabilité conditionnelle d'observer x étant donné une étiquette y, c'est-à-dire p(x|y).

Source(s) :
David Foster. Generative Deep Learning, 2nd Edition. O'Reilly Media, 2023

LLM

Un modèle de langage de grande taille (LLM) est un type d'intelligence artificielle capable de reconnaître et de générer du texte, entre autres tâches. Les LLM sont entraînés sur de vastes ensembles de données, souvent composés de milliards de mots, et sont construits à l'aide de réseaux de neurones, en particulier des modèles de transformateurs.

Une définition plus technique décrit un LLM comme un réseau de neurones avec des milliards de paramètres, entraîné sur des quantités massives de texte non étiqueté en utilisant des techniques d'apprentissage auto-supervisé.

Source(s) :
Cloudflare
Graphable

L'article A Comprehensive Overview of Large Language Models propose une exploration détaillée des LLM, en se concentrant sur leur architecture, en particulier les modèles de transformateurs et les mécanismes d'attention. Il couvre des concepts clés tels que la tokenisation, l'encodage positionnel et l'entraînement distribué. Vous pouvez accéder à l'article complet ici :

https://ar5iv.org/2307.06435

RAG

La génération augmentée par récupération (RAG) est une architecture d'IA qui améliore les modèles de langage de grande taille (LLM) en intégrant des informations externes pour améliorer la précision et la pertinence de leurs sorties. Elle récupère des données pertinentes à partir de sources telles que des bases de données ou des documents, en les utilisant pour fournir un contexte supplémentaire au modèle. Ces informations récupérées sont combinées avec la requête originale dans l'invite, permettant au modèle de générer des réponses basées sur des connaissances externes.

Source(s) :
Advanced RAG Techniques: an Illustrated Overview


Vous avez apprécié cet article ? Vous l'avez trouvé utile ? N'hésitez pas à laisser un commentaire ci-dessous pour partager vos réflexions ou poser des questions. Un compte GitHub est requis pour participer à la discussion.

Continuer la lecture

Articles similaires

May 25, 2025

0Commentaires

X-MAS : Faire progresser les systèmes multi-agents avec des LLM hétérogènes

Ce billet explore le cadre X-MAS, qui étudie les avantages de l'utilisation de divers grands modèles linguistiques (LLM) au sein de systèmes multi-agents (MAS). Il détaille X-MAS-Bench, un banc d'essai complet évaluant 27 LLM dans 5 domaines et 5 fonctions MAS, révélant qu'aucun LLM unique n'excelle universellement. S'appuyant sur ces résultats, l'article démontre des améliorations significatives des performances (jusqu'à 47-63 % sur des problèmes mathématiques difficiles) lors du passage de MAS homogènes à des configurations hétérogènes, soulignant le potentiel de l'exploitation de l'intelligence collective à partir de divers LLM.

Multi-Agent SystemsLLMsHeterogeneous LLMs

May 20, 2025

0Commentaires

Google I/O '25: Gemini s'envole, Beam connecte, et Lyria crée – L'avenir de l'IA est maintenant

Google I/O '25 a déchaîné un torrent d'innovation en IA. Plongez dans le Gemini 2.5 Pro amélioré, la plateforme vidéo immersive Google Beam, l'IA musicale créative Lyria RealTime, le puissant TPU Ironwood, et les mises à jour révolutionnaires de Meet et Search.

Google IO 2025AIGemini

May 12, 2025

0Commentaires

Le Voyage vers l'IA Générale : Une Perspective Historique et Technique

Explorez l'histoire et les approches techniques dans la quête de l'Intelligence Artificielle Générale, de l'IA symbolique précoce et des systèmes experts à l'apprentissage profond et à la programmation probabiliste, illustrées par des applications concrètes comme la surveillance nucléaire.

Artificial IntelligenceAGIMachine Learning