Publié le

Un tutoriel étape par étape pour installer et utiliser l'outil de codage AI-powered aider

7 min read
Auteurs
  • Profile picture of aithemes.net
    Nom
    aithemes.net
    Twitter
Image de l'article aider.chat est un outil open-source conçu pour le pair programming avec des LLMs, vous permettant de modifier du code dans votre dépôt Git local. Aider fonctionne mieux avec GPT-4o et Claude-3.5 Sonnet et peut se connecter à presque n'importe quel LLM. Ce tutoriel vous guide à travers le processus d'installation d'aider et son utilisation dans un scénario pratique pour améliorer votre productivité.

Prérequis

Avant de commencer, assurez-vous d'avoir les éléments suivants :

  • Système d'exploitation : Linux (recommandé).
  • Python : Python 3.8 ou une version supérieure installé sur votre système.
  • Accès au terminal : Une familiarité de base avec l'utilisation du terminal/ligne de commande.

Note sur l'environnement : Ce tutoriel a été réalisé sur une configuration Ubuntu WSL (Windows Subsystem for Linux) fonctionnant sur un ordinateur personnel Windows 11. Les étapes devraient être similaires pour d'autres environnements basés sur Linux.

Étape 1 : Installation d'aider.chat avec pipx

Pour installer aider.chat, il est recommandé d'utiliser pipx, qui vous permet d'installer et d'exécuter des applications Python dans des environnements isolés. Cela évite les conflits de dépendances entre différents projets Python sur votre système. Suivez les instructions sur la page d'installation pipx d'aider.chat.

Pour installer aider.chat avec pipx :

  1. Installez pipx (si ce n'est pas déjà fait).

  2. Installez aider.chat avec pipx.

Après l'installation, vous pouvez exécuter aider.chat directement depuis la ligne de commande.

Étape 2 : Intégration d'aider.chat avec un modèle LLM

Dans cette étape, nous allons intégrer aider.chat avec le modèle LLM Anthropic Claude-3.5-Sonnet en utilisant le fournisseur OpenRouter.

Pour en savoir plus sur le modèle et le fournisseur, vous pouvez consulter les liens suivants :

Configuration de l'intégration

  1. Obtenez des clés API : Inscrivez-vous et obtenez votre clé API auprès d'OpenRouter.

Étape 3 : Exécution de l'outil aider depuis la ligne de commande

Dans cette étape, nous allons naviguer vers le répertoire racine d'un dépôt Git contenant un projet Python et exécuter l'outil aider depuis la ligne de commande. Pour ce tutoriel, j'ai utilisé un projet Python personnel qui inclut divers outils Python utilisés pour travailler sur mon blog.

  1. Naviguez vers le dépôt Git : Déplacez-vous vers le répertoire racine de votre projet.

  2. Définissez la variable d'environnement : Assurez-vous que la variable d'environnement OPENROUTER_API_KEY est définie avec votre clé API.

  3. Exécutez aider avec le modèle LLM : Utilisez la ligne de commande pour démarrer aider avec le modèle Claude-3.5-Sonnet via OpenRouter :

    aider --model openrouter/anthropic/claude-3.5-sonnet
    
    Exécution de l'outil aider

Étape 4 : Ajout d'un fichier Python au chat

Pour les cas pratiques suivants, nous utiliserons un outil Python simple dans mon projet. Cet outil automatise la traduction des articles de blog de l'anglais vers d'autres langues en utilisant des agents Camel AI intégrés avec des fournisseurs d'API LLM.

  1. Ajoutez un fichier Python : Ajoutez un fichier Python à la session de chat aider pour une collaboration interactive avec cette commande aider.

    /add CAMEL_translate_tool_mistral.py
    
    Ajout d'un fichier au chat

Et voilà, vous êtes prêt à utiliser ces cas pratiques pour montrer les capacités d'aider en tant qu'assistant de codage AI-powered.

Cas pratique 1 : Ajout de docstrings aux méthodes Python

  1. Instructez aider pour ajouter des docstrings : Utilisez aider pour générer une documentation détaillée sous forme de docstrings pour les méthodes de votre script Python.

    Ajout de docstrings Figure 1
    Ajout de docstrings Figure 2

Résultats : Les résultats étaient positifs. Aider a ajouté avec succès des docstrings clairs et précis, améliorant la lisibilité et la maintenabilité du script.

Jetons LLM API utilisés et coût : Ils sont indiqués dans l'image ci-dessus.

Cas pratique 2 : Ajout du support pour GROQ modelfactory

Maintenant, une tâche plus difficile. Mon script est intégré avec deux fournisseurs d'API LLM : Mistral et Gemini. Dans ce cas, nous avons instructé aider pour ajouter le support du fournisseur GROQ, en utilisant pour l'inférence le modèle Groq Llama 3 8B. Aider a mis à jour le script pour inclure les imports nécessaires, l'initialisation du modèle et les ajustements pour la compatibilité.

Ajout du support GROQ Figure 1
Ajout du support GROQ Figure 2
Ajout du support GROQ Figure 3

Résultats

Bien que l'intégration ait été globalement réussie, deux problèmes ont été identifiés :

  1. Configuration incorrecte du modèle : Aider a initialement configuré le modèle de manière incorrecte.
  2. URL incorrecte de l'API GROQ : Aider n'a pas réussi à définir l'URL correcte pour l'API GROQ, entraînant des problèmes d'intégration.

J'ai instructé aider pour définir l'URL de l'API, mais les résultats n'étaient pas satisfaisants. Par conséquent, j'ai annulé les modifications en utilisant la commande /undo d'aider.

Problème de configuration du modèle Figure

Enfin, j'ai mis à jour manuellement le script pour m'assurer que la configuration du modèle et l'URL de l'API étaient correctement définies.

Modification manuelle de l'URL Figure

Après avoir résolu ces problèmes manuellement, les tests ont confirmé que le modèle et l'API étaient intégrés avec succès et fonctionnaient comme prévu.

Cas pratique 3 : Modification de la méthode de commit pour la création de branche

  1. Mettez à jour la méthode de commit : Instructez aider pour modifier la logique de commit dans mon script afin de créer la branche cible si elle n'existe pas.

    Ajout du support GROQ Figure 4

Résultats : La branche cible a été créée avec succès lorsqu'elle n'existait pas, et les modifications ont été validées sans problème, confirmant les capacités d'aider.

Conclusions

  • Convivial : Les étapes pour installer et utiliser aider.chat sont simples et directes, le rendant accessible à toute personne ayant une expérience de base avec la ligne de commande.
  • Résultats positifs : Globalement, l'outil a fourni des résultats positifs, atteignant efficacement les modifications que nous souhaitions.
  • Cas d'utilisation de base : Ce tutoriel a démontré un cas d'utilisation de base, modifiant un seul script Python. Des cas d'utilisation plus complexes pourraient être explorés dans de futurs articles.
  • Intégration avec Git : L'intégration transparente d'aider.chat avec Git a facilité le contrôle de version et la gestion des branches, assurant un suivi efficace des modifications.
  • Considérations de coût : Lors de l'utilisation de l'API LLM, il est important de prendre en compte les coûts associés, en particulier pour une utilisation extensive ou en production.

Liens

Découvrez d'autres tutoriels sur mon blog

Si vous avez trouvé ce tutoriel utile, vous pourriez apprécier ceux-ci également :


Vous avez aimé cet article ? Vous l'avez trouvé utile ? N'hésitez pas à laisser un commentaire ci-dessous pour partager vos pensées ou poser des questions. Un compte GitHub est requis pour participer à la discussion.