Ce dépôt présente comment utiliser l'API de Perplexity AI pour interagir avec des modèles de langage avancés.
- 🌐 Envoi de requêtes REST à l'API Perplexity
- 🤖 Utilisation des derniers modèles :
llama-3.1-sonar-small-128k-onlinellama-3.1-sonar-huge-128k-onlinellama-3.1-sonar-large-128k-online
- 📄 Gestion des citations dans les réponses
- 🔄 Support du streaming pour les réponses en temps réel
- ⚙️ Paramètres avancés :
- Temperature
- Top-p sampling
- Presence penalty
- Frequency penalty
- 💬 Support des conversations avec historique
python_example.py: Exemple de base avec les derniers modèlesstreaming_example.py: Démonstration du streamingadvanced_example.py: Utilisation des paramètres avancésconversation_example.py: Conversation interactive avec historiquecurl_example.sh: Exemple avec cURL
- Python 3.8 ou supérieur.
- Une clé API valide pour Perplexity AI.
- Clonez ce dépôt :
git clone https://github.com/Wiminds/Perplexity-API-Demo.git cd Perplexity-API-Demo
- Installez les dépendances Python :
pip install -r requirements.txt
- Configurez vos variables d'environnement :
- Créez un fichier
.envà partir du modèle.env.example. - Ajoutez votre clé API :
PERPLEXITY_API_KEY=VotreCléAPIIci
Les contributions sont les bienvenues ! Ouvrez une issue ou soumettez une pull request.
Ce projet est sous licence MIT.