Skip to content

Latest commit

 

History

History
218 lines (179 loc) · 22.2 KB

README.md

File metadata and controls

218 lines (179 loc) · 22.2 KB

Phi Cookbook : Exemples pratiques avec les modèles Phi de Microsoft

Phi est une série de modèles d'intelligence artificielle open source développés par Microsoft.

Phi est actuellement le modèle de langage compact (SLM) le plus puissant et le plus rentable, avec d'excellents résultats dans les benchmarks de langues multiples, raisonnement, génération de texte/chat, codage, images, audio et autres scénarios.

Vous pouvez déployer Phi sur le cloud ou sur des appareils en périphérie, et construire facilement des applications d'IA générative avec une puissance de calcul limitée.

Suivez ces étapes pour commencer à utiliser ces ressources :

  1. Forkez le dépôt : Cliquez sur GitHub forks
  2. Clonez le dépôt : git clone https://github.com/microsoft/PhiCookBook.git
  3. Rejoignez la communauté Discord Microsoft AI pour rencontrer des experts et d'autres développeurs

cover

🌐 Support multilingue

Français | Espagnol | Allemand | Russe | Arabe | Persan (Farsi) | Ourdou | Chinois (Simplifié) | Chinois (Traditionnel, Macao) | Chinois (Traditionnel, Hong Kong) | Chinois (Traditionnel, Taïwan) | Japonais | Coréen | Hindi Bengali | Marathi | Népalais | Punjabi (Gurmukhi) | Portugais (Portugal) | Portugais (Brésil) | Italien | Polonais | Turc | Grec | Thaï | Suédois | Danois | Norvégien | Finnois | Néerlandais | Hébreu | Vietnamien | Indonésien | Malais | Tagalog (Philippin) | Swahili | Hongrois | Tchèque | Slovaque | Roumain | Bulgare | Serbe (Cyrillique) | Croate | Slovène

Table des matières

Utilisation des modèles Phi

Phi sur Azure AI Foundry

Découvrez comment utiliser Microsoft Phi et construire des solutions de bout en bout sur différents appareils matériels. Pour expérimenter Phi par vous-même, commencez par explorer les modèles et personnaliser Phi pour vos scénarios via le Catalogue de modèles Azure AI Foundry. Vous pouvez en apprendre davantage en consultant le guide de démarrage Azure AI Foundry.

Playground
Chaque modèle dispose d'un espace dédié pour tester le modèle Azure AI Playground.

Phi sur les modèles GitHub

Découvrez comment utiliser Microsoft Phi et construire des solutions de bout en bout sur différents appareils matériels. Pour expérimenter Phi par vous-même, commencez par explorer le modèle et personnaliser Phi pour vos scénarios via le Catalogue de modèles GitHub. Vous pouvez en apprendre davantage en consultant le guide de démarrage GitHub Model Catalog.

Playground
Chaque modèle dispose d'un espace dédié pour tester le modèle.

Phi sur Hugging Face

Vous pouvez également trouver le modèle sur Hugging Face.

Playground
Playground Hugging Chat.

IA Responsable

Microsoft s'engage à aider ses clients à utiliser ses produits d'IA de manière responsable, à partager ses apprentissages et à construire des partenariats basés sur la confiance grâce à des outils comme les notes de transparence et les évaluations d'impact. Beaucoup de ces ressources sont disponibles sur https://aka.ms/RAI.
L'approche de Microsoft en matière d'IA responsable repose sur nos principes d'IA : équité, fiabilité et sécurité, confidentialité et protection, inclusivité, transparence et responsabilité.

Les modèles à grande échelle de langage naturel, image et voix - comme ceux utilisés dans cet exemple - peuvent potentiellement agir de manière injuste, peu fiable ou offensante, entraînant ainsi des dommages. Veuillez consulter la note de transparence du service Azure OpenAI pour être informé des risques et des limitations.

La méthode recommandée pour atténuer ces risques est d'inclure un système de sécurité dans votre architecture capable de détecter et prévenir les comportements nuisibles. Azure AI Content Safety fournit une couche de protection indépendante, capable de détecter les contenus nuisibles générés par les utilisateurs et l'IA dans les applications et services. Azure AI Content Safety inclut des API pour le texte et les images permettant de détecter les contenus nuisibles. Au sein d'Azure AI Foundry, le service Content Safety vous permet de visualiser, explorer et tester des exemples de code pour détecter des contenus nuisibles à travers différentes modalités. La documentation de démarrage rapide vous guide dans la réalisation de requêtes vers le service.

Un autre aspect à prendre en compte est la performance globale de l'application. Avec des applications multimodales et multi-modèles, nous considérons la performance comme le fait que le système fonctionne selon vos attentes et celles de vos utilisateurs, y compris en évitant de générer des résultats nuisibles. Il est important d'évaluer la performance globale de votre application en utilisant les évaluateurs de performance et qualité ainsi que ceux des risques et de la sécurité. Vous avez également la possibilité de créer et d'évaluer avec des évaluateurs personnalisés. Vous pouvez évaluer votre application d'IA dans votre environnement de développement en utilisant le SDK d'évaluation Azure AI. Avec un jeu de données de test ou une cible, les générations de votre application d'IA générative sont mesurées quantitativement grâce à des évaluateurs intégrés ou des évaluateurs personnalisés selon votre choix. Pour commencer avec le SDK d'évaluation Azure AI afin d'évaluer votre système, vous pouvez suivre le guide de démarrage rapide. Une fois que vous exécutez une session d'évaluation, vous pouvez visualiser les résultats dans Azure AI Foundry.

Marques déposées

Ce projet peut contenir des marques déposées ou des logos pour des projets, produits ou services. L'utilisation autorisée des marques déposées ou logos de Microsoft est soumise et doit respecter les directives de marque et de logo de Microsoft. L'utilisation des marques déposées ou logos de Microsoft dans des versions modifiées de ce projet ne doit pas entraîner de confusion ni impliquer un parrainage de Microsoft. Toute utilisation de marques déposées ou logos de tiers est soumise aux politiques de ces tiers.

Avertissement :
Ce document a été traduit à l'aide du service de traduction automatique Co-op Translator. Bien que nous nous efforcions d'assurer l'exactitude, veuillez noter que les traductions automatisées peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue d'origine doit être considéré comme la source faisant autorité. Pour les informations critiques, une traduction humaine professionnelle est recommandée. Nous ne sommes pas responsables des malentendus ou des interprétations erronées résultant de l'utilisation de cette traduction.