Phi est une série de modèles d'IA open source développée par Microsoft.
Phi est actuellement le modèle de langage compact (SLM) le plus puissant et le plus économique, avec d'excellents résultats dans des domaines tels que les langues multiples, le raisonnement, la génération de texte/chat, le codage, les images, l'audio et bien d'autres scénarios.
Vous pouvez déployer Phi dans le cloud ou sur des appareils périphériques, et créer facilement des applications d'IA générative avec des ressources informatiques limitées.
Suivez ces étapes pour commencer à utiliser ces ressources :
- Forkez le dépôt : Cliquez
- Clonez le dépôt :
git clone https://github.com/microsoft/PhiCookBook.git
- Rejoignez la communauté Discord Microsoft AI et échangez avec des experts et d'autres développeurs
-
Introduction
- Bienvenue dans la famille Phi
- Configuration de votre environnement
- Comprendre les technologies clés
- Sécurité de l'IA pour les modèles Phi
- Support matériel pour Phi
- Modèles Phi et disponibilité sur différentes plateformes
- Utilisation de Guidance-ai et Phi
- Modèles sur GitHub Marketplace
- Catalogue de modèles Azure AI
-
Inférence de Phi dans différents environnements
-
Inférence de la famille Phi
-
Évaluation de Phi
-
RAG avec Azure AI Search
-
Exemples de développement d'applications Phi
- Applications Textuelles et de Chat
- Exemples Phi-4 🆕
- Exemples Phi-3 / 3.5
- Chatbot local dans le navigateur avec Phi3, ONNX Runtime Web et WebGPU
- Chat OpenVINO
- Modèle multi-usage - Interaction entre Phi-3-mini et OpenAI Whisper
- MLFlow - Création d'un wrapper et utilisation de Phi-3 avec MLFlow
- Optimisation du modèle - Comment optimiser le modèle Phi-3-min pour ONNX Runtime Web avec Olive
- Application WinUI3 avec Phi-3 mini-4k-instruct-onnx
- Exemple d'application de notes alimentée par l'IA avec WinUI3 et plusieurs modèles
- Ajuster et intégrer des modèles personnalisés Phi-3 avec Prompt flow
- Ajuster et intégrer des modèles personnalisés Phi-3 avec Prompt flow dans Azure AI Foundry
- Évaluer le modèle Phi-3 / Phi-3.5 ajusté dans Azure AI Foundry en mettant l'accent sur les principes d'IA Responsable de Microsoft
- Applications Textuelles et de Chat
-
[📓] Exemple de prédiction linguistique Phi-3.5-mini-instruct (Chinois/Anglais)
- Chatbot RAG WebGPU avec Phi-3.5-Instruct
- Utilisation du GPU Windows pour créer une solution Prompt Flow avec Phi-3.5-Instruct ONNX
- Utilisation de Microsoft Phi-3.5 tflite pour créer une application Android
- Exemple de Q&R .NET utilisant le modèle local ONNX Phi-3 avec Microsoft.ML.OnnxRuntime
- Application console .NET pour le chat avec Semantic Kernel et Phi-3-
Exemples de code SDK Azure AI Inference
-
Exemples de raisonnement avancé
- Exemples Phi-4 🆕
-
Démos
-
Exemples de vision
- Exemples Phi-4 🆕
- Exemples Phi-3 / 3.5
- [📓]Phi-3-vision - Texte d'image à texte
- Phi-3-vision-ONNX
- [📓]Phi-3-vision - Intégration CLIP
- DEMO : Phi-3 Recycling
- Phi-3-vision - Assistant visuel linguistique - avec Phi3-Vision et OpenVINO
- Phi-3 Vision Nvidia NIM
- Phi-3 Vision OpenVino
- [📓]Exemple multi-image ou multi-cadre Phi-3.5 Vision
- Modèle local ONNX Phi-3 Vision utilisant Microsoft.ML.OnnxRuntime .NET
- Modèle local ONNX Phi-3 Vision basé sur un menu utilisant Microsoft.ML.OnnxRuntime .NET
-
Exemples audio
-
Exemples MOE
-
Exemples d'appel de fonctions
- Exemples Phi-4 🆕
-
Exemples de mélange multimodal
- Exemples Phi-4 🆕
-
-
[📓] Utiliser Phi-4-multimodal en tant que journaliste technologique
-
Affiner les échantillons Phi
- Scénarios d'affinage
- Affinage vs RAG
- Affinage : Faire de Phi-3 un expert industriel
- Affiner Phi-3 avec AI Toolkit pour VS Code
- Affiner Phi-3 avec Azure Machine Learning Service
- Affiner Phi-3 avec Lora
- Affiner Phi-3 avec QLora
- Affiner Phi-3 avec Azure AI Foundry
- Affiner Phi-3 avec Azure ML CLI/SDK
- Affiner avec Microsoft Olive
- Affiner avec le laboratoire pratique de Microsoft Olive
- Affiner Phi-3-vision avec Weights and Bias
- Affiner Phi-3 avec le framework Apple MLX
- Affiner Phi-3-vision (support officiel)
- Affiner Phi-3 avec Kaito AKS, Azure Containers (support officiel)
- Affiner Phi-3 et 3.5 Vision
-
Laboratoire pratique
-
Articles de recherche académique et publications
- Les manuels sont tout ce dont vous avez besoin II : rapport technique phi-1.5
- Rapport technique Phi-3 : Un modèle de langage très performant localement sur votre téléphone
- Rapport technique Phi-4
- Optimisation des petits modèles de langage pour l'appel de fonctions embarquées
- (WhyPHI) Affiner PHI-3 pour répondre à des questions à choix multiples : méthodologie, résultats et défis
Vous pouvez apprendre à utiliser Microsoft Phi et à construire des solutions de bout en bout sur différents dispositifs matériels. Pour découvrir Phi par vous-même, commencez par tester les modèles et personnaliser Phi pour vos scénarios à l'aide du Catalogue de modèles Azure AI Foundry. Vous pouvez en apprendre davantage dans la section Démarrage rapide avec Azure AI Foundry.
Playground
Chaque modèle dispose d'un espace dédié pour tester le modèle Azure AI Playground.
Vous pouvez apprendre à utiliser Microsoft Phi et à construire des solutions de bout en bout sur différents dispositifs matériels. Pour découvrir Phi par vous-même, commencez par tester le modèle et personnaliser Phi pour vos scénarios à l'aide du Catalogue de modèles GitHub. Vous pouvez en apprendre davantage dans la section Démarrage rapide avec Catalogue de modèles GitHub.
Playground Chaque modèle dispose d’un espace de test dédié pour expérimenter le modèle.
Vous pouvez également trouver le modèle sur Hugging Face
Espace de test
Espace de test Hugging Chat
Microsoft s’engage à aider ses clients à utiliser ses produits d’IA de manière responsable, à partager ses apprentissages et à construire des partenariats basés sur la confiance grâce à des outils tels que les Notes de Transparence et les Évaluations d’Impact. Bon nombre de ces ressources sont disponibles à l’adresse https://aka.ms/RAI.
L’approche de Microsoft en matière d’IA responsable repose sur nos principes d’équité, de fiabilité et de sécurité, de confidentialité et de protection, d’inclusivité, de transparence et de responsabilité.
Les modèles à grande échelle de langage naturel, d’image et de voix - comme ceux utilisés dans cet exemple - peuvent potentiellement se comporter de manière injuste, peu fiable ou offensante, ce qui peut entraîner des préjudices. Veuillez consulter la Note de Transparence du service Azure OpenAI pour être informé des risques et limitations.
L’approche recommandée pour atténuer ces risques consiste à inclure un système de sécurité dans votre architecture, capable de détecter et prévenir les comportements nuisibles. Azure AI Content Safety offre une couche de protection indépendante, capable de détecter du contenu nuisible généré par les utilisateurs ou par l’IA dans les applications et services. Azure AI Content Safety inclut des API pour le texte et les images qui permettent de détecter du contenu préjudiciable. Dans Azure AI Foundry, le service Content Safety vous permet de visualiser, explorer et tester des exemples de code pour détecter du contenu nuisible dans différents formats. La documentation de démarrage rapide vous guide dans l’envoi de requêtes à ce service.
Un autre aspect à considérer est la performance globale de l’application. Pour les applications multi-modales et multi-modèles, la performance signifie que le système fonctionne comme vous et vos utilisateurs l’attendez, y compris en évitant de générer des résultats nuisibles. Il est important d’évaluer la performance globale de votre application en utilisant les évaluateurs de Performance et Qualité et de Risques et Sécurité. Vous avez également la possibilité de créer et d’évaluer avec des évaluateurs personnalisés.
Vous pouvez évaluer votre application d’IA dans votre environnement de développement en utilisant le SDK d’Évaluation Azure AI. À partir d’un jeu de données de test ou d’un objectif, les résultats générés par votre application d’IA générative sont mesurés quantitativement avec des évaluateurs intégrés ou personnalisés selon votre choix. Pour commencer avec le SDK d’évaluation Azure AI et évaluer votre système, vous pouvez suivre le guide de démarrage rapide. Une fois une évaluation effectuée, vous pouvez visualiser les résultats dans Azure AI Foundry.
Ce projet peut contenir des marques ou des logos pour des projets, produits ou services. L’utilisation autorisée des marques ou logos de Microsoft est soumise et doit respecter les Directives de Marque et d’Usage de Microsoft.
L’utilisation des marques ou logos de Microsoft dans des versions modifiées de ce projet ne doit pas prêter à confusion ou laisser entendre un parrainage de la part de Microsoft. Toute utilisation de marques ou logos tiers est soumise aux politiques de ces tiers.
Avertissement :
Ce document a été traduit à l'aide de services de traduction automatisée basés sur l'intelligence artificielle. Bien que nous nous efforcions d'assurer l'exactitude, veuillez noter que les traductions automatiques peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue d'origine doit être considéré comme la source faisant autorité. Pour des informations critiques, il est recommandé de recourir à une traduction humaine professionnelle. Nous déclinons toute responsabilité en cas de malentendus ou d'interprétations erronées résultant de l'utilisation de cette traduction.