Phi es una serie de modelos de inteligencia artificial de código abierto desarrollados por Microsoft.
Actualmente, Phi es el modelo de lenguaje pequeño (SLM) más potente y rentable, con excelentes resultados en pruebas de multilingüismo, razonamiento, generación de texto/chat, programación, imágenes, audio y otros escenarios.
Puedes implementar Phi en la nube o en dispositivos de borde, y construir aplicaciones de IA generativa fácilmente con recursos computacionales limitados.
Sigue estos pasos para comenzar a usar estos recursos:
- Haz un Fork del Repositorio: Haz clic en
- Clona el Repositorio:
git clone https://github.com/microsoft/PhiCookBook.git
- Únete a la Comunidad de Microsoft AI en Discord y conecta con expertos y otros desarrolladores
Francés | Español | Alemán | Ruso | Árabe | Persa (Farsi) | Urdu | Chino (Simplificado) | Chino (Tradicional, Macao) | Chino (Tradicional, Hong Kong) | Chino (Tradicional, Taiwán) | Japonés | Coreano | Hindi | Bengalí | Maratí | Nepalí | Punyabí (Gurmukhi) | Portugués (Portugal) | Portugués (Brasil) | Italiano | Polaco | Turco | Griego | Tailandés | Sueco | Danés | Noruego | Finlandés | Holandés | Hebreo | Vietnamita | Indonesio | Malayo | Tagalo (Filipino) | Suajili | Húngaro | Checo | Eslovaco | Rumano | Búlgaro | Serbio (Cirílico) | Croata | Esloveno
-
Introducción
-
Inferencia de Phi en diferentes entornos
-
Inferencia de la Familia Phi
- Inferencia de Phi en iOS
- Inferencia de Phi en Android
- Inferencia de Phi en Jetson
- Inferencia de Phi en AI PC
- Inferencia de Phi con el Framework Apple MLX
- Inferencia de Phi en un Servidor Local
- Inferencia de Phi en un Servidor Remoto usando AI Toolkit
- Inferencia de Phi con Rust
- Inferencia de Phi--Vision en Local
- Inferencia de Phi con Kaito AKS, Contenedores de Azure (soporte oficial)
-
Evaluación de Phi
-
RAG con Azure AI Search
-
Ejemplos de desarrollo de aplicaciones Phi
-
Aplicaciones de Texto y Chat
- Ejemplos Phi-4 🆕
- Ejemplos Phi-3 / 3.5
- Chatbot local en el navegador usando Phi3, ONNX Runtime Web y WebGPU
- Chat con OpenVino
- Modelo múltiple - Phi-3-mini interactivo y OpenAI Whisper
- MLFlow - Creando un wrapper y usando Phi-3 con MLFlow
- Optimización de modelos - Cómo optimizar el modelo Phi-3-min para ONNX Runtime Web con Olive
- Aplicación WinUI3 con Phi-3 mini-4k-instruct-onnx
- Aplicación de notas con IA de modelo múltiple en WinUI3
- Ajuste fino e integración de modelos personalizados Phi-3 con Promptflow
- Ajuste fino e integración de modelos personalizados Phi-3 con Promptflow en Azure AI Foundry
- Evaluar el modelo ajustado Phi-3 / Phi-3.5 en Azure AI Foundry centrado en los principios de IA responsable de Microsoft
- [📓] Ejemplo de predicción de lenguaje con Phi-3.5-mini-instruct (Chino/Inglés)
- Chatbot RAG WebGPU con Phi-3.5-Instruct
- Usando GPU de Windows para crear una solución Promptflow con Phi-3.5-Instruct ONNX
- Usando Microsoft Phi-3.5 tflite para crear una aplicación Android
- Ejemplo de preguntas y respuestas en .NET usando el modelo local Phi-3 ONNX con Microsoft.ML.OnnxRuntime
- Aplicación de consola .NET con Semantic Kernel y Phi-3
-
Ejemplos basados en código del SDK de inferencia de Azure AI
-
Ejemplos de razonamiento avanzado
- Ejemplos Phi-4 🆕
-
Demos
-
Ejemplos de visión
- Ejemplos Phi-4 🆕
- Ejemplos Phi-3 / 3.5
-
-
[📓]Phi-3-vision-Image text to text
- Phi-3-vision-ONNX
- [📓]Phi-3-vision CLIP Embedding
- DEMO: Phi-3 Reciclaje
- Phi-3-vision - Asistente visual de lenguaje - con Phi3-Vision y OpenVINO
- Phi-3 Vision Nvidia NIM
- Phi-3 Vision OpenVino
- [📓]Phi-3.5 Vision muestra de múltiples cuadros o imágenes
- Phi-3 Vision Modelo ONNX Local utilizando Microsoft.ML.OnnxRuntime .NET
- Modelo ONNX Local Phi-3 Vision basado en menú utilizando Microsoft.ML.OnnxRuntime .NET
-
Muestras de Audio
-
Muestras MOE
-
Muestras de Llamadas a Funciones
-
Muestras de Mezcla Multimodal
-
Ajuste fino de muestras Phi
- Escenarios de ajuste fino
- Ajuste fino vs RAG
- Ajuste fino Deja que Phi-3 se convierta en un experto en la industria
- Ajuste fino Phi-3 con AI Toolkit para VS Code
- Ajuste fino Phi-3 con el servicio Azure Machine Learning
- Ajuste fino Phi-3 con Lora
- Ajuste fino Phi-3 con QLora
- Ajuste fino Phi-3 con Azure AI Foundry
- Ajuste fino Phi-3 con CLI/SDK de Azure ML
-
Ajuste fino con Microsoft Olive
- Laboratorio práctico de ajuste fino con Microsoft Olive
- Ajuste fino de Phi-3-vision con Weights and Bias
- Ajuste fino de Phi-3 con el framework Apple MLX
- Ajuste fino de Phi-3-vision (soporte oficial)
- Ajuste fino de Phi-3 con Kaito AKS, contenedores de Azure (soporte oficial)
- Ajuste fino de Phi-3 y Phi-3.5 Vision
-
Laboratorio práctico
-
Artículos de investigación académica y publicaciones
- Textbooks Are All You Need II: informe técnico de phi-1.5
- Informe técnico de Phi-3: un modelo de lenguaje altamente capaz en tu teléfono
- Informe técnico de Phi-4
- Informe técnico de Phi-4-Mini: Modelos de lenguaje multimodal compactos pero potentes mediante Mixture-of-LoRAs
- Optimización de modelos de lenguaje pequeños para llamadas de funciones en vehículos
- (WhyPHI) Ajuste fino de PHI-3 para responder preguntas de opción múltiple: metodología, resultados y desafíos
Puedes aprender cómo usar Microsoft Phi y cómo construir soluciones de extremo a extremo en tus diferentes dispositivos de hardware. Para experimentar Phi por ti mismo, comienza probando los modelos y personalizando Phi para tus escenarios usando el Catálogo de Modelos de Azure AI Foundry. Puedes aprender más en Introducción a Azure AI Foundry.
Playground
Cada modelo tiene un playground dedicado para probar el modelo Azure AI Playground.
Puedes aprender cómo usar Microsoft Phi y cómo construir soluciones de extremo a extremo en tus diferentes dispositivos de hardware. Para experimentar Phi por ti mismo, comienza probando el modelo y personalizando Phi para tus escenarios usando el Catálogo de Modelos de GitHub. Puedes aprender más en Introducción al Catálogo de Modelos de GitHub.
Playground
Cada modelo tiene un playground dedicado para probar el modelo.
También puedes encontrar el modelo en Hugging Face.
Playground
Playground de Hugging Chat.
Microsoft está comprometido a ayudar a nuestros clientes a usar nuestros productos de IA de manera responsable, compartiendo lo que hemos aprendido y construyendo asociaciones basadas en la confianza mediante herramientas como Notas de Transparencia y Evaluaciones de Impacto. Muchos de estos recursos se encuentran en https://aka.ms/RAI.
El enfoque de Microsoft hacia la IA responsable se basa en nuestros principios de IA: equidad, confiabilidad y seguridad, privacidad y protección, inclusión, transparencia y responsabilidad.
Los modelos a gran escala de lenguaje natural, imágenes y voz, como los utilizados en este ejemplo, pueden comportarse de manera injusta, poco confiable o ofensiva, causando daños. Consulta la Nota de Transparencia del servicio Azure OpenAI para estar informado sobre riesgos y limitaciones.
El enfoque recomendado para mitigar estos riesgos es incluir un sistema de seguridad en tu arquitectura que pueda detectar y prevenir comportamientos dañinos. Azure AI Content Safety proporciona una capa de protección independiente, capaz de detectar contenido dañino generado por usuarios y por IA en aplicaciones y servicios. Azure AI Content Safety incluye APIs de texto e imagen que permiten detectar material dañino. Dentro de Azure AI Foundry, el servicio Content Safety te permite ver, explorar y probar código de ejemplo para detectar contenido dañino en diferentes modalidades. La siguiente documentación de inicio rápido te guía a través de cómo realizar solicitudes al servicio.
Otro aspecto a tener en cuenta es el rendimiento general de la aplicación. Con aplicaciones multimodales y multimodelos, consideramos el rendimiento como la capacidad del sistema de cumplir con las expectativas tuyas y de tus usuarios, incluyendo no generar resultados dañinos. Es importante evaluar el rendimiento de tu aplicación general usando Evaluadores de Rendimiento y Calidad y Evaluadores de Riesgo y Seguridad. También tienes la capacidad de crear y evaluar con evaluadores personalizados.
Puedes evaluar tu aplicación de inteligencia artificial en tu entorno de desarrollo utilizando el Azure AI Evaluation SDK. Dado un conjunto de datos de prueba o un objetivo, las generaciones de tu aplicación de inteligencia artificial generativa se miden cuantitativamente con evaluadores integrados o evaluadores personalizados de tu elección. Para comenzar con el SDK de evaluación de Azure AI y evaluar tu sistema, puedes seguir la guía de inicio rápido. Una vez que ejecutes una evaluación, puedes visualizar los resultados en Azure AI Foundry.
Este proyecto puede contener marcas registradas o logotipos de proyectos, productos o servicios. El uso autorizado de marcas registradas o logotipos de Microsoft está sujeto a y debe cumplir con las Directrices de Marca y Logotipo de Microsoft.
El uso de marcas registradas o logotipos de Microsoft en versiones modificadas de este proyecto no debe causar confusión ni implicar patrocinio por parte de Microsoft. Cualquier uso de marcas registradas o logotipos de terceros está sujeto a las políticas de esos terceros.
Descargo de responsabilidad:
Este documento ha sido traducido utilizando el servicio de traducción automática Co-op Translator. Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por un humano. No nos hacemos responsables de ningún malentendido o interpretación errónea que surja del uso de esta traducción.