Intel es el fabricante de CPUs más tradicional, con una gran base de usuarios. Con el auge del aprendizaje automático y el aprendizaje profundo, Intel también se ha sumado a la competencia por la aceleración de la IA. Para la inferencia de modelos, Intel no solo utiliza GPUs y CPUs, sino también NPUs.
Esperamos desplegar la familia Phi-3.x en el lado del cliente, con la intención de convertirnos en una parte fundamental del AI PC y el Copilot PC. La carga del modelo en el lado del cliente depende de la colaboración con diferentes fabricantes de hardware. Este capítulo se centra principalmente en el escenario de aplicación de Intel OpenVINO como modelo cuantitativo.
OpenVINO es un kit de herramientas de código abierto para optimizar y desplegar modelos de aprendizaje profundo desde la nube hasta el borde. Acelera la inferencia de aprendizaje profundo en diversos casos de uso, como IA generativa, video, audio y lenguaje, utilizando modelos de marcos populares como PyTorch, TensorFlow, ONNX, entre otros. Convierte y optimiza modelos, y despliega en una combinación de hardware y entornos Intel®, ya sea en las instalaciones, en el dispositivo, en el navegador o en la nube.
Con OpenVINO, ahora puedes cuantizar rápidamente el modelo GenAI en hardware de Intel y acelerar la inferencia del modelo.
Actualmente, OpenVINO admite la conversión de cuantización de Phi-3.5-Vision y Phi-3.5 Instruct.
Por favor, asegúrate de que las siguientes dependencias del entorno estén instaladas. Esto está en requirement.txt:
--extra-index-url https://download.pytorch.org/whl/cpu
optimum-intel>=1.18.2
nncf>=2.11.0
openvino>=2024.3.0
transformers>=4.40
openvino-genai>=2024.3.0.0
En la terminal, ejecuta este script:
export llm_model_id = "microsoft/Phi-3.5-mini-instruct"
export llm_model_path = "your save quantizing Phi-3.5-instruct location"
optimum-cli export openvino --model {llm_model_id} --task text-generation-with-past --weight-format int4 --group-size 128 --ratio 0.6 --sym --trust-remote-code {llm_model_path}
Por favor, ejecuta este script en Python o Jupyter Lab:
import requests
from pathlib import Path
from ov_phi3_vision import convert_phi3_model
import nncf
if not Path("ov_phi3_vision.py").exists():
r = requests.get(url="https://raw.githubusercontent.com/openvinotoolkit/openvino_notebooks/latest/notebooks/phi-3-vision/ov_phi3_vision.py")
open("ov_phi3_vision.py", "w").write(r.text)
if not Path("gradio_helper.py").exists():
r = requests.get(url="https://raw.githubusercontent.com/openvinotoolkit/openvino_notebooks/latest/notebooks/phi-3-vision/gradio_helper.py")
open("gradio_helper.py", "w").write(r.text)
if not Path("notebook_utils.py").exists():
r = requests.get(url="https://raw.githubusercontent.com/openvinotoolkit/openvino_notebooks/latest/utils/notebook_utils.py")
open("notebook_utils.py", "w").write(r.text)
model_id = "microsoft/Phi-3.5-vision-instruct"
out_dir = Path("../model/phi-3.5-vision-128k-instruct-ov")
compression_configuration = {
"mode": nncf.CompressWeightsMode.INT4_SYM,
"group_size": 64,
"ratio": 0.6,
}
if not out_dir.exists():
convert_phi3_model(model_id, out_dir, compression_configuration)
Laboratorios | Introducción | Ir |
---|---|---|
🚀 Lab-Introduce Phi-3.5 Instruct | Aprende a usar Phi-3.5 Instruct en tu AI PC | Ir |
🚀 Lab-Introduce Phi-3.5 Vision (imagen) | Aprende a usar Phi-3.5 Vision para analizar imágenes en tu AI PC | Ir |
🚀 Lab-Introduce Phi-3.5 Vision (video) | Aprende a usar Phi-3.5 Vision para analizar videos en tu AI PC | Ir |
-
Aprende más sobre Intel OpenVINO https://www.intel.com/content/www/us/en/developer/tools/openvino-toolkit/overview.html
-
Repositorio GitHub de Intel OpenVINO https://github.com/openvinotoolkit/openvino.genai
Descargo de responsabilidad:
Este documento ha sido traducido utilizando el servicio de traducción automática Co-op Translator. Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de ningún malentendido o interpretación errónea que surja del uso de esta traducción.