Clonar el repositorio
git clone https://github.com/Lightning-AI/lit-parrot
cd lit-parrot
Lit-Parrot actualmente depende de FlashAtención de PyTorch todas las noches. Hasta que se publique PyTorch 2.1, deberá instalarlo todas las noches de forma manual. Afortunadamente, eso es sencillo:
Hay CUDA
# for cuda
pip install --index-url <https://download.pytorch.org/whl/nightly/cu118> --pre 'torch>=2.1.0dev'# for cpu (including Macs)
pip install --index-url <https://download.pytorch.org/whl/nightly/cpu> --pre 'torch>=2.1.0dev'
También te puede interesarPotencie su productividad con la mejor herramienta de inteligencia artificial: libere todo su potencial
Todo bien, ahora instale las dependencias ejecutando pip install -r requirements.txt
. Eso es todo. Ya está todo listo para ir al siguiente paso.
Como dice la descripción, buscamos ajustar el modelo, lo que significa que necesitamos un modelo base (modelo de base) para comenzar. Si no es la base, solo un modelo base que nos gustaría afinar más. En este caso, podremos usar un montón de modelos de código abierto que están abiertos para uso comercial. Estos son los modelos para los que los pesos están disponibles para descargar de forma gratuita.
Lit-Parrot es una implementación de GPT NeoX. Se admitirán todos los modelos en este marco, como StableLM, Pythia y RedPajama-INCITE. Puede descargar los pesos para estos modelos usando varios métodos, pero para este artículo, usemos algo que se ajuste bien a la GPU de 8GB. Este tutorial utiliza los pesos de los parámetros RedPajama-INCITE 3B o los pesos del modelo Pythia 7B. Puede encontrar las instrucciones para descargar otros pesos en esta sección de instrucciones.
La familia de modelos RedPajama-INCITE de Togethercomputer se entrenó sobre el conjunto de datos RedPajama v1, con la misma arquitectura que el popular conjunto de modelos Pythia. Los pesos se publican bajo la licencia Apache 2.0.
También te puede interesarPrimeros pasos con Hugging Face en Azure: una guía completaEl lanzamiento incluye un modelo base, un modelo de ajuste fino de chat y un modelo de ajuste de instrucciones de tamaños 3B y 7B.
Para ver todos los puntos de control disponibles para RedPajama-INCITE, ejecute:
python scripts/download.py | grep RedPajama
Que imprimirá (Estas son las opciones que puedes descargar a través de este método)
togethercomputer/RedPajama-INCITE-Base-3B-v1
togethercomputer/RedPajama-INCITE-Chat-3B-v1
togethercomputer/RedPajama-INCITE-Instruct-3B-v1
togethercomputer/RedPajama-INCITE-Base-7B-v0.1
togethercomputer/RedPajama-INCITE-Chat-7B-v0.1
togethercomputer/RedPajama-INCITE-Instruct-7B-v0.1
Para usar un punto de control RedPajama-INCITE específico, por ejemplo, RedPajama-INCITE-Base-3B-v1, descargue los pesos y convierta el punto de control al formato lit-parrot:
También te puede interesar Humanising Data: Mental Health and Griefpip install huggingface_hub
python scripts/download.py --repo_id togethercomputer/RedPajama-INCITE-Base-3B-v1python scripts/convert_hf_checkpoint.py --checkpoint_dir checkpoints/togethercomputer/RedPajama-INCITE-Base-3B-v1
¡Ya terminaste! Para ejecutar el modelo, simplemente ejecute:
python generate/base.py --prompt "Hello, my name is" --checkpoint_dir checkpoints/togethercomputer/RedPajama-INCITE-Base-3B-v1
Para ver todos los puntos de control disponibles para Pythia, ejecute:
python scripts/download.py | grep pythia
que imprimirá
EleutherAI/pythia-70m
EleutherAI/pythia-160m
EleutherAI/pythia-410m
EleutherAI/pythia-1b
EleutherAI/pythia-1.4b
EleutherAI/pythia-2.8b
EleutherAI/pythia-6.9b
EleutherAI/pythia-12b
EleutherAI/pythia-70m-deduped
EleutherAI/pythia-160m-deduped
EleutherAI/pythia-410m-deduped
EleutherAI/pythia-1b-deduped
EleutherAI/pythia-1.4b-deduped
EleutherAI/pythia-2.8b-deduped
EleutherAI/pythia-6.9b-deduped
EleutherAI/pythia-12b-deduped
Para usar un punto de control Pythia específico, por ejemplo, pythia-1b, descargue los pesos y convierta el punto de control al formato lit-parrot. Primero, necesitamos instalar huggingface. Luego, descargue los pesos para elegir el modelo que le gustaría descargar. Obtenga algo que se ajuste a su GPU. Usé un Nvidia Tesla P100 de 24 GB para poder optar por un modelo 6.9B.
También te puede interesar Revelando el poder de los datos: la perspectiva de un analista de datos de atención médica sobre las últimas investigacionespip install huggingface_hub
python scripts/download.py --repo_id EleutherAI/pythia-1bpython scripts/convert_hf_checkpoint.py --checkpoint_dir checkpoints/EleutherAI/pythia-6.9b
¡Ya terminaste! Para ejecutar el modelo simplemente ejecute:
python generate/base.py --prompt "Hello, my name is" --checkpoint_dir checkpoints/EleutherAI/pythia-1b