Una breve introducción a ChatGPT

imagen por autor
paso de entrenamiento de ChatGPT
paso de entrenamiento de ChatGPT (fuente)

Paso 1

  • el Monte Everest
  • ¿Adivina qué?
  • No sé
  • Paso 2

    el proceso de entrenamiento del modelo de recompensa
    el proceso de entrenamiento del modelo de recompensa (fuente)

    Paso 3

    Proceso de formación de RL
    Proceso de formación de RL (fuente)
  • Requerir un grande cantidad de datos anotados, mientras que las etiquetas de imagen no siempre son únicas.
  • Modelos entrenados para un tarea específica son difíciles de generalizar a otras tareas.
  • Pre-entrenamiento no supervisado:

    supervisado Sintonia FINA:

    ajuste fino de GPT para diferentes tareas
    ajuste fino de GPT para diferentes tareas (fuente)

    GPT-2:

  • Parámetro: 1.5B, Tamaño de datos: 40 GB
  • Transferencia de objetivos de entrenamiento de P(salida|entrada) a P(salida|entrada, tarea); esta modificación nos permite aprender múltiples tareas usando el mismo modelo.
  • Aprendizaje de tiro cero; hace referencia a un escenario en el que sin ejemplos se proporcionan al modelo, y comprende la tarea en función de las instrucciones dadas.
  • GPT-3:

  • Parámetro: 175B, Tamaño de datos: 45 TB
  • Aprendizaje en contexto
  • Aprendizaje de pocos disparos, un disparo y cero disparos
  • La arquitectura del transformador.
    La arquitectura del transformador (fuente)

    Mascarilla

    máscara para matriz de atención
    máscara para matriz de atención (fuente)

    Atención de múltiples cabezas

    La arquitectura de la atención multicabezal
    La arquitectura de la atención multicabezal (fuente)

    Descifrador

    GPT

    Otras lecturas:

  • Traducción automática neuronal con un transformador y Keras 🐶
  • Ilustración del aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF) 🐷
  • La atención es todo lo que necesitas
  • Mejorando la Comprensión del Lenguaje por Pre-Entrenamiento Generativo
  • Ilustración del aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF)
  • Traducción automática neuronal con un transformador y Keras
  • [post_relacionado id=»1360″]


    Comentarios

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *