Una breve introducción a ChatGPT

imagen por autor
paso de entrenamiento de ChatGPT
paso de entrenamiento de ChatGPT (fuente)
También te puede interesar¿Puede ChatGPT escribir mejor SQL que un ingeniero de software?

Paso 1

  • el Monte Everest
  • ¿Adivina qué?
  • No sé
  • También te puede interesarSu resumen personal en papel: PaperSumGPTSu resumen personal en papel: PaperSumGPT

    Paso 2

    el proceso de entrenamiento del modelo de recompensa
    el proceso de entrenamiento del modelo de recompensa (fuente)

    Paso 3

    También te puede interesarSu resumen personal en papel: PaperSumGPTSu resumen personal en papel: PaperSumGPT
    Proceso de formación de RL
    Proceso de formación de RL (fuente)
    También te puede interesarAdiós os.path: 15 trucos de Pathlib para dominar rápidamente el sistema de archivos en Python
  • Requerir un grande cantidad de datos anotados, mientras que las etiquetas de imagen no siempre son únicas.
  • Modelos entrenados para un tarea específica son difíciles de generalizar a otras tareas.
  • Pre-entrenamiento no supervisado:

    supervisado Sintonia FINA:

    ajuste fino de GPT para diferentes tareas
    ajuste fino de GPT para diferentes tareas (fuente)

    GPT-2:

  • Parámetro: 1.5B, Tamaño de datos: 40 GB
  • Transferencia de objetivos de entrenamiento de P(salida|entrada) a P(salida|entrada, tarea); esta modificación nos permite aprender múltiples tareas usando el mismo modelo.
  • Aprendizaje de tiro cero; hace referencia a un escenario en el que sin ejemplos se proporcionan al modelo, y comprende la tarea en función de las instrucciones dadas.
  • GPT-3:

  • Parámetro: 175B, Tamaño de datos: 45 TB
  • Aprendizaje en contexto
  • Aprendizaje de pocos disparos, un disparo y cero disparos
  • La arquitectura del transformador.
    La arquitectura del transformador (fuente)

    Mascarilla

    máscara para matriz de atención
    máscara para matriz de atención (fuente)

    Atención de múltiples cabezas

    La arquitectura de la atención multicabezal
    La arquitectura de la atención multicabezal (fuente)

    Descifrador

    GPT

    Otras lecturas:

  • Traducción automática neuronal con un transformador y Keras 🐶
  • Ilustración del aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF) 🐷
  • La atención es todo lo que necesitas
  • Mejorando la Comprensión del Lenguaje por Pre-Entrenamiento Generativo
  • Ilustración del aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF)
  • Traducción automática neuronal con un transformador y Keras
  • [post_relacionado id=»1360″]

    Scroll al inicio