Parecería que un chatbot conoce el bien contra el mal | por Solanews | mayo, 2023

Solanoticias

TL;RD:

  • El chatbot Claude de Anthropic, desarrollado por antiguos investigadores de OpenAI, incorpora una «constitución» única inspirada en principios éticos para garantizar que su comportamiento se alinee con las normas sociales y desaliente las acciones problemáticas.
  • La «constitución» sirve como un conjunto de parámetros de entrenamiento que guían el modelo de IA de Claude, lo que le permite mejorar sin comentarios humanos y adaptar su conducta en función de consideraciones éticas.
  • La impresionante capacidad de tokens de Claude le permite manejar más de 100 000 tokens de información, lo que lo hace capaz de administrar conversaciones extensas y tareas complejas en el panorama de la IA.

La inteligencia artificial (IA) ha revolucionado varias industrias, pero las implicaciones éticas que rodean su desarrollo y aplicación siguen siendo una preocupación importante. En un mundo donde los modelos de IA pueden generar contenido ficticio y ofensivo, Anthropic, una empresa fundada por antiguos investigadores de OpenAI, está adoptando un enfoque diferente. Han desarrollado un chatbot de IA llamado Claude, equipado con una «constitución» única que le permite distinguir entre el bien y el mal, con una mínima intervención humana.

La constitución de Claude es un conjunto de reglas inspiradas en la Declaración Universal de Derechos Humanos e incorpora normas éticas similares a las pautas de Apple para desarrolladores de aplicaciones. Si bien el término «constitución» es más metafórico que literal, representa un conjunto específico de parámetros de entrenamiento que dan forma al comportamiento de Claude. Este marco asegura una conducta ética y desalienta acciones que puedan considerarse problemáticas.

El método de capacitación de Anthropic se describe en un artículo de investigación titulado «IA constitucional: inofensividad de la retroalimentación de la IA». El documento presenta una forma de crear una IA que sea a la vez «inofensiva» y útil. Claude puede mejorarse a sí mismo sin retroalimentación humana, identificando comportamientos inadecuados y adaptando su conducta en consecuencia. El objetivo es desarrollar una IA que pueda manejar incluso a los compañeros de conversación desagradables o maliciosos con gracia mientras representa las necesidades de una empresa.

Un aspecto destacable de Claude es su impresionante capacidad simbólica. Puede manejar más de 100 000 tokens de información, superando a otros chatbots de IA disponibles en el mercado. Los tokens representan fragmentos de datos, como palabras o caracteres, procesados ​​como unidades discretas. Esta amplia capacidad de token le permite a Claude entablar conversaciones extensas y administrar tareas complejas de manera efectiva. Incluso puede manejar indicaciones del tamaño de un libro completo, mostrando su robusta funcionalidad y presencia en el panorama de la IA.

La ética en IA es un campo complejo y subjetivo. Determinar qué es bueno y qué es malo plantea desafíos, ya que las diferentes interpretaciones de la ética pueden limitar la capacidad de un modelo de IA para generar respuestas imparciales. La intervención de OpenAI en su modelo, con el objetivo de hacerlo más políticamente correcto, ha suscitado debates dentro de la comunidad de IA. Paradójicamente, los modelos de IA necesitan exposición a información no ética para diferenciar el comportamiento ético del comportamiento no ético. Restringir el entrenamiento de una IA basándose únicamente en la percepción de lo bueno y lo malo del entrenador puede obstaculizar su potencial de crecimiento y desarrollo.

La implementación de Anthropic de un marco ético para Claude representa un enfoque experimental. Si bien ChatGPT de OpenAI, otro chatbot de IA, se ha enfrentado a resultados mixtos al evitar indicaciones poco éticas, los esfuerzos de Anthropic para abordar el uso indebido ético de frente son encomiables. Al alentar a Claude a elegir respuestas alineadas con su constitución, que enfatiza la libertad, la igualdad, la fraternidad y el respeto por los derechos individuales, Anthropic busca lograr un equilibrio entre la ayuda y la inocuidad.

Si bien la implementación de principios éticos en el desarrollo de IA es un viaje filosófico, también representa una carrera tecnológica en curso. La búsqueda para crear sistemas de IA que entiendan los matices entre el bien y el mal es tan crucial como el avance de su inteligencia. Claude de Anthropic sirve como un recordatorio de que las tecnologías de IA deben evolucionar para navegar por las complejidades éticas y los dilemas morales de nuestra era digital. A través de un desarrollo e investigación cuidadosos, los modelos de IA como Claude pueden contribuir a un futuro en el que los sistemas de IA actúen no solo como entidades inteligentes sino también como administradores éticos de los valores humanos.

¡Gracias por leer Solanews, recuerda seguir nuestros canales sociales para más!


Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *