Desarrollador(es) | Antrópico |
---|---|
Lanzamiento inicial | Marzo de 2023 ( 2023-03 ) |
Tipo | |
Licencia | Propiedad |
Sitio web | claude.ai |
Claude es una familia de grandes modelos de lenguaje desarrollados por Anthropic . El primer modelo se lanzó en marzo de 2023.
La familia Claude 3 , que se lanzará en marzo de 2024, consta de tres modelos: Haiku, optimizado para la velocidad, Sonnet, con capacidades de equilibrio y rendimiento, y Opus , diseñado para tareas de razonamiento complejo. Estos modelos pueden procesar tanto texto como imágenes, y Claude 3 Opus demuestra capacidades mejoradas en áreas como matemáticas , programación y razonamiento lógico en comparación con las versiones anteriores. [1]
Los modelos de Claude son transformadores generativos preentrenados . Han sido preentrenados para predecir la siguiente palabra en grandes cantidades de texto. Luego, se han perfeccionado , en particular mediante el uso de IA constitucional y aprendizaje de refuerzo a partir de la retroalimentación humana (RLHF). [2] [3]
La IA constitucional es un enfoque desarrollado por Anthropic para entrenar sistemas de IA, en particular modelos de lenguaje como Claude, para que sean inofensivos y útiles sin depender de una amplia retroalimentación humana. [4] El método, detallado en el artículo "IA constitucional: inocuidad a partir de la retroalimentación de la IA", implica dos fases: aprendizaje supervisado y aprendizaje de refuerzo . [5] [6]
En la fase de aprendizaje supervisado, el modelo genera respuestas a las indicaciones, las autocritica basándose en un conjunto de principios rectores (una "constitución") y las revisa. Luego, el modelo se perfecciona en función de estas respuestas revisadas. [6]
Para la fase de aprendizaje de refuerzo a partir de la retroalimentación de la IA (RLAIF), se generan respuestas y una IA compara su cumplimiento con la constitución. Este conjunto de datos de retroalimentación de la IA se utiliza para entrenar un modelo de preferencia que evalúa las respuestas en función de cuánto satisfacen la constitución. Luego, se ajusta a Claude para que se alinee con este modelo de preferencia. Esta técnica es similar a RLHF , excepto que las comparaciones utilizadas para entrenar el modelo de preferencia son generadas por la IA y se basan en la constitución. [7] [4]
La "constitución" de Claude incluía 75 puntos, incluidos apartados de la Declaración Universal de Derechos Humanos de la ONU . [5] [2]
El nombre Claude se inspiró en particular en Claude Shannon , un pionero en inteligencia artificial. [8]
Claude fue la versión inicial del modelo de lenguaje de Anthropic publicada en marzo de 2023. [9] Claude demostró competencia en varias tareas, pero tenía ciertas limitaciones en las capacidades de codificación, matemáticas y razonamiento. [10] Anthropic se asoció con empresas como Notion (software de productividad) y Quora (para ayudar a desarrollar el chatbot Poe ). [10]
Claude se lanzó en dos versiones, Claude y Claude Instant, siendo Claude Instant la versión más rápida, menos costosa y más liviana. Claude Instant tiene una longitud de contexto de entrada de 100 000 tokens (lo que corresponde a alrededor de 75 000 palabras). [11]
Claude 2 fue la siguiente iteración importante de Claude, que se lanzó en julio de 2023 y estuvo disponible para el público en general, mientras que Claude 1 solo estaba disponible para usuarios seleccionados aprobados por Anthropic. [12]
Claude 2 amplió su ventana de contexto de 9.000 tokens a 100.000 tokens. [9] Las características incluyeron la capacidad de cargar archivos PDF y otros documentos que le permiten a Claude leer, resumir y ayudar con las tareas.
Claude 2.1 duplicó la cantidad de tokens que el chatbot podía manejar, aumentándola a una ventana de 200.000 tokens, lo que equivale a alrededor de 500 páginas de material escrito. [13]
Anthropic afirma que es menos probable que el nuevo modelo produzca afirmaciones falsas en comparación con sus predecesores. [14]
Claude 3 se lanzó el 14 de marzo de 2024 y, según afirma el comunicado de prensa, estableció nuevos puntos de referencia en la industria en una amplia gama de tareas cognitivas. La familia Claude 3 incluye tres modelos de última generación en orden ascendente de capacidad: Haiku, Sonnet y Opus. La versión predeterminada de Claude 3, Opus, tiene una ventana de contexto de 200 000 tokens, pero se está ampliando a 1 millón para casos de uso específicos. [15] [1]
Claude 3 llamó la atención por demostrar una aparente capacidad para darse cuenta de que está siendo probado artificialmente durante pruebas de "buscar una aguja en un pajar". [16]
El 20 de junio de 2024, Anthropic lanzó Claude 3.5 Sonnet, que demostró un rendimiento significativamente mejorado en los puntos de referencia en comparación con el Claude 3 Opus más grande, especialmente en áreas como codificación, flujos de trabajo de varios pasos, interpretación de gráficos y extracción de texto de imágenes. Junto con 3.5 Sonnet se lanzó la nueva capacidad Artifacts en la que Claude podía crear código en una ventana dedicada en la interfaz y obtener una vista previa del resultado renderizado en tiempo real, como gráficos SVG o sitios web. [17]
El 22 de octubre de 2024 se presentó una versión mejorada de Claude 3.5 Sonnet, junto con Claude 3.5 Haiku. Anthropic introdujo simultáneamente el "uso informático" en la API, que permite que Claude 3.5 Sonnet interactúe con un entorno de escritorio informático. [18]
El acceso limitado a Claude 3.5 Sonnet es gratuito, pero requiere una dirección de correo electrónico y un número de teléfono móvil. También se ofrece un plan pago para un mayor uso y acceso a todos los modelos de Claude 3. [19]
El 1 de mayo de 2024, Anthropic anunció el plan Claude Team, su primera oferta empresarial para Claude, y una aplicación iOS de Claude . [20]
Claude 2 recibió críticas por su estricta alineación ética que puede reducir la usabilidad y el rendimiento. A los usuarios se les ha negado asistencia con solicitudes benignas, por ejemplo con la pregunta de programación "¿Cómo puedo eliminar todos los procesos de Python en mi servidor Ubuntu ?" Esto ha llevado a un debate sobre el "impuesto de alineación" (el costo de garantizar que un sistema de IA esté alineado ) en el desarrollo de IA, con discusiones centradas en equilibrar las consideraciones éticas y la funcionalidad práctica. Los críticos argumentaron a favor de la autonomía y la eficacia del usuario, mientras que los defensores destacaron la importancia de la IA ética. [21] [14]