La importancia de los casos de uso para la implantación de la Inteligencia Artificial - 4a parte: Anthropic

La importancia de los casos de uso para la implantación de la Inteligencia Artificial - 4a parte: Anthropic

Os propongo a continuación el cuarto de una serie de artículos focalizados en los principales casos de uso o use cases que los mayores actores del nuevo mercado de IA Generativa o Generative AI han propuesto en sus últimas conferencias y artículos publicados: AWS, Microsoft, Google, Anthropic…

En el artículo de hoy os quiero hablar de Anthropic


Anthropic

Quizás se trata del competidor más fuerte frete a OpenAI, pero a su vez es el actor más desconocido en la carrera por el liderazgo de la Inteligencia Artificial generativa. Si el producto estrella de OpenAI es ChatGPT en su versión 4, el producto en el que Anthropic está apostando es Claude 2.1.

Anthropic se fundó en 2021 por los hermanos Daniela y Dario Amodei, extrabajadores de OpenAI que salieron debido a las preocupaciones que les suscitaba la dirección de esta compañía, en cuanto a seguridad y a la entonces inversión de Microsoft para llevar a OpenAI a un terreno demasiado comercial.

En 2021 arrancó con una inversión de 100 millones de dólares de la firma de inversión Alameda Research, para luego ir incorporando inversiones de empresas como Salesforce y Zoom. Pero no fue hasta este 2023 que recibió de Amazon una fuerte aportación de 4.000 millones de dólares, y luego 2.000 millones de dólares más por parte de Google. De esta forma se convierte en la principal apuesta en el campo de la Inteligencia Artificial Generativa para competir con el acuerdo de OpenAI y Microsoft.

Actualmente el modelo de Inteligencia Artificial generativa de Anthropic Claude.ai está disponible en medio mundo, en concreto en 95 países, pero no en la Unión Europea. Parece que el problema para introducir Claude en la EU es debido a su mayor rigidez en cuanto a sus pautas sobre privacidad.


Constitución de Claude AI

Anthropic quiere distinguirse por su enfoque en la investigación, la seguridad, la responsabilidad y la ética en la IA generativa. Anthropic se originó con un claro compromiso a comprender la Inteligencia Artificial Generativa de forma profunda abordando los problemas relativos a la confiabilidad, opacidad e imprevisibilidad de la IA.

De esta forma, en Mayo de 2023 Anthropic creó la Claude’s Constitution para enfocar sus desarrollos en Inteligencia Artificial de forma ética y segura. Esta Constitución de Claude AI se basa en un conjunto de reglas y principios éticos para guiar el funcionamiento de sus productos. De esta forma se trata de evitar que los bias puedan originar respuestas consideradas racistas, sexistas, o tóxicas para la sociedad. La Constitución de Anthropic para Claude AI se basa en la Declaración Universal de Derechos Humanos de la ONU, investigaciones realizadas en ética de IA, así como en las políticas de contenido de las plataformas.

En Septiembre de 2023 Anthropic publicó Responsible Scaling Policy (RSP) un marco para la gestión de riesgos asociados al desarrollo de la Inteligencia Artificial. La RSP se centra en posibles riesgos catastróficos en los que un modelo de IA pudiera provocar una gran devastación por un uso indebido. Así que esta política de Anthopic define un marco de ASL (AI Security Levels) para abordar de forma sistemáticas los riesgos catastróficos en base a los niveles de bioseguridad BSL del gobierno de USA. Con el RSP Anthopic se compromete a cumplir los niveles de seguridad adecuados para cada modelo de IA que desarrolle, así como a colaborar con otras organizaciones a promover la seguridad de la IA. 


Diferencia de Claude AI con otros modelos

Como decíamos, la preocupación sobre la seguridad de la IA ha sido un importante pilar en el desarrollo del modelo de Anthropic. Por esta razón para entrenar el modelo han reducido la dependencia de retroalimentación humana para evitar sesgos.

Claude utiliza RLAIF (Reinforcement Learning from Artificial Intelligence Feedback), en lugar de RLHF (Reinforcement Learning from Human Feedback). Las 2 fases de RLAIF a diferencia de RLHF son:

  1. En primer lugar el aprendizaje supervisado, en el que la IA genera respuestas a entradas negativas y dañinas. Estas respuestas son analizadas considerando el concepto constitucional y actualizadas repetidamente hasta que se alineen con los principios de Anthropic. 
  2. En segundo lugar, la etapa de entrenamiento que es ya más similar a RLHF, excepto en que se utiliza retroalimentación de IA denominada RLAIF. Como resultado, las respuestas de Claude son generadas por una IA personalizada que evita la posible intoxicación por parte de los usuarios.

 

Claude AI by Anthropic

El modelo IA de Claude está fuertemente impulsado para convertirse en el mayor competidor en el espacio de IA conversacional, por su alta precisión, rapidez y orientación a la calidad.

Las principales características de Claude AI son:

  • Capacidad de procesar tareas complejas de lenguaje
  • Procesamiento de montañas de documentos
  • Intervenir en conversaciones con lenguaje natural
  • Obtener respuestas
  • Automatizar workflows
  • Creación de contenido
  • Escritura colaborativa

A diferencia de otros modelos de IA, Claude de Anthropic es capaz de resumir hasta 75.000 palabras, superando al resto de modelos de la industria. Es por esta razón que gigantes de la industria como AWS y Google han invertido para poder utilizar sus APIs para seguir desarrollando modelos.


Claude AI es capaz de desarrollar las siguientes tareas:

  • Mantener una conversación en lenguaje natural de forma fluida
  • Responder preguntas y proporcionar información en un gran número de temas
  • Traducir textos en distintos idiomas
  • Escribir distintos tipos de contenido creativo
  • Proveer recomendaciones y ayudar en la toma de decisiones.
  • Realizar búsquedas en Internet para encontrar información o definiciones
  • Configurar recordatorios, alarmas, eventos en el calendario.
  • Explicar bromas, historias y hechos interesantes
  • Proporcionar primeros auxilios básicos e información de salud.
  • Proporcionar asistencia en navegación
  • Capacidad de aprender de forma automática y adaptarse a nuevas experiencias, mejorando su rendimiento con el tiempo.
  • Capacidad matemática incluyendo álgebra y comprensión temporal de problemas matemáticos básicos.


Algunos casos de uso de Claude AI son los siguientes:

  • Servicio al cliente: aumentar la satisfacción y experiencia del cliente, automatizando operaciones de servicio al cliente, implementando soporte muy útil 24 horas los 7 días de la semana, u optimizar procesos de empresa mediante sistemas como Monday o Slack.
  • Producción de contenido: ayudar a los redactores de contenido para incluir contenido confiable y de alta calidad, siempre con la necesidad de supervisión humana, pero con muchas posibilidades de aumentar calidad e ingresos.
  • Soporte legal: ahorrar tiempo y costes para realizar una gran variedad de tareas administrativas para buscar leyes, referencias, cláusulas y antecedentes o incluso redactar documentos legales o resúmenes para dar servicio a los clientes. Igualmente este tipo de servicios requiere de supervisión.
  • Educación: crear experiencias personalizadas para estudiantes, o ayudar a profesiones a generar planes de estudio de las asignaturas así como materiales didácticos customizados.
  • Creación de contenido: generar contenido de marketing, publicidad, entretenimiento, manuales, o redes sociales.
  • Investigación: ayudar a los investigadores en el análisis de datos, en la generación de hipótesis de sus investigaciones, así como en la redacción de papers.

 

Conclusión

Claude.AI de Anthropic es un asistente de IA generativa muy potente y versátil que ofrece una serie de ventajas sobre sus competidores. Por ejemplo su capacidad de procesar tareas complejas a nivel de lenguaje, ofrecer experiencias de conversación más interactivas y ricas, y ser utilizado mediante APIs para una amplia gama de tareas, convirtiendo a Claude AI en una herramienta valiosa para un sinfín de aplicaciones con los que sus partners están trabajando e invirtiendo.

Además Claude AI destaca por su enfoque de seguridad, ética, y política de escalado responsable para la gestión de riesgos asociados, gracias a sus documentos Constitución de Claude AI , RSP (Responsability Sclaing Policy), y su entreno basado en RLHF (Reinforcement Learning from Human Feedback).

De momento Claude.AI de Anthropic no está disponible en la Unión Europea, pero cuando llegue seguro que podremos comprobar todas sus capacidades de forma directa o mediante el uso de aplicaciones que utilicen sus APIs.

Mientras debemos seguir los avances que empresas como Google, Amazon, Quore, IBM, Meta y Apple entre otros están realizando en la incorporación de Anthropic Claude en su desarrollo de Inteligencia Artificial.

 

Inicia sesión para ver o añadir un comentario.

Otros usuarios han visto

Ver temas