¡He completado la formación 'Building your own database agent' en DeepLearning.AI Este curso me ha proporcionado habilidades valiosas para crear agentes de base de datos personalizados, como: - Creación de mi primer agente de IA - Interacción con datos CSV - Conexión a bases de datos SQL - Uso de Azure OpenAI Function Calling - Aprovechamiento de la API de Assistants para bases de datos SQL Gracias a Adrián González Sánchez y Andrew Ng por hacer tan ameno este tema. #CienciaDeDatos #GobiernoDeDatos #AprendizajeAutomático #IA https://lnkd.in/eZGs2G4y
Publicación de Almudena Bonaplata
Más publicaciones relevantes
-
Ahora es posible consultar bases de datos usando lenguaje natural de manera mucho más fácil y sencilla. He finalizado un curso que me capacitó para crear mi propio agente de inteligencia artificial, permitiéndome consultar bases de datos en formatos CSV y SQL de manera eficiente y precisa. Estoy entusiasmado por aplicar estos conocimientos para mejorar procesos y generar insights valiosos en mi carrera como analista de datos. #InteligenciaArtificial #ConsultasSQL #CSV #AnalistaDeDatos #Deeplearning.AI https://lnkd.in/eq95DjMc
Sergio Andres Vargas Cadena, congratulations on completing Building Your Own Database Agent!
learn.deeplearning.ai
Inicia sesión para ver o añadir un comentario.
-
🎉 Completado: "Building Your Own Database Agent" 🎉 Me complace compartir que he completado el curso "Building Your Own Database Agent" ofrecido por Microsoft a través de DeepLearning.AI. Este curso ha sido una excelente introducción a la interacción con datos tabulares y bases de datos SQL mediante lenguaje natural, lo que facilita un análisis de datos más eficiente y accesible. Lo más destacado: Aprendí a crear mi primer agente de inteligencia artificial para interactuar con bases de datos. Conecté y manipulé datos desde archivos CSV y bases de datos SQL. Exploré las funcionalidades de Azure OpenAI para llamar funciones y apalancar APIs para bases de datos SQL. Este curso ha sido una experiencia enriquecedora que me ha proporcionado herramientas clave para optimizar el análisis de datos. Estoy emocionado de aplicar este conocimiento en futuros proyectos y compartirlo con mi red. #DataScience #AI #MachineLearning #SQL #Azure #DeepLearningAI #DatabaseAgent #Microsoft #AprendizajeContinúo
Wilder Gilmer Espinoza Luna, congratulations on completing Building Your Own Database Agent!
learn.deeplearning.ai
Inicia sesión para ver o añadir un comentario.
-
En este curso aprendí sobre como desarrollar un agente de IA que interactúa con datos tabulares y bases de datos SQL utilizando lenguaje natural, simplificando el proceso de consulta y extracción de información. Se usa el servicio Azure OpenAI, implementando técnicas como recuperación de generación aumentada (RAG), llamada de funciones y la API de asistentes con características como el intérprete de código. Definitivamente, la siguiente ola de la inteliencia artificial sera la creación de agentes que automaticen los procesos, subdividan los trabajos complejos en varias etapas y cada etapa sea ejecutada por un agente especializado o tambien para escenarios donde los agentes hagan reflexión entre ellos para validar las respuestas y evitar los errores y las alucinaciones y seguir optimizando las respuestas. Como siempre he dicho, en tecnología se vienen cosas muy buenas y positivas. Me gustó y lo recomiendo. https://lnkd.in/gHAYxE2V
Fernando Benitez, congratulations on completing Building Your Own Database Agent!
learn.deeplearning.ai
Inicia sesión para ver o añadir un comentario.
-
La librería DBI de R es maravillosa!!! 🔥 La uso a diario, y la verdad es que es genial lo fácil que te hace la vida poder conectarte e interactuar con una base de datos. La recomiendo 100% Para la gente que está suscrita al curso de Ciencia de Datos en Salud de Hazla con Datos, ésta sera una de las librerías que revisaremos en clases. https://lnkd.in/gsfZw5R4
Recent improvements
r-dbi.org
Inicia sesión para ver o añadir un comentario.
-
1/... Hoy les traigo esta maravilla de la tecnología moderna: Ok no, pero si les traigo algo, Singlestore es una herramienta de procesamiento y almacenamiento (al contrario de soluciones como Lakehouse, este no separa procesamiento de almacenamiento) pero es una herramienta muy atractiva para trabajar analítica de cara al cliente, permite tener una analítica transaccional en tiempo real muy robusta. Y lo chilero es que tiene una imagen de docker que puedes desplegar sin necesidad de mucho esfuerzo. https://lnkd.in/e23XqWrv Herramientas como Singlestore están librando una batalla muy pesada con soluciones serverless que permiten la separación del almacenamiento del procesamiento ... y muchas hasta incluyen herramientas de analítica (databricks).
SingleStoreDB Cloud · SingleStore Documentation
docs.singlestore.com
Inicia sesión para ver o añadir un comentario.
-
🚀 ¿Por qué Timescale? ✅ Diseñado para datos de series temporales: Maneja ingestas rápidas, consultas complejas y grandes volúmenes de datos. ✅ Escalabilidad sin límites: Crece automáticamente con tus necesidades. ✅ Compatible con PostgreSQL: Usa las herramientas que ya conoces. ✅ Compresión de datos: Reduce costos de almacenamiento hasta un 90%. ✅ Ideal para IA y análisis: Integra tus datos fácilmente con modelos de IA/ML. #Timescale #BaseDeDatos #AnálisisDeDatos #IA #PostgreSQL
PostgreSQL ++ for time series and events | Timescale
timescale.com
Inicia sesión para ver o añadir un comentario.
-
🚀 ¡Añadidos dos nuevos contenidos al repositorio de proyectos de llama3! 🚀 Además del anterior caso de uso para Llama3 he añadido dos utilidades más: PDFQuery_LangChain.ipynb Implementé una base de datos vectorial en línea con Cassandra para almacenar documentos. El proceso implica la creación de embeddings con 'nomic-embed-text', seguido de consultas para identificar los documentos que responden a preguntas específicas. Este proyecto es un excelente ejemplo de cómo la IA puede transformar la gestión y recuperación de información. Llama3Streamlit_app Creé una aplicación Streamlit que permite consultar un modelo local para generar entradas de blog. Este proyecto puede combinarse con cualquiera de los anteriores para mostrar los resultados. No dudéis en revisarlos si os interesa: https://lnkd.in/dN4H33g2 #DataScience #MachineLearning #AI #TechProjects #Llama3 #Streamlit #Cassandra #OpenSource
GitHub - Zauler/Llama_models_projects: Repository to go through projects using Llama3 , from introducing it into the data stream and combining it with other models to rag and finetuning. In the first example we focus on using Llama3 in a data stream, with regular expression response extraction and batch analysis.
github.com
Inicia sesión para ver o añadir un comentario.
-
🚀 ¡Nuevo post en el blog de Aleson ITC! 🚀 ¿Has encontrado el error "DacPac publishing failed" al usar DEA (Database Experimentation Assistant)? 🛑 Nuestro compañero Fran Aguado te muestra cómo resolver este problema paso a paso en el siguiente artículo: 👉 https://lnkd.in/d5Gbb-gf #SQLServer #BaseDeDatos #ITSolutions #AlesonITC #DEA
DEA - An error occurred while creating Analysis Database.
aleson-itc.com
Inicia sesión para ver o añadir un comentario.
-
[PAQUETE 📦] - ¿Tu compu no soporta las millones y millones de filas de la base de datos? Probá importar y tratar datos con el 📦 {arrow} en apenas segundos! ¿Qué vas a poder hacer con esta gran tecnología? 🔍 👇🏼 El paquete arrow enlaza con la funcionalidad de C++ para una amplia gama de tareas de análisis de datos. Permite a los usuarios leer y escribir datos en diversos formatos: 👉🏼 Leer y escribir archivos Parquet, un formato columnar eficiente y ampliamente utilizado. 👉🏼Leer y escribir archivos Arrow (antes conocidos como Feather), un formato optimizado para la velocidad y la interoperabilidad. 👉🏼Leer y escribir archivos CSV con excelente velocidad y eficacia. 👉🏼Lectura y escritura de archivos múltiples y conjuntos de datos más grandes que la memoria. 👉🏼Leer archivos JSON ——— 🌐 arrow.apache.org/docs/r/ ✍🏽 Neal Richardson | Ian Cook | Jonathan Keane | 🎉 Romain François 🎙️ | Jeroen Ooms #RStats #RStatsES #Rtips
Arrow R Package
arrow.apache.org
Inicia sesión para ver o añadir un comentario.
-
Recurso para Generación de API https://lnkd.in/epxhAdFX Es una herramienta que te permite generar un conjunto de datos personalizado que puedes leer y escribir a través de una API. Aquí están los detalles:Generación de datos: Puedes generar datos que se ajusten a tu caso de uso específico. Por ejemplo, puedes crear un conjunto de datos a partir de un archivo CSV o datos simulados. Consulta flexible: La API generada te permite realizar consultas mediante una API flexible. Puedes usar los métodos GET, PUT, POST, PATCH y DELETE para leer y escribir en tu conjunto de datos. Persistencia de datos: Los cambios que realices a través de la API se mantienen en el tiempo. Si bien tu API de master estará disponible mientras la sigas utilizando, ten en cuenta que podría eliminarse si no se utiliza durante los últimos 31 días. Además, el Generador de API utiliza algunas de nuestras bibliotecas de código abierto favoritas, como json-server, Moment.js, faker.js y Lodash. Esto significa que puedes personalizarlo según tus necesidades.
REST API Generator
retool.com
Inicia sesión para ver o añadir un comentario.
AI Architect x Digital Natives @ Microsoft | 2x O'Reilly Book Author, LinkedIn Learning & DeepLearning.ai Instructor, University Lecturer | Cloud & AI Architecture, RAI, AI Regulations & Standards, AI Public Policy
8 mesesExcelente Almudena Bonaplata, felicidades y gracias por compartir tu experiencia!! 🙌