APACHE ICEBERG — DEEP DIVE I: ARCHITECTURE

APACHE ICEBERG — DEEP DIVE I: ARCHITECTURE

Hello everyone!

We're back with another edition of Dataletter, the second to last of the year!

Over the last few weeks I've been learning about the new table formats, right after Parquet.

There's an article here.

After the in-depth study, I moved on to Apache Iceberg, which is an open source format for Delta Lake.

Having been motivated by its adoption by Amazon, I did an in-depth study of its layered architecture, how it is divided up and how it works.

So, if you want to learn more, check out the full article on the blog.

LINK TO ARTICLE HERE

To view or add a comment, sign in

More articles by Douglas Saldanha de Souza

  • APACHE ICEBERG — DEEP DIVE II: HOW READ & WRITE OPERATIONS WORKS

    APACHE ICEBERG — DEEP DIVE II: HOW READ & WRITE OPERATIONS WORKS

    Good morning!! As a direct post to my last issue, I bring you the conclusion of the article on Apache Iceberg. In this…

    3 Comments
  • Parquet - Internals: Um Estudo Detalhado.

    Parquet - Internals: Um Estudo Detalhado.

    LINK. Olá pessoal! Mais uma edição da minha newsletter e com ela, mais um blog post trazendo conteúdo técnico.

    1 Comment
  • Data Lake com Hadoop: Final

    Data Lake com Hadoop: Final

    Continuando o tutorial para criação do Data / Delta Lake com Hadoop, apresento os dois artigos que continuam o…

  • Como criar um Delta Lake com Hadoop I

    Como criar um Delta Lake com Hadoop I

    Aproveitando e voltando com a newsletter no Linkedin. Olá pessoal, como estão? Bem, primeiro pedir desculpas, faz um…

    4 Comments
  • Criando Cluster Spark com Docker

    Criando Cluster Spark com Docker

    Boa tarde! Na publicação retrasada, ao qual tratei sobre as fontes de dados que podem ser utilizadas no Spark, mostrei…

  • SQL: Manipulação de Dados

    SQL: Manipulação de Dados

    No artigo de hoje na newsletter sobre dados, aprofundo na manipulação e tratamento de dados com SQL. A inteção desse…

    2 Comments
  • Fontes de Dados: Spark & Databricks

    Fontes de Dados: Spark & Databricks

    Retornando com os conteúdos mais técnicos, quero trazer um overview sobre como Spark e Databricks lidam com as…

  • Ambiente de Homologação com DBT & SQL Server.

    Ambiente de Homologação com DBT & SQL Server.

    Olá pessoal! Continuando meu projeto pessoal de construção de um Data Warehouse utilizando DBT + Spark e Airflow, quero…

  • CDO: Começo da Trajetória

    CDO: Começo da Trajetória

    Esse é um post mais pessoal, onde abro um pouco dos meus objetivos profissionais e narro o trajeto até eles! Como é uma…

    3 Comments
  • DBT: Crie Modelos & Fontes de Dados.

    DBT: Crie Modelos & Fontes de Dados.

    No artigo que já está em meu blog, saiba como criar e executar as fontes e os modelos de dados no DBT. DBT: Criando a…

    1 Comment

Insights from the community

Others also viewed

Explore topics