O que eu mais gosto no Azure Databricks é como ele simplifica o processamento de dados em larga escala, ao mesmo tempo que oferece flexibilidade aos engenheiros. Pela minha experiência, a maior vantagem é a plataforma unificada onde posso fazer engenharia de dados, transformações, otimização de desempenho e até análises em um só lugar, sem precisar pular entre várias ferramentas. A integração com o Spark é perfeita, e coisas como clusters de auto-escalonamento, agendamento de tarefas e colaboração em notebooks tornam o trabalho diário muito mais eficiente. Também aprecio recursos como o Delta Lake, que lida com transações ACID, evolução de esquemas e "time travel" diretamente em data lakes, tornando os pipelines de produção muito mais confiáveis. Além disso, otimizações como Execução de Consultas Adaptativa, auto-otimização, Z-ordering e cache realmente ajudam ao trabalhar com grandes conjuntos de dados. Outra coisa que gosto é como ele se integra bem com o ecossistema Azure, seja ADLS, ADF, Key Vault ou Unity Catalog para governança. Isso reduz muito a sobrecarga de configuração e torna as implantações mais suaves em diferentes ambientes. No geral, me permite focar mais na resolução de problemas de dados e otimização de desempenho, em vez de me preocupar com a gestão de infraestrutura. Análise coletada por e hospedada no G2.com.
Uma coisa que não gosto no Azure Databricks é que a gestão de custos pode se tornar complicada se os clusters e trabalhos não forem monitorados de perto. Como é muito fácil criar clusters e executar grandes cargas de trabalho, os custos podem aumentar rapidamente, especialmente com auto-escalonamento ou múltiplos trabalhos paralelos em execução. Portanto, é necessário ter uma boa governança e monitoramento em vigor. Outra área é a depuração e solução de problemas. Embora os notebooks sejam ótimos para desenvolvimento, depurar falhas de trabalhos em produção, especialmente problemas intermitentes do Spark ou de infraestrutura, pode às vezes levar tempo. Os logs estão disponíveis, mas rastrear a causa raiz exata através de eventos do cluster, UI do Spark e execuções de trabalhos nem sempre é direto. Também notei que lidar com CI/CD e implantações (como mover notebooks, fluxos de trabalho, configurações entre ambientes) não é tão suave fora da caixa em comparação com repositórios de código tradicionais. Está melhorando com Databricks Asset Bundles e Repos, mas ainda precisa de uma configuração cuidadosa. Dito isso, a maioria desses problemas é gerenciável com boas práticas — controles de custos, monitoramento e processos adequados de DevOps. Análise coletada por e hospedada no G2.com.
O avaliador enviou uma captura de tela ou enviou a avaliação no aplicativo, verificando-os como usuário atual.
Validado por meio de uma conta de e-mail empresarial
Avaliação orgânica. Esta avaliação foi escrita inteiramente sem convite ou incentivo do G2, de um vendedor ou de um afiliado.
Esta avaliação foi traduzida de English usando IA.





