Google Cloud cerca di rendere i dati “illimitati” grazie a BigLake

Google Cloud ha annunciato il lancio in anteprima del suo motore di archiviazione di data lake, BigLake, come parte del suo obiettivo di rimuovere tutti i “data cap” e abbattere la barriera tra data lake e warehouse. .

Come spiega Sudhir Hasbe, Head of Data Analytics Products di Google Cloud, BigLake è progettato per fornire un’interfaccia unificata per tutti i livelli di archiviazione, inclusi data lake e data warehouse, indipendentemente dal formato.

“È così che non devi copiare i dati, spostarli attraverso i tuoi archivi oggetti, come in Google Cloud Storage, S3 o Azure in un ambiente multicloud, e hai un posto dove accedere a tutti i tuoi dati”, ha ha detto ai media durante un pre-briefing.

Un ambiente aperto

Sudhir Hasbe aggiunge che BigLake può supportare tutti i formati di file aperti come Parquet, nonché motori di elaborazione open source come Apache Spark o Beam e vari formati di tabella tra cui Delta e Iceberg.

“È completamente aperto”, dice. “Stiamo prendendo l’innovazione di Google, estendendola al mondo open source e rendendola più aperta per tutti i nostri clienti. »

BigLake è destinato a diventare centrale per tutti gli investimenti in Google Cloud in futuro. “Ci assicureremo che tutti i diversi strumenti e componenti funzionino perfettamente con BigLake in futuro”, afferma il manager.

Una nuova alleanza Data Cloud

Inoltre, Google ha annunciato la creazione di una Data Cloud Alliance, formata con altri partner fondatori tra cui Confluent, Databricks, Dataiku, Deloitte, Elastic, Fivetran, MongoDB, Neo4j, Redis e Starburst.

Nell’ambito di questa alleanza, i membri forniranno infrastruttura, API e supporto per l’integrazione per garantire la portabilità e l’accessibilità dei dati su più piattaforme e prodotti in più ambienti. Collaboreranno anche per sviluppare nuovi modelli di dati comuni del settore, processi e integrazioni di piattaforme per aumentare la portabilità dei dati.

“Ci impegniamo a rimuovere le barriere al blocco dei dati. Ci impegniamo a garantire che i dati possano essere consultati ed elaborati in tutti i prodotti e ci impegniamo a mettere il cliente al centro della nostra innovazione congiunta”, ha affermato Gerrit Kazmaier, Direttore generale di Google Databases, Data Analytics, Looker.

Vertex AI Workbench per l’analisi dei dati

Nell’ambito del suo Data Cloud Summit, il gigante della tecnologia ha anche presentato Vertex AI Workbench per riunire dati e sistemi di machine learning in un’unica interfaccia, in modo che i team possano disporre di set di strumenti comuni per l’analisi di dati, data science e machine learning. È stato progettato per essere integrato direttamente con una suite completa di prodotti per dati e intelligenza artificiale, inclusi BigQuery, Serverless Spark e Dataproc.

“Questa funzionalità consente ai team di creare, addestrare e distribuire modelli di machine learning in un semplice ambiente notebook che può migliorare e funzionare cinque volte più velocemente rispetto ad altri strumenti che potrebbero utilizzare”, afferma Harry Tappen, Senior Product Manager di Google Cloud AI.

La società ha anche annunciato il Vertex AI Model Registry. Attualmente in anteprima, il Model Registry è stato progettato per essere un “repository centrale per la scoperta, l’uso e la governance dei modelli di machine learning, inclusi quelli archiviati in BigQuery ML”, afferma Harry Tappen.

“Poiché questa funzionalità consente ai data scientist di condividere facilmente i modelli e agli sviluppatori di applicazioni di utilizzarli, i team saranno più in grado di trasformare i dati in decisioni in tempo reale”, aggiunge.

Fonte: ZDNet.com

Leave a Comment