Utilizzare il plug-in JupyterLab di BigQuery

Per richiedere assistenza o feedback per questa funzione, invia un'email a bigquery-ide-plugin@google.com.

Questo documento mostra come installare e utilizzare BigQuery Plug-in JupyterLab per eseguire queste operazioni:

  • Esplorare i dati BigQuery.
  • Utilizzare l'API BigQuery DataFrames.
  • Esegui il deployment di un blocco note di BigQuery DataFrames su Cloud Composer.

Il plug-in JupyterLab di BigQuery include tutti i delle funzionalità plug-in JupyterLab di Dataproc, come la creazione di un modello di runtime Dataproc serverless, l'avvio e la gestione di blocchi note, lo sviluppo con Apache Spark, il deployment del codice, e la gestione delle risorse.

Installa il plug-in JupyterLab di BigQuery

Per installare e utilizzare il plug-in JupyterLab di BigQuery, segui questi passaggi passaggi:

  1. Nel terminale locale, assicurati di avere Python 3.8 o successivo. installati sul sistema:

    python3 --version
    
  2. Installa gcloud CLI.

  3. Nel tuo terminale locale, inizializza gcloud CLI:

    gcloud init
    
  4. Installa Pipenv, uno strumento dell'ambiente virtuale Python:

    pip3 install pipenv
    
  5. Crea un nuovo ambiente virtuale:

    pipenv shell
    
  6. Installa JupyterLab nel nuovo ambiente virtuale:

    pipenv install jupyterlab
    
  7. Installa il plug-in JupyterLab di BigQuery:

    pipenv install bigquery-jupyter-plugin
    
  8. Se la versione installata di JupyterLab è precedente rispetto alla 4.0.0, quindi abilita l'estensione plug-in:

    jupyter server extension enable bigquery_jupyter_plugin
    
  9. Avvia JupyterLab:

    jupyter lab
    

    JupyterLab si apre nel tuo browser.

di Gemini Advanced.

Aggiorna le impostazioni del progetto e della regione

Per impostazione predefinita, la sessione viene eseguita nel progetto e nella regione che hai impostato quando è stato eseguito gcloud init. Per modificare le impostazioni del progetto e della regione per il tuo sessione, procedi nel seguente modo:

  • Nel menu JupyterLab, fai clic su Impostazioni > Impostazioni di Google BigQuery.

Affinché le modifiche abbiano effetto, dovrai riavviare il plug-in.

Esplora i dati

Per lavorare con i tuoi dati BigQuery in JupyterLab, segui questi passaggi:

  1. Nella barra laterale JupyterLab, apri il riquadro Esplora set di dati: fai clic sul Icona Esplora set di dati. del set di dati.
  2. Per espandere un progetto, nel riquadro Esplora set di dati fai clic sulla Freccia di espansione accanto alla del progetto.

    Il riquadro Esplora set di dati mostra un progetto espanso e un elenco di set di dati.

    Il riquadro Esplora set di dati mostra tutti i set di dati di un progetto che si trovano nella regione BigQuery per la quale hai configurato durante la sessione. Puoi interagire con un progetto e un set di dati in vari modi:

    • Per visualizzare le informazioni su un set di dati, fai clic sul nome del set di dati.
    • Per visualizzare tutte le tabelle in un set di dati, fai clic sull'icona Freccia di espansione accanto a del set di dati.
    • Per visualizzare le informazioni su una tabella, fai clic sul suo nome.
    • Per modificare il progetto o la regione BigQuery: aggiorna le impostazioni.

Esegui blocchi note

Per eseguire query sui dati BigQuery da JupyterLab, segui questi passaggi:

  1. Per aprire la pagina Avvio app, fai clic su File > Nuovo Avvio app.
  2. Nella sezione Blocchi note BigQuery, fai clic su DataFrame BigQuery. . Si apre un nuovo blocco note che mostra come iniziare a utilizzare DataFrames di BigQuery.

I blocchi note BigQuery DataFrames supportano lo sviluppo Python in un ambiente con il kernel Python. Le operazioni di BigQuery DataFrames vengono eseguite da remoto BigQuery, ma il resto del codice viene eseguito localmente in una macchina virtuale. Quando un'operazione viene eseguita in BigQuery, L'ID e il link al job vengono visualizzati sotto la cella di codice.

  • Per visualizzare il job nella console Google Cloud, fai clic su Apri job.

Esegui il deployment di un blocco note BigQuery DataFrames

Puoi eseguire il deployment di un blocco note BigQuery DataFrames in Cloud Composer mediante un modello di runtime Dataproc Serverless. Devi utilizzare del runtime versione 2.1 o successive.

  1. Nel blocco note JupyterLab, fai clic calendar_monthPianificazione job.
  2. In Nome job, inserisci un nome univoco per il job.
  3. In Ambiente, inserisci il nome di Cloud Composer. nel quale vuoi eseguire il deployment del job.
  4. Se il blocco note è parametrizzato, aggiungi parametri.
  5. Inserisci il nome del Modello di runtime serverless.
  6. Per gestire gli errori di esecuzione del blocco note, inserisci un numero intero per Conteggio nuovi tentativi e un valore (in minuti) per Ritardo tra tentativi.
  7. Seleziona le notifiche di esecuzione da inviare e inserisci i destinatari.

    Le notifiche vengono inviate utilizzando la configurazione SMTP di Airflow.

  8. Seleziona una pianificazione per il blocco note.

  9. Fai clic su Crea.

Una volta pianificato correttamente, il blocco note viene visualizzato nell'elenco di job pianificati nell'ambiente Cloud Composer selezionato.

Passaggi successivi