Überblick

Googles mächtige Cloud-Plattform für Analytics und Machine Learning mit riesigen Datenmengen. Mit der Langdock-Integration holst du dir BigQuery direkt in deine Chats und kannst alles bequem verwalten.
Authentifizierung: OAuth
Kategorie: Daten & Analytics
Verfügbarkeit: Alle Workspace-Tarife

Verfügbare Aktionen

Datasets auflisten

bigquery.listDatasets
Zeigt dir alle Datasets in deinem BigQuery-Projekt Benötigt Bestätigung: Nein Parameter:
  • projectId (TEXT, Required): Die Google Cloud-Projekt-ID, die die Datasets enthält
Output: Du bekommst eine Liste aller Datasets mit IDs, Namen und Metadaten

Tabellen auflisten

bigquery.listTables
Zeigt dir alle Tabellen in einem bestimmten BigQuery-Dataset Benötigt Bestätigung: Nein Parameter:
  • projectId (TEXT, Required): Die Google Cloud-Projekt-ID
    • datasetId (TEXT, Required): Die Dataset-ID, die die Tabellen enthält
Output: Du bekommst eine Liste aller Tabellen mit IDs, Namen und Metadaten

Tabellen-Schema abrufen

bigquery.getTableSchema
Holt dir die Schema-Infos für eine bestimmte BigQuery-Tabelle Benötigt Bestätigung: Nein Parameter:
  • projectId (TEXT, Required): Die Google Cloud-Projekt-ID
    • datasetId (TEXT, Required): Die Dataset-ID, die die Tabelle enthält
    • tableId (TEXT, Required): Die Tabellen-ID für die Schema-Informationen
Output: Du bekommst das komplette Tabellenschema mit Feldnamen, Typen und Constraints

Query ausführen

bigquery.executeQuery
Führt deine SQL-Abfrage in BigQuery aus und liefert dir die Ergebnisse Benötigt Bestätigung: Nein Parameter:
  • projectId (TEXT, Required): Die Google Cloud-Projekt-ID, in der die Query ausgeführt werden soll
    • query (MULTI_LINE_TEXT, Required): Die SQL-Query zur Ausführung in BigQuery
    • useLegacySql (BOOLEAN, Optional): Ob Legacy-SQL-Syntax verwendet werden soll (Standard: false für Standard SQL)
Output: Du bekommst die Query-Ergebnisse mit dieser Struktur:
  • jobReference: Job-Referenz-Informationen
  • totalRows: Gesamtanzahl der Zeilen im Ergebnis
  • rows: Array von Ergebniszeilen mit Feldwerten
  • schema: Schema der Ergebnisfelder
  • jobComplete: Ob der Job erfolgreich abgeschlossen wurde

Tabellendaten abrufen

bigquery.getTableData
Holt dir die echten Daten aus einer BigQuery-Tabelle Benötigt Bestätigung: Nein Parameter:
  • projectId (TEXT, Required): Die Google Cloud-Projekt-ID
    • datasetId (TEXT, Required): Die Dataset-ID, die die Tabelle enthält
    • tableId (TEXT, Required): Die Tabellen-ID zum Abrufen der Daten
    • maxResults (NUMBER, Optional): Maximale Anzahl der zurückzugebenden Zeilen (optional)
Output: Du bekommst alle Tabellendaten mit Zeilen und Schema-Infos

Dataset erstellen

bigquery.createDataset
Erstellt dir ein brandneues Dataset in BigQuery Benötigt Bestätigung: Nein Parameter:
  • projectId (TEXT, Required): Die Google Cloud-Projekt-ID
    • datasetId (TEXT, Required): Die ID für das neue Dataset
    • description (TEXT, Optional): Optionale Beschreibung für das Dataset
    • location (TEXT, Optional): Geografischer Standort für das Dataset (z.B. US, EU)
Output: Du bekommst dein neues Dataset mit ID und allen Metadaten

Tabelle erstellen

bigquery.createTable
Erstellt dir eine neue Tabelle in deinem BigQuery-Dataset Benötigt Bestätigung: Nein Parameter:
  • projectId (TEXT, Required): Die Google Cloud-Projekt-ID
    • datasetId (TEXT, Required): Die Dataset-ID, in der die Tabelle erstellt werden soll
    • tableId (TEXT, Required): Die ID für die neue Tabelle
    • description (TEXT, Optional): Optionale Beschreibung für die Tabelle
    • schema (MULTI_LINE_TEXT, Optional): Tabellenschema als JSON-Array von Feldobjekten (optional)
Output: Du bekommst deine neue Tabelle mit ID und Schema-Infos

Tabellendaten einfügen

bigquery.insertTableData
Fügt neue Datenzeilen in deine BigQuery-Tabelle ein Benötigt Bestätigung: Nein Parameter:
  • projectId (TEXT, Required): Die Google Cloud-Projekt-ID
    • datasetId (TEXT, Required): Die Dataset-ID, die die Tabelle enthält
    • tableId (TEXT, Required): Die Tabellen-ID, in die Daten eingefügt werden sollen
    • rows (MULTI_LINE_TEXT, Required): JSON-Array von Zeilenobjekten zum Einfügen
    • ignoreUnknownValues (BOOLEAN, Optional): Ob unbekannte Werte in den Daten ignoriert werden sollen
    • skipInvalidRows (BOOLEAN, Optional): Ob Zeilen mit ungültigen Daten übersprungen werden sollen
Output: Du siehst, ob das Einfügen geklappt hat oder wo Fehler aufgetreten sind

Dataset-Info abrufen

bigquery.getDatasetInfo
Holt dir alle Details zu einem bestimmten BigQuery-Dataset Benötigt Bestätigung: Nein Parameter:
  • projectId (TEXT, Required): Die Google Cloud-Projekt-ID
    • datasetId (TEXT, Required): Die Dataset-ID für die Informationen
Output: Du bekommst alle Dataset-Infos wie Erstellungszeit, Standort und Zugriffsrechte

Was kannst du damit machen?

Datenverwaltung

Verwalte und organisiere deine BigQuery-Daten ganz einfach

Automatisierung

Automatisiere deine Workflows mit BigQuery

Reporting

Erstelle aussagekräftige Berichte und Analysen

Integration

Verbinde BigQuery nahtlos mit deinen anderen Tools

Best Practices

So geht’s los:
  1. Aktiviere die BigQuery-Integration in deinen Workspace-Einstellungen
  2. Logge dich mit OAuth ein
  3. Teste die Verbindung mit einer einfachen Suchanfrage
  4. Schau dir alle verfügbaren Aktionen für deinen Anwendungsfall an
Das solltest du beachten:
  • Sorge dafür, dass deine Authentifizierungsdaten stimmen
  • Halte dich an die Rate Limits und API-Kontingente
  • Überprüfe deine Datenschutzeinstellungen
  • Teste neue Aktionen immer erst in einer sicheren Umgebung

Fehlerbehebung

ProblemLösung
Authentifizierung fehlgeschlagenCheck deine OAuth-Anmeldedaten nochmal
Rate Limit überschrittenMach eine Pause - du fragst zu oft an
Daten nicht gefundenPrüf deine Berechtigungen und ob die Daten verfügbar sind
VerbindungstimeoutSchau nach deiner Internetverbindung

Support

Für zusätzliche Hilfe mit der BigQuery-Integration kontaktiere support@langdock.com