Überblick
Googles mächtige Cloud-Plattform für Analytics und Machine Learning mit riesigen Datenmengen. Mit der Langdock-Integration holst du dir BigQuery direkt in deine Chats und kannst alles bequem verwalten.Authentifizierung: OAuth
Kategorie: Daten & Analytics
Verfügbarkeit: Alle Workspace-Tarife
Kategorie: Daten & Analytics
Verfügbarkeit: Alle Workspace-Tarife
Verfügbare Aktionen
Datasets auflisten
bigquery.listDatasets
Zeigt dir alle Datasets in deinem BigQuery-Projekt
Benötigt Bestätigung: Nein
Parameter:
projectId(TEXT, Required): Die Google Cloud-Projekt-ID, die die Datasets enthält
Tabellen auflisten
bigquery.listTables
Zeigt dir alle Tabellen in einem bestimmten BigQuery-Dataset
Benötigt Bestätigung: Nein
Parameter:
projectId(TEXT, Required): Die Google Cloud-Projekt-IDdatasetId(TEXT, Required): Die Dataset-ID, die die Tabellen enthält
Tabellen-Schema abrufen
bigquery.getTableSchema
Holt dir die Schema-Infos für eine bestimmte BigQuery-Tabelle
Benötigt Bestätigung: Nein
Parameter:
projectId(TEXT, Required): Die Google Cloud-Projekt-IDdatasetId(TEXT, Required): Die Dataset-ID, die die Tabelle enthälttableId(TEXT, Required): Die Tabellen-ID für die Schema-Informationen
Query ausführen
bigquery.executeQuery
Führt deine SQL-Abfrage in BigQuery aus und liefert dir die Ergebnisse
Benötigt Bestätigung: Nein
Parameter:
projectId(TEXT, Required): Die Google Cloud-Projekt-ID, in der die Query ausgeführt werden sollquery(MULTI_LINE_TEXT, Required): Die SQL-Query zur Ausführung in BigQueryuseLegacySql(BOOLEAN, Optional): Ob Legacy-SQL-Syntax verwendet werden soll (Standard: false für Standard SQL)
jobReference: Job-Referenz-InformationentotalRows: Gesamtanzahl der Zeilen im Ergebnisrows: Array von Ergebniszeilen mit Feldwertenschema: Schema der ErgebnisfelderjobComplete: Ob der Job erfolgreich abgeschlossen wurde
Tabellendaten abrufen
bigquery.getTableData
Holt dir die echten Daten aus einer BigQuery-Tabelle
Benötigt Bestätigung: Nein
Parameter:
projectId(TEXT, Required): Die Google Cloud-Projekt-IDdatasetId(TEXT, Required): Die Dataset-ID, die die Tabelle enthälttableId(TEXT, Required): Die Tabellen-ID zum Abrufen der DatenmaxResults(NUMBER, Optional): Maximale Anzahl der zurückzugebenden Zeilen (optional)
Dataset erstellen
bigquery.createDataset
Erstellt dir ein brandneues Dataset in BigQuery
Benötigt Bestätigung: Nein
Parameter:
projectId(TEXT, Required): Die Google Cloud-Projekt-IDdatasetId(TEXT, Required): Die ID für das neue Datasetdescription(TEXT, Optional): Optionale Beschreibung für das Datasetlocation(TEXT, Optional): Geografischer Standort für das Dataset (z.B. US, EU)
Tabelle erstellen
bigquery.createTable
Erstellt dir eine neue Tabelle in deinem BigQuery-Dataset
Benötigt Bestätigung: Nein
Parameter:
projectId(TEXT, Required): Die Google Cloud-Projekt-IDdatasetId(TEXT, Required): Die Dataset-ID, in der die Tabelle erstellt werden solltableId(TEXT, Required): Die ID für die neue Tabelledescription(TEXT, Optional): Optionale Beschreibung für die Tabelleschema(MULTI_LINE_TEXT, Optional): Tabellenschema als JSON-Array von Feldobjekten (optional)
Tabellendaten einfügen
bigquery.insertTableData
Fügt neue Datenzeilen in deine BigQuery-Tabelle ein
Benötigt Bestätigung: Nein
Parameter:
projectId(TEXT, Required): Die Google Cloud-Projekt-IDdatasetId(TEXT, Required): Die Dataset-ID, die die Tabelle enthälttableId(TEXT, Required): Die Tabellen-ID, in die Daten eingefügt werden sollenrows(MULTI_LINE_TEXT, Required): JSON-Array von Zeilenobjekten zum EinfügenignoreUnknownValues(BOOLEAN, Optional): Ob unbekannte Werte in den Daten ignoriert werden sollenskipInvalidRows(BOOLEAN, Optional): Ob Zeilen mit ungültigen Daten übersprungen werden sollen
Dataset-Info abrufen
bigquery.getDatasetInfo
Holt dir alle Details zu einem bestimmten BigQuery-Dataset
Benötigt Bestätigung: Nein
Parameter:
projectId(TEXT, Required): Die Google Cloud-Projekt-IDdatasetId(TEXT, Required): Die Dataset-ID für die Informationen
Was kannst du damit machen?
Datenverwaltung
Verwalte und organisiere deine BigQuery-Daten ganz einfach
Automatisierung
Automatisiere deine Workflows mit BigQuery
Reporting
Erstelle aussagekräftige Berichte und Analysen
Integration
Verbinde BigQuery nahtlos mit deinen anderen Tools
Best Practices
So geht’s los:
- Aktiviere die BigQuery-Integration in deinen Workspace-Einstellungen
- Logge dich mit OAuth ein
- Teste die Verbindung mit einer einfachen Suchanfrage
- Schau dir alle verfügbaren Aktionen für deinen Anwendungsfall an
Das solltest du beachten:
- Sorge dafür, dass deine Authentifizierungsdaten stimmen
- Halte dich an die Rate Limits und API-Kontingente
- Überprüfe deine Datenschutzeinstellungen
- Teste neue Aktionen immer erst in einer sicheren Umgebung
Fehlerbehebung
| Problem | Lösung |
|---|---|
| Authentifizierung fehlgeschlagen | Check deine OAuth-Anmeldedaten nochmal |
| Rate Limit überschritten | Mach eine Pause - du fragst zu oft an |
| Daten nicht gefunden | Prüf deine Berechtigungen und ob die Daten verfügbar sind |
| Verbindungstimeout | Schau nach deiner Internetverbindung |