Datenanalyst

Der Datenanalyst ist ein Werkzeug, das ein LLM nutzen kann. Es verwendet den Datenanalysten, um Python-Code (Computercode) zu erstellen, um eine Operation durchzuführen (z.B. Analyse einer CSV- oder Excel-Datei). Dieser Code wird dann ausgeführt, um Daten abzurufen und die Operation durchzuführen. Das Ergebnis wird wieder an das KI-Modell gesendet und zur Erstellung einer Antwort verwendet. Wir haben dieses Werkzeug ausführlicher beschrieben hier.

Embedding

Es gibt zwei Arten, wie die Modelle mit Dokumenten arbeiten. Eine Möglichkeit besteht darin, den gesamten Text mit dem Prompt im Kontextfenster an das KI-Modell zu senden. Die andere besteht darin, nur relevante Abschnitte im Kontextfenster zu senden. Die zweite Option wird für sehr lange Dokumente oder eine große Anzahl von Dateien verwendet (z.B. in Wissensordnern). Um die relevanten Abschnitte zu finden, werden die hochgeladenen Dokumente in viele kleinere Abschnitte unterteilt. Diese Abschnitte erhalten einen Vektor, eine lange Zahl, die das Thema des Abschnitts beschreibt. Dieser Abschnitt wird dann als Embedding bezeichnet. Der Auswahlprozess, welche Abschnitte relevant sind, ist eine Embedding-Suche (siehe nächster Abschnitt). Später werden die Embeddings oder die Abschnitte hinter den Embeddings dann in das Kontextfenster eingefügt.

Embedding-Suche

Eine Embedding-Suche identifiziert verschiedene Embeddings, die für einen bestimmten Prompt relevant sind. Wenn du nach einem bestimmten Thema fragst, prüft die Embedding-Suche, welche Abschnitte in angehängten Dokumenten mit diesem Thema verbunden sind, fügt sie dem Prompt hinzu und sendet ihn an das Modell. Die Relevanz wird mit Vektoren überprüft, was eine mathematische Methode ist, um ein bestimmtes Thema darzustellen (siehe Abschnitt über Vektoren unten).

Halluzination

Große Sprachmodelle werden mit Daten trainiert. Diese verwenden diese Daten, um das wahrscheinlichste nächste Token (oder Wortteil) vorherzusagen, um eine Antwort zu generieren. In einigen Fällen, zum Beispiel wenn das Modell nicht den richtigen Kontext im Prompt oder in angehängten Dokumenten hat, kann es sich zu sehr auf die Trainingsdaten verlassen, um den Prompt zu beantworten. Dann generiert es eine Antwort mit dem Trainingswissen, wobei dies in der Situation, in der du dich gerade befindest, falsch sein könnte. Halluzinationen sind vom Modell erfundene Informationen. Leider ist dieses Verhalten (noch) ein Teil der Funktionsweise von KI-Modellen. Es gibt Modelle, die weniger halluzinieren (z.B. Claude 3.5 Sonnet), aber insgesamt solltest du die Ausgabe immer auf Korrektheit überprüfen.

Kontextfenster

Das Kontextfenster ist die maximale Textmenge, die auf einmal verarbeitet werden kann. Es wird in Tokens gemessen, wobei es sich um Wortteile handelt, die das Modell zum Lesen und Generieren von Text verwendet. Für die meisten Modelle sind dies 128k Tokens, was (je nach Schriftgröße) 100 bis 150 Seiten Text entspricht. Eine Übersicht der Kontextfenstergrößen findest du hier. Das Kontextfenster wird mit deiner Eingabeaufforderung, angehängten Dokumenten und den vorherigen Nachrichten in einem Chat gefüllt (lies mehr darüber hier). Wenn das Kontextfenster voll ist, werden einige Informationen aus dem Chat oder den Dokumenten herausgeschnitten, was die Antwortqualität und -geschwindigkeit verringert.
Für die beste Leistung öffne bitte regelmäßig einen neuen Chat, um das Kontextfenster zu leeren

Künstliche Intelligenz (KI)

KI bezieht sich auf Computersysteme, die Aufgaben ausführen können, die normalerweise menschliche Intelligenz erfordern. Diese werden mit großen Datenmengen trainiert, lernen Muster und treffen Entscheidungen auf Basis dieser Informationen.

Large Language Model (LLM)

Large Language Models sind KI-Modelle, die entwickelt wurden, um menschliche Sprache zu verstehen und zu generieren. Diese werden mit großen Mengen an Text und Informationen trainiert, was ihnen ermöglicht, den Kontext zu verstehen und darauf basierend zu antworten. Hier ist ein Artikel, der die Grundlagen von KI-Modellen beschreibt.

Machine Learning (ML)

Machine Learning ist ein Teilbereich der KI, bei dem sich die Leistung von Aufgaben im Laufe der Zeit verbessert, weil die KI lernt, wie sie eine Aufgabe besser erfüllen kann.

Prompt

Ein Prompt ist die Nachricht, die du als User an das KI-Modell sendest. Er sollte das Modell dazu auffordern, eine bestimmte Aufgabe auszuführen, eine Frage zu beantworten oder in irgendeiner Weise zu reagieren. Der beste Weg zum Prompting ist nicht nur in einzelnen Wörtern (wie bei einer Google-Suche), sondern eher in vollständigen, natürlichen Sätzen. Mehr über Prompting erfährst du in unserem prompt engineering guide.

Retrieval-Augmented Generation (RAG)

Um die Modellfähigkeiten über das Trainingswissen hinaus zu erweitern, verwenden KI-Tools RAG. RAG hilft, dem Modell Informationen hinzuzufügen. Dies kann das Hinzufügen von Informationen durch Anhängen eines Dokuments im Kontextfenster mit dem vollständigen Text sein. Eine andere Form, die oft mit “RAG” gemeint ist, ist die Verwendung der Embedding-Suche (siehe oben), um eine Vektordatenbank zu durchsuchen und die relevanten Vektoren an den Prompt anzuhängen.

Token

Tokens sind Wortteile, die für die Texterstellung verwendet werden. Die Modelle generieren die Antwort Token für Token, sie beginnen also mit dem ersten Wortteil, um das nächste Stück zu schreiben, dann das nächste Stück usw. Je länger eine Antwort ist, desto mehr Tokens werden für die Generierung der Antwort verwendet. Es gibt eine maximale Anzahl von Tokens, die vom Modell verarbeitet werden können (siehe Kontextfenster oben) und auch ein maximales Limit, wie viele Tokens ein Modell generieren kann.

Tool Calling / Function Calling

Large Language Models können verschiedene Tools verwenden, um eine Operation durchzuführen. Diese Tools sind nicht Teil des Modells, sondern eine von einem Ingenieur entwickelte Funktion, mit der das Modell kommunizieren kann. Einige Tools sind das Websuch-Tool oder das Datenanalyse-Tool. Die Unterschiede zwischen dem Modell und verschiedenen Tools werden in diesem Abschnitt und den folgenden Artikeln über die verschiedenen Tools beschrieben.

Vektor

Ein Vektor ist ein mathematisches Objekt in einem mehrdimensionalen Raum. Es ist eine Reihe von Zahlen und wird einem bestimmten Embedding oder Textabschnitt zugewiesen. Die Zahlen beschreiben das Thema des Abschnitts in mehreren Kategorien. Die Vektoren können dann einen bestimmten Abstand voneinander haben. Zum Beispiel ist ein Vektor für einen Abschnitt über Pizza nicht so nah an einem Vektor eines Abschnitts über künstliche Intelligenz wie ein Vektor eines Abschnitts über Computer.

Vektordatenbank

Eine Vektordatenbank ist eine spezielle Art von Datenbank, in der hochgeladene Dateien einen Vektor erhalten und die Embedding-Suche die für die Beantwortung einer Anfrage relevanten Vektoren in der Datenbank finden kann. Unsere Wissensordner sind im Hintergrund Vektordatenbanken. Wenn du diesen Prozess anpassen möchtest, kannst du auch deine eigene Vektordatenbank einbringen und an einen Assistenten anhängen.

Vision

Vision ist die Fähigkeit von KI-Modellen, Bilder zu verarbeiten und zu analysieren. Nicht alle Modelle sind dazu in der Lage. Die Modelle, die Bilder verarbeiten können, haben dies in der App angezeigt, wenn du das Modell auswählst. Diese sind auch aufgelistet hier.