Skip to content

Generative KI

[! [Versions-Abzeichen] (https://img.shields.io/badge/Updated in-v4.52-blue.svg)] (.. /release-notes/4.52.md)

Anmerkung

Sie unterliegen den Bedingungen der Anbieter von generativen KI-Modellen, mit denen Sie eine Verbindung herstellen. Cognigy übernimmt keine Verantwortung für Ihre Nutzung von Diensten, Systemen oder Materialien Dritter.

Generative KI bezieht sich auf eine Art von künstlicher Intelligenz, die mithilfe von Algorithmen des maschinellen Lernens neue, originelle Inhalte wie Bilder, Videos, Audios und Texte erstellt. Es funktioniert, indem es aus vorhandenen Daten lernt und auf der Grundlage dieses Lernens neue Inhalte erstellt.

Cognigy.AI lässt sich in die Anbieter generativer KI integrieren, die eine Textgenerierung auf der Grundlage von Benutzereingaben ermöglichen. Dazu gehört die Verwendung von Large Language Models (LLMs), um Daten zu analysieren und kontextuell relevante und personalisierte Inhalte zu generieren.

In der Cognigy.AI Benutzeroberfläche generieren LLMs menschenähnliche und personalisierte Inhalte für einen Bot. Es kann für folgende Zwecke verwendet werden:

Um mehr über die Vorteile der Integration von Conversational AI mit generativen KI-Plattformen zu erfahren, sehen Sie sich dieses Webinar an:


## Voraussetzungen

Bevor Sie diese Funktion nutzen können, müssen Sie ein Konto bei einem der Anbieter für generative KI erstellen:

  • OpenAI. Sie müssen über ein kostenpflichtiges Konto verfügen oder Mitglied einer Organisation sein, die Ihnen Zugriff gewährt. Öffnen Sie Ihr OpenAI-Benutzerprofil, kopieren Sie den vorhandenen API-Schlüssel oder erstellen Sie einen neuen und kopieren Sie ihn.
  • Azure OpenAI. Sie müssen über ein kostenpflichtiges Konto verfügen oder Mitglied einer Organisation sein, die Ihnen Zugriff gewährt. Bitten Sie Ihren Azure-Administrator, den API-Schlüssel, den Ressourcennamen und den Namen des Bereitstellungsmodells anzugeben.
  • Anthropischer Claude. Sie müssen ein Mitglied einer Organisation sein, die Ihnen Zugriff gewährt.
  • Google Vertex AI. Sie müssen über ein kostenpflichtiges Konto verfügen oder Mitglied einer Organisation sein, die Ihnen Zugriff gewährt.

Generative KI einrichten

Gehen Sie wie folgt vor, um die Verbindung zwischen Cognigy.AI und dem Generative AI Provider einzurichten:

Hinzufügen eines Modells

  1. Öffnen Sie die Cognigy.AI-Schnittstelle.
  2. Gehen Sie zu Build > LLM.
  3. Klicken Sie auf +Neuer LLM.
  4. Wählen Sie im Fenster Neuer LLM ein Modell aus der Liste Modelltyp aus.
  5. Fügen Sie einen eindeutigen Namen und eine Beschreibung für Ihr Modell hinzu und klicken Sie auf Speichern.
  6. Wechseln Sie im Fenster LLM-Editor zum Feld Generative AI Connection.
  7. Klicken Sie auf der rechten Seite des Feldes auf +.
  8. Gehen Sie je nach Modellanbieter wie folgt vor:
8.1 Füllen Sie die folgenden Felder aus:<br>- **Verbindungsname**  Erstellen Sie einen eindeutigen Namen für Ihre Verbindung.<br>- **apiKey**  Fügen Sie einen [Azure-API-Schlüssel](https://learn.microsoft.com/en-us/azure/cognitive-services/openai/quickstart?tabs=command-line&pivots=rest-api#retrieve-key-and-endpoint) hinzu. Dieser Wert finden Sie im Abschnitt Schlüssel und Endpunkt, wenn Sie Ihre Ressource über das Azure-Portal untersuchen. Sie können entweder 'KEY1' oder 'KEY2' verwenden.<br>- **Ressourcenname**  Fügen Sie einen [Ressourcennamen](https://learn.microsoft.com/en-us/azure/cognitive-services/openai/how-to/create-resource?pivots=web-portal#create-a-resource) hinzu. Diesen Wert finden Sie im Azure-Portal unter **Ressourcenverwaltung > Bereitstellungen** oder alternativ unter **Verwaltung > Bereitstellungen** in Azure OpenAI Studio.<br>8.2 Klicken Sie auf **Erstellen**.<br>8.3 Füllen Sie die restlichen Felder aus:<br>- **Bereitstellungsname**  fügen Sie einen [Modellnamen](https://learn.microsoft.com/en-us/azure/cognitive-services/openai/how-to/create-resource?pivots=web-portal#deploy-a-model) hinzu.<br>- **API-Version**  Fügen Sie eine [API-Version](https://learn.microsoft.com/en-us/azure/cognitive-services/openai/reference#rest-api-versioning) hinzu. Die API-Version, die für diesen Vorgang im Format "JJJJ-MM-TT" verwendet werden soll. Beachten Sie, dass die Version ein erweitertes Format haben kann, z. B. "YYYY-MM-DD-preview". <br>- **Benutzerdefinierte URL**  dieser Parameter ist optional. Um die Verbindung zwischen Ihren Clustern und dem Azure OpenAI-Anbieter zu steuern, können Sie Verbindungen über dedizierte Proxyserver weiterleiten und so eine zusätzliche Sicherheitsebene schaffen. Geben Sie dazu die URL nach folgendem Muster an: '<resource-name>https://.openai.azure.com/openai/deployments/<deployment-name>/completions?api-version=<api-verson>'. Wenn eine benutzerdefinierte URL hinzugefügt wird, werden die Felder **Ressourcenname**, **Bereitstellungsname** und **API-Version** ignoriert.
8.1 Füllen Sie die folgenden Felder aus:<br>- **Verbindungsname**  Erstellen Sie einen eindeutigen Namen für Ihre Verbindung.<br>- **apiKey**  fügen Sie einen API-Schlüssel aus Ihrem OpenAI-Konto hinzu. Diesen Schlüssel finden Sie in den [Benutzereinstellungen](https://help.openai.com/en/articles/4936850-where-do-i-find-my-secret-api-key) Ihres OpenAI-Kontos.<br>8.2 Klicken Sie auf **Erstellen**.<br>8.3 Füllen Sie das restliche Feld aus:<br>- **Benutzerdefiniertes Modell** - Geben Sie das jeweilige Modell an, das Sie verwenden möchten. Dieser Parameter ist hilfreich, wenn Sie mehrere Modelltypen auf der Seite des LLM-Anbieters haben und beabsichtigen, einen bestimmten Modelltyp zu verwenden. Wenn Sie beispielsweise GPT-4 haben, können Sie "gpt-4-0613" für Ihren Anwendungsfall angeben. Dieser Parameter ist optional. Wenn ein benutzerdefiniertes Modell hinzugefügt wird, wird das standardmäßige LLM-Modell ignoriert. Weitere Informationen zu den Modellen des Anbieters finden Sie in der [OpenAI-Dokumentation](https://platform.openai.com/docs/models/overview).<br>=== "Anthropisch"
8.1 Füllen Sie die folgenden Felder aus:<br>- **Verbindungsname**  Erstellen Sie einen eindeutigen Namen für Ihre Verbindung.<br>- **apiKey**  fügen Sie einen API-Schlüssel hinzu, den Sie über [Kontoeinstellungen](https://console.anthropic.com/docs/api#accessing-the-api) in Anthropic generiert haben.<br>8.2 Klicken Sie auf **Erstellen**.<br>=== "Google"
8.1 Füllen Sie das Feld **Verbindungsname** aus, indem Sie einen eindeutigen Namen für Ihre Verbindung angeben.<br>8.2 Um die JSON-Datei mit einem Schlüssel für Ihr Modell hochzuladen, müssen Sie diesen Schlüssel abrufen. Rufen Sie die Google Vertex AI-Konsole auf.<br>8.3 Klicken Sie auf die Schaltfläche **Alle empfohlenen APIs aktivieren**, um eine API-Verbindung zu aktivieren, falls diese nicht aktiviert ist. Stellen Sie sicher, dass die Vertex AI-API aktiviert ist.<br>8.4 Gehen Sie im Menü auf der linken Seite zu **IAM & Admin > Service Accounts**.<br>8.5 Wählen Sie **Aktionen** und klicken Sie auf **Schlüssel verwalten**.<br>8.6 Wählen Sie auf der Seite **Schlüssel** die Option **Schlüssel hinzufügen** aus, und klicken Sie auf **Neuen Schlüssel erstellen**.<br>8.7 Wählen Sie im angezeigten Fenster den Schlüsseltyp **JSON** aus und klicken Sie auf **Erstellen**. Die Datei wird heruntergeladen.<br>8.8 Klicken Sie in Cognigy im Fenster **Neue Verbindung** auf **JSON-Datei hochladen** und laden Sie die Datei hoch.<br>8.9 Klicken Sie auf **Erstellen**.<br>8.10 Füllen Sie die restlichen Felder aus:<br>- **Position**  Fügen Sie eine [Region](https://cloud.google.com/vertex-ai/docs/general/locations) für das Modell hinzu. Beispiel: 'us-central1'.<br>- **API-Endpunkt**  fügen Sie einen [Dienstendpunkt](https://cloud.google.com/vertex-ai/docs/reference/rest#service-endpoint) für das Modell hinzu. Beispiel: "us-central1-aiplatform.googleapis.com". Beachten Sie, dass der Endpunkt ohne "https://" oder "http://" angegeben werden sollte. <br>- **Publisher**  Fügen Sie den Namen eines Besitzers des Modells hinzu. Wenn nicht angegeben, wird standardmäßig "Google" verwendet.
       Dieser Parameter ist optional.<br>=== "Aleph Alpha"
8.1 Füllen Sie die folgenden Felder aus:<br>- **Verbindungsname**  Erstellen Sie einen eindeutigen Namen für Ihre Verbindung.<br>- **Token***  Geben Sie einen Schlüssel an, den Sie in Ihrem [Aleph Alpha-Konto](https://docs.aleph-alpha.com/docs/account/#create-a-new-token) erstellt haben.<br>8.2 Klicken Sie auf **Erstellen**.<br>8.3 Füllen Sie das restliche Feld aus:<br>- **Benutzerdefiniertes Modell** - Geben Sie ein bestimmtes Modell an, das Sie verwenden möchten, z. B. 'luminous-base'. Dieser Parameter ist optional. Wenn ein benutzerdefiniertes Modell hinzugefügt wird, wird das standardmäßige LLM-Modell ignoriert. Weitere Informationen zu den Modellen des Anbieters finden Sie in der [Aleph Alpha-Dokumentation](https://docs.aleph-alpha.com/docs/introduction/model-card).<br>  9. Um die Änderungen zu übernehmen, klicken Sie auf **Speichern**.
  1. Um zu überprüfen, ob die Verbindung eingerichtet wurde, klicken Sie auf Test.

Wenn das Modell hinzugefügt wird, wird es in der Liste der Modelle angezeigt.

Um dieses Modell für Cognigy-Features anzuwenden, wechseln Sie zu den Einstellungen, indem Sie auf LLM-Features verwalten klicken.

Anwenden des Modells

Gehen Sie folgendermaßen vor, um ein Modell anzuwenden:

  1. Öffnen Sie die Cognigy.AI-Schnittstelle.
  2. Klicken Sie im Menü auf der linken Seite auf > Einstellungen verwalten.
  3. Aktivieren Sie im Abschnitt Generative KI-Einstellungen die Option Generative KI-Funktionen aktivieren. Diese Einstellung ist standardmäßig aktiviert, wenn Sie zuvor die Anmeldeinformationen für die generative KI eingerichtet haben.
  4. Navigieren Sie zum gewünschten Merkmal und wählen Sie ein Modell aus der Liste aus. Wenn für das ausgewählte Feature keine Modelle verfügbar sind, wählt das System automatisch Keine aus.
  5. Klicken Sie auf Speichern.

Sie können überprüfen, ob die Verbindung funktioniert, indem Sie einen neuen generativen KI-Flow erstellen.

Lexika generieren

Beachten Sie, dass die Generierung von Lexika für primäre NLU-Sprachen neben Deutsch und Englisch nicht vollständig unterstützt wird.

Um die generative KI-Technologie zum Erstellen eines neuen Lexikons zu verwenden, gehen Sie wie folgt vor:

  1. Klicken Sie im Menü auf der linken Seite der Cognigy.AI Benutzeroberfläche auf Lexika > erstellen.
  2. Klicken Sie auf + Neues Lexikon.
  3. Geben Sie im Fenster Neues Lexikon den Namen an, der das allgemeine Hauptthema des Lexikons abdeckt, und fügen Sie eine relevante Beschreibung hinzu. Es hilft, ein genaueres Ergebnis zu erzielen. Um sicherzustellen, dass der generierte Inhalt den gewünschten Erwartungen entspricht, füllen Sie beide Felder aus. Wenn Sie sich ausschließlich auf den Titel verlassen, ohne das Beschreibungsfeld zu verwenden, werden nicht die beabsichtigten Ergebnisse erzielt.
  4. Gehen Sie zur Einstellung Generierung von Lexikoneinträgen und aktivieren Sie Lexikoneinträge generieren.
  5. Wählen Sie Lexikonsprache aus der Liste aus.
  6. Legen Sie die Anzahl der Einträge (Lexikoneinheiten) fest.
  7. (Optional) Fügen Sie den Standardwert Slot.
  8. (Optional) Aktivieren Sie Synonyme generieren. Synonyme helfen virtuellen Agenten, verschiedene Variationen desselben Konzepts zu verstehen und zu erkennen. Für jede Schlüsselphrase werden bis zu fünf Synonyme generiert.
  9. Klicken Sie auf Erstellen.

Wenn der Lexikon-Editor mit neuen Schlüsselwörtern geöffnet wird, können Sie sie manuell bearbeiten, löschen oder neue hinzufügen.

Flows generieren

Beachten Sie, dass die Generierung von Flows für primäre NLU-Sprachen neben Deutsch und Englisch nicht vollständig unterstützt wird.

Gehen Sie folgendermaßen vor, um die generative KI-Technologie zum Erstellen eines neuen Flows mit vorkonfigurierten Knoten basierend auf Ihrem Szenario zu verwenden:

  1. Klicken Sie im Menü auf der linken Seite der Cognigy.AI auf Build > Flows.
  2. Klicken Sie auf + Neuer Flow.
  3. Wechseln Sie im Fenster Neuer Flow zum Abschnitt Flow-Generierung und wählen Sie eine der Optionen aus:
    • Keine — Die generative KI wird nicht auf diesen Flow angewendet. Diese Einstellung ist standardmäßig aktiviert.
    • Name und Beschreibung – Die generative KI verwendet die Felder "Name" und "Beschreibung" zum Generieren von Flow.
    • Name und Transkript – die generative KI verwendet die Felder "Name" und "Transkript" zum Generieren von Flow. Für diese Einstellung müssen Sie ein Szenario erstellen und es in das Feld Transkript eingeben. Verwenden Sie die Feldvorlage Transkript als Beispiel für Ihr Szenario.
  4. Generieren Sie den Flow, indem Sie auf Erstellen klicken.

Im vorhandenen Flow können Sie Knoten bearbeiten, die basierend auf Ihrem Szenario erstellt wurden. Generieren Sie neue Intent-Sätze oder Antworten für einen Chatbot.

Intent-Sätze generieren

Beachten Sie, dass die Generierung von Intent-Sätzen für primäre NLU-Sprachen außer Deutsch und Englisch nicht vollständig unterstützt wird.

Gehen Sie folgendermaßen vor, um die generative KI-Technologie zum Erstellen von Intent-Beispielsätzen zu verwenden:

  1. Öffnen Sie den vorhandenen Flow.
  2. Wählen Sie in der oberen rechten Ecke der Seite Flow-Editor die Option NLU aus.
  3. Klicken Sie auf der Registerkarte Absicht auf Absicht erstellen.
  4. Geben Sie einen eindeutigen Namen für die Absicht an und fügen Sie eine relevante Beschreibung hinzu. Es hilft, ein genaueres Ergebnis zu erzielen. Um sicherzustellen, dass der generierte Inhalt den gewünschten Erwartungen entspricht, füllen Sie beide Felder aus. Wenn Sie sich ausschließlich auf den Titel verlassen, ohne das Beschreibungsfeld zu verwenden, werden nicht die beabsichtigten Ergebnisse erzielt.
  5. Aktivieren Sie die Einstellung Beispielsätze generieren.
  6. Legen Sie die Anzahl der generativen Sätze fest.
  7. Generieren Sie neue Sätze, indem Sie auf Erstellen klicken.
  8. Klicken Sie auf Modell erstellen, um den vorhandenen Satz zu lernen.

Wenn Sie weitere Beispiele automatisch hinzufügen möchten, verwenden Sie die Schaltfläche Sätze generieren. Neue Sätze werden hellblau markiert. Das System erzeugt eine bestimmte Anzahl von Sätzen. Speichern Sie die Änderungen, und erstellen Sie das Modell erneut.

Sie können Generative AI auch in der Node-Konfiguration verwenden.

Bot-Ausgaben umformulieren

Generative KI wird durch die Say, Frage und Optionale Frage Knoten.

Gehen Sie folgendermaßen vor, um die KI-gestützte Umformulierung der Botausgabe zu verwenden:

  1. Öffnen Sie den vorhandenen Flow.
  2. Fügen Sie einen der Knoten hinzu: Say, Question oder Optionale Frage.
  3. Gehen Sie zum Abschnitt KI-gestützte Ausgabe.
  4. Wählen Sie in der Einstellung Ausgabe umformulieren eine der folgenden Optionen aus:
    • Keine — die generative KI wird nicht auf diesen Knoten angewendet. Diese Einstellung ist standardmäßig aktiviert.
    • Basierend auf benutzerdefinierter Eingabe – geben Sie benutzerdefinierte Werte für die Eingabe an. Verwenden Sie das Feld Benutzerdefinierte Eingaben, mit dem der Bot-Entwickler Informationen zum Kontextualisieren und Umformulieren der Ausgabe eingeben kann.
    • Basierend auf vorherigen Benutzereingaben — setzt die zuletzt berücksichtigten 'x' Benutzereingaben.
  5. Stellen Sie die Punktzahl in der Einstellung Temperatur ein. Der Temperaturbereich bestimmt das Ausmaß der Variation in der Reaktion der generativen KI.
  6. Klicken Sie auf Knoten speichern.

Überprüfen Sie im interaktiven Bedienfeld, ob Ihr Flow wie erwartet funktioniert.

Vollständige Texte

Sie können die folgenden Knoten zum Ausführen von Aufgaben verwenden.

Diese Nodes unterstützen nur die Textausgabe im AI-Kanal.

LLM-Eingabeaufforderung

Die Funktion LLM Prompt Node ermöglicht die Erstellung relevanter Inhalte mithilfe von generativer KI. Um diese Funktion zu verwenden, stellen Sie einfach eine Texteingabeaufforderung bereit, die die KI beim Fortsetzen des generierten Textes anleitet.

GPT-Konversation

Warnung

Dieser Node ist Teil der Forschungsbemühungen von Cognigy im Bereich der großen Sprachmodelle und dient ausschließlich als Vorschaufunktion. Der GPT-Konversationsknoten ist nicht für die Verwendung in der Produktion vorgesehen.

Die Funktion GPT Conversation Node ermöglicht die Erstellung relevanter Inhalte mithilfe von generativer KI basierend auf Ihrem Szenario. Standardmäßig verfügt dieser Knoten bereits über vorausgefüllte Felder mit einem Szenario.

Häufig gestellte Fragen

F1: Kann ich mein kostenloses OpenAI-Konto für die generative KI-Funktion in Cognigy.AI verwenden?

A1: Ein kostenpflichtiges Konto ist erforderlich, um einen API-Schlüssel zu erhalten, der für die Verwendung von Generative AI erforderlich ist. Ein kostenloses Konto stellt diesen Schlüssel nicht zur Verfügung.

F2: Warum funktioniert die generative KI nicht mit AudioCodes-Knoten?

A2: Die generative KI-Ausgabe unterstützt nur Textnachrichten im KI-Kanal.

Mehr Informationen