KI-Aktionen & Anbieter-Zugangsdaten

Eigene AI-API-Schlüssel hinterlegen, die KI/LLM-Aktion in Flows verwenden und den Token-Verbrauch überwachen.

Zuletzt aktualisiert: 2026-04-28

KI-Aktionen & Anbieter-Zugangsdaten

Mit der KI / LLM-Aktion können Ihre Automatisierungsflows Anfragen an einen KI-Sprachmodel-Anbieter senden und die Antwort in nachfolgende Aktionen weitergeben — zum Beispiel um Produktbeschreibungen zu verbessern, Bewertungen zu klassifizieren oder individuelle E-Mails zu formulieren.

Plan: KI-Aktionen sind auf den Plänen Professional, Business und Enterprise verfügbar. Auf dem Starter-Plan ist der Aktionstyp "KI / LLM Call" im Flow-Editor nicht auswählbar.


Schritt 1: Anbieter-Zugangsdaten hinterlegen

Gehen Sie zu Admin > Einstellungen > KI-Anbieter und klicken Sie auf Anbieter hinzufügen.

Unterstützte Anbieter

AnbieterTypische ModelleHinweise
OpenAIgpt-4o, gpt-4-turbo, gpt-3.5-turboAPI-Schlüssel von platform.openai.com
Anthropicclaude-opus-4-5, claude-sonnet-4-5, claude-haiku-4-5-20251001API-Schlüssel von console.anthropic.com
Googlegemini-1.5-pro, gemini-1.5-flashAPI-Schlüssel von aistudio.google.com
OllamaBeliebig (lokal)Kein API-Schlüssel erforderlich; Base URL anpassen
CustomBeliebigJede OpenAI-kompatible Schnittstelle

Einrichtungs-Schritte

  1. Anbieter auswählen — wählen Sie OpenAI, Anthropic, Google, Ollama oder Custom.
  2. Base URL — wird für Standardanbieter automatisch ausgefüllt; bei Ollama oder Custom eigene URL eintragen.
  3. API-Schlüssel eingeben — verdecktes Eingabefeld. Für Ollama (lokal) kann das Feld leer bleiben.
  4. Standard-Modell — tragen Sie den Modellnamen ein, der verwendet wird, wenn eine Flow-Aktion kein spezifisches Modell angibt (z. B. gpt-4o).
  5. Als Standard festlegen — aktivieren Sie dieses Kontrollkästchen, wenn dieser Anbieter von Flows verwendet werden soll, die keinen expliziten Anbieter angeben. Pro Shop kann nur ein Anbieter als Standard markiert sein.
  6. Verbindung testen — die Plattform sendet eine minimale Anfrage, um Schlüssel und Modell zu prüfen. Eine Fehlermeldung zeigt an, wenn Schlüssel oder Modellname nicht korrekt sind.
  7. Speichern — der Anbieter erscheint in der Liste; der API-Schlüssel wird verschlüsselt gespeichert und nie vollständig angezeigt.

Hinweise zu Zugangsdaten

  • API-Schlüssel werden verschlüsselt gespeichert und nach dem ersten Speichern nie mehr im Klartext zurückgegeben.
  • Beim Bearbeiten eines Eintrags können Sie das Schlüssel-Feld leer lassen oder mit *** belassen — der vorhandene Schlüssel bleibt dann unverändert.
  • Schlüssel erscheinen nie in Ausführungsprotokollen oder Logs.

Schritt 2: KI-Aktion zum Flow hinzufügen

  1. Öffnen Sie einen Flow im Editor und klicken Sie auf Aktion hinzufügen.
  2. Wählen Sie den Aktionstyp KI / LLM Call.
  3. Konfigurieren Sie die Aktion:

Konfigurationsfelder

FeldPflichtBeschreibungStandard
Anbieter-ZugangsdatenNeinWelchen hinterlegten Anbieter verwenden. Leer = Shop-Standard.Shop-Standard
Modell-OverrideNeinÜberschreibt das Standard-Modell des gewählten Anbieters für diese eine Aktion.Anbieter-Standard
System-PromptNeinSetzt die Rolle/den Kontext des Assistenten (z. B. "Du bist ein erfahrener E-Commerce-Texter.").
PromptJaDie eigentliche Anfrage an das Modell. Unterstützt {{trigger.x}} und {{var.x}}.
Ausgabe-VariableJaName der Variable, unter der die KI-Antwort gespeichert wird. In Folgeaktionen als {{var.name}} verfügbar.
Ausgabe-SchemaNeinOptionaler JSON-Schema-String zur Validierung strukturierter Antworten. Bei Validierungsfehler wird die Rohtext-Antwort gespeichert.
Max. TokensNeinMaximale Anzahl Tokens in der Antwort.1024
TemperaturNeinSlider 0–2; 0 = deterministisch, höher = kreativer.0.7

Prompt mit Trigger-Daten

Verwenden Sie Template-Variablen, um Bestelldaten, Produktinformationen oder andere Trigger-Felder in den Prompt einzubetten:

Bewerte die folgende Kundenbewertung auf einer Skala von 1-5 (Tonalität)
und gib die Antwort als JSON zurück: {"sentiment": "positiv|neutral|negativ"}.

Bewertung ({{trigger.rating}} Sterne): "{{trigger.comment}}"

KI-Ausgabe in Folgeaktionen nutzen

Wenn Sie Ausgabe-Variable auf bewertung setzen, können Sie in nachfolgenden Aktionen auf die KI-Antwort zugreifen:

  • {{var.bewertung}} — Vollständige KI-Antwort als Text
  • Bei strukturierten JSON-Antworten: {{var.bewertung.sentiment}} für einzelne Felder

Beispiel-Flow: Bewertung analysieren → KI-Aktion mit sentiment-Ausgabe → Bedingte Verzweigung auf {{var.sentiment}} == 'negativ' → Support-Team benachrichtigen.

Grenzen & Timeouts

  • Anfragen haben ein Timeout von 30 Sekunden. Längere Anfragen schlagen fehl.
  • Nur auf Professional, Business und Enterprise verfügbar — auf Starter-Plänen wird die Aktion mit einem Plan-Fehler abgebrochen.

Schritt 3: Token-Verbrauch überwachen

  1. Gehen Sie zu Admin > Einstellungen > KI-Anbieter.
  2. Scrollen Sie zum Abschnitt Verbrauch unterhalb der Anbieter-Liste.
  3. Wählen Sie einen Datumsbereich (Standard: letzte 30 Tage).
  4. Die Tabelle zeigt:
SpalteBeschreibung
AnbieterAnbieter-Name
ModellVerwendetes Modell
Input-TokensGesamt-Input-Token im Zeitraum
Output-TokensGesamt-Output-Token im Zeitraum
AnfragenAnzahl der KI-Aufrufe

Hinweis: Verbrauchsdaten werden nur für llm_call-Aktionen in Flows erfasst. Daten vor der Aktivierung der Funktion sind leer.


Anbieter-Einrichtung: Schritt-für-Schritt

OpenAI

  1. Melden Sie sich bei platform.openai.com an.
  2. Gehen Sie zu API → API Keys → "Create new secret key."
  3. Kopieren Sie den Schlüssel (er wird nur einmal angezeigt).
  4. Wählen Sie in den Einstellungen OpenAI als Anbieter — die Base URL wird automatisch eingetragen.
  5. Empfohlenes Standardmodell: gpt-4o

Anthropic

  1. Melden Sie sich bei console.anthropic.com an.
  2. Gehen Sie zu Settings → API Keys → "Create Key."
  3. Kopieren Sie den Schlüssel.
  4. Wählen Sie Anthropic — die Base URL wird automatisch eingetragen.
  5. Empfohlenes Standardmodell: claude-sonnet-4-6

Google (Gemini)

  1. Rufen Sie aistudio.google.com auf.
  2. Gehen Sie zu Get API Key → Create API Key.
  3. Wählen Sie Google — die Base URL wird automatisch eingetragen.
  4. Empfohlenes Standardmodell: gemini-1.5-pro

Ollama (lokal)

  1. Installieren Sie Ollama und starten Sie es.
  2. Laden Sie ein Modell: ollama pull llama3
  3. Wählen Sie Ollama — Base URL: http://localhost:11434
  4. Kein API-Schlüssel erforderlich.
  5. Standardmodell: Name des geladenen Modells, z. B. llama3

Hinweis für Ollama: Der Server muss erreichbar sein, wenn ein Flow ausgeführt wird. In der Cloud-Umgebung ist localhost nicht erreichbar — Ollama eignet sich hauptsächlich für lokale Entwicklungsszenarien.