KI-Aktionen & Anbieter-Zugangsdaten
Eigene AI-API-Schlüssel hinterlegen, die KI/LLM-Aktion in Flows verwenden und den Token-Verbrauch überwachen.
Zuletzt aktualisiert: 2026-04-28
KI-Aktionen & Anbieter-Zugangsdaten
Mit der KI / LLM-Aktion können Ihre Automatisierungsflows Anfragen an einen KI-Sprachmodel-Anbieter senden und die Antwort in nachfolgende Aktionen weitergeben — zum Beispiel um Produktbeschreibungen zu verbessern, Bewertungen zu klassifizieren oder individuelle E-Mails zu formulieren.
Plan: KI-Aktionen sind auf den Plänen Professional, Business und Enterprise verfügbar. Auf dem Starter-Plan ist der Aktionstyp "KI / LLM Call" im Flow-Editor nicht auswählbar.
Schritt 1: Anbieter-Zugangsdaten hinterlegen
Gehen Sie zu Admin > Einstellungen > KI-Anbieter und klicken Sie auf Anbieter hinzufügen.
Unterstützte Anbieter
| Anbieter | Typische Modelle | Hinweise |
|---|---|---|
| OpenAI | gpt-4o, gpt-4-turbo, gpt-3.5-turbo | API-Schlüssel von platform.openai.com |
| Anthropic | claude-opus-4-5, claude-sonnet-4-5, claude-haiku-4-5-20251001 | API-Schlüssel von console.anthropic.com |
gemini-1.5-pro, gemini-1.5-flash | API-Schlüssel von aistudio.google.com | |
| Ollama | Beliebig (lokal) | Kein API-Schlüssel erforderlich; Base URL anpassen |
| Custom | Beliebig | Jede OpenAI-kompatible Schnittstelle |
Einrichtungs-Schritte
- Anbieter auswählen — wählen Sie OpenAI, Anthropic, Google, Ollama oder Custom.
- Base URL — wird für Standardanbieter automatisch ausgefüllt; bei Ollama oder Custom eigene URL eintragen.
- API-Schlüssel eingeben — verdecktes Eingabefeld. Für Ollama (lokal) kann das Feld leer bleiben.
- Standard-Modell — tragen Sie den Modellnamen ein, der verwendet wird, wenn eine Flow-Aktion kein spezifisches Modell angibt (z. B.
gpt-4o). - Als Standard festlegen — aktivieren Sie dieses Kontrollkästchen, wenn dieser Anbieter von Flows verwendet werden soll, die keinen expliziten Anbieter angeben. Pro Shop kann nur ein Anbieter als Standard markiert sein.
- Verbindung testen — die Plattform sendet eine minimale Anfrage, um Schlüssel und Modell zu prüfen. Eine Fehlermeldung zeigt an, wenn Schlüssel oder Modellname nicht korrekt sind.
- Speichern — der Anbieter erscheint in der Liste; der API-Schlüssel wird verschlüsselt gespeichert und nie vollständig angezeigt.
Hinweise zu Zugangsdaten
- API-Schlüssel werden verschlüsselt gespeichert und nach dem ersten Speichern nie mehr im Klartext zurückgegeben.
- Beim Bearbeiten eines Eintrags können Sie das Schlüssel-Feld leer lassen oder mit
***belassen — der vorhandene Schlüssel bleibt dann unverändert. - Schlüssel erscheinen nie in Ausführungsprotokollen oder Logs.
Schritt 2: KI-Aktion zum Flow hinzufügen
- Öffnen Sie einen Flow im Editor und klicken Sie auf Aktion hinzufügen.
- Wählen Sie den Aktionstyp KI / LLM Call.
- Konfigurieren Sie die Aktion:
Konfigurationsfelder
| Feld | Pflicht | Beschreibung | Standard |
|---|---|---|---|
| Anbieter-Zugangsdaten | Nein | Welchen hinterlegten Anbieter verwenden. Leer = Shop-Standard. | Shop-Standard |
| Modell-Override | Nein | Überschreibt das Standard-Modell des gewählten Anbieters für diese eine Aktion. | Anbieter-Standard |
| System-Prompt | Nein | Setzt die Rolle/den Kontext des Assistenten (z. B. "Du bist ein erfahrener E-Commerce-Texter."). | — |
| Prompt | Ja | Die eigentliche Anfrage an das Modell. Unterstützt {{trigger.x}} und {{var.x}}. | — |
| Ausgabe-Variable | Ja | Name der Variable, unter der die KI-Antwort gespeichert wird. In Folgeaktionen als {{var.name}} verfügbar. | — |
| Ausgabe-Schema | Nein | Optionaler JSON-Schema-String zur Validierung strukturierter Antworten. Bei Validierungsfehler wird die Rohtext-Antwort gespeichert. | — |
| Max. Tokens | Nein | Maximale Anzahl Tokens in der Antwort. | 1024 |
| Temperatur | Nein | Slider 0–2; 0 = deterministisch, höher = kreativer. | 0.7 |
Prompt mit Trigger-Daten
Verwenden Sie Template-Variablen, um Bestelldaten, Produktinformationen oder andere Trigger-Felder in den Prompt einzubetten:
Bewerte die folgende Kundenbewertung auf einer Skala von 1-5 (Tonalität)
und gib die Antwort als JSON zurück: {"sentiment": "positiv|neutral|negativ"}.
Bewertung ({{trigger.rating}} Sterne): "{{trigger.comment}}"
KI-Ausgabe in Folgeaktionen nutzen
Wenn Sie Ausgabe-Variable auf bewertung setzen, können Sie in nachfolgenden Aktionen auf die KI-Antwort zugreifen:
{{var.bewertung}}— Vollständige KI-Antwort als Text- Bei strukturierten JSON-Antworten:
{{var.bewertung.sentiment}}für einzelne Felder
Beispiel-Flow: Bewertung analysieren → KI-Aktion mit sentiment-Ausgabe → Bedingte Verzweigung auf {{var.sentiment}} == 'negativ' → Support-Team benachrichtigen.
Grenzen & Timeouts
- Anfragen haben ein Timeout von 30 Sekunden. Längere Anfragen schlagen fehl.
- Nur auf Professional, Business und Enterprise verfügbar — auf Starter-Plänen wird die Aktion mit einem Plan-Fehler abgebrochen.
Schritt 3: Token-Verbrauch überwachen
- Gehen Sie zu Admin > Einstellungen > KI-Anbieter.
- Scrollen Sie zum Abschnitt Verbrauch unterhalb der Anbieter-Liste.
- Wählen Sie einen Datumsbereich (Standard: letzte 30 Tage).
- Die Tabelle zeigt:
| Spalte | Beschreibung |
|---|---|
| Anbieter | Anbieter-Name |
| Modell | Verwendetes Modell |
| Input-Tokens | Gesamt-Input-Token im Zeitraum |
| Output-Tokens | Gesamt-Output-Token im Zeitraum |
| Anfragen | Anzahl der KI-Aufrufe |
Hinweis: Verbrauchsdaten werden nur für
llm_call-Aktionen in Flows erfasst. Daten vor der Aktivierung der Funktion sind leer.
Anbieter-Einrichtung: Schritt-für-Schritt
OpenAI
- Melden Sie sich bei platform.openai.com an.
- Gehen Sie zu API → API Keys → "Create new secret key."
- Kopieren Sie den Schlüssel (er wird nur einmal angezeigt).
- Wählen Sie in den Einstellungen OpenAI als Anbieter — die Base URL wird automatisch eingetragen.
- Empfohlenes Standardmodell:
gpt-4o
Anthropic
- Melden Sie sich bei console.anthropic.com an.
- Gehen Sie zu Settings → API Keys → "Create Key."
- Kopieren Sie den Schlüssel.
- Wählen Sie Anthropic — die Base URL wird automatisch eingetragen.
- Empfohlenes Standardmodell:
claude-sonnet-4-6
Google (Gemini)
- Rufen Sie aistudio.google.com auf.
- Gehen Sie zu Get API Key → Create API Key.
- Wählen Sie Google — die Base URL wird automatisch eingetragen.
- Empfohlenes Standardmodell:
gemini-1.5-pro
Ollama (lokal)
- Installieren Sie Ollama und starten Sie es.
- Laden Sie ein Modell:
ollama pull llama3 - Wählen Sie Ollama — Base URL:
http://localhost:11434 - Kein API-Schlüssel erforderlich.
- Standardmodell: Name des geladenen Modells, z. B.
llama3
Hinweis für Ollama: Der Server muss erreichbar sein, wenn ein Flow ausgeführt wird. In der Cloud-Umgebung ist
localhostnicht erreichbar — Ollama eignet sich hauptsächlich für lokale Entwicklungsszenarien.