Parloas neue Releases machen Erlebnisse mit AI Agents noch reibungsloser

Kundengespräche verändern sich rasant, und mit ihnen die Erwartungen an AI-gestützte Interaktionen. Bei Parloa steht deshalb im Mittelpunkt, AI Agents zu entwickeln, die nicht nur funktional sind, sondern auch natürlich kommunizieren.
Deshalb folgt jede neue Funktion unserer AI Agent Management Platform drei Prioritäten: intuitivere Gespräche, tiefere operative Transparenz und leistungsfähigere Enterprise-Technologie für die Teams dahinter. So können CX-Verantwortliche schnellere, natürlichere Gespräche ermöglichen und erhalten gleichzeitig die nötige Übersicht und Kontrolle, um AI Agents zuverlässig einzusetzen und zu skalieren.
Hier ist ein Überblick über die wichtigsten Updates, die jetzt live sind. Wenn du direkt loslegen und wissen möchtest, wie du diese Features effektiv nutzen kannst, findest du alles Nötige in unserer Dokumentation.
Hier die Dokumentationen lesenBegrüßung, die sich in Echtzeit anpasst
Der erste Eindruck zählt – auch im Gespräch mit AI Agents. Mit dynamischen Welcome Messages kannst du die Ansprache zu Beginn jedes Gesprächs individuell gestalten. Agents passen ihre Begrüßung unmittelbar nach dem Start des Telefonats oder Chats an und greifen dabei auf frühere Kundenaktionen zurück, um vom ersten „Hallo” an den richtigen Kontext zu schaffen.
Bessere Antworten durch optimierten Knowledge-Skill
Wir haben unseren Knowledge-Skill mit einem neuen Embedding-Modell ausgestattet, das in Benchmarks deutlich bessere Ergebnisse liefert. Dieses Update verbessert das Verständnis komplexer Anfragen, technischer Fachbegriffe und anspruchsvoller inhaltlicher Zusammenhänge.
Zusätzlich sorgen verbesserte Chunking-Strategien dafür, dass Dokumente in Abschnitte zerlegt werden, wobei die semantische und Markdown-Struktur erhalten bleibt. Dies stellt kohärentere, vollständigere Antworten sicher.
Natürlicher Gesprächsfluss mit Barge-in
Konversationen mit AI Agents werden jetzt noch flüssiger. Dank Barge-in-Funktion können Anrufende den Agent mitten in der Antwort unterbrechen und das Gespräch in eine andere Richtung lenken. Das macht Support-Interaktionen schneller, reibungsloser und natürlicher.
Tiefere Einblicke in Gespräche mit Data Hub
Data Hub bringt detaillierte Ereignisdaten, die während der Interaktionen mit AI Agents entstehen, direkt in die bestehende Analytics-Umgebung – und fügt sich nahtlos über das Open-Source-Protokoll Delta Sharing in Tools wie Tableau, Power BI, Looker und BigQuery ein.
Data Hub bietet:
Rohe Ereignisdaten aus jeder Interaktion zwischen AI Agents und Kund:innen
Integrierte PII-Bereinigung zum Schutz sensibler Informationen
Strukturierte Datensätze, optimiert für ein hohes Abfragevolumen (partitioniert nach Mandant und Ereignismonat)
Automatische Aktualisierung alle zwei Stunden
So können Teams die Performance der AI Agents mit CX-Ergebnissen verknüpfen, Regressionen schnell erkennen und Dashboards mit den BI-Tools erstellen, die sie bereits im Einsatz haben.
Smartere Gesprächsabschlüsse dank verbesserter Hangup-Automatisierung
Auflegevorgänge sind jetzt intelligenter und flexibler. Es gibt zwei Arten von Automatisierung:
Hangup-Events lösen Backend-Prozesse wie Ticket-Erstellung oder Fallabschluss aus, sobald ein Anruf beendet wird.
Hangup-Actions ermöglichen es AI Agents, Anrufe proaktiv zu beenden, wenn es angebracht ist – und vermeiden so unnötige Gesprächszeit.
Das Ergebnis ist ein runder Gesprächsabschluss und weniger manueller Aufwand.
Nahtlose Konnektivität mit SIP-Forward-Routing
Wir haben unsere Telefonie-Integrationen um SIP-Forward erweitert, was eine reibungslose Weiterleitung von Anrufen über ein breiteres Spektrum an Enterprise-Systemen ermöglicht. Das verbessert die Kompatibilität mit bestehenden Telefonie-Infrastrukturen und stellt sicher, dass Workflows ohne zusätzlichen Entwicklungsaufwand erhalten bleiben.
Personalisierung beginnt mit kontextbezogenen Daten
Gespräche starten jetzt intelligenter: AI Agents können relevante Kundendaten zu Beginn der Interaktion abrufen und nutzen. Das verhindert Wiederholungen und schafft von der ersten Interaktion an personalisierte Erlebnisse.
Handoffs, die den Kontext bewahren – mit erweiterten Daten
Übergaben zwischen Systemen verlaufen dank strukturiertem Daten-Routing flüssiger. AI Agents können jetzt wichtige Gesprächsergebnisse speichern und an CRMs und Support-Plattformen übermitteln. Dies stellt sicher, dass der Kontext erhalten bleibt, reduziert Reibung und ermöglicht eine schnellere Lösung, wenn menschliche Agents übernehmen.
Schnelle Fehlerbehebung mit Agent-Debugging
Das Debugging von Agents geht jetzt deutlich schneller – dank einer neuen, benutzerfreundlichen Oberfläche, die klare, strukturierte Einblicke bietet. Das verkürzt die Zeit für Troubleshooting, vereinfacht das Onboarding neuer Entwickler:innen und hilft Teams, Probleme effizienter zu lösen.
Klare, konsistente Aussprache
Sprachinteraktionen erhalten ein Präzisions-Upgrade: Mit der neuen Aussprachekontrolle (Pronunciation Control) kannst du direkt in der Plattform festlegen, wie Namen, Markenbegriffe, Codes oder IDs ausgesprochen werden. Eingebaute Lexika und intelligente Sprachparameter reduzieren manuelle Anpassungen und sichern gleichzeitig eine konsistente Sprachwiedergabe über alle Erlebnisse hinweg. Dies führt zu flüssigeren Kundeninteraktionen, die natürlich, professionell und unverkennbar nach der jeweiligen Marke klingen.
Automatisiertes Failover für maximale Sicherheit
Gespräche sollten nicht unterbrochen werden, nur weil ein Cloud-Anbieter gerade Probleme hat. Deshalb haben wir automatisches Failover eingeführt: ein Sicherheitsnetz, das gewährleistet, dass deine Kundeninteraktionen nahtlos weiterlaufen, selbst wenn ein Provider ausfällt.
Das ist neu:
Zwei Infrastruktur-Optionen, ein nahtloses Erlebnis: Wir unterstützen jetzt sowohl Azure als auch OpenAI für dieselben Modelle.
Eingebaute Redundanz: Lässt die Performance auf einer Seite nach, leitet Parloa den Traffic automatisch zur anderen um – ohne manuelles Eingreifen.
Sicher und compliant: OpenAI ist jetzt offizieller Sub-Processor für ausgewählte Services, und alles bleibt konform mit höchsten Standards.
Das Ergebnis: höhere Verfügbarkeit, mehr Ausfallsicherheit und weniger Sorgen für dein Team.
Was als Nächstes kommt
Jedes dieser Updates stärkt unsere Plattform weiter – hinsichtlich Benutzerfreundlichkeit, Zuverlässigkeit und Analytics. Die Features ermöglichen dir, AI Agents anzubieten, die nahtlose, bedeutsame Beziehungen zu deinen Kund:innen aufbauen. Die kommenden Verbesserungen werden noch tiefer in Richtung Anpassungsfähigkeit und Kontrolle auf Enterprise-Niveau gehen. Dadurch kannst du deinen AI Agents mehr zutrauen – und deine Teams behalten jederzeit die Übersicht.
Alle aktuellen Releases und Dokumentationen
Personalisierte Begrüßung, die sich in Echtzeit anpasst
Neue Embeddings und Chunking-Strategien für präzisere Antworten
Natürliche, Menschen-ähnliche Unterbrechungen für schnellere, flüssigere Gespräche
Ereignisdaten aus AI-Agent-Interaktionen via Delta Sharing integriert
Auslösen von Backend-Prozessen oder proaktives Beenden von Anrufen
Erweiterte Telefonie-Integration für Enterprise-Systeme
Personalisierte Gespräche von Anfang an
Strukturierte Übergaben an CRMs und Support-Tools
Schnelleres Troubleshooting mit einer neuen, Entwickler-freundlichen UI
Verfeinern von Markennamen, Codes und IDs mit eingebauten Lexika
Verbesserte Resilienz durch automatisiertes Failover
:format(webp))
:format(webp))
:format(webp))
:format(webp))
:format(webp))