Parloas neue Releases machen Erlebnisse mit AI Agents noch reibungsloser

Anjana Vasan
Senior Content Marketing Manager
Parloa
Lipika Gimmler
Senior Product Marketing Manager
Parloa
Home > blog > Article
31 October 20253 mins

Kundengespräche verändern sich rasant, und mit ihnen die Erwartungen an AI-gestützte Interaktionen. Bei Parloa steht deshalb im Mittelpunkt, AI Agents zu entwickeln, die nicht nur funktional sind, sondern auch natürlich kommunizieren.

Deshalb folgt jede neue Funktion unserer AI Agent Management Platform drei Prioritäten: intuitivere Gespräche, tiefere operative Transparenz und leistungsfähigere Enterprise-Technologie für die Teams dahinter. So können CX-Verantwortliche schnellere, natürlichere Gespräche ermöglichen und erhalten gleichzeitig die nötige Übersicht und Kontrolle, um AI Agents zuverlässig einzusetzen und zu skalieren.

Hier ist ein Überblick über die wichtigsten Updates, die jetzt live sind. Wenn du direkt loslegen und wissen möchtest, wie du diese Features effektiv nutzen kannst, findest du alles Nötige in unserer Dokumentation.

Hier die Dokumentationen lesen

Begrüßung, die sich in Echtzeit anpasst

Der erste Eindruck zählt – auch im Gespräch mit AI Agents. Mit dynamischen Welcome Messages kannst du die Ansprache zu Beginn jedes Gesprächs individuell gestalten. Agents passen ihre Begrüßung unmittelbar nach dem Start des Telefonats oder Chats an und greifen dabei auf frühere Kundenaktionen zurück, um vom ersten „Hallo” an den richtigen Kontext zu schaffen.

Bessere Antworten durch optimierten Knowledge-Skill

Wir haben unseren Knowledge-Skill mit einem neuen Embedding-Modell ausgestattet, das in Benchmarks deutlich bessere Ergebnisse liefert. Dieses Update verbessert das Verständnis komplexer Anfragen, technischer Fachbegriffe und anspruchsvoller inhaltlicher Zusammenhänge.

Zusätzlich sorgen verbesserte Chunking-Strategien dafür, dass Dokumente in Abschnitte zerlegt werden, wobei die semantische und Markdown-Struktur erhalten bleibt. Dies stellt kohärentere, vollständigere Antworten sicher.

Natürlicher Gesprächsfluss mit Barge-in

Konversationen mit AI Agents werden jetzt noch flüssiger. Dank Barge-in-Funktion können Anrufende den Agent mitten in der Antwort unterbrechen und das Gespräch in eine andere Richtung lenken. Das macht Support-Interaktionen schneller, reibungsloser und natürlicher.

Tiefere Einblicke in Gespräche mit Data Hub

Data Hub bringt detaillierte Ereignisdaten, die während der Interaktionen mit AI Agents entstehen, direkt in die bestehende Analytics-Umgebung – und fügt sich nahtlos über das Open-Source-Protokoll Delta Sharing in Tools wie Tableau, Power BI, Looker und BigQuery ein.

Data Hub bietet:

  • Rohe Ereignisdaten aus jeder Interaktion zwischen AI Agents und Kund:innen

  • Integrierte PII-Bereinigung zum Schutz sensibler Informationen

  • Strukturierte Datensätze, optimiert für ein hohes Abfragevolumen (partitioniert nach Mandant und Ereignismonat)

  • Automatische Aktualisierung alle zwei Stunden

So können Teams die Performance der AI Agents mit CX-Ergebnissen verknüpfen, Regressionen schnell erkennen und Dashboards mit den BI-Tools erstellen, die sie bereits im Einsatz haben.

Smartere Gesprächsabschlüsse dank verbesserter Hangup-Automatisierung

Auflegevorgänge sind jetzt intelligenter und flexibler. Es gibt zwei Arten von Automatisierung:

  • Hangup-Events lösen Backend-Prozesse wie Ticket-Erstellung oder Fallabschluss aus, sobald ein Anruf beendet wird.

  • Hangup-Actions ermöglichen es AI Agents, Anrufe proaktiv zu beenden, wenn es angebracht ist – und vermeiden so unnötige Gesprächszeit.

Das Ergebnis ist ein runder Gesprächsabschluss und weniger manueller Aufwand.

Nahtlose Konnektivität mit SIP-Forward-Routing

Wir haben unsere Telefonie-Integrationen um SIP-Forward erweitert, was eine reibungslose Weiterleitung von Anrufen über ein breiteres Spektrum an Enterprise-Systemen ermöglicht. Das verbessert die Kompatibilität mit bestehenden Telefonie-Infrastrukturen und stellt sicher, dass Workflows ohne zusätzlichen Entwicklungsaufwand erhalten bleiben.

Personalisierung beginnt mit kontextbezogenen Daten

Gespräche starten jetzt intelligenter: AI Agents können relevante Kundendaten zu Beginn der Interaktion abrufen und nutzen. Das verhindert Wiederholungen und schafft von der ersten Interaktion an personalisierte Erlebnisse.

Handoffs, die den Kontext bewahren – mit erweiterten Daten

Übergaben zwischen Systemen verlaufen dank strukturiertem Daten-Routing flüssiger. AI Agents können jetzt wichtige Gesprächsergebnisse speichern und an CRMs und Support-Plattformen übermitteln. Dies stellt sicher, dass der Kontext erhalten bleibt, reduziert Reibung und ermöglicht eine schnellere Lösung, wenn menschliche Agents übernehmen.

Schnelle Fehlerbehebung mit Agent-Debugging

Das Debugging von Agents geht jetzt deutlich schneller – dank einer neuen, benutzerfreundlichen Oberfläche, die klare, strukturierte Einblicke bietet. Das verkürzt die Zeit für Troubleshooting, vereinfacht das Onboarding neuer Entwickler:innen und hilft Teams, Probleme effizienter zu lösen.

Klare, konsistente Aussprache

Sprachinteraktionen erhalten ein Präzisions-Upgrade: Mit der neuen Aussprachekontrolle (Pronunciation Control) kannst du direkt in der Plattform festlegen, wie Namen, Markenbegriffe, Codes oder IDs ausgesprochen werden. Eingebaute Lexika und intelligente Sprachparameter reduzieren manuelle Anpassungen und sichern gleichzeitig eine konsistente Sprachwiedergabe über alle Erlebnisse hinweg. Dies führt zu flüssigeren Kundeninteraktionen, die natürlich, professionell und unverkennbar nach der jeweiligen Marke klingen.

Automatisiertes Failover für maximale Sicherheit

Gespräche sollten nicht unterbrochen werden, nur weil ein Cloud-Anbieter gerade Probleme hat. Deshalb haben wir automatisches Failover eingeführt: ein Sicherheitsnetz, das gewährleistet, dass deine Kundeninteraktionen nahtlos weiterlaufen, selbst wenn ein Provider ausfällt.

Das ist neu:

  • Zwei Infrastruktur-Optionen, ein nahtloses Erlebnis: Wir unterstützen jetzt sowohl Azure als auch OpenAI für dieselben Modelle.

  • Eingebaute Redundanz: Lässt die Performance auf einer Seite nach, leitet Parloa den Traffic automatisch zur anderen um – ohne manuelles Eingreifen.

  • Sicher und compliant: OpenAI ist jetzt offizieller Sub-Processor für ausgewählte Services, und alles bleibt konform mit höchsten Standards.

Das Ergebnis: höhere Verfügbarkeit, mehr Ausfallsicherheit und weniger Sorgen für dein Team.

Was als Nächstes kommt

Jedes dieser Updates stärkt unsere Plattform weiter – hinsichtlich Benutzerfreundlichkeit, Zuverlässigkeit und Analytics. Die Features ermöglichen dir, AI Agents anzubieten, die nahtlose, bedeutsame Beziehungen zu deinen Kund:innen aufbauen. Die kommenden Verbesserungen werden noch tiefer in Richtung Anpassungsfähigkeit und Kontrolle auf Enterprise-Niveau gehen. Dadurch kannst du deinen AI Agents mehr zutrauen – und deine Teams behalten jederzeit die Übersicht.

Alle aktuellen Releases und Dokumentationen