Ein US-amerikanisches Unternehmen für zahnmedizinische Dienstleistungen hat anfällige, handcodierte Scraping-Skripte durch eine KI-gesteuerte Automatisierung ersetzt, die die Versicherungsdaten von Patienten bei Dutzenden von Anbietern überprüft - mit nahezu perfekter Genauigkeit.
Problem
Der tägliche Betrieb des Unternehmens hing von der Überprüfung der Versicherungsberechtigung für jeden Patienten ab, wobei Details zum Versicherungsschutz, zu den einzelnen Tarifen und zur Krankengeschichte aus Dutzenden verschiedener Versicherungssysteme abgerufen werden mussten.
Der bisherige Ansatz war brachial: Techniker erstellten und pflegten manuell benutzerdefinierte Scraping-Skripte für die Portale der einzelnen Versicherungsanbieter. Jedes Mal, wenn ein Anbieter seine Benutzeroberfläche änderte, seinen Anmeldefluss aktualisierte oder seine Daten umstrukturierte, ging ein Skript kaputt. Jemand musste das Problem finden, den Code neu schreiben, ihn testen und erneut bereitstellen.
Es war eine nicht enden wollende Wartungs-Tretmühle. Langsam, anfällig, teuer in der Wartung und unmöglich zu skalieren, wenn das Unternehmen neue Versicherungspartner hinzufügte.
Herausforderung
Portale von Versicherungsanbietern sind nicht für die Automatisierung ausgelegt. Sie unterscheiden sich stark in ihrer Struktur, den Authentifizierungsabläufen und den Datenformaten. Sie ändern sich ohne Vorwarnung. Herkömmliche RPA- und Scraping-Tools erfordern starre, regelbasierte Skripte, die in dem Moment zerbrechen, in dem sich eine Schaltfläche bewegt oder ein Formularfeld seine Bezeichnung ändert.
Das Unternehmen benötigte ein anpassungsfähiges System - nicht eines, das jedes Mal einen Entwickler erforderte, wenn ein Portal sein CSS aktualisierte.
Lösung
Wir haben eine intelligente Automatisierungspipeline entwickelt, die KI-gesteuerte Browserinteraktion mit mehrstufiger Datenverarbeitung kombiniert:
- Dramatiker als zentrale Automatisierungsschicht - ein KI‑Agent, der auf den Portalen der Versicherer so navigiert, wie es ein Mensch tun würde: sich anmelden, die richtigen Bildschirme finden, das Seitenlayout interpretieren und die relevanten Daten extrahieren.
- Mehrstufige LLM‑Verarbeitungspipeline das die extrahierten Rohdaten - eine Kombination aus Versicherungsdaten und Krankengeschichte des Patienten aus verschiedenen Quellen - in eine saubere, strukturierte Ausgabe umwandelt.
- Direkte JSON‑Integration mit dem Kernsystem des Kunden und liefert geprüfte Versicherungsdaten, die sofort nachgelagert verarbeitet und analysiert werden können.
Das Ergebnis ist ein System, das den gesamten Verifizierungs-Workflow von Anfang bis Ende abwickelt: Anmeldung, Navigation, Extraktion, Verarbeitung und Zustellung - ohne menschliches Eingreifen.
Ergebnisse
| Metrisch | Auswirkungen |
|---|---|
| Genauigkeit | Nahezu 100% an bearbeiteten Versicherungsunterlagen |
| Zeit bis zur Produktion | ~2 bis 3 Monate ab Projektbeginn |
| Manuelle Skriptpflege | Eliminiert - KI passt sich an Portaländerungen an |
| Integration | Direkte JSON‑Ausgabe an das Kernsystem des Kunden |
| Status | In Produktion, täglicher Betrieb seit Anfang 2025 |
Was früher ein Team von Ingenieuren benötigte, das ein Flickwerk von fragilen Skripten pflegte, wird heute von einem KI‑System erledigt, das jeden Tag autonom arbeitet.
Wie der Kunde auf Clutch feststellte, lieferte das Projekt innerhalb von etwa 2-3 Monaten eine Produktionsversion mit einer Genauigkeit von fast 100%. Das COGITA‑Team passte sich schnell an die Arbeitsabläufe des Kunden an und reagierte schnell, wenn Probleme auftraten (siehe die vollständige Bewertung hier).