Inhalt
- Meine erste Frage an ChatGPT
- Der hai.BOT – eine sichere Alternative zu ChatGPT?
- Wie unterscheiden sich ChatGPT und hai.BOT im Hinblick auf ihr Antwortverhalten?
- Warum der hai.BOT der charmantere Gesprächspartner ist
- Nächste hai.BOT-Version bietet natürliche Dialoge durch multidimensionales Verständnis
- Wir arbeiten am wertstiftenden Einsatz von GPT-Technologie für Krankenkassen
- Fazit

1. Meine erste Frage an ChatGPT
Ich weiß noch genau, wie ich das erste Mal ChatGPT genutzt habe: Es war Anfang Dezember. ChatGPT hatte bereits fünf Tage nach Veröffentlichung über eine Million Nutzer generiert. Ich war im Urlaub und dachte mir: „Endlich gibt’s ein Tool, welches komfortabel relevante Erkenntnisse der Quantenphysik in Alltagssprache fassen kann!“ Das musste ich selbst ausprobieren. Also VPN angemacht und mit meinem OpenAi-Account angemeldet. Dann habe ich gefragt, was die fünf relevantesten Veröffentlichungen im Kontext der Quantenphysik sind – sorry, ich bin da halt ein Nerd.
Die Antwort hat mich echt verblüfft. Und zwar nicht, weil sie gut formuliert war und prompt zur Verfügung stand. Das tat sie und diese Tatsache war absolut beeindruckend. Womit ich jedoch überhaupt nicht gerechnet hatte: Ein Werk, ich weiß nicht mehr genau welches, tauchte zwei Mal in der Liste auf. In einer Liste mit fünf Einträgen – nicht mit fünf Millionen. Enttäuscht fragte ich ChatGPT, ob es denn nicht selbst gemerkt hätte, dass nur vier verschiedene Werke in der Liste stünden? Darauf entschuldigte sich ChatGPT bei mir, korrigierte den Fehler und gab mir nun tatsächlich fünf verschiedene Werke an.
Viel schwierigere Aufgaben, wie etwa das Zusammenfassen der einzelnen Werke, meisterte die KI hingegen mit Leichtigkeit. Unterm Strich war ich begeistert von der Flexibilität, mit der ChatGPT Antworten erstellt hat, indem es detailliert auf meine Wünsche eingegangen ist. In meinem Fall war es ja auch nur Spaß und nicht wichtig, dass jede Antwort zu 100 Prozent verlässlich ist.
Bei der Kommunikation zwischen Krankenkasse und Versicherten ist das bekannterweise anders. Hier könnten entsprechende Falschmeldungen gravierende Reputationsschäden oder sogar rechtliche Folgen nach sich ziehen. Und wie ist das eigentlich mit dem hai.BOT, den wir für viele Krankenkassen bereitstellen?
2. Der hai.BOT – eine sichere Alternative zu ChatGPT?
Unser hai.BOT fühlt sich zweifellos anders an als ChatGPT – weniger flexibel und weniger dynamisch. Klingt im ersten Moment weniger attraktiv. Allerdings bietet der hai.BOT Krankenkassen einen entscheidenden Vorteil gegenüber ChatGPT: Er stellt sicher, dass die Versicherten ausschließlich fachlich korrekte Antworten auf ihre Fragen erhalten. Wie ihm das gelingt? Der hai.BOT greift im Dialog auf ein zuvor definiertes und qualitätsgesichertes Portfolio passender Antwortmöglichkeiten zurück. Dieses ist sowohl inhaltlich als auch im Hinblick auf die Tonalität individuell auf die jeweilige Krankenkasse zugeschnitten. Fachlich falsche Antworten, wie die folgende, gibt es also garantiert nicht:
3. Wie unterscheiden sich ChatGPT und hai.BOT im Hinblick auf ihr Antwortverhalten?
Schauen wir uns das mal genauer an: Rein technisch könnte der hai.BOT genauso dynamische Antworten geben, wie ChatGPT. Denn es handelt sich in beiden Fällen um KI-basierte Bots, die in der Lage sind, Anfragen automatisiert zu beantworten, indem sie auf erlerntes Wissen zurückgreifen. Doch während ChatGPT zu jeder Anfrage eine plausible Antwort "frei" generiert, haben wir dies beim hai.BOT ganz bewusst unterbunden. Stattdessen bedient sich der hai.BOT bei seinen Antworten wie eingangs erwähnt aus vordefinierten Textbausteinen. Diese sind naturgemäß nicht so individuell und flexibel, wie jene, die erst aufgrund der jeweiligen Fragestellung zusammengebaut werden.
4. Warum der hai.BOT der charmantere Gesprächspartner ist
Bei der Entwicklung des hai.BOT haben wir uns stets an den Anforderungen der GKV orientiert. Zum einen muss ein Krankenkassen-Chatbot ein breites Themenspektrum abdecken, um Versicherten effektiv weiterhelfen und die Sachbearbeitenden in der Kasse entlasten zu können. Darüber hinaus ist es jedoch wichtig, dass der Bot fachlich korrekte Informationen liefert, die sowohl inhaltlich als auch stilistisch der jeweiligen Krankenkasse entsprechen. Und das ist der entscheidende Punkt: Vermeintlich plausible Antworten sind nicht immer korrekt. Für eine Krankenkasse als seriöser Gesundheitspartner der Versicherten ist es jedoch essentiell, korrekte Antworten zu liefern, auf deren Inhalt Versicherte sich verlassen können.
ChatGPT steht regelmäßig in der Kritik, da User die Antworten nicht hinterfragen und aufgrund fehlender oder auch falscher Quellenangaben keine Möglichkeit haben, deren Korrektheit zu überprüfen. Aussagen wie die folgende, möchte sicherlich keine Krankenkasse als Absender verantworten:
Ein weiterer Aspekt ist die geeignete Tonalität der Bots. Diese sollte einerseits der jeweiligen Krankenkasse entsprechen und andererseits gleichbleibend freundlich und wertschätzend gegenüber Versicherten sein. Dies ist bei ChatGPT nicht durchgängig der Fall. Vielmehr versucht die KI, sich im Verlauf einer Unterhaltung dem Ton seines Gesprächspartners anzupassen – mit zum Teil unschönen Ergebnissen. Unter anderem aus diesem Grund hat Microsoft die Anzahl der Chats pro Konversation bei Bing eingeschränkt. Das heißt nach 15 Nachrichten zu einem Thema ist Schluss.
Beim hai.BOT haben wir uns daher ganz bewusst für ein anderes Vorgehen entschieden. Bereits seit der ersten Version des hai.BOTs setzen auch wir KI-Modelle, genauer gesagt transformerbasierte Sprachmodelle ein und trainieren diese mit Daten. Im ersten Schritt nutzen wir beispielsweise das gesamte deutschsprachige Internet, um den „Blanko-Sprachmodellen“ Deutsch beizubringen. Im nächsten Schritt trainieren wir sie darauf, bestimmte Absichten hinter Chatnachrichten zu erkennen, sogenannte „Intents“. Hinter jeder Absicht stecken dann wiederum Antworten, die passend zur ursprünglichen Frage ausgegeben werden. Diese Antworten werden kassenindividuell hinterlegt und in Zusammenarbeit mit Verantwortlichen der jeweiligen Krankenkasse regelmäßig qualitätsgesichert. Die KI wird beim hai.BOT also eingesetzt, um die Eingaben der Versicherten zu verstehen und sie einer plausiblen Absicht sowie einer passenden Antwort zuzuordnen. Dieses Vorgehen bietet Krankenkassen und Versicherten gleichermaßen ein hohes Maß an Sicherheit und Verlässlichkeit.