Schlüsselwörter: Künstliche Intelligenz, KI, psychologische Beratung, digitale Interventionen, Patientensicherheit, klinische Risikoprävention, Krisenintervention, digitale Gesundheitsanwendungen, Hybridarchitektur
Der Einsatz KI-gestützter Dialogsysteme (z. B. Chatbots) bietet großes Potenzial zur Ergänzung bestehender Versorgungsstrukturen, steht jedoch vor erheblichen Herausforderungen hinsichtlich therapeutischer Sicherheit und Verantwortung. Dieser Werkstattbericht stellt am Beispiel des psychologischen KI-Assistenten Aury dar, unter welchen Aspekten eine risikosensitive Hybridarchitektur für KI-basierte psychologische Begleitung entwickelt werden kann. Durch die Kombination eines regelbasierten Dialogsystems mit einem empathischen Sprachmodell (LLM) können kritische Situationen wie Suizidalität, Jugendschutz, schwere psychische Erkrankungen oder Overuse-Verhalten systematisch erkannt und verantwortungsvoll adressiert werden. Der technologische Ansatz wird flankiert durch eine ethisch-therapeutisch fundierte Produktentwicklung mit definiertem Sicherheitskonzept, das auf ethische Gesprächsführung, Begrenzung systemischer Risiken und Stärkung der Selbstwirksamkeit zielt. Die vorgestellte Herangehensweise an KI-Architektur und psychologische Sicherheitsgestaltung kann verantwortliches Dialogverhalten befördern und als Brücke zu professioneller Behandlung fungieren, ohne menschliche Expertise zu ersetzen.