An den Osterfeiertagen 2025 kam es im nordrhein-westfälischen Everswinkel zu einem Vorfall, der auf den ersten Blick wie eine Erfolgsgeschichte wirkt: Ein vierjähriges Kind geriet im Schwimmbad in Not – und wurde durch den Bademeister rechtzeitig gerettet, nachdem das neue KI-gestützte Überwachungssystem Alarm geschlagen hatte. Die eingesetzte Technologie stammt von der israelischen Firma Lynxight, die sich auf KI-Videoanalysen im Schwimmbad spezialisiert hat. Die Systeme erkennen potenziell gefährliche Verhaltensmuster im Wasser und benachrichtigen das Personal über Smartwatches in Echtzeit.
Technische Fakten:
- Das System funktioniert lokal: Die Daten werden nicht in eine Cloud gesendet, sondern ausschließlich vor Ort verarbeitet.
- Es erfolgt keine Gesichtserkennung; der Fokus liegt auf der Bewegungserkennung im Wasser.
- Die Aufnahmen werden nach spätestens 60 Sekunden automatisch gelöscht.
Kosten: Ein Beispiel: Das Stadionbad in Köln investierte rund 50.000 Euro in die Implementierung der Technologie. Auch andere Städte wie Wiesbaden und Kassel setzen auf ähnliche Systeme – mit zunehmender Tendenz.
Warum das alles trotzdem nicht so einfach ist
Es ist eine jener Entwicklungen, bei denen sich Kritik fast schon wie ein Affront gegen Menschenleben anfühlt: Eine KI erkennt, dass ein Kind zu ertrinken droht – und rettet es. Was will man mehr? Doch gerade weil das so eindeutig gut erscheint, lohnt sich ein zweiter, vielleicht unbequemer Blick.
1. Ethik der Automatisierung: Die schleichende Verantwortungserosion Wenn eine KI zuverlässig lebensbedrohliche Situationen erkennt, liegt die Verlockung nahe, sich darauf zu verlassen. Es entsteht ein Automation Bias – die menschliche Tendenz, technischen Systemen mehr zu vertrauen als der eigenen Beobachtung. Bademeister könnten unbewusst weniger wachsam sein. Auch Eltern oder andere Badegäste denken womöglich: „Die KI passt ja auf.“ Der Begriff, der hier passt, wäre vielleicht eine „technologisch induzierte Verantwortungsdiffusion“.
2. Der zweite Aspekt: Soziale Normalisierung und Kontrollillusion Wenn solche Systeme Schule machen, entsteht ein Erwartungsdruck: Wer kein KI-gestütztes Überwachungssystem einsetzt, gilt als unsicher. Die Technik wird nicht nur als Hilfe gesehen, sondern als Norm. So etabliert sich ein fokalisches Konformitätsstreben – ein Gruppenzwang zur Technologisierung, der langfristig kaum mehr hinterfragt wird.
3. Datenschutz? Offenbar kein großes Thema – aber sollte es das nicht sein? Obwohl laut Betreiber alle Daten lokal verarbeitet und schnell gelöscht werden, bleibt ein fader Beigeschmack. Videoüberwachung – selbst ohne Gesichtserkennung – bedeutet immer eine Veränderung des öffentlichen Raums. Kinder, Familien, Badegäste: Sie alle werden zu Datenpunkten. Zwar ist die Nutzung zweifellos sinnvoll, doch gerade deshalb muss sie besonders kritisch begleitet werden.
Fazit: Die Geschichte aus Everswinkel ist ein Paradebeispiel für das, was Technik leisten kann – und für das, was wir gesellschaftlich aushandeln müssen. Ein Kind wurde gerettet. Aber die langfristige Frage lautet nicht nur: Können wir das? Sondern: Wollen wir das auf diese Weise?