An den Osterfeiertagen 2025 kam es im nordrhein-westfälischen Everswinkel zu einem Vorfall, der auf den ersten Blick wie eine Erfolgsgeschichte wirkt: Ein vierjähriges Kind geriet im Schwimmbad in Not – und wurde durch den Bademeister rechtzeitig gerettet, nachdem das neue KI-gestützte Überwachungssystem Alarm geschlagen hatte. Die eingesetzte Technologie stammt von der israelischen Firma Lynxight, die sich auf KI-Videoanalysen im Schwimmbad spezialisiert hat. Die Systeme erkennen potenziell gefährliche Verhaltensmuster im Wasser und benachrichtigen das Personal über Smartwatches in Echtzeit.

Technische Fakten:

  • Das System funktioniert lokal: Die Daten werden nicht in eine Cloud gesendet, sondern ausschließlich vor Ort verarbeitet.
  • Es erfolgt keine Gesichtserkennung; der Fokus liegt auf der Bewegungserkennung im Wasser.
  • Die Aufnahmen werden nach spätestens 60 Sekunden automatisch gelöscht.

Kosten: Ein Beispiel: Das Stadionbad in Köln investierte rund 50.000 Euro in die Implementierung der Technologie. Auch andere Städte wie Wiesbaden und Kassel setzen auf ähnliche Systeme – mit zunehmender Tendenz.

Warum das alles trotzdem nicht so einfach ist

Es ist eine jener Entwicklungen, bei denen sich Kritik fast schon wie ein Affront gegen Menschenleben anfühlt: Eine KI erkennt, dass ein Kind zu ertrinken droht – und rettet es. Was will man mehr? Doch gerade weil das so eindeutig gut erscheint, lohnt sich ein zweiter, vielleicht unbequemer Blick.

1. Ethik der Automatisierung: Die schleichende Verantwortungserosion Wenn eine KI zuverlässig lebensbedrohliche Situationen erkennt, liegt die Verlockung nahe, sich darauf zu verlassen. Es entsteht ein Automation Bias – die menschliche Tendenz, technischen Systemen mehr zu vertrauen als der eigenen Beobachtung. Bademeister könnten unbewusst weniger wachsam sein. Auch Eltern oder andere Badegäste denken womöglich: „Die KI passt ja auf.“ Der Begriff, der hier passt, wäre vielleicht eine „technologisch induzierte Verantwortungsdiffusion“.

2. Der zweite Aspekt: Soziale Normalisierung und Kontrollillusion Wenn solche Systeme Schule machen, entsteht ein Erwartungsdruck: Wer kein KI-gestütztes Überwachungssystem einsetzt, gilt als unsicher. Die Technik wird nicht nur als Hilfe gesehen, sondern als Norm. So etabliert sich ein fokalisches Konformitätsstreben – ein Gruppenzwang zur Technologisierung, der langfristig kaum mehr hinterfragt wird.

3. Datenschutz? Offenbar kein großes Thema – aber sollte es das nicht sein? Obwohl laut Betreiber alle Daten lokal verarbeitet und schnell gelöscht werden, bleibt ein fader Beigeschmack. Videoüberwachung – selbst ohne Gesichtserkennung – bedeutet immer eine Veränderung des öffentlichen Raums. Kinder, Familien, Badegäste: Sie alle werden zu Datenpunkten. Zwar ist die Nutzung zweifellos sinnvoll, doch gerade deshalb muss sie besonders kritisch begleitet werden.

Fazit: Die Geschichte aus Everswinkel ist ein Paradebeispiel für das, was Technik leisten kann – und für das, was wir gesellschaftlich aushandeln müssen. Ein Kind wurde gerettet. Aber die langfristige Frage lautet nicht nur: Können wir das? Sondern: Wollen wir das auf diese Weise?

Teile den Beitrag:

Alle Beiträge kennzeichnen wir hiermit als Werbung. Die Werbekennzeichnung erfolgt, da Marken von Hard- und Software genannt werden. Oftmals werden App-Codes zur Verfügung gestellt sowie Gadgets zum Test. Als Amazon-Partner verdienen wir an qualifizierten Verkäufen. Zudem gehen wir Contentpartnerschaften oder Kooperationen ein. Hilf uns, indem du mit diesem Amazon-Link einkaufst! Lade dir unsere kostenlosen Quiz-Spiele hier herunter!

Hinterlasse eine Antwort