Wir berichteten bereits über Metas neues Sicherheitsupdate, das WhatsApp-Nutzer mit smarter KI vor Betrug und Bildschirmfallen schützen soll. Heute – nach dem globalen Start – zeigt sich ein anderes Bild: Zwischen Lob für die Warnhinweise und Frust über neue Fehler herrscht ein klarer Tenor. Der Messenger, der sicherer werden sollte, nervt viele Nutzer.
Was Meta versprochen hatte
Meta kündigte Mitte Oktober 2025 den globalen Rollout einer KI-Funktion an, die Betrugserkennung direkt auf dem Gerät ermöglichen soll. Verdächtige Nachrichten, Geldforderungen oder Phishing-Links werden analysiert – angeblich ohne Serververbindung, also lokal auf dem Smartphone. Außerdem warnt WhatsApp jetzt aktiv, wenn jemand versucht, den Bildschirm mit einem Unbekannten zu teilen. Damit sollten vor allem ältere oder unerfahrene Nutzer besser geschützt werden.
Das Ziel war klar: Mehr Sicherheit ohne zusätzliche Apps.
Was in der Praxis ankommt
In der Realität häufen sich jedoch kritische Stimmen. Schon in den ersten Tagen nach dem Update melden sich auf Reddit und in Blogs enttäuschte Nutzer.
Einige berichten, dass der neue Bildschirmfreigabe-Schutz gar nicht funktioniert oder der „Teilen“-Button schlicht ausgegraut ist. Andere beschweren sich über verzögerte Chats, fehlerhafte Bilder oder das plötzliche Auftauchen von Filtern bei Videoanrufen.
Auch in den Play-Store-Bewertungen zeigt sich der Unmut deutlich:
- „Ich kann kaum noch Sprachnachrichten aufnehmen, dauernd Fehler.“
- „Seit dem letzten Update sehe ich Profilbilder nicht mehr richtig.“
- „Diese KI nervt, Nachrichten erscheinen, die ich nie geschrieben habe.“
- „Warum zensiert WhatsApp meine Videotelefonie mit automatischen Filtern?“
Zahlreiche Bewertungen kritisieren, dass WhatsApp seit Einführung des KI-Buttons „langsamer, fehleranfälliger und aufdringlicher“ wirkt.
Die KI wird missverstanden – und misstraut
In mehreren Blogs (u. a. Cyberpeace.org, Talk2Luke) wird erklärt, dass die KI-Funktion nicht in private Chats hineinschaut, sondern nur Muster in verdächtigen Nachrichten erkennt. Trotzdem kursieren Gerüchte, Meta könne jetzt alle Gespräche mitlesen. Diese Sorge wird durch die unklare Kommunikation des Unternehmens verstärkt.
Während Meta betont, dass alle Analysen lokal erfolgen, bleibt offen, welche Daten die App tatsächlich nutzt, um „Risikosituationen“ zu erkennen.
Zwischen Schutz und Schnüffel-Alarm
Ironischerweise sollte die neue Warnfunktion Vertrauen schaffen – doch das Gegenteil tritt ein. Viele Nutzer empfinden den plötzlichen KI-Button, die automatischen Filter und zusätzliche Berechtigungen als Kontrollverlust. Besonders deutlich:
- Der Wunsch, die KI komplett zu deaktivieren, wird in Foren häufig geäußert.
- Einige sehen in der Funktion „eine weitere Schicht Überwachung“.
- Technisch versierte Nutzer berichten, dass die Warnungen zu spät oder gar nicht erscheinen.
Die Idee, Betrug zu erkennen, ist also richtig – die Umsetzung jedoch holprig.
Fazit: Gute Absicht, schlechte Akzeptanz
Meta hat mit der neuen WhatsApp-KI eine Funktion vorgestellt, die theoretisch helfen könnte, Betrug zu verhindern. In der Praxis überwiegen jedoch derzeit Bugs, Datenschutzsorgen und Bedienungsprobleme.
Die Nutzerbasis von über zwei Milliarden Menschen reagiert empfindlich, wenn die App nicht mehr so funktioniert wie gewohnt. Und so kippt der erste Eindruck:
Aus dem „smarten Sicherheitsupdate“ wurde für viele nur ein weiteres Beispiel dafür, wie gut gemeinte KI schnell zur Quelle des Frusts werden kann.
Quellen: TechCrunch, Talk2Luke Blog, Hindustan Times, Reddit/r/whatsapp, Cyberpeace.org, Google Play Store Rezensionen (Stand: November 2025)



