Meta testet das gerade. Das neue "Nudity Protection"-Tool soll in den kommenden Monaten weltweit eingesetzt werden. Und wie funktioniert's? Die Künstliche Intelligenz soll automatisch Nacktbilder entdecken und unkenntlich machen, die über die Insta-DMs an Minderjährige versendet werden. Der Empfänger hat dann die Wahl, ob er das Bild sehen möchte oder nicht, sagte einer Sprecherin von Meta. Das Ziel: Junge Menschen vor "ungewollten und potenziell gefährlichem Kontakt" zu bewahren und vor sogenannter "Sextortion" zu schützen.
Zu wenig Schutz bei Instagram und Co.?
Mehr als 40 US-Bundesstaaten haben Meta bereits wegen des aus ihrer Sicht unzureichenden Schutzes insbesondere von Kindern verklagt. Auch die EU-Kommission hat eine Untersuchung zu den Kinderschutzmaßnahmen von Meta und anderen Digitalkonzernen eröffnet.