Webinar: KI jenseits des Hypes erfolgreich nutzen Jetzt kostenfrei anmelden!
Am 02.10.2025, 11 Uhr, erfahren Sie im Webinar „SAIBIT: AI beyond the hype“, wie KI-Projekte wirtschaftlich, sicher und skalierbar umgesetzt werden. Praxisnahe Use-Cases und Tools zeigen, wie Unternehmen echten Mehrwert erzielen.
Jetzt kostenfrei anmelden!
App-Studie 2025: Alle Daten für Ihre Auswertung Kompletten Datensatz bestellen
Sie erhalten die komplette Studie 'Shopping-Apps 2025' inklusive der Umfragedaten als XLS-Datei. 37.000 Einzelauswertungen, 23 demographische Parametern der Nutzung von 65 Shopping-Apps aus zehn Branchen mit jeweils acht Detailauswertungen sowie zusätzlich den Zugriff auf elf Auswertungsanalysen mit 28 Charts.
Kompletten Datensatz bestellen

Kampf gegen Kinderpornografie: Kritik an Apples neuer Kinderschutz-Funktion

09.08.2021 Die neue CSAM-Funktion untersucht die Foto-Galerien in der iCloud auf kinderpornografisches Material. Sicherheitsforscher sind jedoch alarmiert.

 (Bild: Jan Vazek auf Pixabay)
Bild: Jan Vazek auf Pixabay
Im Herbst wird Apple   mit iPadOS 15 und iOS 15 zunächst in den USA die neue Funktion 'CSAM-Detection' einführen, mit der über den Cloud-Dienst iCloud kinderpornografisches Material ("Child Sexual Abuse Material", CSAM) identifiziert und dann den zuständigen Behörden gemeldet werden soll. Dies erklärt Apple in einem Whitepaper  . Die Inhalte werden mit einer Datenbank der US-Non-Profit National Center for Missing and Exploited Children (NCMEC)   abgeglichen, die CSAM-Inhalte sammelt. Zusätzlich soll die eigene Apple-Funktion 'NeuralHash' nicht nur eindeutige Treffer, sondern auch "nahezu identische" Aufnahmen finden, die sich auch in Größe und Kompression vom Original unterscheiden können.

Für den Plan gibt es Applaus von Kinderschützern. SicherheitsforscherInnen üben jedoch Kritik, ihnen gehen diese Funktionen zu weit. Der Konzern betont zwar, beim CSAM-Scanning bleibe "die Nutzerprivatsphäre im Blick". Doch Kritiker monieren, dass Apple ein On-Device-Scanning plane, also die Inhalte nicht in der Cloud auf eigenen Servern scannt, wie Microsoft, Dropbox, Google etc., sondern direkt auf dem Gerät des Nutzers. Die 'NeuralHash'-Überpüfung soll jeweils vor dem Upload in die iCloud erfolgen - und nur wenn der iCloud-Foto-Upload aktiv ist, wie der Konzern laut Heise   nach der Kritik nochmals klarstellte. Kryptografie-Professor Matthew Green von der Johns Hopkins University in Baltimore befürchtet jedoch, dass Apples Infrastruktur später missbraucht werden könne - etwa zum Scanning von aktuell Ende-zu-Ende-verschlüsselten Inhalten auf dem Gerät wie iMessages.

Und eine weitere neue Funktion sorgt für Diskussionen: Ein "Nacktscanner" in iMessage  . Das Feature soll künftig Kinder warnen, wenn sie "sexuell explizite Inhalte" erhalten oder versenden. Dabei wird ein erkanntes Bild zunächst unkenntlich gemacht, die Jugendlichen müssen dann entscheiden, ob sie es wirklich sehen möchten. Dann gibt es aber eine Benachrichtigung an die Eltern.
Neuer Kommentar  Kommentare:
Schreiben Sie Ihre Meinung, Erfahrungen, Anregungen mit oder zu diesem Thema. Ihr Beitrag erscheint an dieser Stelle.
alle Veranstaltungen Webcasts zu diesem Thema:
Dienstleister-Verzeichnis Agenturen/Dienstleister zu diesem Thema:
Experten-Profile Genannte Personen: