Mit KI im Content Marketing vom "Hidden-" zum "Visible-Champion" werden Jetzt zum Vortrag anmelden
Erfahren Sie, wie Sie mit dem effizienten Einsatz von KI-Tools und datenbasiertem Content-Marketing Ihre Online-Sichtbarkeit und Conversion-Rates nachhaltig steigern können.
Jetzt zum Vortrag anmelden
Expert Talk: "Verzahnung von Marketing und Vertrieb hat riesigen Effekt" Video-Podcast ansehen
"Effizienz" ist 2024 zu einem der wichtigsten Stichworte erfolgreicher Unternehmen geworden. Das gilt insbesondere für die Zusammenarbeit von Marketing und Vertrieb - die Budgets sind schließlich überall knapper geworden. Wie sich Unternehmen richtig aufstellen, damit die Umsätze flutschen, erklärt HubSpot-Managerin Josephine Wick Frona im iBusiness Expert Talk.Video-Podcast ansehen

Kampf gegen Kinderpornografie: Kritik an Apples neuer Kinderschutz-Funktion

09.08.2021 Die neue CSAM-Funktion untersucht die Foto-Galerien in der iCloud auf kinderpornografisches Material. Sicherheitsforscher sind jedoch alarmiert.

 (Bild: Jan Vazek auf Pixabay)
Bild: Jan Vazek auf Pixabay
Im Herbst wird Apple zur Homepage dieses Unternehmens Relation Browser mit iPadOS 15 und iOS 15 zunächst in den USA die neue Funktion 'CSAM-Detection' einführen, mit der über den Cloud-Dienst iCloud kinderpornografisches Material ("Child Sexual Abuse Material", CSAM) identifiziert und dann den zuständigen Behörden gemeldet werden soll. Dies erklärt Apple in einem Whitepaper zur Homepage dieses Unternehmens Relation Browser . Die Inhalte werden mit einer Datenbank der US-Non-Profit National Center for Missing and Exploited Children (NCMEC) zur Homepage dieses Unternehmens Relation Browser abgeglichen, die CSAM-Inhalte sammelt. Zusätzlich soll die eigene Apple-Funktion 'NeuralHash' nicht nur eindeutige Treffer, sondern auch "nahezu identische" Aufnahmen finden, die sich auch in Größe und Kompression vom Original unterscheiden können.

Für den Plan gibt es Applaus von Kinderschützern. SicherheitsforscherInnen üben jedoch Kritik, ihnen gehen diese Funktionen zu weit. Der Konzern betont zwar, beim CSAM-Scanning bleibe "die Nutzerprivatsphäre im Blick". Doch Kritiker monieren, dass Apple ein On-Device-Scanning plane, also die Inhalte nicht in der Cloud auf eigenen Servern scannt, wie Microsoft, Dropbox, Google etc., sondern direkt auf dem Gerät des Nutzers. Die 'NeuralHash'-Überpüfung soll jeweils vor dem Upload in die iCloud erfolgen - und nur wenn der iCloud-Foto-Upload aktiv ist, wie der Konzern laut Heise zur Homepage dieses Unternehmens Relation Browser nach der Kritik nochmals klarstellte. Kryptografie-Professor Matthew Green‘Matthew Green’ in Expertenprofilen nachschlagen von der Johns Hopkins University in Baltimore befürchtet jedoch, dass Apples Infrastruktur später missbraucht werden könne - etwa zum Scanning von aktuell Ende-zu-Ende-verschlüsselten Inhalten auf dem Gerät wie iMessages.

Und eine weitere neue Funktion sorgt für Diskussionen: Ein "Nacktscanner" in iMessage zur Homepage dieses Unternehmens Relation Browser . Das Feature soll künftig Kinder warnen, wenn sie "sexuell explizite Inhalte" erhalten oder versenden. Dabei wird ein erkanntes Bild zunächst unkenntlich gemacht, die Jugendlichen müssen dann entscheiden, ob sie es wirklich sehen möchten. Dann gibt es aber eine Benachrichtigung an die Eltern.
Neuer Kommentar  Kommentare:
Schreiben Sie Ihre Meinung, Erfahrungen, Anregungen mit oder zu diesem Thema. Ihr Beitrag erscheint an dieser Stelle.
Dienstleister-Verzeichnis Agenturen/Dienstleister zu diesem Thema:
Experten-Profile Genannte Personen: