Apple analysiert Nutzerbilder auf CSAM
Apple hat für iOS 15 und verwandte Betriebssysteme eine neue Funktion angekündigt, die sogenanntes CSAM (Child Sexual Abuse Material), also Kinderpornografie erkennen und melden können soll. Konkret analysiert das System Fotos während sie in die Herstellereigene „iCloud“ hochgeladen werden. Was zunächst wie ein wichtiger Schritt im Kampf gegen sexuellen Missbrauch von Kindern klingt, hat jedoch … Weiterlesen