Τεχνολογία

Η Apple αποσύρει το αμφιλεγόμενο σχέδιο παρακολούθησης των φωτογραφιών σας

Τίτλοι τέλους για την ανάπτυξη της τεχνολογίας CSAM της Apple, που θα της έδινε τη δυνατότητα να ελέγχει τις φωτογραφίες σας στο iCloud για εικόνες παιδικής σεξουαλικής κακοποίησης. Το Child Sexual Abuse Material αποκαλύφθηκε πέρυσι το φθινόπωρο, προκαλώντας έντονες αντιδράσεις από ειδικούς κρυπτογράφησης και ιδιωτικότητας, καθώς ενέχει τον κίνδυνο δημιουργίας ενός συστήματος παρακολούθησης το οποίο θα λειτουργεί απευθείας από το τηλέφωνό σας, το laptop ή το tablet σας.

Παρόλα αυτά, η Apple κυκλοφόρησε μία μορφή της CSAM τεχνολογίας με το iOS 15.2 και την ονόμασε “communication safety in iMessage”, όπου ο χρήστης μπορεί να επιλέξει από τις ρυθμίσεις Family Sharing της εφαρμογής Messages, να φιλτράρει εισερχόμενες και εξερχόμενες φωτογραφίες σεξουαλικού περιεχομένου σε λογαριασμούς παιδιών.

Αν εντοπίσει κάτι που θεωρεί πως ξεπερνά τα όρια, θολώνει την εικόνα και εμφανίζει ένα pop-up μήνυμα με οδηγίες βοήθειας ή μπλοκαρίσματος του αποστολέα. Το αρχικό σχέδιο ήταν να ειδοποιεί αυτόματα και το γονέα, αλλά στην πράξη αυτό παρέμεινε μόνο μία επιλογή για το χρήστη.

Τώρα, σύμφωνα με τη Wall Street Journal, η ανάπτυξη του CSAM σταματά και δίνεται έμφαση στην ιδιωτικότητα του χρήστη. Η εταιρία σχεδιάζει να επεκτείνει την κρυπτογράφηση απ’ άκρη σε άκρη για να συμπεριλαμβάνει τα backups του iPhone, προσθέτοντας νέα χαρακτηριστικά με στόχο τη διατήρηση της ιδιωτικότητας και της ασφάλειας κατά τη χρήση του iMessage και δεδομένων που αποθηκεύονται στο iCloud.

Πηγή: unboxholics.com

Related posts

Android 15: Κυκλοφόρησε η beta. Τί νέο φέρνει;

TEO

Το FBI έκανε hack τις υποδομές hacking ομάδας και έσωσε θύματα από επιθέσεις $130 εκατομμυρίων

TEO

Μάθαμε πότε θα αποκαλυφθούν τα Xiaomi 13 και το MIUI 14

TEO

Αυτός ο ιστότοπος χρησιμοποιεί cookies για να βελτιώσει την εμπειρία σας. Θα υποθέσουμε ότι είστε εντάξει με αυτό, αλλά μπορείτε να εξαιρεθείτε εάν το επιθυμείτε. Αποδέχομαι Διαβάστε περισσότερα

Πολιτική Απορρήτου & Cookies