Τεχνολογία

Η Apple αποσύρει το αμφιλεγόμενο σχέδιο παρακολούθησης των φωτογραφιών σας

Τίτλοι τέλους για την ανάπτυξη της τεχνολογίας CSAM της Apple, που θα της έδινε τη δυνατότητα να ελέγχει τις φωτογραφίες σας στο iCloud για εικόνες παιδικής σεξουαλικής κακοποίησης. Το Child Sexual Abuse Material αποκαλύφθηκε πέρυσι το φθινόπωρο, προκαλώντας έντονες αντιδράσεις από ειδικούς κρυπτογράφησης και ιδιωτικότητας, καθώς ενέχει τον κίνδυνο δημιουργίας ενός συστήματος παρακολούθησης το οποίο θα λειτουργεί απευθείας από το τηλέφωνό σας, το laptop ή το tablet σας.

Παρόλα αυτά, η Apple κυκλοφόρησε μία μορφή της CSAM τεχνολογίας με το iOS 15.2 και την ονόμασε “communication safety in iMessage”, όπου ο χρήστης μπορεί να επιλέξει από τις ρυθμίσεις Family Sharing της εφαρμογής Messages, να φιλτράρει εισερχόμενες και εξερχόμενες φωτογραφίες σεξουαλικού περιεχομένου σε λογαριασμούς παιδιών.

Αν εντοπίσει κάτι που θεωρεί πως ξεπερνά τα όρια, θολώνει την εικόνα και εμφανίζει ένα pop-up μήνυμα με οδηγίες βοήθειας ή μπλοκαρίσματος του αποστολέα. Το αρχικό σχέδιο ήταν να ειδοποιεί αυτόματα και το γονέα, αλλά στην πράξη αυτό παρέμεινε μόνο μία επιλογή για το χρήστη.

Τώρα, σύμφωνα με τη Wall Street Journal, η ανάπτυξη του CSAM σταματά και δίνεται έμφαση στην ιδιωτικότητα του χρήστη. Η εταιρία σχεδιάζει να επεκτείνει την κρυπτογράφηση απ’ άκρη σε άκρη για να συμπεριλαμβάνει τα backups του iPhone, προσθέτοντας νέα χαρακτηριστικά με στόχο τη διατήρηση της ιδιωτικότητας και της ασφάλειας κατά τη χρήση του iMessage και δεδομένων που αποθηκεύονται στο iCloud.

Πηγή: unboxholics.com

Related posts

Η OpenAI του ChatGPT ετοιμάζει μια τεράστια ανακοίνωση τη Δευτέρα

TEO

Ανακαλύφθηκε νέα πατέντα της Sony για περιφερειακά του PS3 στο PS5

TEO

Το OPPO A98 5G ήρθε στην Ελλάδα με μεγάλη μπαταρία και οθόνη 120Hz

TEO

Αυτός ο ιστότοπος χρησιμοποιεί cookies για να βελτιώσει την εμπειρία σας. Θα υποθέσουμε ότι είστε εντάξει με αυτό, αλλά μπορείτε να εξαιρεθείτε εάν το επιθυμείτε. Αποδέχομαι Διαβάστε περισσότερα

Πολιτική Απορρήτου & Cookies