Η τεχνητή νοημοσύνη έχει μπει για τα καλά στη ζωή όλων μας. Αρχικά την ακούγαμε στην επιστήμη και σαν κάτι «ουάου»… Καλώς ή κακώς, πλέον βρίσκεται στα χέρια των περισσοτέρων από εμάς, με το αποτέλεσμα να φοβίζει, αν το σκεφτεί κανείς λίγο καλύτερα…
Καθημερινά βλέπουμε φωτογραφίες να αποκτούν κίνηση, μαθητές και φοιτητές να γράφουν ολόκληρες εργασίες δίνοντας απλά στο ChatGPT μερικά στοιχεία, δημοσιογράφους να γράφουν ολόκληρα άρθρα και συνεντεύξεις με τον ίδιο τρόπο κ.λπ.
Τα παραπάνω είναι κάποια απλά παραδείγματα, που όμως συναντάμε γύρω μας, με τους δημιουργούς τους να νιώθουν χαρούμενοι και ανακουφισμένοι που «δημιούργησαν» μόλις με κάποια κλικ ένα αποτέλεσμα.
Από την άλλη, φαίνεται να οδηγούμαστε σε μια κοινωνία που κανείς δε θα σκέφτεται και απλά θα αποφασίζει για αυτόν το ChatGPT ή όποια άλλη αντίστοιχη εφαρμογή τεχνητής νοημοσύνης.
Όσοι, δε, καταφεύγουν σε αυτή τη λύση… θα πρέπει να έχουν στο μυαλό τους ότι εφαρμογές σαν το ChatGPT δεν είναι τόσο αθώες. Άλλωστε, αυτοί που το δημιούργησαν δεν είναι τόσο μεγαλόψυχοι για να προσφέρουν στους χρήστες κάτι τόσο σημαντικό δωρεάν.
Κάνοντας μια απλή αναζήτηση, σίγουρα όχι σε μια τέτοια εφαρμογή, αλλά στο google (που, φυσικά, ούτε αυτό είναι τόσο αθώο, αλλά τουλάχιστον δίνει στο χρήστη τη δυνατότητα να σκεφτεί λίγο), βρήκα ένα άρθρο στο newmonew.gr, που αναφέρει τα εξής για τις φωτογραφίες που μαζικά κάποιοι ανεβάζουν για επεξεργασία: Η ανάρτηση φωτογραφιών στο ChatGPT κρύβει κινδύνους ιδιωτικότητας και ασφάλειας. Ειδικοί προειδοποιούν για πιθανή χρήση δεδομένων χωρίς συναίνεση και για αναπαραγωγή εικόνων από τα AI μοντέλα μελλοντικά.
Σε άλλο σημείο το άρθρο αναφέρει: Απλές φωτογραφίες μπορεί να αποδειχθούν επικίνδυνες αν βρεθούν σε λάθος χέρια. Περιέχουν metadata, όπως τοποθεσία και χρόνο λήψης, και μπορούν να φανερώσουν αριθμούς λογαριασμών, διευθύνσεις ή ακόμη και ιατρικές διαγνώσεις. Πολλοί δε συνειδητοποιούν ότι συχνά οι εικόνες χρησιμοποιούνται για εκπαίδευση μοντέλων χωρίς σαφή συγκατάθεση.
Η Wall Street Journal τονίζει πως κάποιες φωτογραφίες ενδέχεται να χαραχθούν στη «μνήμη» των συστημάτων και να επανεμφανιστούν σε απαντήσεις. Οι πιο επικίνδυνες είναι εκείνες που κυκλοφορούν χιλιάδες φορές στο διαδίκτυο ως memes, αλλά και όσες παρουσιάζουν εξαιρετικά διακριτά χαρακτηριστικά.
Για το μέσο χρήστη, πιστή αναπαραγωγή φωτογραφιών από AI είναι απίθανη. Όμως, σε selfie υψηλής ανάλυσης υπάρχει κίνδυνος το chatbot να αναπαράγει αναγνωρίσιμα στοιχεία. Και ανεξάρτητα από τις τρέχουσες πολιτικές, το μέλλον παραμένει αβέβαιο.
«Ό,τι ανεβάζετε θα ζήσει πολύ περισσότερο από τη στιγμή της χρήσης», υπογραμμίζει η Sarah Myers West του AI Now Institute.
Πλην των φωτογραφιών, αρκετοί χρήστες δίνουν στο ChatGPT ευαίσθητα προσωπικά τους δεδομένα, τα οποία σίγουρα δε θα ήθελαν να μοιραστούν.
Βέβαια, ο καθένας μπορεί να κάνει ό,τι θέλει και να χρησιμοποιεί οποιαδήποτε εφαρμογή, αλλά καλό θα ήταν να κάνουμε και μια δεύτερη σκέψη και να μην τα θέλουμε «όλα στο πιάτο», γιατί όσο δε δουλεύει το μυαλό, τόσο χαζεύουμε.
Tώρα, για όσους επιμένουν (και καλά κάνουν στην τελική) να δουλεύουν με εφαρμογές τεχνητής νοημοσύνης, σας αναφέρω ορισμένα είδη πληροφοριών που, όπως αναφέρει η Wall Street Journal, δεν πρέπει ποτέ να μοιράζεστε με μια τέτοια εφαρμογή:
1. Προσωπικά δεδομένα ταυτότητας: Πληροφορίες όπως αριθμοί ταυτότητας, ΑΦΜ, ημερομηνία γέννησης, διευθύνσεις κατοικίας και τηλέφωνα δεν πρέπει ποτέ να κοινοποιούνται. Τέτοια στοιχεία μπορούν εύκολα να χρησιμοποιηθούν σε περιπτώσεις απάτης.
2. Ιατρικά αρχεία και διαγνώσεις: Η ανάρτηση ιατρικών εγγράφων ενέχει μεγάλο ρίσκο. Αν ζητάτε βοήθεια για κάποιο ιατρικό θέμα, αποκρύψτε κάθε αναγνωριστικό στοιχείο.
3. Οικονομικά δεδομένα: Οι αριθμοί τραπεζικών λογαριασμών, πιστωτικές κάρτες και οικονομικές απολαβές πρέπει να παραμένουν ιδιωτικά. Τα chatbots δεν έχουν σχεδιαστεί για να χειρίζονται τέτοιες κρίσιμες πληροφορίες με απόλυτη ασφάλεια.
4. Εταιρικά μυστικά και επαγγελματικές πληροφορίες: Αν εργάζεστε σε μια επιχείρηση, η κοινοποίηση στρατηγικών σχεδίων, δεδομένων πελατών ή εσωτερικών εγγράφων μέσω chatbot μπορεί να αποδειχτεί καταστροφική.
5. Στοιχεία πρόσβασης και κωδικοί: Passwords, PINs και άλλα διαπιστευτήρια ασφαλείας δεν πρέπει να καταχωρούνται σε συνομιλίες. Τα chatbots δεν είναι φτιαγμένα για την αποθήκευση τέτοιων δεδομένων.
Και κάτι τελευταίο… Αν θέλει κάποιος να δει αν ένα κείμενο είναι προϊόν του ChatGPT, είναι πολύ εύκολο να το βρει, με μερικά κλικ και αυτό…
Οπότε προσοχή…
Ο ανοικονόμητος