Chat GPT.
Η τεχνητή νοημοσύνη, είναι προφανές πως σαν εργαλείο διευκολύνει αδιαμφισβήτητα οποιονδήποτε κλάδο χρειάζεται δημιουργία κειμένου, αφού φαίνεται να παρέχει όχι μόνο έτοιμα κείμενα σύμφωνα με τις οδηγίες του χρήστη, αλλά και απαντήσεις πάνω σε οποιαδήποτε ερώτηση. Βέβαια συχνά ως τώρα είναι αφερέγγυο μέσο όσον αφορά στο τι υπόσχεται και τι παρέχει αλλά μεγαλύτερος κίνδυνος είναι άλλος.
Το πρόβλημα, όπως πάντα σε θέματα τεχνολογικών καινοτομιών, είναι πως θα χρησιμοποιηθούν και από κακόβουλα χέρια. Όσο μεγαλύτερες οι δυνατότητες για καλό, συνήθως εξίσου μεγάλες οι δυνατότητες ζημίας, αν το εργαλείο χρησιμοποιηθεί με αυτόν τον σκοπό.
Πείραμα από φοιτητές πληροφορικής.
Ένα πείραμα που έτρεξαν και συνεχίζουν να τρέχουν φοιτητές πληροφορικής ανά τον κόσμο απ’ όταν ήρθε στη ζωή μας το Chat GPT, αφορά την ικανότητα της τεχνητής νοημοσύνης να φτιάξει παραπλανητικά email τύπου phishing με δυνητικό ποσοστό επιτυχίας μεγαλύτερο, από αυτό που έχουν τα αντίστοιχα email, που έχουν συνταχθεί από ανθρώπους. Πέρα από το ενδιαφέρον της συγκριτικής ανάλυσης, το ίδιο το θέμα γεννά πολυάριθμες ανησυχίες σχετικά με την αύξηση τέτοιων περιστατικών και την “αναβάθμιση” κάθε τέτοιας απόπειρας υποκλοπής σε κάτι πολύ πειστικότερο.
Οι δράσεις υποκλοπής και εξαπάτησης μέχρι και σήμερα περιορίζονταν από τον χρόνο και τις ιδέες, που χρειάζεται κάποιος για να καταφέρει να πείσει το θύμα πως είναι ανάγκη να πληρώσει ή να δώσει πρόσβαση σε προσωπικά στοιχεία και συχνά απευθύνονταν σε άτομα που από την δεύτερη κιόλας απάντηση καταλάβαιναν πως επρόκειτο για απάτη.
Τεχνητή νοημοσύνη – το πρόβλημα
Τι γίνεται, όμως, όταν ο συνομιλητής σου ξαφνικά είναι εκπαιδευμένος με συστήματα μηχανικής και ενισχυμένης μάθησης (machine & reinforcement learning) πάνω σε τεράστια σύνολα δεδομένων γραπτού λόγου καθημερινά; Ο χρήστης θα είναι αντιμέτωπος με απαντήσεις γρήγορες και φαινομενικά βάσιμες, που θα έχουν παραχθεί από ένα πρόγραμμα εκπαιδευμένο, πάνω σε ό, τι έχει γραφτεί ποτέ στο διαδίκτυο.
Ταυτόχρονα, τα εργαλεία αυτά δεν απαιτούν ιδιαίτερα μεγάλη υπολογιστική δύναμη ή οποιοδήποτε απρόσιτο είδος hardware για να χρησιμοποιηθούν, άρα ο ίδιος scammer που προ-ChatGPT αφιέρωνε ώρες, εβδομάδες ή και μήνες για το χτίσιμο μιας απάτης και της υλοποίησης της, τώρα μπορεί να τρέχει εκατοντάδες ή και χιλιάδες καμπάνιες την ίδια στιγμή με πολύ μεγαλύτερο ποσοστό επιτυχίας.
Είναι εμφανές πως τα ανερχόμενα εργαλεία τεχνητής νοημοσύνης εξελίσσονται και παρέχουν νέες δυνατότητες πολύ πιο γρήγορα, σε σχέση με την αντίστοιχη εξέλιξη των μέτρων ασφαλείας και πρόληψης σε καθολικό επίπεδο, ειδικά στη χώρα μας.
Με νέες εφαρμογές τους να προκύπτουν σχεδόν κάθε μέρα, είναι σαφέστατα πιο απαραίτητο από ποτέ, κάθε επαγγελματίας ή απλός ιδιώτης και βέβαια οι μεγάλοι οργανισμοί να αναθεωρήσουν και να επαναξιολογήσουν τις ενέργειες στις οποίες προβαίνουν καθημερινά για να προστατέψουν τα προσωπικά (και όχι μόνο) δεδομένα τους. Αυτό σημαίνει την ενεργοποίηση του Two-factor-authentication (2FA) σε όποιον λογαριασμό διαθέτουν, και τον εφοδιασμό τους με cybersecurity hardware, όπως τα YubiKeys, με την απόλυτη και προσωποποιημένη ασφάλεια που παρέχουν.
Ο μοναδικός παράγοντας που δεν διατρέχει κίνδυνο από τα εργαλεία που προσφέρει η Τεχνητή Νοημοσύνη είναι η προσωπική μας μέριμνα, και η θωράκιση μας με τα κλειδιά ασφαλείας της Yubico που αντιπροσωπεύει η Smart Management στην Ελλάδα, Πορτογαλία, Ισπανία και Ιταλία, ώστε να κρατάμε την διαδικτυακή μας ασφάλεια στα χέρια μας αντί επισφαλών εφαρμογών.
Πηγή: Smart Management