Πρόσφατα στις Ηνωμένες Πολιτείες η υπόθεση ενός δικηγόρου τράβηξε την προσοχή της κοινής γνώμης, καθώς στήριξε τη γραμμή υπεράσπισής του σε προηγούμενες υποθέσεις που, ωστόσο, δεν είχαν συμβεί. Ο δικηγόρος παραδέχτηκε ότι έλαβε τις αναφορές του σε αυτές τις «ανύπαρκτες» υποθέσεις μέσω της χρήσης τεχνητής νοημοσύνης. Αυτό το περιστατικό, μαζί με άλλα, ανησύχησε τους «πατέρες» της τεχνητής νοημοσύνης, οδηγώντας τους να συνυπογράψουν ένα δεύτερο κείμενο που δίνει προτεραιότητα στους κινδύνους που ενέχει η διείσδυση της τεχνητής νοημοσύνης στη ζωή μας.

Ο Yoshua Bengio, καθηγητής στο Τμήμα Επιστήμης Υπολογιστών και Επιχειρησιακής Έρευνας στο Πανεπιστήμιο του Μόντρεαλ και ένας από τους τρεις «νονούς» της τεχνητής νοημοσύνης, εξηγεί σε συνέντευξή του στην Καθημερινή γιατί οι άνθρωποι κινδυνεύουν λόγω της ταχείας ανάπτυξης «ευφυών» μηχανές, πώς αυτές οι μηχανές γίνονται πιο έξυπνες από τους ανθρώπους και ποιες παράμετροι πρέπει να λαμβάνονται υπόψη κατά τη σύνταξη του κανονιστικού πλαισίου για την εποπτεία των εταιρειών που δραστηριοποιούνται στον τομέα της τεχνητής νοημοσύνης.

Ως μέρος της συνέντευξης, ρωτήσαμε το λογισμικό τεχνητής νοημοσύνης ChatGPT σχετικά με το επιστημονικό υπόβαθρο του καθηγητή Bengio. Η απάντηση που λάβαμε ήταν ότι «σε όλη τη διάρκεια της καριέρας του, ο καθηγητής Bengio έχει λάβει πολυάριθμα βραβεία κύρους, συμπεριλαμβανομένου του βραβείου Turing, που συχνά αναφέρεται ως «Βραβείο Νόμπελ Υπολογιστών», για τη θεμελιώδη συνεισφορά του στη βαθιά μάθηση», ενώ πρόσθεσε ότι «Ο καθηγητής Ο Yoshua Bengio συνεχίζει να διαμορφώνει το μέλλον της τεχνητής νοημοσύνης, εμπνέοντας ερευνητές, επαγγελματίες και την ευρύτερη κοινότητα να ξεκλειδώσουν τις τεράστιες δυνατότητες αυτού του μετασχηματιστικού πεδίου».

Θεωρείστε ένας από τους πρωτοπόρους στην ανάπτυξη της τεχνητής νοημοσύνης. Τι σας τράβηξε το ενδιαφέρον;

Γύρω στο 1986, με τράβηξε πολύ η έρευνα για τα νευρωνικά δίκτυα, η οποία ήταν πολύ οριακή. Η ιδέα ότι θα μπορούσαν να υπάρχουν μερικές απλές αρχές που θα μπορούσαν να εξηγήσουν τη δική μας νοημοσύνη και επίσης να μας επιτρέψουν να κατασκευάσουμε ευφυείς μηχανές, όπως οι νόμοι της φυσικής για την ευφυΐα, ήταν πολύ ενδιαφέρουσα. Επομένως, η ιδέα ότι αυτοί οι νόμοι θα μπορούσαν να υπάρχουν και ότι θα μπορούσαμε να τους βρούμε με παρακίνησε.

Ποια είναι τα βασικά σημεία που πρέπει να κατανοήσουν οι μη ειδικοί σχετικά με τον τρόπο λειτουργίας της τεχνητής νοημοσύνης και για ποιους κινδύνους πρέπει να τους προειδοποιήσουμε;

Πρώτον, θα πρέπει να γνωρίζουν ότι η επιτυχία που έχουμε πετύχει στην τεχνητή νοημοσύνη τα τελευταία χρόνια οφείλεται στην ικανότητα των μηχανών να μαθαίνουν. Αυτό το ονομάζουμε «μηχανική μάθηση». Δεν προγραμματίζουμε αυτούς τους υπολογιστές να κάνουν συγκεκριμένα πράγματα ή να αντιδρούν σε νέες καταστάσεις. Αντίθετα, τους προγραμματίζουμε με διαδικασίες εκμάθησης, ώστε να μπορούν να αλλάξουν τα «νευρικά βάρη» τους, τα οποία είναι σαν συνδέσεις μεταξύ τεχνητών νευρώνων. Και έτσι, αυτό σημαίνει ότι οι ικανότητες δεν είναι πάντα οι αναμενόμενες. Πολλή έμπνευση για αυτό το σχέδιο προήλθε από την ανθρώπινη νοημοσύνη και τον ανθρώπινο εγκέφαλο.

Τώρα, για το δεύτερο μέρος της ερώτησής σας, ποιοι είναι οι κίνδυνοι; Οι κίνδυνοι είναι ότι εάν κατασκευάσουμε πολύ ισχυρά συστήματα, θα μπορούσαν να τα εκμεταλλευτούν οι άνθρωποι με τρόπους που θα μπορούσαν να είναι πολύ καλοί ή πολύ κακοί. Όπως κάθε τεχνολογία διπλής χρήσης, όσο πιο ισχυρή είναι, τόσο πιο επικίνδυνη μπορεί να είναι, αλλά και τόσο πιο χρήσιμη. Αυτός είναι λοιπόν ο πρώτος κίνδυνος.

Το κύριο πράγμα για το οποίο με απασχολεί είναι πώς αυτά τα συστήματα θα μπορούσαν να αποσταθεροποιήσουν τις δημοκρατίες επειδή μπορούν να κατανοήσουν τη γλώσσα και να τη χρησιμοποιήσουν για να αλληλεπιδράσουν μαζί μας και να μας χειραγωγήσουν, να μας επηρεάσουν ή να μας κάνουν να αλλάξουμε την πολιτική μας γνώμη. Άρα αυτό μπορεί να είναι πολύ επικίνδυνο. Δεν βλέπουμε πλήρως τις λεπτομέρειες για το πώς μπορεί να συμβεί αυτό. Πολλοί άνθρωποι συζητούν ότι χρειαζόμαστε ρυθμιστική νομοθεσία για να μας προστατεύει, για παράδειγμα, για να αναγκάσει τις εταιρείες να δείξουν ότι λαμβάνει χώρα κάποια αλληλεπίδραση με ένα σύστημα τεχνητής νοημοσύνης, όχι με έναν άνθρωπο, ή ότι το περιεχόμενο που βλέπετε, βίντεο, κείμενο ή ήχος, προέρχεται από μηχανή.

Ο άλλος κίνδυνος για τον οποίο με ανησυχεί, ο οποίος είναι ίσως ελαφρώς πιο μακροπρόθεσμος, είναι η απώλεια του ελέγχου. Δηλαδή, σχεδιάζουμε αυτά τα συστήματα αυτή τη στιγμή, αλλά δεν μπορούμε να τους πούμε να συμπεριφέρονται με συγκεκριμένους τρόπους. Είναι δύσκολο να βεβαιωθείτε ότι δεν θα συμπεριφερθούν με τρόπους που θα μπορούσαν να είναι επιβλαβείς για τον άνθρωπο. Και αν χάσουμε τον έλεγχο, μπορεί να αρχίσουν να κάνουν πράγματα που θέλουν να κάνουν, και μετά θα μπορούσαν να ενεργήσουν με τρόπους που θα μπορούσαν να είναι επικίνδυνοι για την ανθρωπότητα, ειδικά αν γίνουν πιο έξυπνοι από εμάς. Και πιθανότατα θα είναι πιο έξυπνοι από εμάς γιατί, όπως ξέρουμε, είμαστε μηχανές. Ο εγκέφαλός μας είναι μηχανές, βιολογικές μηχανές. Και σημειώνουμε πρόοδο στην κατανόηση των αρχών του τρόπου λειτουργίας της νοημοσύνης μας. Και θα συνεχίσουμε να σημειώνουμε πρόοδο και να αναπτύσσουμε αρχές που λειτουργούν για έξυπνες μηχανές. Επομένως, γνωρίζουμε ότι είναι δυνατό να κατασκευάσουμε μηχανές τουλάχιστον τόσο έξυπνες όσο εμείς, αλλά πιθανότατα μπορούμε να κατασκευάσουμε μηχανές που θα είναι πιο έξυπνες από εμάς.

Αυτή τη στιγμή, οι μηχανές μπορούν να διαβάσουν όλα όσα έχουν γράψει οι άνθρωποι. Και κανένας άνθρωπος δεν μπορεί να το κάνει αυτό, σωστά; Έτσι, μπορούν να έχουν πρόσβαση σε μια ποσότητα δεδομένων και να μάθουν από αυτή τη μεγάλη ποσότητα που είναι πολύ περισσότερα από όσα μπορούν να διαχειριστούν οι άνθρωποι.

Πιστεύετε ότι οι μηχανές θα μπορούσαν να γίνουν πιο σοφές από τους ανθρώπους;

Θα μπορούσαν να γίνουν πιο έξυπνοι. Δεν είναι ακόμη, αλλά σε ορισμένες πτυχές, είναι σαφώς καλύτεροι από εμάς ήδη. Η πραγματική σοφία απαιτεί την κατανόηση του τι σημαίνει να είσαι άνθρωπος. Και δεν νομίζω ότι έχουν ακόμη αυτή την κατανόηση, αλλά μπορούν να φτάσουν εκεί επειδή έχουν διαβάσει τόσο πολύ κείμενο που έχουν γράψει οι άνθρωποι και αυτό θα μπορούσε να έρθει πιο γρήγορα από ό,τι περιμέναμε. Έτσι, αν με ρωτούσατε πριν από μερικά χρόνια, θα έλεγα ότι μπορεί να χρειαστούν πολλές δεκαετίες. Τώρα δεν είμαι τόσο σίγουρος. Θα μπορούσε να είναι λιγότερο από μια δεκαετία. Θα μπορούσε να είναι μόνο μερικά χρόνια.

Από την εμπειρία σας, τι μας διδάσκει η τεχνητή νοημοσύνη για τα ανθρώπινα εμπόδια και την ανθρώπινη σκέψη;

Αυτά τα συστήματα έχουν εκπαιδευτεί διαβάζοντας τόνους και τόνους κειμένων, ουσιαστικά, και μερικές φορές εικόνων. Και έτσι, είναι ο καθρέφτης του τρόπου με τον οποίο σκέφτεται η ανθρωπότητα στο σύνολό της, συμπεριλαμβανομένων των προκαταλήψεων και των εσφαλμένων απόψεων για τον κόσμο. Απλώς επαναλαμβάνουν αυτά που έχουν διαβάσει. Αλλά δεν είναι απλώς η επανάληψη λέξης, στην πραγματικότητα, μπορούν να κατανοήσουν ένα είδος λογικής σκέψης. Έτσι, ως ένα βαθμό, μπορούμε να τα αναλύσουμε ως έναν τρόπο ανάλυσης των ανθρώπων. Ωστόσο, είναι επίσης μερικές φορές αρκετά διαφορετικά από εμάς επειδή δεν λειτουργούν ακριβώς με τις ίδιες αρχές με τη βιολογία. Έτσι, μπορείτε να τα σκεφτείτε ως ένα είδος εξωγήινης νοημοσύνης. Σαν ένα ον από άλλο πλανήτη. Ταυτόχρονα όμως είναι και ο καθρέφτης μας γιατί έχουν εκπαιδευτεί στον πλανήτη μας.

Εάν ήσασταν σε θέση να επιβάλετε ένα σύνταγμα κανόνων που θα ρυθμίζει το περιβάλλον λειτουργίας για την τεχνητή νοημοσύνη, ποιοι θα ήταν οι βασικοί κανόνες;

Χρειαζόμαστε πολύ περισσότερη τεκμηρίωση, διαφάνεια, ελέγχους και παρακολούθηση για να παρακολουθούμε τον τρόπο κατασκευής αυτών των συστημάτων. Αυτό είναι το πρώτο πράγμα. Στη συνέχεια, όταν πρόκειται να αναπτυχθούν αυτά τα συστήματα, πρέπει να αναπτυχθούν με τρόπο που να σέβεται ορισμένους κανόνες για την προστασία του κοινού. Πολλοί άνθρωποι έχουν μιλήσει για το πώς να μειώσουν πιθανές προκαταλήψεις όπως ο ρατσισμός ή ο μισογυνισμός. Ένα πράγμα για το οποίο με ανησυχεί είναι ότι αυτά τα συστήματα θα μπορούσαν να αποσταθεροποιήσουν τη δημοκρατία. Και για αυτό, θέλουμε να βεβαιωθούμε ότι θα έχουμε έναν κανόνα που λέει ότι όταν το περιεχόμενο που δημιουργήθηκε από μια τεχνητή νοημοσύνη εμφανίζεται σε έναν χρήστη, ο χρήστης πρέπει να δει καθαρά ότι δημιουργήθηκε από AI. Και υπάρχουν τεχνικοί τρόποι για να γίνει αυτό, όπως με τη χρήση αυτού που ονομάζεται υδατογράφηση. Για να αναγνωρίσουμε αυτό το περιεχόμενο προέρχεται από AI.

Ποιες θα ήταν οι πιθανές εξελίξεις της τεχνητής νοημοσύνης στην εποχή μετά το ChatGPT και τι πρόκειται να δούμε την επόμενη δεκαετία;

Νομίζω ότι μία από τις μεγαλύτερες προκλήσεις στις οποίες εργάζονται πολλοί άνθρωποι –συμπεριλαμβανομένου και εμένα– είναι ο τρόπος με τον οποίο κάνουμε αυτά τα συστήματα πιο συνεκτικά, πιο αξιόπιστα. Να μπορούν να συλλογίζονται μέσα από μακριές αλυσίδες συλλογισμών με αξιόπιστο τρόπο, αποφεύγοντας την τάση τους σε αυτό που οι άνθρωποι αποκαλούν ψευδαισθήσεις, που σημαίνει «ψευδείς δηλώσεις» με πολύ ισχυρή εμπιστοσύνη. Είναι αυτό που αποκαλώ “με αυτοπεποίθηση λάθος”, και αυτό είναι κακό γιατί θα μπορούσε να οδηγήσει σε κακές αποφάσεις εάν οι άνθρωποι ακολουθήσουν αυτό που έχει προτείνει η μηχανή. Έτσι, αν συγκρίνουμε τη μηχανή με την ανθρώπινη γνώση, βλέπουμε ότι αυτά τα συστήματα είναι αρκετά καλά στο να μιμούνται πώς λειτουργεί η διαίσθησή μας. Άρα, αυτά τα συστήματα δεν έχουν έννοια αλήθειας. Απλώς μιμούνται το στυλ γραφής των ανθρώπων.

Σε ποιο τομέα ενδιαφέροντος θα συμβουλεύατε τους μαθητές σας να εστιάσουν την προσοχή τους;

Σε τρεις περιοχές. Το πρώτο είναι πώς αναπτύσσουμε περισσότερες εφαρμογές για κοινωνικό αγαθό, υγειονομική περίθαλψη, περιβάλλον, εκπαίδευση και κοινωνική δικαιοσύνη. Δεν υπάρχουν αρκετές επενδύσεις σε αυτά, επειδή δεν είναι τόσο σημαντικό για τις εταιρείες όσο τα κοινωνικά δίκτυα ή τα συστήματα συστάσεων και το πού βγάζουν τα περισσότερα χρήματα οι εταιρείες. Δεύτερον, πρέπει να κατανοήσουμε καλύτερα το χάσμα μεταξύ της ανθρώπινης νοημοσύνης και της νοημοσύνης μηχανών προκειμένου να δημιουργήσουμε πιο αξιόπιστα συστήματα. Και τρίτον, πρέπει να κάνουμε πολύ περισσότερη έρευνα για την ασφάλεια, δηλαδή πώς σχεδιάζουμε συστήματα και πολιτικές, πώς αλλάζουμε ακόμη και ίσως το οικονομικό μας σύστημα και πώς συντονιστούμε διεθνώς για να διασφαλίσουμε ότι δεν θα έχουμε καταστροφικά αποτελέσματα.

Από news