Ο Hod Lipson, ένας μηχανολόγος μηχανικός που διευθύνει το Εργαστήριο Δημιουργικών Μηχανών στο Πανεπιστήμιο της Κολούμπια, έχει διαμορφώσει το μεγαλύτερο μέρος της καριέρας του γύρω από αυτό που ορισμένοι άνθρωποι στον κλάδο του αποκαλούν c-word.

Ένα ηλιόλουστο πρωινό τον περασμένο Οκτώβριο, ο γεννημένος στο Ισραήλ ρομποτικός κάθισε πίσω από ένα τραπέζι στο εργαστήριό του και εξήγησε τον εαυτό του. «Αυτό το θέμα ήταν ταμπού», είπε, με ένα χαμόγελο που αποκάλυψε ένα μικρό κενό ανάμεσα στα μπροστινά του δόντια. «Σχεδόν μας απαγόρευσαν να μιλήσουμε για αυτό – «Μην μιλάτε για τη λέξη c. δεν θα πάρεις θητεία» – οπότε στην αρχή έπρεπε να το κρύψω, σαν να ήταν κάτι άλλο».

Αυτό έγινε στις αρχές της δεκαετίας του 2000, όταν ο Lipson ήταν επίκουρος καθηγητής στο Πανεπιστήμιο Cornell. Εργαζόταν για να δημιουργήσει μηχανές που θα μπορούσαν να παρατηρήσουν πότε κάτι δεν πήγαινε καλά με το δικό τους υλικό και στη συνέχεια να αλλάξουν τη συμπεριφορά τους για να αντισταθμίσουν αυτή τη βλάβη χωρίς την καθοδήγηση ενός προγραμματιστή.

Αυτό το είδος της ενσωματωμένης προσαρμοστικότητας, υποστήριξε ο Lipson, θα γινόταν πιο σημαντικό καθώς εξαρτιόμαστε περισσότερο από μηχανές. Τα ρομπότ χρησιμοποιούνταν για χειρουργικές επεμβάσεις, για την παραγωγή τροφίμων και τη μεταφορά. οι εφαρμογές για μηχανές έμοιαζαν σχεδόν ατελείωτες και οποιοδήποτε σφάλμα στη λειτουργία τους, καθώς ενσωματώθηκαν περισσότερο στη ζωή μας, θα μπορούσε να οδηγήσει σε καταστροφή. «Θα παραδώσουμε κυριολεκτικά τη ζωή μας σε ένα ρομπότ», είπε. «Θέλετε αυτά τα μηχανήματα να είναι ανθεκτικά».

Ένας τρόπος για να γίνει αυτό ήταν να αντλήσουμε έμπνευση από τη φύση. Τα ζώα, και ιδιαίτερα οι άνθρωποι, είναι καλοί στην προσαρμογή στις αλλαγές. Αυτή η ικανότητα μπορεί να είναι αποτέλεσμα εκατομμυρίων ετών εξέλιξης, καθώς η ανθεκτικότητα σε απόκριση σε τραυματισμούς και μεταβαλλόμενα περιβάλλοντα συνήθως αυξάνει τις πιθανότητες να επιβιώσει και να αναπαραχθεί ένα ζώο. Ο Λίπσον αναρωτήθηκε αν θα μπορούσε να αναπαράγει αυτό το είδος φυσικής επιλογής στον κώδικά του, δημιουργώντας μια γενικεύσιμη μορφή νοημοσύνης που θα μπορούσε να μάθει για το σώμα και τη λειτουργία του ανεξάρτητα από το πώς έμοιαζε αυτό το σώμα και ανεξάρτητα από τη λειτουργία.

Αυτό το είδος νοημοσύνης θα ήταν ευέλικτο και γρήγορο. Θα ήταν τόσο καλό σε μια δύσκολη κατάσταση όσο και οι άνθρωποι – καλύτερα, ακόμη και. Και καθώς η μηχανική μάθηση γινόταν πιο ισχυρή, αυτός ο στόχος φαινόταν να γίνεται εφικτός. Ο Λίπσον κέρδισε τη θητεία του και η φήμη του μεγάλωσε. Έτσι, τα τελευταία δύο χρόνια, άρχισε να διατυπώνει το θεμελιώδες κίνητρό του για όλη αυτή τη δουλειά. Άρχισε να λέει δυνατά τη λέξη c: Θέλει να δημιουργήσει συνειδητά ρομπότ.

Το Creative Machines Lab, στον πρώτο όροφο του κτηρίου Seeley W. Mudd της Κολούμπια, είναι οργανωμένο σε κουτιά. Το ίδιο το δωμάτιο είναι ένα κουτί, σπασμένο σε κουτιού σταθμούς εργασίας με επένδυση από κουτιά. Μέσα σε αυτή τη σειρά, ρομπότ και κομμάτια ρομπότ είναι σκορπισμένα τριγύρω.

Η πρώτη δυσκολία με τη μελέτη της λέξης c είναι ότι δεν υπάρχει συναίνεση γύρω από το τι πραγματικά αναφέρεται. Αυτό συμβαίνει με πολλές ασαφείς έννοιες, όπως η ελευθερία, το νόημα, η αγάπη και η ύπαρξη, αλλά αυτός ο τομέας συχνά υποτίθεται ότι προορίζεται για φιλοσόφους και όχι για μηχανικούς. Μερικοί άνθρωποι προσπάθησαν να ταξινομήσουν τη συνείδηση, εξηγώντας την δείχνοντας λειτουργίες στον εγκέφαλο ή κάποιες πιο μεταφυσικές ουσίες, αλλά αυτές οι προσπάθειες δεν είναι καταληκτικές και προκαλούν περισσότερες ερωτήσεις. Ακόμη και μια από τις πιο κοινές περιγραφές της λεγόμενης φαινομενικής συνείδησης – ένας οργανισμός είναι συνειδητός «αν υπάρχει κάτι που είναι σαν να είναι αυτός ο οργανισμός», όπως το έθεσε ο φιλόσοφος Thomas Nagel – μπορεί να αισθάνεται ασαφής.

Η βόλτα απευθείας σε αυτά τα θολά νερά μπορεί να φαίνεται άκαρπη στους ρομποτικούς και τους επιστήμονες υπολογιστών. Όμως, όπως είπε ο Antonio Chella, ένας ρομποτικός στο Πανεπιστήμιο του Παλέρμο στην Ιταλία, εκτός και αν ληφθεί υπόψη η συνείδηση, «αισθάνεται ότι κάτι λείπει» στη λειτουργία των ευφυών μηχανών.

Η προσπάθεια απόδοσης της σκληρής λέξης c με χρήση εισόδων και συναρτήσεων με δυνατότητα μεταφοράς είναι μια δύσκολη, αν όχι αδύνατη, εργασία. Οι περισσότεροι ρομποτικοί και μηχανικοί τείνουν να παρακάμπτουν τη φιλοσοφία και να σχηματίζουν τους δικούς τους λειτουργικούς ορισμούς. Ο Thomas Sheridan, ομότιμος καθηγητής μηχανολογίας στο Ινστιτούτο Τεχνολογίας της Μασαχουσέτης, είπε ότι πίστευε ότι η συνείδηση ​​θα μπορούσε να περιοριστεί σε μια συγκεκριμένη διαδικασία και ότι όσο περισσότερα μαθαίνουμε για τον εγκέφαλο, τόσο λιγότερο ασαφής θα φαίνεται η ιδέα.

(Φιλόσοφοι όπως ο Daniel Dennett και η Patricia Churchland και ο νευροεπιστήμονας Michael Graziano, μεταξύ άλλων, έχουν προτείνει μια ποικιλία λειτουργικών θεωριών της συνείδησης.)

Ο Lipson και τα μέλη του Creative Machines Lab εμπίπτουν σε αυτήν την παράδοση. Συμβιβάστηκε σε ένα πρακτικό κριτήριο για τη συνείδηση: την ικανότητα να φαντάζεσαι τον εαυτό σου στο μέλλον.

Το όφελος από τη λήψη θέσης σε μια λειτουργική θεωρία της συνείδησης είναι ότι επιτρέπει την τεχνολογική πρόοδο.

Ένα από τα πρώτα ρομπότ με αυτογνωσία που αναδύθηκε από το Creative Machines Lab είχε τέσσερα αρθρωτά πόδια και ένα μαύρο σώμα με αισθητήρες συνδεδεμένους σε διαφορετικά σημεία. Μετακινώντας και σημειώνοντας πώς άλλαξαν οι πληροφορίες που εισέρχονταν στους αισθητήρες του, το ρομπότ δημιούργησε μια προσομοίωση φιγούρας του εαυτού του. Καθώς το ρομπότ συνέχιζε να κινείται, χρησιμοποίησε έναν αλγόριθμο μηχανικής μάθησης για να βελτιώσει την προσαρμογή μεταξύ του αυτο-μοντέλου του και του πραγματικού του σώματος. Το ρομπότ χρησιμοποίησε αυτή την εικόνα του εαυτού του για να καταλάβει, σε προσομοίωση, μια μέθοδο για να προχωρήσει μπροστά. Μετά εφάρμοσε αυτή τη μέθοδο στο σώμα της. είχε καταλάβει πώς να περπατήσει χωρίς να του δείξει πώς να περπατήσει.

Αυτό αντιπροσώπευε ένα σημαντικό βήμα προς τα εμπρός, είπε ο Boyuan Chen, ρομποτικός στο Πανεπιστήμιο Duke που εργαζόταν στο Creative Machines Lab. «Στην προηγούμενη εμπειρία μου, κάθε φορά που εκπαιδεύεις ένα ρομπότ να κάνει μια νέα ικανότητα, πάντα έβλεπες έναν άνθρωπο στο πλάι», είπε.

Πρόσφατα, ο Chen και ο Lipson δημοσίευσαν μια εργασία στο περιοδικό Science Robotics που αποκάλυψε το νεότερο μηχάνημα που γνωρίζει τον εαυτό τους, έναν απλό βραχίονα με δύο συνδέσμους που ήταν στερεωμένος σε ένα τραπέζι. Χρησιμοποιώντας κάμερες που είχαν τοποθετηθεί γύρω του, το ρομπότ παρατήρησε τον εαυτό του καθώς κινούνταν. Αρχικά, δεν είχε αίσθηση του πού βρισκόταν στο διάστημα, αλλά μέσα σε μερικές ώρες, με τη βοήθεια ενός ισχυρού αλγόριθμου βαθιάς μάθησης και ενός μοντέλου πιθανοτήτων, μπόρεσε να ξεχωρίσει στον κόσμο.

Ο κίνδυνος της δέσμευσης σε οποιαδήποτε θεωρία της συνείδησης είναι ότι με αυτόν τον τρόπο ανοίγει η δυνατότητα κριτικής. Σίγουρα, η αυτογνωσία φαίνεται σημαντική, αλλά δεν υπάρχουν άλλα βασικά χαρακτηριστικά της συνείδησης; Μπορούμε να ονομάσουμε κάτι συνειδητό αν δεν μας φαίνεται συνειδητό;

Η Chella πιστεύει ότι η συνείδηση ​​δεν μπορεί να υπάρξει χωρίς τη γλώσσα και έχει αναπτύξει ρομπότ που μπορούν να σχηματίσουν εσωτερικούς μονολόγους, να συλλογιστούν με τον εαυτό τους και να συλλογιστούν τα πράγματα που βλέπουν γύρω τους. Ένα από τα ρομπότ του κατάφερε πρόσφατα να αναγνωρίσει τον εαυτό του σε έναν καθρέφτη, περνώντας αυτό που είναι ίσως το πιο διάσημο τεστ αυτοσυνείδησης των ζώων.

Ο Joshua Bongard, ρομποτικός στο Πανεπιστήμιο του Βερμόντ και πρώην μέλος του Creative Machines Lab, πιστεύει ότι η συνείδηση ​​δεν αποτελείται μόνο από τη γνώση και τη νοητική δραστηριότητα, αλλά έχει μια ουσιαστικά σωματική πτυχή.

Το περασμένο καλοκαίρι, περίπου την ίδια στιγμή που ο Lipson και ο Chen κυκλοφόρησαν το νεότερο ρομπότ τους, ένας μηχανικός της Google ισχυρίστηκε ότι το πρόσφατα βελτιωμένο chatbot της εταιρείας, που ονομάζεται LaMDA, είχε τις αισθήσεις του και του άξιζε να του φέρονται σαν μικρό παιδί. Αυτός ο ισχυρισμός αντιμετωπίστηκε με σκεπτικισμό, κυρίως επειδή, όπως σημείωσε ο Lipson, το chatbot επεξεργαζόταν «έναν κώδικα που είναι γραμμένος για να ολοκληρώσει μια εργασία». Δεν υπήρχε υποκείμενη δομή της συνείδησης, είπαν άλλοι ερευνητές, μόνο η ψευδαίσθηση της συνείδησης. Ο Lipson πρόσθεσε: «Το ρομπότ δεν είχε αυτογνωσία. Είναι λίγο σαν απάτη».

Αυτό το άρθρο δημοσιεύθηκε αρχικά στους New York Times.

Από news