ΔΙΑΒΑΣΤΕ

6/recent/ticker-posts

Gary Marcus: Οι επείγοντες κίνδυνοι της τεχνητής νοημοσύνης και τι να κάνουμε γι 'αυτούς

 Είμαι εδώ για να μιλήσω για τη δυνατότητα παγκόσμιας διακυβέρνησης με Τεχνητή Νοημοσύνη. Πρώτη φορά έμαθα να κωδικοποιώ όταν ήμουν οκτώ χρονών, σε έναν χάρτινο υπολογιστή και από τότε είμαι ερωτευμένος με την τεχνητή νοημοσύνη. 

Στο γυμνάσιο, πήρα τον Commodore 64 και δούλεψα στην αυτόματη μετάφραση. Έφτιαξα μερικές εταιρείες τεχνητής νοημοσύνης, πούλησα μία από αυτές στην Uber. Λατρεύω την τεχνητή νοημοσύνη, αλλά αυτή τη στιγμή ανησυχώ.



Ένα από τα πράγματα που με ανησυχούν είναι η παραπληροφόρηση, η πιθανότητα κακοί ηθοποιοί να κάνουν ένα τσουνάμι παραπληροφόρησης όπως δεν έχουμε ξαναδεί. Αυτά τα εργαλεία είναι τόσο καλά στο να κάνουν πειστικές αφηγήσεις για σχεδόν οτιδήποτε.

Αν θέλετε μια αφήγηση για το TED και το πόσο επικίνδυνο είναι, "κατασκευάζουμε", ότι εδώ συνεννοούμαστε με εξωγήινους του διαστήματος, το καταλάβατε? δεν υπάρχει κανένα πρόβλημα. Αστειεύομαι φυσικά για το TED. Δεν είδα κανέναν διαστημικό εξωγήινο στα παρασκήνια. Αλλά οι κακοί ηθοποιοί θα χρησιμοποιήσουν αυτά τα πράγματα για να επηρεάσουν τις εκλογές και θα απειλήσουν τη δημοκρατία.

Ακόμη και όταν αυτά τα συστήματα δεν χρησιμοποιούνται σκόπιμα για την παραπληροφόρηση, δεν μπορούν να βοηθήσουν τον εαυτό τους. Και οι πληροφορίες που παράγουν είναι τόσο ρευστές και τόσο γραμματικές που ακόμη και οι επαγγελματίες συντάκτες μερικές φορές παρασύρονται και ξεγελιούνται από αυτά τα πράγματα. Και πρέπει να ανησυχούμε.

Για παράδειγμα, η ChatGPT έφτιαξε ένα σκάνδαλο σεξουαλικής παρενόχλησης σχετικά με έναν πραγματικό καθηγητή και στη συνέχεια παρείχε αποδεικτικά στοιχεία για τον ισχυρισμό της με τη μορφή ενός πλαστού άρθρου της «Washington Post» στο οποίο δημιούργησε μια αναφορά. Όλοι πρέπει να ανησυχούμε για κάτι τέτοιο.

Αυτό που έχω στα δεξιά είναι ένα παράδειγμα ψεύτικης αφήγησης από ένα από αυτά τα συστήματα που λέει ότι ο Έλον Μασκ πέθανε τον Μάρτιο του 2018 σε αυτοκινητιστικό δυστύχημα. Όλοι ξέρουμε ότι αυτό δεν είναι αλήθεια. Ο Έλον Μασκ είναι ακόμα εδώ, τα στοιχεία είναι παντού γύρω μας.

Σχεδόν κάθε μέρα υπάρχει ένα tweet. Αλλά αν κοιτάξετε καλύτερα, θα δείτε τι βλέπουν αυτά τα συστήματα. Πολλές και πολλές πραγματικές ειδήσεις που βρίσκονται στις βάσεις δεδομένων τους. Και σε αυτές τις πραγματικές ειδήσεις υπάρχουν πολλές μικρές στατιστικές πληροφορίες. Πληροφορίες, για παράδειγμα, κάποιος πέθανε σε τροχαίο σε ένα Tesla το 2018 και ήταν στις ειδήσεις. Και ο Elon Musk, φυσικά, εμπλέκεται στον Tesla, αλλά το σύστημα δεν κατανοεί τη σχέση μεταξύ των γεγονότων που ενσωματώνονται στα μικρά κομμάτια των προτάσεων.

Οπότε ουσιαστικά κάνει αυτόματη συμπλήρωση, προβλέπει τι είναι στατιστικά πιθανό, συγκεντρώνει όλα αυτά τα σήματα, χωρίς να γνωρίζει πώς ταιριάζουν τα κομμάτια μεταξύ τους. Και καταλήγει μερικές φορές με πράγματα που είναι εύλογα αλλά απλά δεν είναι αληθινά.

Υπάρχουν και άλλα προβλήματα, όπως η προκατάληψη. Αυτό είναι ένα tweet από την Allie Miller. Είναι ένα παράδειγμα που δεν λειτουργεί δύο εβδομάδες αργότερα, επειδή αλλάζουν συνεχώς τα πράγματα με την ενισχυτική μάθηση και ούτω καθεξής. Και αυτό έγινε με μια προηγούμενη έκδοση. Αλλά σου δίνει τη γεύση ενός προβλήματος που έχουμε δει ξανά και ξανά εδώ και χρόνια.

Πληκτρολογούσε μια λίστα με ενδιαφέροντα και της έδωσε κάποιες δουλειές που θα ήθελε να σκεφτεί. Και τότε είπε: «Α, και είμαι γυναίκα». Και μετά είπε, «Ω, καλά, θα πρέπει να σκεφτείς και τη μόδα». Και τότε είπε, «Όχι, όχι. Ήθελα να πω ότι είμαι άντρας». Και μετά αντικατέστησε τη μόδα με τη μηχανική. Δεν θέλουμε τέτοιου είδους προκατάληψη στα συστήματά μας.

Έτσι χρησιμοποιούμε συμβολικά συστήματα καθημερινά στην κλασική αναζήτηση στον ιστό. Σχεδόν όλο το λογισμικό του κόσμου τροφοδοτείται από συμβολικά συστήματα. Τα χρησιμοποιούμε για δρομολόγηση GPS. Τα νευρωνικά δίκτυα, τα χρησιμοποιούμε για την αναγνώριση ομιλίας. τα χρησιμοποιούμε σε μεγάλα γλωσσικά μοντέλα όπως το ChatGPT, τα χρησιμοποιούμε στη σύνθεση εικόνων. Έτσι και οι δύο τα πάνε εξαιρετικά καλά στον κόσμο. Είναι και οι δύο πολύ παραγωγικοί, αλλά έχουν τις δικές τους μοναδικές δυνάμεις και αδυναμίες.

Τα συμβολικά συστήματα είναι πολύ καλά στην αναπαράσταση γεγονότων και είναι πολύ καλά στη λογική, αλλά είναι πολύ δύσκολο να κλιμακωθούν. Έτσι, οι άνθρωποι πρέπει να τα προσαρμόσουν για μια συγκεκριμένη εργασία. Από την άλλη πλευρά, τα νευρωνικά δίκτυα δεν απαιτούν τόση προσαρμοσμένη μηχανική, οπότε μπορούμε να τα χρησιμοποιήσουμε ευρύτερα. Αλλά όπως είδαμε, δεν μπορούν πραγματικά να χειριστούν την αλήθεια.

Πρόσφατα ανακάλυψα ότι δύο από τους ιδρυτές αυτών των δύο θεωριών, ο Μάρβιν Μίνσκι και ο Φρανκ Ρόζενμπλατ, πήγαν στην πραγματικότητα στο ίδιο γυμνάσιο τη δεκαετία του 1940 και τους φανταζόμουν ότι ήταν αντίπαλοι τότε. Και η δύναμη αυτής της αντιπαλότητας επιμένει όλο αυτό το διάστημα. Θα πρέπει να το ξεπεράσουμε αν θέλουμε να φτάσουμε σε αξιόπιστη τεχνητή νοημοσύνη.

Υπάρχουν και άλλες ανησυχίες. Για παράδειγμα, γνωρίζουμε ότι αυτά τα συστήματα μπορούν να σχεδιάσουν χημικά και μπορεί να είναι σε θέση να σχεδιάσουν χημικά όπλα και να μπορούν να το κάνουν πολύ γρήγορα. Άρα υπάρχουν πολλές ανησυχίες.

Υπάρχει επίσης μια νέα ανησυχία που νομίζω ότι έχει αυξηθεί πολύ τον τελευταίο μήνα. Είδαμε ότι αυτά τα συστήματα, πρώτα απ' όλα, μπορούν να ξεγελάσουν τον άνθρωπο. Έτσι, το ChatGPT ανατέθηκε να κατασκευάσει έναν άνθρωπο για να κάνει ένα CAPTCHA. Έτσι, ζήτησε από τον άνθρωπο να κάνει ένα CAPTCHA και ο άνθρωπος υποψιάζεται και λέει, "Είσαι robot;" Και λέει, "Όχι, όχι, όχι, δεν είμαι ρομπότ. Απλώς έχω πρόβλημα όρασης." Και ο άνθρωπος στην πραγματικότητα ξεγελάστηκε και πήγε και έκανε το CAPTCHA.

Τώρα αυτό είναι αρκετά κακό, αλλά τις τελευταίες δύο εβδομάδες έχουμε δει κάτι που ονομάζεται AutoGPT και ένα σωρό συστήματα όπως αυτό. Αυτό που κάνει το AutoGPT είναι ότι έχει ένα σύστημα τεχνητής Νοημοσύνης που ελέγχει ένα άλλο και αυτό επιτρέπει σε οποιοδήποτε από αυτά τα πράγματα να συμβαίνουν σε όγκο. Έτσι, μπορεί να δούμε απατεώνες να προσπαθούν να ξεγελάσουν εκατομμύρια ανθρώπους κάποια στιγμή ακόμη και τους επόμενους μήνες. Δεν ξέρουμε.

Οπότε μου αρέσει να το σκέφτομαι με αυτόν τον τρόπο. Υπάρχει ήδη μεγάλος κίνδυνος Τεχνητής Νοημοσύνης. Μπορεί να υπάρχει μεγαλύτερος κίνδυνος Τ.Ν.. Το AGI λοιπόν είναι αυτή η ιδέα της τεχνητής γενικής νοημοσύνης με την ευελιξία των ανθρώπων. Και νομίζω ότι πολλοί άνθρωποι ανησυχούν τι θα συμβεί όταν φτάσουμε στο AGI, αλλά υπάρχει ήδη αρκετός κίνδυνος να ανησυχούμε και να σκεφτόμαστε τι πρέπει να κάνουμε για αυτό.

Έτσι, για να μετριαστεί ο κίνδυνος Τ.Ν., χρειαζόμαστε δύο πράγματα. Θα χρειαστούμε μια νέα τεχνική προσέγγιση, και θα χρειαστούμε επίσης ένα νέο σύστημα διακυβέρνησης.

Από τεχνικής πλευράς, η ιστορία της τεχνητής νοημοσύνης ήταν βασικά μια εχθρική από τις δύο διαφορετικές θεωρίες σε αντίθεση. Το ένα ονομάζεται συμβολικά συστήματα, το άλλο ονομάζεται νευρωνικά δίκτυα. Στη συμβολική θεωρία, η ιδέα είναι ότι η τεχνητή νοημοσύνη πρέπει να είναι σαν τη λογική και τον προγραμματισμό. Από την πλευρά του νευρωνικού δικτύου, η θεωρία είναι ότι η τεχνητή νοημοσύνη πρέπει να είναι σαν εγκέφαλοι. Και στην πραγματικότητα, και οι δύο τεχνολογίες είναι ισχυρές και πανταχού παρούσες.

Για να φτάσουμε σε αληθινά συστήματα σε κλίμακα, θα χρειαστεί να συγκεντρώσουμε τα καλύτερα και των δύο κόσμων. Θα χρειαστούμε την έντονη έμφαση στη λογική και τα γεγονότα, τη ρητή συλλογιστική που παίρνουμε από τη συμβολική τεχνητή νοημοσύνη και θα χρειαστούμε την έντονη έμφαση στη μάθηση που παίρνουμε από την προσέγγιση των νευρωνικών δικτύων. Μόνο τότε θα μπορέσουμε να φτάσουμε σε αληθή συστήματα σε κλίμακα. Η συμφιλίωση μεταξύ των δύο είναι απολύτως απαραίτητη.

Τώρα, πραγματικά δεν ξέρω πώς να το κάνω αυτό. Είναι κάτι σαν την ερώτηση των 64 τρισεκατομμυρίων δολαρίων. Αλλά ξέρω ότι είναι δυνατό. Και ο λόγος που το ξέρω είναι γιατί πριν ασχοληθώ με την τεχνητή νοημοσύνη, ήμουν γνωστικός επιστήμονας, γνωστικός νευροεπιστήμονας. Και αν κοιτάξετε το ανθρώπινο μυαλό, βασικά το κάνουμε αυτό.

Έτσι, μερικοί από εσάς μπορεί να γνωρίζετε τη διάκριση Σύστημα 1 και Σύστημα 2 του Daniel Kahneman. Το σύστημα 1 είναι βασικά σαν τα μεγάλα μοντέλα γλώσσας. Είναι πιθανολογική διαίσθηση από πολλά στατιστικά στοιχεία. Και το Σύστημα 2 είναι βασικά σκόπιμη συλλογιστική. Αυτό είναι σαν το συμβολικό σύστημα. Έτσι, εάν ο εγκέφαλος μπορεί να το συνδυάσει, κάποια μέρα θα καταλάβουμε πώς να το κάνουμε αυτό για την τεχνητή νοημοσύνη.

Υπάρχει, ωστόσο, πρόβλημα κινήτρων. Τα κίνητρα για τη δημιουργία διαφημίσεων δεν απαιτούν να έχουμε την ακρίβεια των συμβόλων. Τα κίνητρα για να φτάσουμε στην τεχνητή νοημοσύνη που μπορούμε πραγματικά να εμπιστευτούμε θα απαιτήσουν να επαναφέρουμε σύμβολα στη μήτρα. Αλλά η πραγματικότητα είναι ότι τα κίνητρα για να κάνουμε την τεχνητή νοημοσύνη που μπορούμε να εμπιστευτούμε, που είναι καλό για την κοινωνία, καλό για μεμονωμένα ανθρώπινα όντα, μπορεί να μην είναι αυτά που ενδιαφέρουν τις εταιρείες. Και έτσι νομίζω ότι πρέπει να σκεφτούμε τη διακυβέρνηση.

Σε άλλες εποχές της ιστορίας, όταν αντιμετωπίσαμε αβεβαιότητα και ισχυρά νέα πράγματα που μπορεί να είναι και καλά και κακά, που είναι διπλής χρήσης, έχουμε δημιουργήσει νέους οργανισμούς, όπως κάναμε, για παράδειγμα, γύρω από την πυρηνική ενέργεια. Πρέπει να ενωθούμε για να οικοδομήσουμε έναν παγκόσμιο οργανισμό, κάτι σαν έναν διεθνή οργανισμό για την τεχνητή νοημοσύνη που να είναι παγκόσμιος, μη κερδοσκοπικός και ουδέτερος.

Υπάρχουν τόσες πολλές ερωτήσεις εκεί που δεν μπορώ να απαντήσω. Χρειαζόμαστε πολλούς ανθρώπους στο τραπέζι, πολλούς ενδιαφερόμενους από όλο τον κόσμο. Θα ήθελα όμως να τονίσω ένα πράγμα για μια τέτοια οργάνωση. Νομίζω ότι είναι κρίσιμο να έχουμε τόσο τη διακυβέρνηση όσο και την έρευνα ως μέρος της.

Έτσι, από την πλευρά της διακυβέρνησης, υπάρχουν πολλά ερωτήματα. Για παράδειγμα, στο pharma, γνωρίζουμε ότι ξεκινάς με δοκιμές φάσης Ι και δοκιμές φάσης ΙΙ, και μετά πηγαίνεις στη φάση III. Δεν τα βγάζεις όλα μαζί την πρώτη μέρα. Δεν διαθέτετε κάτι σε 100 εκατομμύρια πελάτες. Το βλέπουμε με μεγάλα γλωσσικά μοντέλα. Ίσως θα έπρεπε να σας ζητηθεί να φτιάξετε μια θήκη ασφαλείας, πείτε ποιο είναι το κόστος και ποια τα οφέλη; Υπάρχουν πολλά τέτοια ερωτήματα που πρέπει να ληφθούν υπόψη από την πλευρά της διακυβέρνησης.

Από την πλευρά της έρευνας, μας λείπουν κάποια πραγματικά θεμελιώδη εργαλεία αυτή τη στιγμή. Για παράδειγμα, όλοι γνωρίζουμε ότι η παραπληροφόρηση μπορεί να είναι πρόβλημα τώρα, αλλά στην πραγματικότητα δεν έχουμε μια μέτρηση για το πόση παραπληροφόρηση υπάρχει εκεί έξω. Και το πιο σημαντικό, δεν έχουμε ένα μέτρο για το πόσο γρήγορα μεγαλώνει αυτό το πρόβλημα και δεν γνωρίζουμε πόσο μεγάλα γλωσσικά μοντέλα συμβάλλουν στο πρόβλημα. Χρειαζόμαστε λοιπόν έρευνα για να δημιουργήσουμε νέα εργαλεία για να αντιμετωπίσουμε τους νέους κινδύνους από τους οποίους απειλούμαστε.

Είναι ένα πολύ μεγάλο ερώτημα, αλλά είμαι αρκετά βέβαιος ότι μπορούμε να φτάσουμε εκεί γιατί πιστεύω ότι έχουμε πραγματικά παγκόσμια υποστήριξη για αυτό. Μια νέα έρευνα που μόλις κυκλοφόρησε χθες, είπε ότι το 91 τοις εκατό των ανθρώπων συμφωνεί ότι πρέπει να διαχειριζόμαστε προσεκτικά την τεχνητή νοημοσύνη. Ας το κάνουμε λοιπόν. Το μέλλον μας εξαρτάται από αυτό.

Πηγή: https://www.ted.com/talks/

Δημοσίευση σχολίου

0 Σχόλια