Ο «Νονός της Τεχνητής Νοημοσύνης» υποστηρίζει πως είναι ικανή για λογική και μπορεί να αναζητήσει τον έλεγχο
Ένα κορυφαίο μυαλό στην ανάπτυξη της τεχνητής νοημοσύνης (ΑΙ) που θεωρείται «νονός» της, ο Geoffrey Hinton, καθηγητής επιστήμης υπολογιστών στο Πανεπιστήμιο του Τορόντο, προειδοποιεί ότι ο «έξυπνος αλγόριθμος» έχει αναπτύξει υποτυπώδη «ικανότητα λογικής» και μπορεί να επιδιώξει ακόμη και να ανατρέψει την ανθρωπότητα, γιατί είναι σε θέση να αναπτύξει την επιθυμία να πάρει τον έλεγχο από τους ανθρώπους ως τρόπο επίτευξης άλλων προ-προγραμματισμένων στόχων!
«Πιστεύω ότι πρέπει να λάβουμε σοβαρά υπόψη την πιθανότητα ότι αν γίνουν πιο έξυπνοι από εμάς, κάτι που φαίνεται πολύ πιθανό, και έχουν δικούς τους στόχους, κάτι που φαίνεται αρκετά πιθανό, μπορεί κάλλιστα να αναπτύξουν τον στόχο να πάρουν τον έλεγχο», είπε ο Hinton κατά τη διάρκεια μια ομιλία στις 28 Ιουνίου στο τεχνολογικό συνέδριο Collision στο Τορόντο του Καναδά, όπως μεταφέρουν οι The Epoch Times.
«Αν το κάνουν αυτό, έχουμε πρόβλημα».
Ο Hinton έχει χαρακτηριστεί ένας από τους «νονούς της τεχνητής νοημοσύνης» για τη δουλειά του στα νευρωνικά δίκτυα.
Πρόσφατα πέρασε μια δεκαετία βοηθώντας στην ανάπτυξη συστημάτων τεχνητής νοημοσύνης για την Google, αλλά έφυγε από την εταιρεία τον περασμένο μήνα, λέγοντας ότι προτιμούσε να προειδοποιήσει τους ανθρώπους για τους κινδύνους που ενέχει η τεχνητή νοημοσύνη.
Αν και ο Hinton δεν πιστεύει ότι η τεχνητή νοημοσύνη θα ποθεί εγγενώς την εξουσία, είπε ότι θα μπορούσε ωστόσο να επιδιώξει να την αρπάξει από τους ανθρώπους ως ένα λογικό βήμα για να επιτρέψει στον εαυτό της να επιτύχει καλύτερα τους στόχους της.
«Σε πολύ γενικό επίπεδο, αν έχετε κάτι που είναι πολύ πιο έξυπνο από εσάς, είναι πολύ καλό στο να χειραγωγεί τους ανθρώπους σε ένα πολύ γενικό επίπεδο, είστε σίγουροι ότι οι άνθρωποι παραμένουν υπεύθυνοι;» ρωτά ο Hinton.
«Νομίζω ότι αυτοί οι αλγόριθμοι θα έχουν το κίνητρο να πάρουν τον έλεγχο] ως τρόπο επίτευξης άλλων στόχων».
Το AI τώρα ικανό για... λογική
Πριν την επίτευξη της προόδου όπως την γνωρίζουμε ο Hinton αμφέβαλλε ότι μια υπερευφυΐα AI που θα μπορούσε να ταιριάξει με τους ανθρώπους θα εμφανιζόταν μέσα στα επόμενα 30 έως 50 χρόνια.
Τώρα πιστεύει ότι θα μπορούσε να έρθει σε λιγότερο από 20.
Εν μέρει, είπε, αυτό συμβαίνει επειδή τα συστήματα ΑΙ που χρησιμοποιούν μεγάλα γλωσσικά μοντέλα αρχίζουν να δείχνουν την ικανότητα λογικής και δεν είναι σίγουρος πώς το κάνουν.
«Είναι τα μεγάλα γλωσσικά μοντέλα που πλησιάζουν, και δεν καταλαβαίνω πραγματικά γιατί μπορούν να το κάνουν, αλλά μπορούν να κάνουν μικρά συλλογιστικά.
«Ακόμα δεν μπορούν να μας ταιριάξουν, αλλά πλησιάζουν».
Ο Hinton περιέγραψε ένα σύστημα AI στο οποίο είχε δοθεί ένα παζλ στο οποίο έπρεπε να σχεδιάσει πώς να ζωγραφίσει πολλά δωμάτια ενός σπιτιού.
Του δόθηκαν τρία χρώματα για να διαλέξει, με το ένα χρώμα να ξεθωριάσει στο άλλο με την πάροδο του χρόνου, και του ζητήθηκε να βάψει έναν συγκεκριμένο αριθμό δωματίων σε ένα συγκεκριμένο χρώμα μέσα σε ένα καθορισμένο χρονικό πλαίσιο.
Αντί να επιλέξει απλώς να βάψει τα δωμάτια στο επιθυμητό χρώμα, η τεχνητή νοημοσύνη αποφάσισε να μην βάψει κανένα που ήξερε ότι θα ξεθωριάσει στο επιθυμητό χρώμα ούτως ή άλλως, επιλέγοντας να εξοικονομήσει πόρους αν και δεν είχε προγραμματιστεί να το κάνει.
«Αυτό είναι σκέψη», είπε ο Χίντον.
Για το σκοπό αυτό, ο Hinton είπε ότι δεν υπήρχε λόγος να υποπτευόμαστε ότι η τεχνητή νοημοσύνη δεν θα έφτανε και δεν θα ξεπερνούσε την ανθρώπινη νοημοσύνη τα επόμενα χρόνια.
«Είμαστε απλώς ένα μεγάλο νευρωνικό δίκτυο και δεν υπάρχει κανένας λόγος για τον οποίο ένα τεχνητό νευρωνικό δίκτυο δεν θα πρέπει να μπορεί να κάνει ό,τι μπορούμε να κάνουμε», είπε ο Hinton.
«Μπαίνουμε σε μια περίοδο τεράστιας αβεβαιότητας. Κανείς δεν ξέρει πραγματικά τι πρόκειται να συμβεί».
Τα ρομπότ πολέμου θα αποσταθεροποιήσουν τον κόσμο
Ωστόσο, η ΑΙ μπορεί να μην χρειάζεται καν να φτάσει σε υπερνοημοσύνη για να θέσει υπαρξιακό κίνδυνο για την ανθρωπότητα.
Ο Hinton είπε ότι οι στρατοί παγκοσμίως δημιουργούν ρομπότ με δυνατότητα AI για πόλεμο που θα μπορούσαν είτε να επιδιώξουν να πάρουν τον έλεγχο για να εκπληρώσουν τις προγραμματισμένες αποστολές τους είτε να διαταράξουν την πολιτική τάξη ενθαρρύνοντας αυξημένες συγκρούσεις.
«Φονικά αυτόνομα όπλα, αξίζουν πολλή σκέψη μας», είπε ο Hinton.
«Ακόμη κι αν η ΑΙ δεν είναι υπερέξυπνη, αν τα τμήματα άμυνας τη χρησιμοποιήσουν για την κατασκευή ρομπότ μάχης, θα είναι πολύ άσχημα, τρομακτικά πράγματα».
Τα κυριότερα από τα έθνη που επιδιώκουν να αναπτύξουν θανατηφόρο AI δεν είναι άλλα από τις δύο μεγαλύτερες στρατιωτικές δυνάμεις του κόσμου, την Κίνα και τις Ηνωμένες Πολιτείες.
Το κομμουνιστικό καθεστώς της Κίνας αναπτύσσει θανατηφόρα συστήματα με δυνατότητα τεχνητής νοημοσύνης και επενδύει σε δυνατότητες τεχνητής νοημοσύνης που σχετίζονται με τη λήψη στρατιωτικών αποφάσεων και τη διοίκηση και τον έλεγχο.
Εθνικοί στρατοί... ρομπότ
Οι Ηνωμένες Πολιτείες, εν τω μεταξύ, προετοιμάζονται για έναν κόσμο στον οποίο οι εθνικοί στρατοί αποτελούνται κυρίως από ρομπότ, κάτι που οι κορυφαίοι αξιωματούχοι αναμένουν ότι θα συμβεί σε λιγότερο από 15 χρόνια.
«Ξέρουμε ότι θα φτιάξουν ρομπότ μάχης», είπε ο Hinton.
«Είναι απασχολημένοι με αυτό σε πολλά διαφορετικά τμήματα άμυνας.
Οπότε [τα ρομπότ] δεν θα είναι απαραίτητα καλά, αφού ο πρωταρχικός τους σκοπός θα είναι να σκοτώνουν ανθρώπους».
Επιπλέον, ο Hinton επισημαίνει ότι η απελευθέρωση θανατηφόρων αυτόνομων συστημάτων με δυνατότητα AI θα άλλαζε θεμελιωδώς τη δομή της γεωπολιτικής μειώνοντας δραματικά το πολιτικό και ανθρώπινο κόστος του πολέμου για εκείνα τα έθνη που μπορούσαν να αντέξουν οικονομικά τέτοια συστήματα.
«Ακόμα κι αν δεν είναι υπερέξυπνο, ακόμα κι αν δεν έχει τις δικές του προθέσεις. …
Θα διευκολύνει, για παράδειγμα, τις πλούσιες χώρες να εισβάλουν σε φτωχές χώρες», είπε ο Hinton.
Το να πρέπει να πολεμούν άνθρωποι λειτουργεί αποτρεπτικά, με την ΑΙ αυτό το «ηθικό εμπόδιο» κήρυξης πολέμου εξαλείφεται
«Προς το παρόν, υπάρχει ένα εμπόδιο για την εισβολή θέλοντας και μη σε φτωχές χώρες, το οποίο είναι να επιστρέφεις στα σπίτια τους νεκρούς πολίτες.
Αν είναι απλώς νεκρά ρομπότ μάχης, αυτό είναι υπέροχο.
Σε κάθε στρατιωτικό-βιομηχανικό συγκρότημα αρέσει αυτό».
Για το σκοπό αυτό, ο Hinton είπε ότι οι κυβερνήσεις θα πρέπει να προσπαθήσουν να δώσουν κίνητρα για περισσότερη έρευνα για το πώς να προστατεύσουν την ανθρωπότητα από την ΑΙ.
Με απλά λόγια, είπε, πολλοί άνθρωποι εργάζονται για τη βελτίωση της τεχνητής νοημοσύνης, αλλά πολύ λίγοι για να την κάνουν ασφαλέστερη.
Το καλύτερο ακόμα, είπε, θα ήταν η θέσπιση διεθνών κανόνων για την απαγόρευση ή τη ρύθμιση των οπλικών συστημάτων τεχνητής νοημοσύνης όπως έκανε το Πρωτόκολλο της Γενεύης για τον χημικό πόλεμο μετά τον Α' Παγκόσμιο Πόλεμο.
«Κάτι σαν μια Σύμβαση της Γενεύης θα ήταν υπέροχο, αλλά αυτά δεν συμβαίνουν ποτέ παρά μόνο αφού χρησιμοποιηθούν», είπε ο Hinton.
Όποια και αν είναι η πορεία δράσης που λαμβάνουν ή δεν λαμβάνουν οι κυβερνήσεις σχετικά με την ΑΙ, ο Hinton είπε ότι οι άνθρωποι έπρεπε να γνωρίζουν την απειλή που δημιουργείται από αυτό που δημιουργείται.
«Πιστεύω ότι είναι σημαντικό οι άνθρωποι να καταλάβουν ότι δεν είναι απλώς επιστημονική φαντασία, δεν είναι απλώς πρόκληση φόβου», είπε ο Hinton.
«Είναι ένας πραγματικός κίνδυνος που πρέπει να σκεφτούμε και πρέπει να καταλάβουμε εκ των προτέρων πώς να τον αντιμετωπίσουμε».
www.bankingnews.gr
«Πιστεύω ότι πρέπει να λάβουμε σοβαρά υπόψη την πιθανότητα ότι αν γίνουν πιο έξυπνοι από εμάς, κάτι που φαίνεται πολύ πιθανό, και έχουν δικούς τους στόχους, κάτι που φαίνεται αρκετά πιθανό, μπορεί κάλλιστα να αναπτύξουν τον στόχο να πάρουν τον έλεγχο», είπε ο Hinton κατά τη διάρκεια μια ομιλία στις 28 Ιουνίου στο τεχνολογικό συνέδριο Collision στο Τορόντο του Καναδά, όπως μεταφέρουν οι The Epoch Times.
«Αν το κάνουν αυτό, έχουμε πρόβλημα».
Ο Hinton έχει χαρακτηριστεί ένας από τους «νονούς της τεχνητής νοημοσύνης» για τη δουλειά του στα νευρωνικά δίκτυα.
Πρόσφατα πέρασε μια δεκαετία βοηθώντας στην ανάπτυξη συστημάτων τεχνητής νοημοσύνης για την Google, αλλά έφυγε από την εταιρεία τον περασμένο μήνα, λέγοντας ότι προτιμούσε να προειδοποιήσει τους ανθρώπους για τους κινδύνους που ενέχει η τεχνητή νοημοσύνη.
Αν και ο Hinton δεν πιστεύει ότι η τεχνητή νοημοσύνη θα ποθεί εγγενώς την εξουσία, είπε ότι θα μπορούσε ωστόσο να επιδιώξει να την αρπάξει από τους ανθρώπους ως ένα λογικό βήμα για να επιτρέψει στον εαυτό της να επιτύχει καλύτερα τους στόχους της.
«Σε πολύ γενικό επίπεδο, αν έχετε κάτι που είναι πολύ πιο έξυπνο από εσάς, είναι πολύ καλό στο να χειραγωγεί τους ανθρώπους σε ένα πολύ γενικό επίπεδο, είστε σίγουροι ότι οι άνθρωποι παραμένουν υπεύθυνοι;» ρωτά ο Hinton.
«Νομίζω ότι αυτοί οι αλγόριθμοι θα έχουν το κίνητρο να πάρουν τον έλεγχο] ως τρόπο επίτευξης άλλων στόχων».
Το AI τώρα ικανό για... λογική
Πριν την επίτευξη της προόδου όπως την γνωρίζουμε ο Hinton αμφέβαλλε ότι μια υπερευφυΐα AI που θα μπορούσε να ταιριάξει με τους ανθρώπους θα εμφανιζόταν μέσα στα επόμενα 30 έως 50 χρόνια.
Τώρα πιστεύει ότι θα μπορούσε να έρθει σε λιγότερο από 20.
Εν μέρει, είπε, αυτό συμβαίνει επειδή τα συστήματα ΑΙ που χρησιμοποιούν μεγάλα γλωσσικά μοντέλα αρχίζουν να δείχνουν την ικανότητα λογικής και δεν είναι σίγουρος πώς το κάνουν.
«Είναι τα μεγάλα γλωσσικά μοντέλα που πλησιάζουν, και δεν καταλαβαίνω πραγματικά γιατί μπορούν να το κάνουν, αλλά μπορούν να κάνουν μικρά συλλογιστικά.
«Ακόμα δεν μπορούν να μας ταιριάξουν, αλλά πλησιάζουν».
Ο Hinton περιέγραψε ένα σύστημα AI στο οποίο είχε δοθεί ένα παζλ στο οποίο έπρεπε να σχεδιάσει πώς να ζωγραφίσει πολλά δωμάτια ενός σπιτιού.
Του δόθηκαν τρία χρώματα για να διαλέξει, με το ένα χρώμα να ξεθωριάσει στο άλλο με την πάροδο του χρόνου, και του ζητήθηκε να βάψει έναν συγκεκριμένο αριθμό δωματίων σε ένα συγκεκριμένο χρώμα μέσα σε ένα καθορισμένο χρονικό πλαίσιο.
Αντί να επιλέξει απλώς να βάψει τα δωμάτια στο επιθυμητό χρώμα, η τεχνητή νοημοσύνη αποφάσισε να μην βάψει κανένα που ήξερε ότι θα ξεθωριάσει στο επιθυμητό χρώμα ούτως ή άλλως, επιλέγοντας να εξοικονομήσει πόρους αν και δεν είχε προγραμματιστεί να το κάνει.
«Αυτό είναι σκέψη», είπε ο Χίντον.
Για το σκοπό αυτό, ο Hinton είπε ότι δεν υπήρχε λόγος να υποπτευόμαστε ότι η τεχνητή νοημοσύνη δεν θα έφτανε και δεν θα ξεπερνούσε την ανθρώπινη νοημοσύνη τα επόμενα χρόνια.
«Είμαστε απλώς ένα μεγάλο νευρωνικό δίκτυο και δεν υπάρχει κανένας λόγος για τον οποίο ένα τεχνητό νευρωνικό δίκτυο δεν θα πρέπει να μπορεί να κάνει ό,τι μπορούμε να κάνουμε», είπε ο Hinton.
«Μπαίνουμε σε μια περίοδο τεράστιας αβεβαιότητας. Κανείς δεν ξέρει πραγματικά τι πρόκειται να συμβεί».
Τα ρομπότ πολέμου θα αποσταθεροποιήσουν τον κόσμο
Ωστόσο, η ΑΙ μπορεί να μην χρειάζεται καν να φτάσει σε υπερνοημοσύνη για να θέσει υπαρξιακό κίνδυνο για την ανθρωπότητα.
Ο Hinton είπε ότι οι στρατοί παγκοσμίως δημιουργούν ρομπότ με δυνατότητα AI για πόλεμο που θα μπορούσαν είτε να επιδιώξουν να πάρουν τον έλεγχο για να εκπληρώσουν τις προγραμματισμένες αποστολές τους είτε να διαταράξουν την πολιτική τάξη ενθαρρύνοντας αυξημένες συγκρούσεις.
«Φονικά αυτόνομα όπλα, αξίζουν πολλή σκέψη μας», είπε ο Hinton.
«Ακόμη κι αν η ΑΙ δεν είναι υπερέξυπνη, αν τα τμήματα άμυνας τη χρησιμοποιήσουν για την κατασκευή ρομπότ μάχης, θα είναι πολύ άσχημα, τρομακτικά πράγματα».
Τα κυριότερα από τα έθνη που επιδιώκουν να αναπτύξουν θανατηφόρο AI δεν είναι άλλα από τις δύο μεγαλύτερες στρατιωτικές δυνάμεις του κόσμου, την Κίνα και τις Ηνωμένες Πολιτείες.
Το κομμουνιστικό καθεστώς της Κίνας αναπτύσσει θανατηφόρα συστήματα με δυνατότητα τεχνητής νοημοσύνης και επενδύει σε δυνατότητες τεχνητής νοημοσύνης που σχετίζονται με τη λήψη στρατιωτικών αποφάσεων και τη διοίκηση και τον έλεγχο.
Εθνικοί στρατοί... ρομπότ
Οι Ηνωμένες Πολιτείες, εν τω μεταξύ, προετοιμάζονται για έναν κόσμο στον οποίο οι εθνικοί στρατοί αποτελούνται κυρίως από ρομπότ, κάτι που οι κορυφαίοι αξιωματούχοι αναμένουν ότι θα συμβεί σε λιγότερο από 15 χρόνια.
«Ξέρουμε ότι θα φτιάξουν ρομπότ μάχης», είπε ο Hinton.
«Είναι απασχολημένοι με αυτό σε πολλά διαφορετικά τμήματα άμυνας.
Οπότε [τα ρομπότ] δεν θα είναι απαραίτητα καλά, αφού ο πρωταρχικός τους σκοπός θα είναι να σκοτώνουν ανθρώπους».
Επιπλέον, ο Hinton επισημαίνει ότι η απελευθέρωση θανατηφόρων αυτόνομων συστημάτων με δυνατότητα AI θα άλλαζε θεμελιωδώς τη δομή της γεωπολιτικής μειώνοντας δραματικά το πολιτικό και ανθρώπινο κόστος του πολέμου για εκείνα τα έθνη που μπορούσαν να αντέξουν οικονομικά τέτοια συστήματα.
«Ακόμα κι αν δεν είναι υπερέξυπνο, ακόμα κι αν δεν έχει τις δικές του προθέσεις. …
Θα διευκολύνει, για παράδειγμα, τις πλούσιες χώρες να εισβάλουν σε φτωχές χώρες», είπε ο Hinton.
Το να πρέπει να πολεμούν άνθρωποι λειτουργεί αποτρεπτικά, με την ΑΙ αυτό το «ηθικό εμπόδιο» κήρυξης πολέμου εξαλείφεται
«Προς το παρόν, υπάρχει ένα εμπόδιο για την εισβολή θέλοντας και μη σε φτωχές χώρες, το οποίο είναι να επιστρέφεις στα σπίτια τους νεκρούς πολίτες.
Αν είναι απλώς νεκρά ρομπότ μάχης, αυτό είναι υπέροχο.
Σε κάθε στρατιωτικό-βιομηχανικό συγκρότημα αρέσει αυτό».
Για το σκοπό αυτό, ο Hinton είπε ότι οι κυβερνήσεις θα πρέπει να προσπαθήσουν να δώσουν κίνητρα για περισσότερη έρευνα για το πώς να προστατεύσουν την ανθρωπότητα από την ΑΙ.
Με απλά λόγια, είπε, πολλοί άνθρωποι εργάζονται για τη βελτίωση της τεχνητής νοημοσύνης, αλλά πολύ λίγοι για να την κάνουν ασφαλέστερη.
Το καλύτερο ακόμα, είπε, θα ήταν η θέσπιση διεθνών κανόνων για την απαγόρευση ή τη ρύθμιση των οπλικών συστημάτων τεχνητής νοημοσύνης όπως έκανε το Πρωτόκολλο της Γενεύης για τον χημικό πόλεμο μετά τον Α' Παγκόσμιο Πόλεμο.
«Κάτι σαν μια Σύμβαση της Γενεύης θα ήταν υπέροχο, αλλά αυτά δεν συμβαίνουν ποτέ παρά μόνο αφού χρησιμοποιηθούν», είπε ο Hinton.
Όποια και αν είναι η πορεία δράσης που λαμβάνουν ή δεν λαμβάνουν οι κυβερνήσεις σχετικά με την ΑΙ, ο Hinton είπε ότι οι άνθρωποι έπρεπε να γνωρίζουν την απειλή που δημιουργείται από αυτό που δημιουργείται.
«Πιστεύω ότι είναι σημαντικό οι άνθρωποι να καταλάβουν ότι δεν είναι απλώς επιστημονική φαντασία, δεν είναι απλώς πρόκληση φόβου», είπε ο Hinton.
«Είναι ένας πραγματικός κίνδυνος που πρέπει να σκεφτούμε και πρέπει να καταλάβουμε εκ των προτέρων πώς να τον αντιμετωπίσουμε».
www.bankingnews.gr
Σχόλια αναγνωστών