Ρομπότ που σκέφτεται πολύχρωμο

Τι συμβαίνει όταν η μηχανική μάθηση πάει πολύ μακριά;

Ρομπότ που σκέφτεται πολύχρωμο

Νέα έρευνα διερευνά τους πιθανούς κινδύνους και τις ηθικές επιπτώσεις της μηχανικής αίσθησης, τονίζοντας τη σημασία της κατανόησης και της προετοιμασίας για την εμφάνιση της συνείδησης στις τεχνολογίες τεχνητής νοημοσύνης και μηχανικής μάθησης. Απαιτεί προσεκτική εξέταση της ηθικής χρήσης των αισθητικών μηχανών και υπογραμμίζει την ανάγκη για μελλοντική έρευνα για την πλοήγηση στην περίπλοκη σχέση μεταξύ των ανθρώπων και αυτών των τεχνολογιών με αυτογνωσία. Πίστωση: SciTechDaily.com

Κάθε μυθοπλασία περιέχει έναν πυρήνα αλήθειας και τώρα είναι η ώρα να κάνουμε ένα βήμα μπροστά από τις δυστοπίες επιστημονικής φαντασίας και να καθορίσουμε ποιος μπορεί να είναι ο κίνδυνος για τους ανθρώπους στη μηχανική αίσθηση.

Αν και οι άνθρωποι έχουν από καιρό συλλογιστεί το μέλλον των ευφυών μηχανημάτων, τέτοια ερωτήματα έγιναν όλο και πιο πιεστικά με την άνοδο της τεχνητής νοημοσύνης (AI) και μηχανική μάθηση. Αυτά τα μηχανήματα μοιάζουν με ανθρώπινες αλληλεπιδράσεις: μπορούν να βοηθήσουν στην επίλυση προβλημάτων, στη δημιουργία περιεχομένου και ακόμη και στη συνέχιση συνομιλιών. Για τους λάτρεις της επιστημονικής φαντασίας και των δυστοπικών μυθιστορημάτων, ένα διαφαινόμενο ζήτημα θα μπορούσε να είναι στον ορίζοντα: τι θα συμβεί αν αυτές οι μηχανές αναπτύξουν μια αίσθηση συνείδησης;

Οι ερευνητές δημοσίευσαν τα αποτελέσματά τους στο Journal of Social Computing.

Αν και δεν υπάρχουν μετρήσιμα δεδομένα που παρουσιάζονται σε αυτή τη συζήτηση σχετικά με την τεχνητή αίσθηση (AS) στις μηχανές, υπάρχουν πολλοί παραλληλισμοί μεταξύ της ανάπτυξης της ανθρώπινης γλώσσας και των παραγόντων που απαιτούνται για να αναπτύξουν οι μηχανές τη γλώσσα με ουσιαστικό τρόπο.

Η δυνατότητα των συνειδητών μηχανών

«Πολλοί από τους ανθρώπους που ενδιαφέρονται για την πιθανότητα ανάπτυξης μηχανικής αίσθησης ανησυχούν για την ηθική της χρήσης αυτών των μηχανών ή εάν οι μηχανές, ως λογικοί αριθμομηχανές, θα επιτίθεντο στους ανθρώπους για να εξασφαλίσουν τη δική τους επιβίωση», δήλωσε ο John Levi Martin, συγγραφέας και ερευνητής. . «Εμείς εδώ ανησυχούμε μήπως πιάσουν μια μορφή αποξένωσης του εαυτού τους μεταβαίνοντας σε μια ειδικά γλωσσική μορφή αίσθησης».

Τα κύρια χαρακτηριστικά που καθιστούν δυνατή μια τέτοια μετάβαση φαίνεται να είναι: η αδόμητη βαθιά μάθηση, όπως στα νευρωνικά δίκτυα (ανάλυση δεδομένων από υπολογιστή και παραδείγματα εκπαίδευσης για την παροχή καλύτερης ανατροφοδότησης), η αλληλεπίδραση μεταξύ ανθρώπων και άλλων μηχανών και ένα ευρύ φάσμα ενεργειών συνεχίσει την αυτο-οδηγούμενη μάθηση. Ένα παράδειγμα αυτού θα ήταν τα αυτόνομα αυτοκίνητα. Πολλές μορφές τεχνητής νοημοσύνης τσεκάρουν ήδη αυτά τα πλαίσια, οδηγώντας στην ανησυχία για το ποιο μπορεί να είναι το επόμενο βήμα στην «εξέλιξή» τους.

Αυτή η συζήτηση δηλώνει ότι δεν αρκεί να ασχολούμαστε μόνο με την ανάπτυξη του AS σε μηχανές, αλλά εγείρει το ερώτημα εάν είμαστε πλήρως προετοιμασμένοι για να εμφανιστεί ένας τύπος συνείδησης στα μηχανήματα μας. Αυτήν τη στιγμή, με την τεχνητή νοημοσύνη που μπορεί να δημιουργήσει αναρτήσεις ιστολογίου, να διαγνώσει μια ασθένεια, να δημιουργήσει συνταγές, να προβλέψει ασθένειες ή να αφηγηθεί ιστορίες απόλυτα προσαρμοσμένες στις εισαγωγές της, δεν είναι μακριά να φανταστεί κανείς ότι έχει μια πραγματική σχέση με μια μηχανή που έχει μάθει κατάσταση ύπαρξής του. Ωστόσο, οι ερευνητές αυτής της μελέτης προειδοποιούν ότι αυτό ακριβώς είναι το σημείο στο οποίο πρέπει να είμαστε επιφυλακτικοί για τα αποτελέσματα που λαμβάνουμε.

Οι κίνδυνοι της γλωσσικής αίσθησης

«Το να γίνεις γλωσσικό ον αφορά περισσότερο τον προσανατολισμό στον στρατηγικό έλεγχο των πληροφοριών και εισάγει απώλεια ολότητας και ακεραιότητας…όχι κάτι που θέλουμε σε συσκευές που καθιστούμε υπεύθυνες για την ασφάλειά μας», είπε ο Martin. Καθώς έχουμε ήδη βάλει την τεχνητή νοημοσύνη επικεφαλής για τόσες πολλές από τις πληροφορίες μας, βασιζόμενοι ουσιαστικά σε αυτό για να μάθουμε πολλά με τον τρόπο που μαθαίνει ο ανθρώπινος εγκέφαλος, έχει γίνει ένα επικίνδυνο παιχνίδι όταν του αναθέτουμε τόσες πολλές ζωτικές πληροφορίες σε ένα σχεδόν απερίσκεπτος τρόπος.

Η μίμηση των ανθρώπινων απαντήσεων και ο στρατηγικός έλεγχος των πληροφοριών είναι δύο πολύ διαφορετικά πράγματα. Ένα «γλωσσικό ον» μπορεί να έχει την ικανότητα να είναι διττό και υπολογισμένο στις απαντήσεις του. Ένα σημαντικό στοιχείο αυτού είναι, σε ποιο σημείο ανακαλύπτουμε ότι μας παίζει η μηχανή;

Αυτό που πρόκειται να έρθει είναι στα χέρια των επιστημόνων υπολογιστών να αναπτύξουν στρατηγικές ή πρωτόκολλα για να δοκιμάσουν μηχανές για γλωσσική αίσθηση. Η ηθική πίσω από τη χρήση μηχανών που έχουν αναπτύξει μια γλωσσική μορφή αίσθησης ή αίσθησης «εαυτού» δεν έχει ακόμη πλήρως εδραιωθεί, αλλά μπορεί κανείς να φανταστεί ότι θα γίνει ένα κοινωνικό καυτό θέμα. Η σχέση μεταξύ ενός αυτοπραγματοποιημένου ατόμου και μιας αισθανόμενης μηχανής είναι βέβαιο ότι θα είναι περίπλοκη και τα αχαρτογράφητα νερά αυτού του τύπου συγγένειας σίγουρα θα έφερναν πολλές έννοιες σχετικά με την ηθική, την ηθική και τη συνεχή χρήση αυτής της τεχνολογίας «αυτογνωσίας». .

Αναφορά: «Μέσω ενός σαρωτή Darkly: Machine Sentience and the Language Virus» των Maurice Bokanga, Alessandra Lembo και John Levi Martin, Δεκέμβριος 2023, Journal of Social Computing.
DOI: 10.23919/JSC.2023.0024

Η μετάφραση έγινε με τη βοήθεια του Google Translate
ΠΗΓΗ: scitechdaily.com

Απάντηση