Η τεχνητή νοημοσύνη AI που έχει έρθει για να ανατρέψει τα δεδομένα της ανθρωπότητας, αποτελεί αντικείμενο συζήτησης εδώ και πολλές δεκαετίες. Τώρα, οι επιστήμονες απαντούν στο ερώτημα εάν θα μπορούσαμε να ελέγξουμε μια υπερνοημοσύνη υπολογιστών υψηλού επιπέδου. Ποια είναι η απάντησή τους; «Σίγουρα όχι».
Σύμφωνα με τους επιστήμονες, ο έλεγχος μιας υπερνοημοσύνης AI που ξεπερνά κατά πολύ την ανθρώπινη κατανόηση, θα απαιτούσε μια προσομοίωση αυτής που να μπορεί να αναλυθεί. Αλλά αν η υπερνοημοσύνη δεν είναι κατανοητή, είναι αδύνατο να δημιουργηθεί μια τέτοια προσομοίωση.
Κανόνες όπως «δεν προκαλεί βλάβη στον άνθρωπο» δεν μπορούν να τεθούν εάν δεν είναι κατανοητό το είδος των σεναρίων με τα οποία θα δημιουργηθεί μια τεχνητή νοημοσύνη. Οι επιστήμονες τόνισαν πως όταν ένα σύστημα υπολογιστή λειτουργεί σε ένα επίπεδο πάνω από το πεδίο εφαρμογής των προγραμματιστών, δεν μπορούν να τεθούν όρια. Συγκεκριμένα, οι επιστήμονες επεσήμαναν τα ακόλουθα: «Μια υπερνοημοσύνη δημιουργεί ένα θεμελιωδώς διαφορετικό πρόβλημα από εκείνο που συνήθως μελετάται στην “ρομποτική ηθική”. Αυτό συμβαίνει επειδή η υπερνοημοσύνη είναι πολύπλευρη και επομένως δυνητικά ικανή να κινητοποιήσει μια ποικιλία πόρων, προκειμένου να επιτύχει στόχους που είναι δυνητικά αδιανόητοι για τον άνθρωπο, πόσο μάλλον ελεγχόμενοι.»
Μέρος του συλλογισμού των ερευνητών προέρχεται από το πρόβλημα τερματισμού που προέβαλε ο Alan Turing το 1936. Το πρόβλημα επικεντρώνεται στο να γνωρίζουμε εάν ένα πρόγραμμα υπολογιστή θα καταλήξει σε ένα συμπέρασμα και θα σταματήσει να «τρέχει» ή αν θα συνεχίσει να «τρέχει» για πάντα.
Οποιοδήποτε πρόγραμμα που αναπτύσσεται για να σταματήσει η AI να βλάπτει τους ανθρώπους και να καταστρέφει τον κόσμο, για παράδειγμα, μπορεί να καταλήξει σε ένα συμπέρασμα (και να σταματήσει) ή όχι. Είναι μαθηματικά αδύνατο να είναι οι επιστήμονες απόλυτα σίγουροι, πράγμα που σημαίνει ότι δεν μπορούν να θέσουν όρια.
«Στην πραγματικότητα, αυτό κάνει τον αλγόριθμο περιορισμού άχρηστο», λέει ο επιστήμονας υπολογιστών Iyad Rahwan, από το Ινστιτούτο Ανθρώπινης Ανάπτυξης “Max-Planck” στη Γερμανία.
Η εναλλακτική λύση εκπαίδευσης της AI με κάποια ηθική που να της λέει να μην καταστρέψει τον κόσμο – κάτι που κανένας αλγόριθμος δεν μπορεί να είναι απολύτως σίγουρος ότι κάνει, λένε οι ερευνητές – είναι να περιοριστούν οι δυνατότητες της υπερνοημοσύνης.
Ωστόσο, οι ερευνητές απορρίπτουν και αυτήν την ιδέα, καθώς κάτι τέτοιο θα περιορίσει την εμβέλεια της τεχνητής νοημοσύνης.
Επιπλέον, οι ερευνητές εξήγησαν ότι δεν μπορούν να γνωρίζουν καν πότε φτάνει μια υπερνοημοσύνη πέρα από τον έλεγχό τους. Αυτό σημαίνει ότι πρέπει να αρχίσουν να θέτουν κάποια σοβαρά ερωτήματα σχετικά με τις κατευθύνσεις που ακολουθούν.
Ο επιστήμονας υπολογιστών Manuel Cebrian από το Ινστιτούτο Ανθρώπινης Ανάπτυξης “Max-Planck” επεσήμανε τα εξής: «Μια υπερ-έξυπνη μηχανή που ελέγχει τον κόσμο, ακούγεται σαν επιστημονική φαντασία. Αλλά υπάρχουν ήδη μηχανές που εκτελούν συγκεκριμένες σημαντικές εργασίες ανεξάρτητα, χωρίς να κατανοούν πλήρως οι προγραμματιστές πώς το έμαθαν. Επομένως, τίθεται το ερώτημα εάν αυτό θα μπορούσε κάποια στιγμή να γίνει ανεξέλεγκτο και επικίνδυνο για την ανθρωπότητα.»
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου