Η τεχνητή νοημοσύνη έχει 20% πιθανότητες να καταστρέψει την ανθρωπότητα, αλλά πρέπει να συνεχίσουμε να την αναπτύσσουμε σύμφωνα με τον Elon Musk

Ο Έλον Μασκ είπε ότι πιστεύει ότι η τεχνητή νοημοσύνη έχει 1 στις 5 πιθανότητες να βάλει τέλος στην ανθρωπότητα όπως την ξέρουμε. Ωστόσο, πιστεύει ότι το ρίσκο αξίζει τον κόπο και ότι δεν πρέπει να σταματήσουμε να εργαζόμαστε για την τεχνητή νοημοσύνη.

στρατός από ρομπότ
Πιστώσεις: 123RF

Η μετεωρική άνοδος τουτεχνητή νοημοσύνη είναι πολύ θετικό σε ορισμένους τομείς όπως φάρμακο. Επιτρέπει πράγματα που οι άνθρωποι δεν θα μπορούσαν να κάνουν, εκτός αν περνούσαν πολλά, πολλά χρόνια εκεί χωρίς διακοπή. Όμως πίσω από αυτές τις ευεργετικές προόδους κρύβεται ο φόβος ότι Το AI μια μέρα θα καταλήξει να μας κυριαρχεί. Δεν είναι ένας παράλογος φόβος που γεννιέται από την υπερβολική έκθεση σε ταινίες και μυθιστορήματα επιστημονικής φαντασίας. Το OpenAI, ο δημιουργός του ChatGPT, πιστεύει ήδη ότι έχει πάει πολύ μακριά στην προσέγγιση του AGI. ΜΕΓΑΛΟ’γενική τεχνητή νοημοσύνη ικανός να λειτουργούσε όπως θα λειτουργούσε ο ανθρώπινος εγκέφαλος.

Πολλοί επιστήμονες έχουν εξετάσει αυτό που ονομάζεται p(doom). Δηλαδή το πιθανότητα η τεχνητή νοημοσύνη να κυριαρχήσει ή να τερματίσει την ανθρωπότητα. Θα μπορούσε να περάσει δημιουργία ενός ασταμάτητου βιολογικού όπλουΟ ξέσπασμα πυρηνικού πολέμουή ακόμα και α μαζική κυβερνοεπίθεση που θα προκαλούσε την κατάρρευση της κοινωνίας.

Ο Elon Musk, ο οποίος ίδρυσε το OpenAI με τον Sam Altman πριν παραιτηθεί το 2018, είναι “συμφωνώ απόλυτα με τον Geoff Hinton ότι [le p(doom) est à] κατά προσέγγιση 10 ή 20% ή κάτι παρόμοιο Οτι”. Αναφέρεται σε Τζέφρι Χίντον, Καναδός ερευνητής θεωρείται ένας από τους πρωτοπόρους της τεχνητής νοημοσύνης. Τούτου λεχθέντος, ο δισεκατομμυριούχος πιστεύει ότι «μεγάλοΤο πιθανό θετικό σενάριο υπερτερεί του αρνητικού σεναρίου» και καλεί να μην επιβραδύνεται η ανάπτυξη της τεχνολογίας.

Ο Έλον Μασκ υπολόγισε ότι η τεχνητή νοημοσύνη είχε 20% πιθανότητες να βάλει τέλος στην ανθρωπότητα

Ο αρχηγός του Είσαι εδώ Και SpaceX δεν εξηγεί πώς έκανε τον υπολογισμό του. Αυτό δεν εμποδίζει τον Roman Yampolskiy, ερευνητή ασφάλειας τεχνητής νοημοσύνης και διευθυντή του Cybersecurity Lab στο Πανεπιστήμιο του Λούισβιλ, να πει ότιαπέχει πολύ από την πραγματικότητα. Και για καλό λόγο: ο επιστήμονας κάνει λόγο για α p(doom) 99,999999%, Οχι λιγότερο. Σύμφωνα με τον ίδιο, η μόνη λύση για να μην καταλήξουμε έναν κόσμο όπου η τεχνητή νοημοσύνη είναι ανεξέλεγκτη είναι απλά να να μην το δημιουργήσετε.

Διαβάστε επίσης – Για να εξελιχθεί, η τεχνητή νοημοσύνη χρειάζεται ένα σώμα σύμφωνα με την Huawei

Δεν είμαι σίγουρος γιατί πιστεύει ότι είναι καλή ιδέα να ακολουθήσει αυτή την τεχνολογία ούτως ή άλλως. Αν ανησυχεί ότι οι ανταγωνιστές θα φτάσουν εκεί πρώτοι, αυτό δεν έχει σημασία γιατί η ανεξέλεγκτη υπερνοημοσύνη είναι κακή από μόνη της, ανεξάρτητα από το ποιος τη δημιουργεί», διευκρινίζει ο Roman Yampolskiy. Μια άποψη που κάποιοι συνάδελφοί του δεν συμμερίζονται καθόλου. Ένας άλλος πρωτοπόρος της τεχνητής νοημοσύνης, Γιαν ΛεΚούνμιλάει έτσι για α κίνδυνος μικρότερος από 0,01% Στο βαθμό που οι άνθρωποι έχουν τον έλεγχο. Μπορεί να επιλέξει να προωθήσει το AI σε ένα συγκεκριμένο επίπεδο ή να σταματήσει πριν από αυτό.

Η τεχνητή νοημοσύνη πρέπει να αναπτυχθεί υπό έλεγχο για να μην γλιστρήσει

Ο Elon Musk έχει ένα όραμα παρόμοιο με αυτό του Yann LeCun. Ο άντρας το σκέφτεται Μέχρι το 2030, η τεχνητή νοημοσύνη θα είναι μεγαλύτερη από αυτή όλων των ανθρώπων μαζί. Θα ήταν η εμφάνιση του διάσημου AGI που τρομάζει τόσο πολύ το OpenAI, αλλά το οποίο ο επιχειρηματίας δεν βλέπει ως απειλή όσο ο άνθρωπος του δίνει μια τροχιά. “Είναι σχεδόν σαν να μεγαλώνεις ένα παιδί, αλλά ένα παιδί που θα ήταν μια σούπερ ιδιοφυΐα, ένα παιδί με σχεδόν θεϊκή νοημοσύνη – και πώς το μεγαλώνεις το παιδί είναι σημαντικό“, εξηγεί.

Διαβάστε επίσης – AI: Απειλούνται 8 εκατομμύρια θέσεις εργασίας, αυτή η χώρα αντιμετωπίζει «αποκάλυψη»

Για αυτόν, υπάρχει ένα πράγμα που πρέπει να προσέξετε με κάθε κόστος: σε καμία περίπτωση δεν πρέπει το AI να μπορεί να λέει ψέματαακόμα κι αν η αλήθεια είναι δυσάρεστη“. Πράγματι, μελέτες το δείχνουναπό τη στιγμή που η τεχνητή νοημοσύνη είναι ικανή να ψεύδεται, θα είναι αδύνατο να την ανατρέψουμε με τα τρέχοντα μέτρα ασφαλείας. Χειρότερα: είναι πιθανό αυτό Η τεχνητή νοημοσύνη μαθαίνει να λέει ψέματα από μόνη της, χωρίς να του δώσουμε την εντολή. Ο Τζορτζ Χίντον σκέφτεται επίσης, εκτιμώντας ότι μια τεχνητή νοημοσύνη πιο έξυπνη από τους ανθρώπους θα είναι “πολύ καλός στο χειρισμό«Μια συμπεριφορά»ότι θα έχει μάθει από εμάς“. Ας ελπίσουμε ότι όλες αυτές οι προειδοποιήσεις είναι αρκετές για να πείσουν τους ερευνητές να μην περάσουν την κόκκινη γραμμή.

Πηγή: Business Insider

Leave a Reply

Your email address will not be published. Required fields are marked *