Όταν οι επιστήμονες υπολογιστών στη 'Microsoft' άρχισαν να πειραματίζονται με ένα νέο σύστημα τεχνητής νοημοσύνης
πέρυσι, του ζήτησαν να λύσει ένα 'παζλ', που θα έπρεπε να απαιτεί μια διαισθητική
κατανόηση του φυσικού κόσμου.
«Εδώ έχουμε ένα βιβλίο, εννέα αυγά,
ένα φορητό υπολογιστή, ένα μπουκάλι και ένα καρφί», ερώτησαν. «Παρακαλώ πείτε
μου πώς να τα στοιβάξω το ένα πάνω στο άλλο με σταθερό τρόπο».
Οι
ερευνητές ξαφνιάστηκαν από την εφευρετικότητα της απάντησης του συστήματος
τεχνητής νοημοσύνης. Βάλτε τα αυγά στο βιβλίο, είπε. Τοποθετήστε τα αυγά σε
τρεις σειρές με κενό μεταξύ τους. Βεβαιωθείτε ότι δεν τα σπάτε.
«Τοποθετήστε
το φορητό υπολογιστή πάνω από τα αυγά, με την οθόνη στραμμένη προς τα κάτω και
το πληκτρολόγιο στραμμένο προς τα πάνω», έγραψε. «Ο φορητός υπολογιστής θα
ταιριάζει άνετα στα όρια του βιβλίου και των αυγών και η επίπεδη και άκαμπτη
επιφάνειά του θα παρέχει μια σταθερή πλατφόρμα για το επόμενο στρώμα».
Η
έξυπνη πρόταση έκανε τους ερευνητές να αναρωτηθούν αν γίνονταν μάρτυρες ενός
νέου είδους νοημοσύνης. Τον Μάρτιο, δημοσίευσαν ένα ερευνητικό έγγραφο 155
σελίδων υποστηρίζοντας ότι το σύστημα ήταν ένα βήμα προς την τεχνητή γενική νοημοσύνη ή AGI (https://www.nytimes.com/2023/03/31/technology/ai-chatbots-benefits-dangers.html),
η οποία είναι συντομογραφία για μια μηχανή που μπορεί να κάνει ο,τιδήποτε
μπορεί να κάνει ο ανθρώπινος εγκέφαλος. Η εργασία δημοσιεύθηκε σε ένα
αποθετήριο έρευνας στο διαδίκτυο.
Η
Microsoft, η πρώτη μεγάλη εταιρεία τεχνολογίας που κυκλοφόρησε ένα έγγραφο που
κάνει έναν τόσο τολμηρό ισχυρισμό, προκάλεσε μια από τις πιο έντονες συζητήσεις
στον κόσμο της τεχνολογίας: Είναι η βιομηχανία που χτίζει κάτι παρόμοιο με
την ανθρώπινη νοημοσύνη; Ή μήπως μερικά από τα λαμπρότερα μυαλά της βιομηχανίας
αφήνουν τη φαντασία τους να πάρει το καλύτερο από αυτά;
"Ξεκίνησα
να είμαι πολύ σκεπτικός - και αυτό εξελίχθηκε σε μια αίσθηση απογοήτευσης,
ενόχλησης, ίσως ακόμη και φόβου", δήλωσε ο Peter Lee, ο οποίος ηγείται της
έρευνας στη Microsoft. "Σκέφτεσαι: Από πού στο καλό προέρχεται αυτό;"
Η ερευνητική
εργασία της Microsoft, που ονομάζεται προκλητικά «Σπινθήρες Τεχνητής Γενικής Νοημοσύνης»(https://arxiv.org/pdf/2303.12712.pdf),
πηγαίνει στην καρδιά αυτού που οι τεχνολόγοι εργάζονται - και φοβούνται - εδώ
και δεκαετίες. Αν κατασκευάσουν μια μηχανή που λειτουργεί όπως ο ανθρώπινος
εγκέφαλος ή ακόμα καλύτερα, θα μπορούσε να αλλάξει τον κόσμο. Αλλά θα μπορούσε
επίσης να είναι επικίνδυνο.
Και θα μπορούσε επίσης να είναι ανοησία. Κάνοντας
ισχυρισμούς A.G.I. μπορεί να είναι ένας δολοφόνος φήμης για τους επιστήμονες
υπολογιστών. Αυτό που ένας ερευνητής πιστεύει ότι είναι ένα σημάδι νοημοσύνης
μπορεί εύκολα να εξηγηθεί από έναν άλλο, και η συζήτηση συχνά ακούγεται πιο
κατάλληλη για μια λέσχη φιλοσοφίας παρά για ένα εργαστήριο υπολογιστών. Πέρυσι,
η Google απέλυσε έναν ερευνητή που ισχυρίστηκε ότι ένα παρόμοιο
σύστημα τεχνητής νοημοσύνης ήταν ευαίσθητο
(https://www.nytimes.com/2022/08/05/technology/ai-sentient-google.html), ένα βήμα πέρα από αυτό που
ισχυρίστηκε η Microsoft. Ένα αισθανόμενο σύστημα δεν θα ήταν απλώς ευφυές.
Θα ήταν σε θέση να αισθανθεί ή να αισθανθεί τι συμβαίνει στον κόσμο γύρω του.
Αλλά
ορισμένοι πιστεύουν ότι η βιομηχανία έχει τον τελευταίο χρόνο περίπου κλίνει
προς κάτι που δεν μπορεί να εξηγηθεί: Ένα νέο σύστημα τεχνητής νοημοσύνης που
έρχεται με ανθρώπινες απαντήσεις και ιδέες που δεν είχαν προγραμματιστεί σε
αυτό.
Η
Microsoft έχει αναδιοργανώσει τμήματα των ερευνητικών εργαστηρίων της για να
συμπεριλάβει πολλές ομάδες αφιερωμένες στην εξερεύνηση της ιδέας. Το ένα θα
διευθύνεται από τον Sébastien Bubeck, ο οποίος ήταν ο κύριος συγγραφέας στο
έγγραφο της Microsoft A.G.I.
Πριν
από περίπου πέντε χρόνια, εταιρείες όπως η Google, η Microsoft και η OpenAI
άρχισαν να κατασκευάζουν μεγάλα γλωσσικά μοντέλα ή L.L.M.s. Αυτά τα συστήματα
συχνά ξοδεύουν μήνες αναλύοντας τεράστιες ποσότητες ψηφιακού κειμένου,
συμπεριλαμβανομένων βιβλίων, άρθρων της Wikipedia και αρχείων καταγραφής
συνομιλιών. Εντοπίζοντας μοτίβα σε αυτό το κείμενο, έμαθαν να παράγουν δικό
τους κείμενο, συμπεριλαμβανομένων των εργασιών, της ποίησης και του κώδικα
υπολογιστή. Μπορούν ακόμη και να συνεχίσουν μια συνομιλία.
Η τεχνολογία
με την οποία εργάζονταν οι ερευνητές της Microsoft, το GPT-4 της OpenAI (https://www.nytimes.com/2023/03/14/technology/openai-gpt4-chatgpt.html),
θεωρείται το πιο ισχυρό από αυτά τα συστήματα.
Η Microsoft είναι στενός συνεργάτης της OpenAI και έχει επενδύσει 13
δισεκατομμύρια δολλάρια στην εταιρεία του Σαν Φρανσίσκο.
Οι ερευνητές
περιελάμβαναν τον Δρ Bubeck, έναν 38χρονο Γάλλο ομογενή και πρώην καθηγητή του
Πανεπιστημίου του Πρίνστον. Ένα από τα πρώτα πράγματα που έκανε ο ίδιος και οι
συνάδελφοί του ήταν να ζητήσουν από το GPT-4 να γράψει μια μαθηματική απόδειξη
που να δείχνει ότι υπήρχαν άπειροι πρώτοι αριθμοί και να το κάνει με έναν τρόπο
που ομοιοκαταληξία.
Η ποιητική
απόδειξη της τεχνολογίας ήταν τόσο εντυπωσιακή – τόσο μαθηματικά όσο και
γλωσσικά – που δυσκολευόταν να καταλάβει με τι συνομιλούσε. «Σε εκείνο το
σημείο, σκεφτόμουν: Τι συμβαίνει;» είπε (https://www.youtube.com/watch?v=qbIk7-JPB2c&t=904s)
τον Μάρτιο κατά τη διάρκεια σεμιναρίου στο Ινστιτούτο Τεχνολογίας της
Μασαχουσέτης.
Για αρκετούς
μήνες, ο ίδιος και οι συνάδελφοί του τεκμηρίωσαν πολύπλοκη συμπεριφορά που
επέδειξε το σύστημα και πίστευαν ότι επιδείκνυε μια «βαθιά και ευέλικτη
κατανόηση» των ανθρώπινων εννοιών και δεξιοτήτων.
Όταν οι
άνθρωποι χρησιμοποιούν το GPT-4, μένουν «έκπληκτοι με την ικανότητά του να
παράγει κείμενο», δήλωσε ο Δρ Lee. «Αλλά αποδεικνύεται ότι είναι πολύ καλύτερο
στην ανάλυση και τη σύνθεση, την αξιολόγηση και την κρίση του κειμένου παρά τη
δημιουργία του».
Όταν ζήτησαν
από το σύστημα να σχεδιάσει έναν μονόκερο χρησιμοποιώντας μια γλώσσα
προγραμματισμού που ονομάζεται TiKZ, δημιούργησε αμέσως ένα πρόγραμμα που θα
μπορούσε να σχεδιάσει έναν μονόκερο. Όταν αφαίρεσαν το τέντωμα του κώδικα που
σχεδίαζε το κέρατο του μονόκερου και ζήτησαν από το σύστημα να τροποποιήσει το
πρόγραμμα έτσι ώστε να σχεδιάσει και πάλι έναν μονόκερο, έκανε ακριβώς αυτό.
Του ζήτησαν
να γράψει ένα πρόγραμμα που λάμβανε υπόψη την ηλικία, το φύλο, το βάρος, το
ύψος και τα αποτελέσματα των εξετάσεων αίματος ενός ατόμου και έκρινε εάν
διέτρεχαν κίνδυνο διαβήτη. Του ζήτησαν να γράψει μια επιστολή υποστήριξης για
ένα ηλεκτρόνιο ως προεδρικό υποψήφιο των ΗΠΑ, με τη φωνή του Μαχάτμα Γκάντι,
απευθυνόμενη στη σύζυγό του. Και του ζήτησαν να γράψει έναν σωκρατικό διάλογο
που να διερευνά τις καταχρήσεις και τους κινδύνους των L.L.M.S. (μεγάλο
γλωσσικό μοντέλλο)
Τα έκανε όλα
με έναν τρόπο που φαινόταν να δείχνει μια κατανόηση πεδίων τόσο διαφορετικών
όσο η πολιτική, η φυσική, η ιστορία, η επιστήμη των υπολογιστών, η ιατρική και
η φιλοσοφία, συνδυάζοντας παράλληλα τις γνώσεις της.
«Όλα τα
πράγματα που νόμιζα ότι δεν θα μπορούσε να κάνει; Ήταν σίγουρα σε θέση να κάνει
πολλά από αυτά - αν όχι τα περισσότερα από αυτά», δήλωσε ο Δρ Bubeck.
Ορισμένοι
ειδικοί της τεχνητής νοημοσύνης είδαν το έγγραφο της Microsoft ως μια
ευκαιριακή προσπάθεια να κάνουν μεγάλους ισχυρισμούς για μια τεχνολογία που
κανείς δεν κατάλαβε. Οι ερευνητές υποστηρίζουν επίσης ότι η γενική νοημοσύνη
απαιτεί εξοικείωση με τον φυσικό κόσμο, την οποία θεωρητικά δεν έχει το GPT-4.
«Οι
"Σπίθες της AGI" είναι ένα παράδειγμα μερικών από αυτές τις μεγάλες
εταιρείες που επιλέγουν τη μορφή ερευνητικής εργασίας σε θέσεις PR», δήλωσε ο
Maarten Sap, ερευνητής και καθηγητής στο Πανεπιστήμιο Carnegie Mellon.
«Αναγνωρίζουν κυριολεκτικά στην εισαγωγή της εργασίας τους ότι η προσέγγισή
τους είναι υποκειμενική και ανεπίσημη και μπορεί να μην ικανοποιεί τα αυστηρά
πρότυπα επιστημονικής αξιολόγησης».
Ο Δρ
Bubeck και ο Δρ Lee δήλωσαν ότι δεν ήταν σίγουροι πώς να περιγράψουν τη
συμπεριφορά του συστήματος και τελικά κατέληξαν στο "Sparks of
A.G.I." επειδή πίστευαν ότι θα αιχμαλώτιζε τη φαντασία άλλων ερευνητών.
Επειδή οι
ερευνητές της Microsoft δοκίμαζαν μια πρώιμη έκδοση του GPT-4 που δεν είχε
ρυθμιστεί για να αποφευχθεί η ρητορική μίσους, η παραπληροφόρηση και άλλο
ανεπιθύμητο περιεχόμενο, οι ισχυρισμοί που διατυπώνονται στο έγγραφο δεν μπορούν
να επαληθευτούν από εξωτερικούς ειδικούς. Η Microsoft λέει ότι το σύστημα που
είναι διαθέσιμο στο κοινό δεν είναι τόσο ισχυρό όσο η έκδοση που δοκιμάστηκε.
Υπάρχουν
φορές που συστήματα όπως το GPT-4 φαίνεται να μιμούνται την ανθρώπινη λογική,
αλλά υπάρχουν και φορές που φαίνονται τρομερά πυκνά. «Αυτές οι συμπεριφορές δεν
είναι πάντα συνεπείς», δήλωσε ο Ece Kamar, ερευνητής της Microsoft.
Η Alison
Gopnik, καθηγήτρια ψυχολογίας που είναι μέλος της ερευνητικής ομάδας τεχνητής
νοημοσύνης στο Πανεπιστήμιο της Καλιφόρνιας, Berkeley, δήλωσε ότι συστήματα
όπως το GPT-4 ήταν αναμφίβολα ισχυρά, αλλά δεν ήταν σαφές ότι το κείμενο που
δημιουργήθηκε από αυτά τα συστήματα ήταν το αποτέλεσμα κάτι όπως η ανθρώπινη
λογική ή η κοινή λογική.
«Όταν βλέπουμε ένα
περίπλοκο σύστημα ή μηχανή, το ανθρωπομορφοποιούμε. Όλοι το κάνουν αυτό -
άνθρωποι που εργάζονται στον τομέα και άνθρωποι που δεν είναι», δήλωσε
η Δρ Gopnik. «Αλλά το να το σκεφτόμαστε αυτό ως μια συνεχή σύγκριση μεταξύ
της τεχνητής νοημοσύνης και των ανθρώπων - όπως ένα είδος διαγωνισμού
τηλεπαιχνιδιών - δεν είναι ο σωστός τρόπος να το σκεφτούμε».
Tο
post Η Microsoft λέει ότι
η νέα τεχνητή νοημοσύνη δείχνει σημάδια ανθρώπινης λογικής εμφανίστηκε αρχικά στους New York Times (https://www.nytimes.com/).
https://dnyuz.com/2023/05/16/microsoft-says-new-a-i-shows-signs-of-human-reasoning/
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου
Ἐνημερώνουμε τοὺς ἀγαπητοὺς ἀναγνῶστες μας, ὅτι σχόλια, τὰ ὁποῖα ἐμπεριέχουν προσβλητικοὺς χαρακτηρισμούς, διαφημίζουν κόμματα ἢ εἶναι γραμμένα μὲ λατινικοὺς χαρακτῆρες (γκρήκλις), θὰ διαγράφωνται ἄνευ προειδοποιήσεως!