Κυριακή, 29 Σεπτεμβρίου, 2024
ΑρχικήSales EventsΗ Όπρα εξερευνά την τεχνητή νοημοσύνη με τους Άλτμαν και Γκέιτς

Η Όπρα εξερευνά την τεχνητή νοημοσύνη με τους Άλτμαν και Γκέιτς


Αργά το απόγευμα της Πέμπτης, η Όπρα Γουίνφρεϊ μετέδωσε μια ειδική εκπομπή για την τεχνητή νοημοσύνη, με τον κατάλληλο τίτλο «Η τεχνητή νοημοσύνη και το μέλλον μας». Οι καλεσμένοι ήταν ο Διευθύνων Σύμβουλος του OpenAI Sam Altman, ο τεχνολογικός influencer Marques Brownlee και ο ερινός διευθυντής του FBI Christopher Wray.

Ο κυρίαρχος τόνος ήταν ο σκεπτικισμός — και η επιφυλακτικότητα.

Η Oprah σημείωσε σε προετοιμασμένες παρατηρήσεις ότι το τζίνι της τεχνητής νοημοσύνης είναι έξω από το μπουκάλι, καλώς ή κακώς, και ότι η ανθρωπότητα θα πρέπει να μάθει να ζει με τις συνέπειες.

«Η τεχνητή νοημοσύνη είναι ακόμα πέρα ​​από τον έλεγχό μας και σε μεγάλο βαθμό… την κατανόησή μας», είπε. «Αλλά είναι εδώ, και θα ζούμε με την τεχνολογία που μπορεί να είναι σύμμαχός μας καθώς και αντίπαλός μας… Είμαστε τα πιο προσαρμόσιμα πλάσματα αυτού του πλανήτη. Θα προσαρμοστούμε ξανά. Αλλά να έχετε τα μάτια σας σε αυτό που είναι αληθινό. Το διακύβευμα δεν θα μπορούσε να είναι μεγαλύτερο».

Ο Σαμ Άλτμαν υπόσχεται υπερβολικά

Ο Altman, η πρώτη συνέντευξη της Oprah τη νύχτα, έκανε την αμφισβητήσιμη υπόθεση ότι η σημερινή τεχνητή νοημοσύνη μαθαίνει έννοιες με βάση τα δεδομένα στα οποία έχει εκπαιδευτεί.

«Δείχνουμε στο σύστημα χίλιες λέξεις σε μια σειρά και του ζητάμε να προβλέψει τι θα ακολουθήσει», είπε στην Όπρα. «Το σύστημα μαθαίνει να προβλέπει και μετά εκεί μαθαίνει τις υποκείμενες έννοιες».

Πολλοί ειδικοί θα διαφωνούσαν.

Συστήματα τεχνητής νοημοσύνης όπως το ChatGPT και το o1, που παρουσίασε το OpenAI την Πέμπτη, προβλέπουν πράγματι τις πιο πιθανές επόμενες λέξεις σε μια πρόταση. Αλλά είναι απλά στατιστικές μηχανές — μαθαίνουν μοτίβα δεδομένων. Δεν έχουν σκοπιμότητα. κάνουν μόνο τεκμηριωμένες εικασίες.

Ενώ ο Άλτμαν πιθανώς υπερεκτίμησε τις δυνατότητες των σημερινών συστημάτων τεχνητής νοημοσύνης, υπογράμμισε τη σημασία του να ανακαλύψουμε πώς να ελέγξουμε την ασφάλεια αυτά τα ίδια συστήματα.

“Ένα από τα πρώτα πράγματα που πρέπει να κάνουμε – και αυτό συμβαίνει τώρα – είναι να πείσουμε την κυβέρνηση να αρχίσει να ανακαλύπτει πώς να κάνει δοκιμές ασφαλείας αυτών των συστημάτων, όπως κάνουμε για αεροσκάφη ή νέα φάρμακα”, είπε. «Προσωπικά, πιθανώς να συνομιλώ με κάποιον στην κυβέρνηση κάθε λίγες μέρες».

Η ώθηση του Altman για ρύθμιση μπορεί να είναι ιδιοτελής. Το OpenAI αντιτάχθηκε στο νομοσχέδιο για την ασφάλεια της τεχνητής νοημοσύνης της Καλιφόρνια, γνωστό ως , λέγοντας ότι θα «πνίξει την καινοτομία». Ωστόσο, πρώην υπάλληλοι του OpenAI και ειδικοί στην τεχνητή νοημοσύνη, όπως ο Geoffrey Hinton, υποστήριξαν το νομοσχέδιο, υποστηρίζοντας ότι θα επέβαλλε τις απαραίτητες διασφαλίσεις για την ανάπτυξη της τεχνητής νοημοσύνης.

Η Όπρα παρακίνησε επίσης τον Άλτμαν για τον ρόλο του ως αρχηγός του OpenAI. Ρώτησε γιατί οι άνθρωποι πρέπει να τον εμπιστεύονται και εκείνος απέφυγε σε μεγάλο βαθμό την ερώτηση, λέγοντας ότι η εταιρεία του προσπαθεί να οικοδομήσει εμπιστοσύνη με την πάροδο του χρόνου.

Προηγουμένως, είπε ο Άλτμαν πολύ άμεσα ότι οι άνθρωποι δεν πρέπει να εμπιστεύονται αυτόν ή οποιοδήποτε άτομο για να βεβαιωθούν ότι η τεχνητή νοημοσύνη ωφελεί τον κόσμο.

Ο Διευθύνων Σύμβουλος της OpenAI είπε αργότερα ότι ήταν περίεργο να ακούει την Oprah να ρωτά αν ήταν «ο πιο ισχυρός και επικίνδυνος άνθρωπος στον κόσμο», όπως υποδήλωνε ένας τίτλος ειδήσεων. Διαφώνησε, αλλά είπε ότι ένιωθε ευθύνη να ωθήσει την τεχνητή νοημοσύνη προς μια θετική κατεύθυνση για την ανθρωπότητα.

Η Oprah στα

Όπως αναμενόταν να συμβεί σε μια ειδική για την τεχνητή νοημοσύνη, προέκυψε το θέμα των deepfakes.

Για να καταδείξει πόσο πειστικά γίνονται τα συνθετικά μέσα, ο Brownlee συνέκρινε δείγματα πλάνα από τη Sora, τη γεννήτρια βίντεο που τροφοδοτείται με τεχνητή νοημοσύνη του OpenAI, με πλάνα που δημιουργείται από AI από ένα σύστημα τεχνητής νοημοσύνης μηνών. Το δείγμα Sora ήταν μίλια μπροστά — απεικονίζοντας την ταχεία πρόοδο του πεδίου.

«Τώρα, μπορείτε ακόμα να δείτε κομμάτια αυτού και να πείτε ότι κάτι δεν πάει καλά», είπε ο Brownlee για το βίντεο της Sora. Η Όπρα είπε ότι της φαινόταν αληθινό.

Η βιτρίνα των deepfakes χρησίμευσε ως συνέχεια μιας συνέντευξης με τον Wray, ο οποίος αφηγήθηκε τη στιγμή που εξοικειώθηκε για πρώτη φορά με την τεχνολογία deepfake AI.

«Ήμουν σε μια αίθουσα συνεδριάσεων, και ένα σωρό [FBI] Οι άνθρωποι μαζεύτηκαν για να μου δείξουν πώς μπορούν να δημιουργηθούν deepfakes ενισχυμένα με AI», είπε ο Wray. «Και είχαν δημιουργήσει ένα βίντεο με εμένα να λέω πράγματα που δεν είχα ξαναπεί και δεν θα έλεγα ποτέ».

Ο Wray μίλησε για τον αυξανόμενο επιπολασμό της υποβοηθούμενης από AI εκβιασμό. Σύμφωνα με στην εταιρεία κυβερνοασφάλειας ESET, σημειώθηκε αύξηση 178% στις υποθέσεις εκστρατείας μεταξύ 2022 και 2023, εν μέρει λόγω της τεχνολογίας AI.

«Κάποιος που υποδύεται ως συνομήλικος στοχεύει έναν έφηβο», είπε ο Wray, «μετά χρησιμοποιεί [AI-generated] συμβιβαστικές εικόνες για να πείσει το παιδί να στείλει αληθινές φωτογραφίες σε αντάλλαγμα. Στην πραγματικότητα, είναι ένας τύπος πίσω από ένα πληκτρολόγιο στη Νιγηρία, και μόλις πάρουν τις εικόνες, απειλούν να εκβιάσουν το παιδί και πουν, αν δεν πληρώσεις, θα μοιραστούμε αυτές τις εικόνες που θα καταστρέψουν τη ζωή σου. ”

Ο Wray έθιξε επίσης την παραπληροφόρηση σχετικά με τις επερχόμενες προεδρικές εκλογές των ΗΠΑ. Ενώ υποστήριξε ότι «δεν ήταν ώρα για πανικό», τόνισε ότι είναι καθήκον «όλοι στην Αμερική» να «φέρουν μια εντονότερη αίσθηση εστίασης και προσοχής» στη χρήση της τεχνητής νοημοσύνης και να έχουν κατά νου ότι η τεχνητή νοημοσύνη «μπορεί να χρησιμοποιηθεί από κακοί εναντίον όλων μας».

«Βρίσκουμε πολύ συχνά ότι κάτι στα μέσα κοινωνικής δικτύωσης που μοιάζει με τον Μπιλ από την Τοπέκα ή τη Μαίρη από το Ντέιτον είναι στην πραγματικότητα, ξέρετε, κάποιος Ρώσος ή Κινέζος αξιωματικός πληροφοριών στα περίχωρα του Πεκίνου ή της Μόσχας», είπε ο Ρέι.

Πράγματι, ένα Statista ψηφοφορία διαπίστωσε ότι περισσότεροι από το τρίτο των ερωτηθέντων στις ΗΠΑ είδαν παραπλανητικές πληροφορίες – ή υποψιάζονταν ότι ήταν παραπληροφόρηση – σχετικά με βασικά θέματα προς το τέλος του 2023. Φέτος, οι παραπλανητικές εικόνες που δημιουργήθηκαν από την τεχνητή νοημοσύνη των υποψηφίων Αντιπρόεδρος Kamala Harris και ο πρώην πρόεδρος Donald Trump έχουν συγκεντρώσει εκατομμύρια των προβολών σε κοινωνικά δίκτυα συμπεριλαμβανομένου του X.

Ο Μπιλ Γκέιτς για τη διακοπή της τεχνητής νοημοσύνης

Για μια τεχνο-αισιόδοξη αλλαγή του ρυθμού, η Oprah πήρε συνέντευξη από τον ιδρυτή της Microsoft, Bill Gates, ο οποίος εξέφρασε την ελπίδα ότι η τεχνητή νοημοσύνη θα υπερτροφοδοτήσει τους τομείς της εκπαίδευσης και της ιατρικής.

«Το AI είναι σαν ένα τρίτο άτομο που κάθεται μέσα [a medical appointment,] κάνοντας μια μεταγραφή, προτείνοντας μια συνταγή», είπε ο Γκέιτς. «Και λοιπόν, αντί ο γιατρός να βλέπει στην του υπολογιστή, ασχολείται μαζί σας και το λογισμικό φροντίζει να υπάρχει μια πραγματικά καλή μεταγραφή».

Ωστόσο, ο Γκέιτς αγνόησε την πιθανότητα μεροληψίας από την κακή εκπαίδευση AI.

Ένα πρόσφατο μελέτη απέδειξε ότι τα συστήματα αναγνώρισης ομιλίας από κορυφαίες εταιρείες τεχνολογίας είχαν διπλάσιες πιθανότητες να μεταγράψουν εσφαλμένα ήχο από μαύρα ηχεία σε αντίθεση με τα λευκά ηχεία. Άλλες έρευνες έχουν δείξει ότι τα συστήματα τεχνητής νοημοσύνης ενισχύουν τις μακροχρόνιες, αναληθείς πεποιθήσεις ότι υπάρχουν βιολογικές διαφορές μεταξύ των μαύρων και των λευκών ανθρώπων – αναλήθειες που οδηγούν τους κλινικούς γιατρούς σε λάθος διάγνωση προβλημάτων υγείας.

Στην τάξη, είπε ο Γκέιτς, η τεχνητή νοημοσύνη μπορεί να είναι «πάντα διαθέσιμη» και «να κατανοήσει πώς να σας παρακινήσει… όποιο κι αν είναι το επίπεδο γνώσεών σας».

Δεν είναι ακριβώς πόσες τάξεις το βλέπουν.

Το περασμένο καλοκαίρι, σχολεία και κολέγια έσπευσαν να απαγορεύσουν το ChatGPT λόγω λογοκλοπής και φόβου παραπληροφόρησης. Από τότε, κάποιοι έχουν αντίστροφα τις απαγορεύσεις τους. Αλλά δεν είναι όλοι πεπεισμένοι για τις δυνατότητες του GenAI για καλό, δείχνοντας έρευνες όπως το Κέντρο Ασφαλούς Διαδικτύου του Ηνωμένου Βασιλείου, το οποίο διαπίστωσε ότι πάνω από τα μισά παιδιά αναφέρουν ότι έχουν δει άτομα της ηλικίας τους να χρησιμοποιούν το GenAI με αρνητικό τρόπο – για παράδειγμα, δημιουργώντας πιστευτές ψευδείς πληροφορίες ή εικόνες που χρησιμοποιούνται για να αναστατώσουν κάποιον.

Ο Εκπαιδευτικός, Επιστημονικός και Πολιτιστικός Οργανισμός του ΟΗΕ (UNESCO) στα τέλη του περασμένου έτους έσπρωξε για τις κυβερνήσεις να ρυθμίσουν τη χρήση του GenAI στην εκπαίδευση, συμπεριλαμβανομένης της εφαρμογής ορίων ηλικίας για τους χρήστες και προστατευτικών κιγκλιδωμάτων για την προστασία δεδομένων και το απόρρητο των χρηστών.





VIA: techcrunch.com

Dimitris Marizas
Dimitris Marizashttps://www.cybervista.gr
Αφοσιωμένος λάτρης κινητών Samsung, ο Δημήτρης έχει εξελίξει μια ιδιαίτερη σχέση με τα προϊόντα της εταιρίας, εκτιμώντας τον σχεδιασμό, την απόδοση και την καινοτομία που προσφέρουν. Γράφοντας και διαβάζοντας τεχνολογικά νέα από όλο τον κόσμο.
RELATED ARTICLES

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

- Advertisment -

Most Popular

Recent Comments