Στον αγώνα για να δημιουργήσει πραγματικά χρήσιμο AI για ένα μαζικό κοινό, ο Meta μόλις έκανε μερικά βασικά βήματα – συμπεριλαμβανομένης της ικανότητας του AI να “βλέπει” αντικείμενα και να παρέχει ζωντανές μεταφράσεις που συγχρονίζονται με τα χείλη.
Στο συνέδριο προγραμματιστών Meta Connect, ο Διευθύνων Σύμβουλος Mark Zuckerberg αποκάλυψε την τελευταία έκδοση του Llama. Αυτό είναι το ανοιχτού κώδικα Large Language Model (LLM) που τροφοδοτεί το chatbot AI στις κύριες υπηρεσίες της εταιρείας: Facebook, WhatsApp, Messenger και Instagram.
Δεδομένης αυτής της εμβέλειας, ο Zuckerberg περιέγραψε το Meta AI ως «τον πιο χρησιμοποιούμενο βοηθό AI στον κόσμο, πιθανώς», με περίπου 500 εκατομμύρια ενεργούς χρήστες. Η υπηρεσία δεν θα είναι ακόμη διαθέσιμη στην Ευρωπαϊκή Ένωση, δεδομένου ότι η Meta δεν έχει ενταχθεί στο σύμφωνο της ΕΕ για την τεχνητή νοημοσύνη, αλλά ο Zuckerberg δήλωσε ότι παραμένει «αιώνια αισιόδοξος ότι μπορούμε να το καταλάβουμε».
Πού να προπαραγγείλετε το Meta Quest 3S
Είναι επίσης αισιόδοξος ότι το ανοιχτού κώδικα Llama – σε αντίθεση με το Gemini της Google και το GPT του OpenAI, και τα δύο ιδιόκτητα κλειστά συστήματα – θα γίνει το πρότυπο της βιομηχανίας. «Το ανοιχτό κώδικα είναι το πιο οικονομικό και το πιο προσαρμόσιμο», είπε ο Zuckerberg. Το Llama είναι “κάπως το Linux της AI.”
Mashable Light Speed
Το Meta AI επεξεργάζεται φωτογραφίες με κείμενο
Αλλά τι μπορείτε να κάνετε με αυτό; “Μπορεί να κατανοήσει εικόνες καθώς και κείμενο”, πρόσθεσε ο Zuckerberg – δείχνοντας πώς μια φωτογραφία μπορεί να χειριστεί απλά ζητώντας από το chatbot Llama να κάνει αλλαγές. «Η οικογένειά μου ξοδεύει τώρα πολύ χρόνο βγάζοντας φωτογραφίες και τις κάνει πιο γελοίες».
Η φωνητική συνομιλία κυκλοφορεί τώρα σε όλες τις εκδόσεις του Meta AI, συμπεριλαμβανομένων φωνών από διασημότητες όπως η Judi Dench, ο John Cena και η Awkafina. Άλλη μια φιλική προς τον χρήστη ενημέρωση: Όταν χρησιμοποιείτε τον φωνητικό βοηθό του Meta AI με τα γυαλιά του, δεν χρειάζεται πλέον να χρησιμοποιείτε τις λέξεις “hey Meta” ή “κοίτα και πες μου”.
Meta Connect 2024: Αποκαλύφθηκαν τα γυαλιά Orion AR της Meta
Ο Ζούκερμπεργκ και τα στελέχη του επέδειξαν επίσης μια σειρά από περιπτώσεις χρήσης. Για παράδειγμα, ένας χρήστης μπορεί να ρυθμίσει το Meta AI για να παρέχει προηχογραφημένες απαντήσεις σε συχνές ερωτήσεις μέσω βίντεο. Μπορείτε να το χρησιμοποιήσετε για να θυμάστε πού παρκάρατε. Εναλλακτικά, μπορείτε να του ζητήσετε να προτείνει αντικείμενα στο δωμάτιό σας που θα μπορούσαν να βοηθήσουν στην αξεσουάρ ενός φορέματος.
Το πιο αξιοσημείωτο και ίσως πιο χρήσιμο χαρακτηριστικό: ζωντανή μετάφραση. Αυτήν τη στιγμή διατίθεται στα Ισπανικά, Γαλλικά, Ιταλικά και Αγγλικά, η τεχνητή νοημοσύνη θα επαναλάβει αυτόματα αυτό που είπε το άλλο άτομο στη γλώσσα της επιλογής σας. Ο Zuckerberg, ο οποίος παραδέχτηκε ότι δεν ξέρει πραγματικά ισπανικά, έδειξε αυτό το χαρακτηριστικό κάνοντας μια αμήχανη συνομιλία ζωντανά στη σκηνή με τον μαχητή του UFC, Brandon Moreno.
Λίγο πιο εντυπωσιακή ήταν η επιλογή ζωντανής μετάφρασης στο Reels και σε άλλα βίντεο Meta. Η τεχνητή νοημοσύνη θα συγχρονίσει τα χείλη των ομιλητών, ώστε να φαίνονται σαν να μιλούν πραγματικά τη γλώσσα που ακούτε. Τίποτα ανατριχιαστικό σε αυτό.
Θέματα
Τεχνητή Νοημοσύνη Meta
VIA: mashable.com