Αυτό το AI μπορεί να μιμηθεί τη φωνή σας από λίγα δευτερόλεπτα ηχογράφησης, είναι τρομακτικό

Το OpenAI αποκάλυψε μια επαναστατική νέα ικανότητα: τη δυνατότητα δημιουργίας εξαιρετικά ρεαλιστικών συνθετικών φωνών με εκπαίδευση σε μόλις 15 δευτερόλεπτα εγγραφής ήχου.

Φωνή AI
Πίστωση: 123RF

Το OpenAI μόλις σήκωσε το πέπλο Voice Engine, ένα ολοκαίνουργιο AI που μπορεί να μιμηθεί οποιαδήποτε φωνή αφού την ακούσετε για μόλις 15 δευτερόλεπτα. Το σύστημα Voice Engine δεν είναι εντελώς νέο, αφού αναπτύχθηκε για πρώτη φορά από την OpenAI στα τέλη του 2022, με μια πρώτη έκδοση να χρησιμοποιείται ήδη για λειτουργίες σύνθεσης ομιλίας στον δημοφιλή βοηθό φωνής. Το ChatGPT AI της εταιρείας. Ωστόσο, αυτή είναι η πρώτη φορά που το Open AI μιλά δημόσια γι’ αυτό.

Όπως περιγράφεται σε μια πρόσφατη ανάρτηση ιστολογίου OpenAI, το Voice Engine επιτρέπει στους χρήστες να δημιουργούν εκπληκτικά ρεαλιστικές συνθετικές φωνές που μπορούν να διαβάσουν οποιοδήποτε παρεχόμενο κείμενο «με συγκινητικό και ρεαλιστικό τρόπο». Η εταιρεία μοιράστηκε μερικά παραδείγματα κλώνων φωνής, τα οποία επιδεικνύουν μια εντυπωσιακή φυσικότητα, αν και υπάρχει ακόμα ένα ελαφρώς τεχνητό πλεονέκτημα σε μερικούς από αυτούς.

Το OpenAI θέλει να φέρει επανάσταση στην αγορά με το Voice Engine

Το OpenAI αναφέρει αρκετές υποσχόμενες περιπτώσεις χρήσης της τεχνολογίας σε πραγματικό κόσμο, όπως π.χ εκπαιδευτικά εργαλεία, μετάφραση podcast σε νέες γλώσσες, πρόσβαση σε απομακρυσμένες κοινότητες και ακόμη και βοήθεια επικοινωνίας για μη λεκτικά άτομα. Η εταιρεία έχει ήδη ξεκινήσει μια «προεπισκόπηση μικρής κλίμακας» με επιλεγμένους συνεργάτες που έλαβαν έγκαιρη πρόσβαση.

Η Age of Learning, μια εταιρεία εκπαίδευσης, χρησιμοποίησε το Voice Engine για να δημιουργήσει φωνητικά σενάρια, ενώ η εφαρμογή οπτικής αφήγησης τεχνητής νοημοσύνης HeyGen δίνει στους χρήστες τη δυνατότητα να δημιουργούν άπταιστες μεταφράσεις ήχου με τη φωνή και την προφορά του αρχικού ηχείου.

Το πιο εντυπωσιακό παράδειγμα είναι αναμφίβολα αυτό των ερευνητών που μπόρεσαν «Αποκαταστήστε τη φωνή» μιας νεαρής γυναίκας που έχασε τη χρήση του λόγου μετά από όγκο στον εγκέφαλοεκπαιδεύοντας το Voice Engine σε μόλις 15 δευτερόλεπτα μιας παλιάς ηχογράφησης.

Το OpenAI προειδοποιεί ήδη για τους κινδύνους μιας τέτοιας τεχνολογίας

Ωστόσο, παρά αυτές τις δυνητικά επαναστατικές περιπτώσεις χρήσης, το OpenAI λαμβάνει μια σκόπιμα προσεκτική στάση σχετικά με την περαιτέρω διάδοση του συστήματος κλωνοποίησης φωνής. Η εταιρεία επικαλείται την επείγουσα ανάγκη προστασίας από κακή χρήση της τεχνολογίας για κακόβουλους σκοπούςόπως και διάδοση ψευδών πληροφοριών και κλωνοποίηση φωνής χωρίς τη συγκατάθεση του χρήστη.

Μπορείτε να φανταστείτε ότι κάποιοι άνθρωποι θα μπορούσαν γρήγορα να διασκεδάσουν διαδίδοντας ψευδή μηνύματα από διάσημες προσωπικότητες στα κοινωνικά δίκτυα. Έχουμε δει επίσης απατεώνες να χρησιμοποιούν τεχνητή νοημοσύνη για να μιμηθούν τα αγαπημένα σας πρόσωπα και να σας ζητήσουν χρήματα μέσω τηλεφώνου,

Οι συνέπειες της χρήσης τεχνητής νοημοσύνης κλωνοποίησης φωνής για εκστρατείες παραπληροφόρησης είναι ιδιαίτερα σημαντικές, δεδομένων των μεγάλων εκλογών στις ΗΠΑ και το Ηνωμένο Βασίλειο φέτος. Καθώς τα εργαλεία παραγωγής τεχνητής νοημοσύνης γίνονται όλο και πιο εξελιγμένα στους τομείς του ήχου, του κειμένου, των εικόνων και του βίντεο, είναι όλο και πιο δύσκολο να διακρίνει κανείς το πραγματικό από το τεχνητό περιεχόμενο. Για παράδειγμα, είδαμε πρόσφατα το Sora, ένα άλλο AI από το OpenAI που μπορεί να δημιουργήσει πολύ ρεαλιστικά βίντεο σε χρόνο μηδέν.

Το OpenAI αναγνώρισε ότι ήταν απαραίτητο να ξεκινήσει η οικοδόμηση «κοινωνικής ανθεκτικότητας» ενόψει των προκλήσεων που θέτουν αυτές οι τεχνολογίες. Ενθάρρυνε μέτρα όπως η σταδιακή εγκατάλειψη του φωνητικού ελέγχου ταυτότητας για ευαίσθητους λογαριασμούς και ζήτησε πολιτικές για την προστασία της φωνής των ατόμων, καθώς και εκπαίδευση του κοινού σχετικά με τις δυνατότητες της τεχνητής νοημοσύνης.

Επί του παρόντος, όλα τα δείγματα μηχανών ομιλίας που δημιουργούνται από συνεργάτες OpenAI φέρουν ψηφιακή υδατοσήμανση για να βοηθήσουν στην ανίχνευση της προέλευσής τους. Η εταιρεία είπε επίσης ότι απαιτεί ρητή συναίνεση από τον αρχικό ομιλητή και δεν επιτρέπει την αναπαράσταση των φωνών των πολιτικών υποψηφίων κατά τις προεκλογικές περιόδους.

Leave a Reply

Your email address will not be published. Required fields are marked *