Οι περισσότεροι δυσκολεύονται πλέον να διακρίνουν αν μια φωνή προέρχεται από άνθρωπο ή έχει παραχθεί από τεχνητή νοημοσύνη.

Οι περισσότεροι δυσκολεύονται πλέον να διακρίνουν αν μια φωνή προέρχεται από άνθρωπο ή έχει παραχθεί από τεχνητή νοημοσύνη.

Φαίνεται πως όσο η τεχνολογία εξελίσσεται με ταχύτατους ρυθμούς, γίνεται όλο και πιο δύσκολο να ξεχωρίσουμε τι είναι αληθινό και τι όχι

Οι φωνές της τεχνητής νοημοσύνης μοιάζουν όλο και περισσότερο με ανθρώπινες – και οι περισσότεροι δεν μπορούν να τις ξεχωρίσουν

Μια νέα επιστημονική μελέτη αποκαλύπτει πως οι περισσότεροι άνθρωποι δεν μπορούν πλέον να διακρίνουν τις φωνές που δημιουργούνται από τεχνητή νοημοσύνη (AI) από τις πραγματικές ανθρώπινες φωνές.

Καθώς η AI γίνεται αναπόσπαστο κομμάτι της καθημερινότητάς μας – από τα chatbot μέχρι τα «έξυπνα» ηχεία – οι τεχνολογίες σύνθεσης φωνής εξελίσσονται ραγδαία, κάνοντας όλο και πιο δύσκολη τη διάκριση μεταξύ αυθεντικής και τεχνητής ομιλίας.


Η μελέτη

Σε έρευνα που δημοσιεύτηκε στο περιοδικό PLOS One, οι συμμετέχοντες άκουσαν 80 δείγματα φωνών – οι μισές από AI και οι άλλες μισές ανθρώπινες. Τους ζητήθηκε να αξιολογήσουν πόσο αξιόπιστες ή κυριαρχικές τους φάνηκαν.

Οι φωνές της τεχνητής νοημοσύνης χωρίζονταν σε δύο κατηγορίες:

  • Γενικές συνθετικές φωνές, που δημιουργήθηκαν εξ ολοκλήρου από μηχανές

  • Κλωνοποιημένες φωνές, βασισμένες σε πραγματικές ηχογραφήσεις ανθρώπων

Τα αποτελέσματα έδειξαν ότι οι γενικές φωνές AI αναγνωρίζονταν εύκολα ως μη ανθρώπινες. Ωστόσο, οι κλωνοποιημένες φωνές μπέρδεψαν τους περισσότερους, αφού 58% των συμμετεχόντων τις θεώρησαν λανθασμένα ανθρώπινες. Από την άλλη, το 62% των πραγματικών φωνών ταυτοποιήθηκαν σωστά.


Η τεχνολογία πίσω από τις συνθετικές φωνές

Η κλωνοποίηση φωνής με τεχνητή νοημοσύνη βασίζεται στην ανάλυση των χαρακτηριστικών μιας φωνής από δείγματα ηχογραφήσεων, ώστε να δημιουργηθεί ένα ψηφιακό αντίγραφό της.

Η ικανότητα της AI να μιμείται τη φωνή με τόση ακρίβεια έχει εγείρει σοβαρές ανησυχίες, καθώς χρησιμοποιείται και για κακόβουλους σκοπούς, όπως τηλεφωνικές απάτες. Οι απατεώνες αξιοποιούν δημόσια διαθέσιμες φωνές, π.χ. από social media, για να εξαπατήσουν κυρίως ηλικιωμένους, μιμούμενοι τις φωνές αγαπημένων προσώπων.

Σύμφωνα με μελέτη του Πανεπιστημίου του Πόρτσμουθ, δύο στους τρεις ανθρώπους άνω των 75 έχουν δεχτεί προσπάθεια εξαπάτησης, ενώ σχεδόν το 60% αυτών έγινε μέσω φωνητικής κλήσης.


Νομικά και ηθικά ζητήματα

Η ραγδαία εξάπλωση της τεχνολογίας αυτής προκαλεί ανησυχίες και στον καλλιτεχνικό χώρο. Έχουν αναφερθεί περιπτώσεις χρήσης φωνών διασήμων χωρίς τη συγκατάθεσή τους, όπως στην περίπτωση της ηθοποιού Σκάρλετ Γιόχανσον, που κατήγγειλε ότι το ChatGPT χρησιμοποίησε φωνή παρόμοια με τη δική της.

Παράλληλα, υπάρχουν ηχογραφήσεις τύπου deepfake που μιμούνται πολιτικά πρόσωπα ή δημοσιογράφους για παραπληροφόρηση.

Η κύρια ερευνήτρια της μελέτης, Δρ. Nadine Lavan, επισημαίνει την ανάγκη να θεσπιστούν κανόνες και προστατευτικά μέτρα από όσους αναπτύσσουν αυτές τις τεχνολογίες.


Οι θετικές εφαρμογές

Παρά τους κινδύνους, οι συνθετικές φωνές έχουν και πολλές θετικές χρήσεις — κυρίως για άτομα που δεν μπορούν να μιλήσουν ή αντιμετωπίζουν δυσκολίες στην ομιλία. Ο Στίβεν Χόκινγκ είναι ένα κλασικό παράδειγμα χρήσης βοηθητικής τεχνολογίας φωνής.

Η μεγάλη πρόοδος, ωστόσο, είναι ότι πλέον οι χρήστες μπορούν να δημιουργήσουν μια προσωποποιημένη φωνή, είτε αναπαράγοντας τη δική τους, είτε δημιουργώντας μια που αντικατοπτρίζει το στυλ και την προσωπικότητά τους.

Σύμφωνα με τη Lavan, η σωστή χρήση της τεχνολογίας μπορεί να συμβάλει σημαντικά σε τομείς όπως:

  • Εκπαίδευση (π.χ. σε παιδιά με ΔΕΠΥ, βελτιώνοντας την προσοχή και συμμετοχή τους)

  • Ραδιοφωνία και αφήγηση ηχητικών βιβλίων

  • Διαπολιτισμική επικοινωνία, με δυνατότητα χρήσης της ίδιας φωνής σε πολλές γλώσσες


Το μέλλον της φωνητικής AI

Καθώς οι τεχνητές φωνές ενσωματώνονται όλο και περισσότερο στην καθημερινότητά μας, ανοίγονται νέοι δρόμοι για έρευνα και κατανόηση της ανθρώπινης επικοινωνίας.

Η Δρ. Lavan σκοπεύει να συνεχίσει την έρευνα εστιάζοντας στο πώς η επίγνωση ότι μια φωνή είναι τεχνητή επηρεάζει την εμπιστοσύνη ή την αποδοχή της. Ενδιαφέρεται να εξετάσει, για παράδειγμα, αν οι άνθρωποι εμπιστεύονται λιγότερο μια φωνή που ξέρουν ότι δεν είναι αληθινή, ακόμα κι αν ακούγεται ευχάριστα.

«Όλες αυτές οι ερωτήσεις», λέει, «μας βοηθούν να κατανοήσουμε βαθύτερα τι είναι αυτό που κάνει την ανθρώπινη επικοινωνία τόσο ξεχωριστή».

Με αναφορές από:lifo.gr/Επιμέλεια:ΜΚΜ

ΚΑΤΗΓΟΡΙΑ
Μοιραστείτε τό