Το κομμάτι δεν ήταν ηχογράφηση από το ροκ συγκρότημα, αλλά είχε δημιουργηθεί χρησιμοποιώντας τεχνικές τεχνητής νοημοσύνης από τα εγκεφαλικά κύματα των ανθρώπων που το άκουγαν, στο πρώτο επιστημονικό πείραμα στον κόσμο για την ανακατασκευή ενός αναγνωρίσιμου τραγουδιού από νευρικά σήματα.
Τα ευρήματα θα είναι ανεκτίμητα τόσο για τους επιστήμονες που επιδιώκουν να κατανοήσουν πώς ανταποκρίνεται ο εγκέφαλος στη μουσική όσο και για τους νευροτεχνολόγους που θέλουν να βοηθήσουν άτομα με σοβαρή νευρολογική βλάβη να επικοινωνούν μέσω διασυνδέσεων εγκεφάλου-υπολογιστή με τρόπο που ακούγεται πιο φυσικό, είτε μιλούν είτε τραγουδούν.
«Η μουσική έχει προσωδία [μοτίβα ρυθμού και ήχου] και συναισθηματικό περιεχόμενο», δήλωσε ο Robert Knight, καθηγητής ψυχολογίας και νευροεπιστήμης στο UC Berkeley, ο οποίος ηγήθηκε της έρευνας και τα ευρήματα του οποίου δημοσιεύθηκαν στο περιοδικό PLOS Biology την Τρίτη.
«Καθώς όλος ο τομέας των διεπαφών εγκεφάλου-μηχανής εξελίσσεται, αυτό παρέχει έναν τρόπο για να προσθέσετε ανθρώπινο τόνο και ρυθμό στα μελλοντικά εγκεφαλικά εμφυτεύματα για άτομα που χρειάζονται εξόδους ομιλίας ή φωνής. Έχουμε πραγματικά αρχίσει να σπάμε τον κώδικα», πρόσθεσε ο Knight.
Οι καταγραφές ηλεκτροεγκεφαλογραφίας (ΗΕΓ) που χρησιμοποιήθηκαν στην έρευνα ελήφθησαν περίπου το 2012, σε μια εποχή που τα άτομα με σοβαρή επιληψία συχνά τοποθετούσαν μεγάλες σειρές ηλεκτροδίων —συνήθως 92 το καθένα— στην επιφάνεια του εγκεφάλου τους για να εντοπίσουν τη θέση των ανίατων κρίσεων. Οι ασθενείς προσφέρθηκαν εθελοντικά να βοηθήσουν την επιστημονική έρευνα ταυτόχρονα επιτρέποντας στους ερευνητές να καταγράφουν τα εγκεφαλικά τους κύματα ενώ άκουγαν ομιλία και μουσική.
Προηγούμενες μελέτες που βασίστηκαν σε αυτά τα πειράματα έδωσαν στους επιστήμονες αρκετά δεδομένα για να ανασυνθέσουν μεμονωμένες λέξεις που άκουγαν οι άνθρωποι από καταγραφές της εγκεφαλικής τους δραστηριότητας. Αλλά μόνο τώρα, μια δεκαετία αργότερα, η τεχνητή νοημοσύνη έχει γίνει αρκετά ισχυρή για να ανακατασκευάσει αποσπάσματα τραγουδιού.
Οι ερευνητές του Berkeley ανέλυσαν ηχογραφήσεις από 29 ασθενείς που άκουσαν το "Another Brick in the Wall (Part 1)" των Pink Floyd, μέρος μιας τριλογίας τραγουδιών από το άλμπουμ του 1979 The Wall . Εντόπισαν με ακρίβεια περιοχές του εγκεφάλου που εμπλέκονται στην ανίχνευση του ρυθμού και διαπίστωσαν ότι ορισμένα μέρη του ακουστικού φλοιού, που βρίσκονται ακριβώς πίσω και πάνω από το αυτί, ανταποκρίθηκαν κατά την έναρξη μιας φωνής ή ενός συνθεσάιζερ, ενώ άλλα ανταποκρίθηκαν σε σταθερά φωνητικά.
Ακούστε:
Τα ευρήματα υποστήριξαν μακροχρόνιες ιδέες για τους ρόλους που παίζουν τα δύο ημισφαίρια του εγκεφάλου. Αν και συνεργάζονται στενά, η γλώσσα επεξεργάζεται κυρίως στην αριστερή πλευρά, ενώ «η μουσική είναι πιο κατανεμημένη, με μια προκατάληψη προς τα [δεξιά]», είπε ο Knight.
Ο συνάδελφός του Ludovic Bellier, ο οποίος ηγήθηκε της ανάλυσης, είπε ότι οι συσκευές που χρησιμοποιούνται για να βοηθήσουν τους ανθρώπους να επικοινωνούν όταν δεν μπορούν να μιλήσουν τείνουν να φωνάζουν λέξεις μία προς μία. Οι φράσεις που λέγονται από μηχανή έχουν μια ρομποτική ποιότητα που θυμίζει τον τρόπο που ακουγόταν ο αείμνηστος Stephen Hawking σε μια συσκευή παραγωγής ομιλίας.
«Θέλουμε να δώσουμε περισσότερο χρώμα και εκφραστική ελευθερία στη φωνή, ακόμη και όταν οι άνθρωποι δεν τραγουδούν», είπε ο Bellier.
Οι ερευνητές του Μπέρκλεϊ είπαν ότι η τεχνολογία ανάγνωσης εγκεφάλου θα μπορούσε να επεκταθεί στο σημείο όπου οι μουσικές σκέψεις θα μπορούσαν να αποκωδικοποιηθούν από κάποιον που φορά ένα καπάκι EEG στο τριχωτό της κεφαλής αντί να απαιτήσει ηλεκτρόδια κάτω από το κρανίο στον εγκέφαλο. Τότε μπορεί να είναι δυνατό να φανταστείτε ή να συνθέσετε μουσική, να αναμεταδώσετε τις μουσικές πληροφορίες και να την ακούσετε να παίζεται σε εξωτερικά ηχεία.
«Οι μη επεμβατικές τεχνικές απλώς δεν είναι αρκετά ακριβείς σήμερα», είπε ο Bellier. «Ας ελπίσουμε ότι στο μέλλον θα μπορούσαμε, μόνο από ηλεκτρόδια που τοποθετούνται εξωτερικά στο κρανίο, να διαβάζουμε δραστηριότητα από βαθύτερες περιοχές του εγκεφάλου με καλή ποιότητα σήματος».