Wetenschappers zetten hersensignalen om in spraak: ambitie voor geavanceerde spraakcomputer op basis van AI

Wetenschappers zetten hersensignalen om in spraak: ambitie voor geavanceerde spraakcomputer op basis van AI

Amerikaanse neuro-wetenschappers hebben voor het eerst signalen uit de hersenen kunnen omzetten in spraak. Toch zijn ze nog net niet in staat om je gedachten te lezen.

Het onderzoek werd gepubliceerd in het wetenschappelijk tijdschrift Scientific Reports. De wetenschappers van de hoogstaande Columbia-universiteit in New York slaagden erin om op basis van iemand zijn hersengolven te achterhalen wat die gehoord had. Dat lieten ze dan uitspreken door een spraaksynthesizer, een zogenaamde vocoder.

(Hoe die spraakcomputer van Stephen Hawking precies werkte, lees je hier.)

Getest op epilepsiepatiënten

De onderzoekers hebben de techniek succesvol getest op epilepsiepatiënten van wie de schedel toch al opengelegd moest worden voor een operatie. Daardoor was het mogelijk om rechtstreeks op de hersenen op te meten wat de patiënten voelden.

De Amerikanen waren dus niet bezig met het lezen van iemand zijn diepste gedachten, maar wel met een signaal op te vangen en te coderen dat via diens gehoorgang binnenkwam.

(Deze 8 dingen moet je weten over epilepsie.)

Toekomst voor ALS-patiënten?

Het is trouwens absoluut de bedoeling niet van de wetenschappers om binnenkort massaal onze privacy te schenden. Zo zou de techniek op termijn mensen kunnen helpen die niet kunnen spreken. Denk aan patiënten met spierverlammingen zoals ALS of mensen die getroffen werden door beroertes die het spraakcentrum in hun hersenen zwaar hebben beschadigd.

De computer zou dan zo ingesteld zijn dat die de woorden uitspreekt die de patiënten zich inbeelden uit te spreken.

(Gezichtsherkenning van bijna 2 op 5 smartphones is gemakkelijk te omzeilen.)

75 procent begrijpelijk

Toch heeft deze techniek nog een lange weg te gaan. Het is namelijk niet evident om signalen op te vangen die niet vertroebeld worden door andere activiteiten in de hersenen. Daarom zijn ze bij de Columbia-universiteit nu van plan om artificiële intelligentie in te zetten zodat er uiteindelijk zo veel signalen aan geluiden gekoppeld zijn dat ook onbekende signalen juist gedecodeerd worden.

Het neuraal netwerk slaagde er uiteindelijk in om de cijfers nul tot negen te converteren naar een signaal voor een vocoder. Aan de uitspraak en de verstaanbaarheid van het toestel dient nog gesleuteld te worden, maar proefpersonen konden in 75 procent van de gevallen begrijpen wat er gezegd werd.

(Geeuwen is besmettelijk, ook in Virtual Reality.)

Drie stappen te gaan

De onderzoekers hebben nu de ambitie om over te gaan tot (langere) woorden en uiteindelijk zelfs volledige zinnen.

Als dat uiteindelijk lukt, willen ze niet enkel de hersensignalen herkennen van wat iemand hoort, maar ook wat hij/zij in zijn hoofd uitspreekt zonder zijn/haar lippen te bewegen. Die signalen zijn nagenoeg identiek in de hersenen dus schatten de wetenschappers de slaagkansen vrij hoog in.

De laatste stap bestaat eruit om de volledige techniek te implementeren in een toestel dat iemand doorheen de hele dag met zich mee kan dragen.

(Dierenvriend of niet? Het zit in je genen.)

Gesponsorde artikelen