Horen
Perceptie van muziek
Veel aspecten van muziekperceptie hebben een biologische grondslag en sommige onderzoekers stellen dat muziekperceptie aangeboren is op eenzelfde manier als dit met taal het geval is. Muziek heeft een aantal essentiële eigenschappen:
- De meeste muzikale systemen bestaan uit vaste toonhoogten (bijvoorbeeld 12-tone equal temperament zoals in Westerse muziek gebruikelijk is)
- Er wordt gebruik gemaakt van consonante klanken en dissonante klanken
Een misleidende hypothese is dat muziek vooral voor de rechterhemisfeer is en taal vooral voor de linkerhemisfeer. Taal en muziek kunnen niet helemaal van elkaar los gezien worden (taal is immers ook ritme en toonhoogte). Wel is het zo dat laesies in de rechter hemisfeer voor meer problemen zorgen met toonhoogte verwerken en laesies in de linker hemisfeer voor problemen met ritme.
In het model van Peretz en Coltheart wordt bij acoustic analysis onderscheid gemaakt tussen pitch organization en temporal organization. Pitch organisation bestaat uit tonal encoding, interval analysis en contour analysis. Temporal analysis gaat om rhythm analysis en meter analysis. Dat dit twee aparte systemen zijn kan aangetoond worden bij mensen met amusia: een auditieve agnosia waarbij muziekperceptie harder getroffen wordt dan de perceptie van andere geluiden.
Het geheugen voor muziek is waarschijnlijk onderdeel van het semantische geheugen en niet van het episodische geheugen. Patiënten met storingen in het semantische geheugen hebben moeite met het herkennen van muziek, terwijl bijvoorbeeld patiënten met Alzheimer (wat het episodisch geheugen aantast) hier veel minder moeite mee hebben.
Stoornissen met betrekking tot ritme kunnen zoals gezegd los voorkomen van toonhoogte. Di Pietro toonde een geval waarbij een persoon wel ritme kon identificeren in visuele stimuli maar niet in auditieve stimuli. Daarmee is vastgesteld dat het geen probleem was in algemene tijdperceptie.
De aard van geluid
De simpelste toon is een sinusvormige golf: dit heet een pure toon. Deze hebben een vaste toonhoogte (pitch) die gerelateerd is in de frequentie uitgedrukt in Hertz (Hz). Het menselijke gehoor kan geluiden onderscheiden van 20Hz tot 20.000Hz. De intensiteit van het geluid, ofwel de amplitude, zegt iets over hoe hard het geluid is (in feite de sterkte van de drukgolf) in decibel (dB).
Toonhoogte en volume/loudness worden beschouwd als psychologische kenmerken van geluid. Dat heeft ermee te maken dat lage frequenties nog lager klinken wanneer ze harder afgespeeld worden en hoge frequenties hoger lijken te zijn als ze harder afgespeeld worden. Al zijn ze natuurkundig gescheiden meetbaar en losse concepten, is onze (menselijke) perceptie dus dat volume en toonhoogte wel degelijk met elkaar te maken hebben.
In het dagelijks leven horen we nauwelijks pure tonen. Zelfs een pianotoon (A) van 440Hz bestaat eigenlijk uit (bijvoorbeeld) 220Hz, 440Hz, 660Hz, et cetera. De laagste component (in dit geval 220Hz) is de fundamentele frequentie. Dit is ook vaak de toon die men hoort. Soms ontbreekt de laagste frequentie en horen we hem toch. In dat geval is er sprake van het missing fundamental phenomenon. Dit is een voorbeeld van toonconstantheid, die zorgt dat een toon van 220Hz hetzelfde ervaren wordt als een gecombineerde toon van 440Hz, 660Hz en 880Hz.
Het verschil in volume tussen de meerdere boventonen is timbre. Wanneer 440Hz, 660Hz en 880Hz alledrie afgespeeld worden, maar 440Hz is harder dan de rest, heeft dit een ander timbre dan wanneer 660Hz harder afgespeeld wordt dan de rest. Timbre wordt dus ook beschouwd als een psychologisch aspect van geluid, zelfs al kun je het feitelijk meten.
Van oor naar hersenen
Er zijn drie hoofdonderdelen in de hersenen: het buitenoor, middenoor en binnenoor. Het buitenoor bestaat uit de oorschelp (pinna) en de gehoorgang (external auditory canal). Het middenoor begint bij het trommelvlies (ear drum) en wordt via drie kleine botjes doorvertaald naar een klein membraan genaamd het ovale venster (oval window). Deze drie botjes zijn de hamer (hammer, malleus), het aambeeld (anvil, incus) en de stijgbeugel (strirrup, stapes). Daarnaast loopt de buis van Eutachius naar beneden. Het binnenoor bestaat uit het slakkenhuis (cochlea), het evenwichtsorgaan en de gehoorzenuw. Het binnenoor is dus zowel van belang bij het gehoor als bij het evenwicht.
Het slakkenhuis bevat het zogenaamde basilar membrane wat kleine haarcellen bevat die door de drukgolven bewegen. Deze haarcellen beginnen kort en stijf (detecteren hoge frequenties) en worden tegen het einde lang en slap (detecteren lage frequenties). Bij de beweging wordt er een actiepotentiaal gestart dat via de gehoorzeuw wordt weggeleid naar de hersenen.
Dit pad loopt vanaf de gehoorzenuw naar de cochleaire nuclei in de hersenstam, van waar het signaal naar de medial geniculate nucleus gaat en van daaruit naar de primaire auditieve cortex (ook wel A1). Tijdens deze rit worden de structuren steeds complexer:
- Cochlear nucleus: ca. 90.000 neuronen
- Medial geniculate nucleus: ca. 500.000 neuronen
- Primaire auditieve cortex: ca. 100.000.000 neuronen
Het vroege auditieve systeem heeft een tonotopische organisatie. Dat wil zeggen dat de locatie in de hersenen correspondeert met een bepaalde toonhoogte (frequentie). Ook de neuronen in de gehoorzenuw zijn georganiseerd zodat de neuronen die op lage frequenties vuren in het midden zitten (mediaal) en de neuronen voor hoge frequenties aan de buitenkant (lateraal). Er is ook bewijs dat de primaire auditieve cortex in het centrum lage frequenties verwerkt en aan de buitenkant hoge frequenties.
Het doen van onderzoek via MRI is lastig, omdat het apparaat vrij veel lawaai maakt en er daardoor allerlei andere activiteit aan de gang is in de hersenen om dit geluid bijvoorbeeld weg te filteren. Dit wordt opgelost met sparse scanning, wat zoveel betekent als: de MRI staat eerst "uit" tijdens de stimulus, en dan wordt er handig gebruik gemaakt van de relatief trage hemodynamic response function (HRF) van ca. 6 seconden om pas later te beginnen met scannen.
Basale verwerking van auditieve informatie
Na de eerste auditieve corticale gebieden, zijn er meer regio's in de hersenen die audio verwerken. Een belangrijke volgende regio is de belt, die het startpunt vormt voor de "wat" en "waar" paden. De parabelt ontvangt vervolgens informatie vanuit de belt regio. De belt en parabelt zijn onderdeel van de secundaire auditieve cortex. Neuronen in de belt reageren op een groter frequentiebereik (bijvoorbeeld tussen 200 en 300 Hz), dus verwerkt opgetelde signalen (bijvoorbeeld 200, 205, 210, ... , 300Hz) vanuit de core in de primaire auditieve cortex. Neuronen in de auditieve cortex kunnen zowel reageren op frequentie als volume of ruimtelijke locaties. Ieder neuron heeft dus een gespecialiseerde functie.
fMRI heeft uitgewezen dat de verwerking van geluid hiërarchisch plaatsvindt. De vroege corticale gebieden verwerken minder complexe kenmerken dan de latere corticale gebieden.
Rauschecker en Tian hebben twee verschillende auditieve routes geïdentificeerd: de dorsale route (naar boven) voor het bepalen van "waar" en "hoe", als ook de ventrale route (naar beneden) voor het identificeren van "wat".
Om het "waar" te bepalen, zijn er twee methoden:
- Inter-aurale verschillen
- Inter-aural time difference: het tijdverschil tussen linker en rechter oor
- Inter-aural intensity difference: het volumeverschil tussen linker en rechter oor
- Verstoringen van geluid door hoofd en oorschelp
- Head-Related Transfer Function (HRTF): intern model van hoe geluid verstoord wordt door de vorm van de oorschelp en hoofd. De planum temporale (posteriaal ofwel achter de primaire auditieve cortex gelegen) is volgens Griffiths en Warren van belang bij het integreren van de sensorische input van dit aangeleerde model.
Om de locatie van geluid te bepalen wordt ook informatie van het evenwichtsorgaan gebruikt. Als het hoofd gedraaid of gekanteld is, heeft dit immers invloed op de HRTF.
Naast deze factoren hebben we te maken met geheugen. Volgens Näätänen wordt het geheugen opgebouwd uit verschillende informatiestromen, door de auditory stream segregation. Dit betekent dat verschillende soorten geluiden van elkaar gescheiden worden op basis van bepaalde karakteristieken (bijvoorbeeld frequentie, melodie, instrument of locatie).
Het meeste bewijs hiervoor komt uit een ERP component genaamd mismatch negativity (MMN). Dit is een "low level" of "onbewust" fenomeen waarbij er (in een serie aangeboden geluiden) 100 of 200 ms na een afwijkend geluid een ERP plaatsvindt. Mogelijk gebeurt dit al vóór de primaire auditieve cortex. Het is niet aannemelijk dat de MMN verantwoordelijk is voor alle auditieve stroomsegregatie, omdat er ook aanwijzingen zijn voor aanvullende verwerking in de parietaalkwab.
De parietaalkwab lijkt ook een belangrijke rol te spelen in het oplossen van het cocktail party problem, waarbij men onderscheid kan maken tussen verschillende stemmen en zelfs in een luidruchtige omgeving een bepaalde stem kunnen "volgen".
Er zijn nog geen reacties.Meld je aan met LinkedIn om te reageren