Dit is op het eerste gezicht een vreemde vraag, zeker voor wetenschappers. Er is immers maar één wetenschap menen de meeste wetenschappers. Voor filosofen ligt dat minder eenduidig. Binnen de wetenschapsfilosofie zijn er verschillende stromingen. Een keuze voor de juiste stroming is van groot belang, omdat NLP niet alleen is gebaseerd op het werk van enkele grote therapeuten maar ook een specifieke epistemologische achtergrond heeft. Eentje waar critici vaak tegenaan lopen zoals bijvoorbeeld
NLP is [...] in de jaren '70 bedacht door Richard Bandler en John Grinder. Hun uitgangspunt was extreem pragmatisch. 'We zijn niet bepaald geïnteresseerd in wat ''waar'' is. Alleen wat bruikbaar is telt,' schrijven ze in hun boek Frogs into Princes.#
Toch is het pragmatisme een meer gedegen wetenschapsfilosofisch standpunt dat met een gerust hart omarmd mag worden dan deze criticus meent. Ondanks conservatieve tegenkrachten die door de eeuwen heen telkens het pragmatisme de kop in willen drukken.
In de filosofische arena hebben het inductieprobleem, haar betekenis, gebruik en rechtvaardiging tot oneindige controverse geleid die, bij gebrek aan een geschikt waarschijnlijkheidsframework, onvermijdelijk vruchteloos is geweest terwijl alle majeure issues onopgelost bleven. Het schijnt mij dat de vraag correct geformuleerd is door Hume (als ik hem correct interpreteer - andere kunnen dit betwisten) en door de pragmatici (van wie ik in het bijzonder het werk van Giovanni Vailati bewonder). Echter, de reactionaire krachten staan altijd klaar, bewapend met religeuze bevlogenheid, om de heilige stompzinnigheid tegen de mogelijkheid van een intelligente verheldering te verdedigen. Amper was Hume begonnen om het traditionele bouwwerk uit elkaar te wrikken of die arme Kant kwam voorbij met een desperate poging om over alle scheuren heen te behangen en zo inductie te behouden - net zoals zijn deductieve tegenhanger, voor de logica van zekerheid.#
Zo worden deze conservatieve tegenkrachten beschreven door Bruno de Finetti, een voor de meeste mensen onbekende Italiaanse filosoof van de statistiek. Bruno de Finetti heeft echter een van de belangrijkste theorieën van de twintigste eeuw ontwikkeld en dan ook nog wel eentje die precies aansluit bij de epistemologische achtergrond van NLP: subjectieve Bayesiaanse statistiek. Nu wijst NLP statistische onderbouwingen vaak af. Gelukkig vaak om dezelfde redenen waarom de Finetti standaard statistiek afwijst en subjectieve Bayesiaanse statistiek heeft ontwikkeld. Als NLP al wetenschappelijk wil worden dan moet het een gedegen basis krijgen in gerenommeerde wetenschappelijke theorieën. Voor wetenschappelijke erkenning is het essentieel om aan te sluiten bij een wetenschappelijke traditie. Helemaal van de grond af aan zelf een wetenschap opbouwen is een heilloze en kansloze zaak omdat andere wetenschappers geen tijd, geld en energie hebben om zich een geheel nieuwe wetenschap eigen te maken enkel en alleen maar om te kunnen controleren of het klopt. Door aan te haken bij een wetenschap waarbinnen geen enkele discussie bestaat over het wetenschappelijke gehalte van die wetenschap wordt het mogelijk om de dialoog met andere wetenschappers aan te gaan. Je beroepen op vage wetenschappen zoals General Semantics van Korzybski, een theorie die misschien maar net het niveau van een pseudowetenschap ontstijgt, is een nutteloze stap die NLP eerder verdacht maakt dan wetenschappelijk. Door aan te haken bij de subjectieve Bayesiaanse statistiek van de Finetti geeft NLP zichzelf in één klap een wetenschappelijk fundament waar niemand omheen kan.
Uiteraard is subjectieve Bayesiaanse statistiek niet genoeg. Statistiek is slechts een stuk gereedschap dat werkt ongeacht waar je het voor gebruikt. Maar het voegt in ieder geval een eerste wetenschappelijke laag aan NLP toe. Deze kan dan aangevuld worden met verdere filosofische onderbouwing aan de hand van het werk van Hume, Nietzsche en Wittgenstein. Maar filosofie is ook geen wetenschap. Om NLP geheel wetenschappelijk te maken is het nodig om terug te gaan naar een van de minst bekende bronnen waaruit NLP geboren is, de cybernetica. Ondanks dat cybernetica klinkt als science fiction en we het vooral kennen van alles en nog wat waar “cyber” voor gezet wordt, is cybernetica een volledige en volwaardige wetenschap waar niemand de wetenschappelijkheid van betwist. Alleen is cybernetica naar de achtergrond verdwenen omdat het opgegaan is in de cognitiewetenschappen.#
De opkomst van de cognitiewetenschappen ten koste van cybernetica is echter een vergissing geweest omdat we daarmee ook van stuurkunde richting cognitie opgeschoven zijn. Uiteraard is cognitie een belangrijk onderdeel van stuurkunde, want je moet wel weten welke richting je opstuurt. Maar stuurkunde is veel meer dan cognitie. Het is ook veel pragmatischer dan cognitie omdat je bij cognitie al snel wil weten of je cognitie ook met de werkelijkheid overeenkomt in plaats van dat het onbekend is of je cognitie met de werkelijkheid overeenkomt maar dat het vooral gaat om of wat je denkt te weten ook praktisch nut heeft. Een aanpak gericht op cognitie is begrijpelijk wanneer je een model hebt kennis als bestaande uit proposities met een propositionele inhoud. De grote vraag is dan hoe deze propositionele inhoud mogelijk is in ons brein of in een computer. Maar die vraag is de verkeerde vraag en nergens voor nodig. Een veel gemakkelijkere oplossing is om het concept van een propositionele inhoud overboord te gooien.# Cybernetica past veel beter bij NLP dan cognitiewetenschappen. Al was het maar omdat veel psychologen zich omgedoopt hebben tot cognitiewetenschapper en NLP veel kritiek heeft op de psychologie. En NLP in de jaren 70 gebouwd is op cybernetica. Kortom, het wordt weer hoog tijd om NLP opnieuw contact te laten maken met cybernetica.
Daar is ook alle aanleiding voor want de eerste stemmen gaan weer op voor een revival van cybernetica, genaamd neocybernetica.# # Neocybernetica voegt het concept emergence toe aan cybernetica waarbij systemen naarmate ze complexer worden opeens geheel nieuwe eigenschappen krijgen. Met name het werk van Hyötyniemi is in dit geval interessant omdat hij ook expliciet een link legt naar NLP:
“When signals are not existing purely in the infosphere but also, for example, in the chemosphere, a tight web of connections to the environment is constructed, constituting a grounding of “self”. If associations become reconnected, the contents of the feelings can also change - neuro-linguistic programming (NLP) can truly change the way we see the world.”#
Alleen zitten er in cybernetica en neocybernetic drie grote problemen voor NLP: het maakt gebruik van de verkeerde versie van statistiek, het is te veel gericht op het vinden van essenties en het maakt verkeerd gebruik van semantiek.# Echter, voor alle drie van deze problemen zijn oplossingen. De verkeerde versie van statistiek kan vervangen worden door de subjectieve Bayesiaanse statistiek van de Finetti, het zoeken naar essenties kan opgegeven worden in ruil voor een meer pragmatische aanpak en een semantiek die geen gebruik maakt van propositionele inhoud kan worden ontwikkeld.
Kortom, de combinatie van cybernetica, subjectieve Bayesiaanse statistiek en het werk van Hume, Nietzsche en Wittgenstein zorgt voor een voldoende basis voor wetenschappelijke NLP. Het ontwikkelen daarvan mag dan een hele klus zijn die voor menig mens veel werk met zich mee brengt, er zijn geen bezwaren die zo’n onderneming principieel onmogelijk maken.
© 2012 Joost van der Leij

NLP & Science by Joost van der Leij is licensed under a Creative Commons Attribution-NonCommercial-ShareAlike 3.0 Unported License.
De reden dat dit werk gecopyright is, is om te voorkomen dat dit werk op een zelfde manier misbruikt wordt zoals NLP is misbruikt.
Interpretatie ruwe data subjectieve Bayesiaanse statistiek Allereerst is het belangrijk om te begrijpen waarom er gebruik gemaakt wordt van subjectieve Bayesiaanse statistiek. Zie hiervoor het volgende artikel: Welke vorm van wetenschap past het beste
Gevolgd: Jun 27, 21:14