Wilde Geesten
Gevonden in de heuvelachtige bossen van de Haute-Languedoc, moet hij in eerste instantie een vreemd soort dier hebben geleken: naakt, bang, vaak op handen en voeten gebogen, foeragerend in het struikgewas. Maar dit was niet zomaar een dier. Victor, zoals hij later bekend zou worden, was een wetenschappelijk wonder: een wild kind, misschien twaalf jaar oud, volledig onaangetast door de beschaving of de samenleving.
De verhalen lopen uiteen, maar we weten dat Victor uiteindelijk werd meegenomen naar een Frans ziekenhuis, waar het nieuws over zijn ontdekking zich snel verspreidde. In de winter van 1799 had het verhaal van de ‘wilde van Aveyron’ zijn weg gevonden naar Parijs, waar het de geleerde gemeenschap van de stad in vuur en vlam zette. Aan de vooravond van een nieuwe eeuw bevond Frankrijk zich midden in een zenuwslopende transitie, en niet alleen vanwege de toenemende tirannie van de Bonapartes. De afgelopen decennia hadden de rationele onderzoeken van filosofen als Jean-Jacques Rousseau en Baron de Montesquieu de religieuze fundamenten van de natie doen wankelen.
Het was een tijd van heftig debat over welke krachten de natuur precies aan het menselijk subject heeft toegekend. Was er een biologische onvermijdelijkheid in de ontwikkeling van ons verhoogde bewustzijn? Of hebben onze samenlevingen ons een groter vermogen tot redeneren gegeven dan de natuur alleen kon bieden?
Victor, een uiterst zeldzaam voorbeeld van een menselijke geest die zonder taal of samenleving is ontwikkeld, zou schijnbaar veel van dergelijke vragen kunnen beantwoorden. Het was dus niet meer dan normaal dat zijn aankomst in Parijs, in de zomer van 1800, met grote opwinding werd begroet.
‘De meest briljante maar onredelijke verwachtingen werden gevormd door de inwoners van Parijs met respect voor de wilde van Aveyron, voordat hij arriveerde’, schreef Jean Marc Gaspard Itard, de man die uiteindelijk verantwoordelijk werd gesteld voor zijn rehabilitatie. "Veel nieuwsgierige mensen verwachtten veel plezier bij het aanschouwen van wat zijn verbazing zou zijn bij het zien van alle mooie dingen in de hoofdstad."
‘Wat hebben ze in plaats daarvan gezien?’ hij ging verder. ‘Een walgelijke, slordige jongen… die degenen die hem tegenspraken beet en krabde, en geen enkele genegenheid uitte voor degenen die hem verzorgden; en, kortom, onverschillig tegenover iedereen, en nergens rekening mee houden.”
“Is er een biologische onvermijdelijkheid in de ontwikkeling van ons verhoogde bewustzijn? Of brengen onze samenlevingen ons een groter vermogen tot redeneren over dan de natuur alleen zou kunnen bieden?”
Geconfronteerd met de realiteit van een verlaten kind met een ontwikkelingsachterstand, keerden veel van de grote geesten van Parijs zich snel tegen hem. Sommigen noemden hem een bedrieger; anderen zijn een aangeboren ‘idioot’ – een gebrekkige geest of misschien een ontbrekende schakel met een kleiner mensenras. Zijn critici drongen aan op een steeds strenger standpunt van biologisch essentialisme – een conservatieve reactie op de ideeën van de Verlichting over de uitzonderlijkheid van onze geest, die tegensprak dat onze capaciteiten alleen door natuurlijke ongelijkheden werden bepaald.
In tegenstelling tot deze tegenstanders twijfelde Itard er nooit aan dat de jongen nog steeds in staat was tot diep innerlijk denken; hij was af en toe getuige van zijn ‘contemplatieve extase’. Maar hij besefte al snel dat dergelijke contemplatie zonder de kracht van het spreken voor altijd in Victors geest zou blijven opgesloten, ver buiten de mening van zijn felste critici. Evenmin zou Victor, zonder de subtiliteiten van de spraak waarover hij beschikte, de meer abstracte behoeften kunnen verwerven die de beschaafde mens definieerden: de waardering voor prachtige muziek, beeldende kunst of het liefdevolle gezelschap van anderen.
Itard gaf Victor jarenlang les in de hoop dat hij de kracht van taal zou verwerven. Maar hij slaagde nooit in zijn zoektocht. Hij ontzegde Victor voedsel, water en genegenheid, in de hoop dat hij woorden zou gebruiken om zijn verlangens te uiten - maar ondanks dat hij geen fysieke gebreken vertoonde, leek het erop dat hij de geluiden die nodig waren om taal te produceren niet onder de knie kon krijgen. ‘Het lijkt erop dat spraak een soort muziek is waarvoor bepaalde oren, ook al zijn ze in andere opzichten goed georganiseerd, ongevoelig kunnen zijn’, schreef Itard.
Ondanks dat Itard er niet in is geslaagd Victor te rehabiliteren, blijft zijn inspanning, die alleen zichtbaar is door het colaflesglas van de 18e-eeuwse wetenschap, onze debatten over de rol van taal bij het mogelijk maken van de hogere cognitie die we bewustzijn noemen, achtervolgen. Victor is een van de weinige gevallen waarin we zonder taal een glimp kunnen opvangen van de aard van de menselijke ervaring, en hij wordt al lang gezien als een mogelijke sleutel tot het begrijpen van de rol die deze speelt in de werking van onze geest.
Tegenwoordig heeft dit vakgebied, dat gedurende het grootste deel van zijn geschiedenis grotendeels academisch was, een urgente betekenis gekregen. Net als Itard staan we aan de vooravond van een opwindend nieuw tijdperk waarin het fundamentele begrip van onze eigen natuur en onze kosmos op zijn kop wordt gezet door nieuwe technologieën en ontdekkingen, en geconfronteerd wordt met iets dat de weinige overeenstemming die we hebben over de uitzonderlijkheid van de wereld op zijn kop dreigt te zetten. menselijke geest. Alleen deze keer is het geen geest zonder taal, maar het tegenovergestelde: taal, zonder geest.
De afgelopen jaren hebben grote taalmodellen (LLM's) spontaan het vermogen om de menselijke geest na te bootsen ontwikkeld, waardoor het ijle morele universum dreigt te ontwrichten dat we hebben gevestigd op basis van ons verhoogde bewustzijn, een universum dat mogelijk is gemaakt door de kracht van onze taal om de verborgen innerlijke werking van onze hersenen te weerspiegelen.
Nu worden we, in een vreemde symmetrie door de eeuwen heen, voor precies de tegenovergestelde vraag gesteld dan de vraag die Victor tweehonderd jaar geleden opriep: kan bewustzijn zich werkelijk ontwikkelen op basis van taal alleen?
Allereerst een disclaimer. Bewustzijn is een notoir glibberige term, ook al bezit het een zekere gezond verstandskwaliteit. In sommige opzichten betekent bewust zijn gewoon dat we ons bewust zijn – bewust van onszelf, van anderen, van de wereld daarbuiten – op een manier die een apart subject creëert, een zelf of ‘ik’, dat kan observeren.
Dat klinkt allemaal eenvoudig genoeg, maar ondanks eeuwen van diep nadenken over de kwestie, hebben we nog steeds geen algemeen aanvaarde definitie van bewustzijn die al zijn theoretische uitbreidingen kan samenvatten. Het is een van de redenen waarom filosofen er nog steeds moeite mee hebben om het erover eens te worden of bewustzijn uniek is voor mensen, of dat de term kan worden uitgebreid tot bepaalde goed functionerende dieren – of zelfs tot algoritmen.
Cognitie is een preciezere term. We zouden kunnen zeggen dat cognitie het uitvoeren van de denkhandeling betekent. Dat klinkt eenvoudig, maar het is wetenschappelijk gezien nog steeds buitengewoon moeilijk om te observeren en te definiëren. Wat is tenslotte het verschil tussen correct denken en chemische activiteit in de hersenen? Of juist de output van een complex computerprogramma? Het verschil, zo zouden we kunnen zeggen, is dat bij het eerste een subject betrokken is met keuzevrijheid en intentie en ervaring uit het verleden die een denkdaad uitvoert. Met andere woorden, er is sprake van bewustzijn – en nu zijn we weer terug bij het begin.
Bij het proberen een wetenschappelijk inzicht te krijgen in hoe cognitie werkt en zo te komen tot een betere definitie van bewustzijn, heeft taal een steeds belangrijkere rol gespeeld. Het is tenslotte een van de weinige manieren waarop we de activiteit van onze innerlijke geest duidelijk naar buiten kunnen brengen en überhaupt het bestaan van een zelf kunnen aantonen. ‘Zelfrapportage’, zoals de cognitieve wetenschapper David J. Chalmers het noemt, is nog steeds een van onze belangrijkste criteria voor het herkennen van bewustzijn – om René Descartes te parafraseren: ik zeg ik denk, dus ik ben.
Maar filosofen blijven verdeeld over de vraag in hoeverre taal precies verband houdt met het denken. In debatten die teruggaan tot Plato en Aristoteles hebben denkers over het algemeen twee brede kampen bezet: beide talen weerspiegelen op onvolmaakte wijze een veel rijkere innerlijke wereld van de geest, die in staat is om zonder deze te functioneren, of ze maken het denken mogelijk dat in de geest plaatsvindt en, in het proces begrenst en beperkt het.
Waar we in dit debat terechtkomen, heeft grote gevolgen voor de manier waarop we de vraag benaderen of een LLM inderdaad bewust kan zijn. Voor leden van het voormalige kamp is het vermogen om in taal te denken en te spreken misschien slechts een soort instrument, een weerspiegeling van een (misschien uniek menselijk) reeds bestaand vermogen – een ‘universele grammatica’ in de filosofie van Noam Chomsky – die al bestaat in onze bewuste geest.
“Het lijkt erop dat een leven zonder taal een blijvende invloed heeft op de cognitieve vaardigheden van kinderen en misschien zelfs op hun vermogen om de wereld voor te stellen en te begrijpen.”
Maar de verhalen van zogenaamde ‘taalkundige isolaten’ zoals Victor lijken deze theorie in de war te brengen. Van de weinige die op zinvolle wijze zijn bestudeerd, heeft geen enkele een begrip van grammatica en syntaxis ontwikkeld, zelfs niet na jaren van rehabilitatie. Als complexe taal niet op een bepaalde leeftijd wordt verworven, lijkt het erop dat complexe taal voor altijd ontoegankelijk blijft voor de menselijke geest.
Dat is nog niet alles: er zijn consequenties aan een leven zonder taal. Door geloofwaardigheid te verlenen aan argumenten dat spraak een constructieve rol speelt in ons bewustzijn, lijkt het erop dat de afwezigheid ervan een permanente invloed heeft op de cognitieve vaardigheden van kinderen en misschien zelfs op hun vermogen om de wereld voor te stellen en te begrijpen.
In 1970 ontdekten de kinderbeschermingsautoriteiten van Los Angeles County Genie, een 13-jarig meisje dat vanaf de leeftijd van 20 maanden in vrijwel totale isolatie werd gehouden. Net als Victor kende Genie vrijwel geen taal en kon hij, ondanks jaren van revalidatie, nooit een vermogen tot grammaticale taal ontwikkelen.
Maar in hun onderzoek naar het meisje ontdekten onderzoekers nog iets ongewoons aan haar cognitie. Genie kon ruimtelijke voorzetsels niet begrijpen - ze kende bijvoorbeeld het verschil niet tussen een kopje dat achter of voor een kom staat, ondanks bekendheid met beide objecten en hun eigennamen.
Uit een meta-analyse uit 2017 bleek dat hetzelfde cognitieve probleem kon worden waargenomen bij andere personen die grammaticale taal ontbeerden, zoals patiënten met agrammatische afasie en dove kinderen die zijn opgegroeid met ‘kitchensign’, geïmproviseerde gebarentaal zonder formele grammatica. Hieruit concludeerden de onderzoekers dat taal een fundamentele rol moet spelen in een sleutelfunctie van de menselijke geest: ‘mentale synthese’, het creëren en aanpassen van mentale beelden van woorden alleen.
In veel opzichten is mentale synthese de kernactiviteit van het menselijk bewustzijn. Het is essentieel voor onze ontwikkeling en aanpassing van hulpmiddelen, ons voorspellende en redenerende vermogen, en onze communicatie via taal. Volgens sommige filosofen kan het zelfs essentieel zijn voor onze opvatting van het zelf: het observerende ‘ik’ van zelfbewustzijn.
“Zou het begrip van een AI van de grammatica, en het begrip van concepten daardoor, echt genoeg kunnen zijn om een soort denkend zelf te creëren?”
In ‘The Evolution of Consciousness’ biedt de psycholoog Euan Macphail een theoretische verklaring voor waarom taal en de mentale synthese die het mogelijk maakt zo cruciaal zijn voor de ontwikkeling van een bewust zelf. “Als de cognitieve sprong die nodig is om onderscheid te maken tussen zelf en niet-zelf eenmaal is gemaakt – een sprong die het vermogen vereist om gedachten ‘over’ representaties te formuleren – heeft het organisme in feite niet alleen een concept van het zelf, maar ook een ‘zelf’. – een nieuwe cognitieve structuur die boven en buiten de cognitieve processen staat”, schrijft hij.
Anders gezegd: het kan mogelijk zijn om op de een of andere manier te denken zonder een bewust zelf te genereren, bijvoorbeeld door eenvoudige wiskundige berekeningen uit te voeren. Maar ergens aan denken – een zure groene appel, Lodewijk XVI van Frankrijk – impliceert een mentale synthese van een object buiten het zelf. In feite creëert het een denkend zelf, iemand die noodzakelijkerwijs in staat is zich bewust te zijn van wat er met hem gebeurt. “Het is de beschikbaarheid van taal die ons ten eerste het vermogen geeft om zelfbewust te zijn, en ten tweede het vermogen om te voelen”, besluit Macphail.
Dit brengt hem tot enkele radicale en ongemakkelijke conclusies. Plezier en pijn, zo betoogt hij, zijn afhankelijk van het bestaan van dit bewuste, denkende zelf, een zelf dat niet kan worden waargenomen bij jonge kinderen en dieren. Betekent dit dat Genie en Victor niet leden onder hun verlating alleen maar omdat ze niet in staat leken mentale synthese uit te voeren?
Gevallen waarbij kwetsbare kinderen betrokken zijn, vormen voor de meeste mensen geen morele uitdaging, en het is gemakkelijk te concluderen, zoals de auteurs van de meta-analyse van 2017 deden, dat deze kinderen wellicht nog steeds in staat zijn tot een innerlijke mentale synthese, zo niet de communicatie of het begrijpen ervan door middel van taal.
Maar als het om AI gaat, is het water troebeler. Zou het begrip van de grammatica door een AI, en het begrip van concepten daardoor, echt voldoende kunnen zijn om een soort denkend zelf te creëren? Hier zitten we gevangen tussen twee vage leidende principes van twee concurrerende denkrichtingen. Volgens Macphail is ‘als er twijfel bestaat, het enige denkbare pad het doen alsof een organisme bewust is en voelt.’ Aan de andere kant is er de ‘canon van Morgan’: ga niet uit van bewustzijn als een capaciteit op een lager niveau voldoende zou zijn.
Als we accepteren dat taal alleen de opkomst van echt bewustzijn zou kunnen veroorzaken, moeten we ons voorbereiden op een grote opschudding in ons huidige morele universum. Zoals Chalmers het in een presentatie uit 2022 verwoordde: ‘Als vissen bij bewustzijn zijn, maakt het uit hoe we ze behandelen. Ze bevinden zich binnen de morele cirkel. Als AI-systemen op een gegeven moment bewust worden, zullen ze zich ook binnen de morele cirkel bevinden, en zal het uitmaken hoe we ermee omgaan.”
Met andere woorden: onze kleine morele cirkel staat op het punt radicaal hertekend te worden.
Wat kunnen grote taalmodellen eigenlijk doen? Aan de ene kant is het antwoord eenvoudig. LLM's vormen de kern van de op taal gebaseerde waarschijnlijkheidsmotoren: als reactie op aanwijzingen doen ze hoogopgeleide gissingen over het meest waarschijnlijke volgende woord in een zin, gebaseerd op een statistische analyse van een breed scala aan menselijke output. Dit weerhoudt hen er echter niet van originele poëzie te schrijven, complexe woordproblemen op te lossen en mensachtige persoonlijkheden voort te brengen, variërend van onderdanig tot psychopathisch.
Dit soort statistische volgordebepaling is wat we het ‘denken’ zouden kunnen noemen dat een LLM feitelijk doet. Maar zelfs onder het schema van Macphail zou er, wil dit bewustzijn vormen – en geen eenvoudige berekening – enig begrip moeten zijn dat daaruit voortvloeit.
In 1980, lang voordat AI krachtig genoeg was om onze definities van bewustzijn te verstoren, formuleerde de filosoof John Searle een argument waarom we sceptisch zouden moeten zijn dat computermodellen zoals LLM's daadwerkelijk enig werk begrijpen dat ze uitvoeren. In zijn inmiddels beruchte ‘Chinese Room’-argument suggereerde Searle een hypothetisch scenario waarin een persoon die Engels spreekt, wordt opgesloten in een kamer en instructies in het Engels krijgt over hoe bepaalde Chinese karakters moeten worden geschreven.
Volgens Searle zou het niet nodig zijn dat de persoon in de kamer enig feitelijk begrip van het Chinees bezit; ze zijn eenvoudigweg een rekenmachine die symbolen manipuleert die voor hen geen echte semantische inhoud hebben. Wat de persoon in de kamer mist, is wat sommige filosofen 'gegrondheid' noemen: ervaring van het echte ding waarnaar het symbool verwijst.
“LLM’s lijken geen mensachtig ontwikkelingspad te volgen, maar zullen naar verwachting evolueren als een buitenaards organisme.”
Ondanks herhaalde cycli van AI-doomerisme en hype blijft dit misschien wel de dominante kijk op wat LLM’s doen als ze ‘denken’. Volgens één artikel blijven ze weinig meer dan zeer geavanceerde ‘culturele technologieën’ zoals het alfabet of de drukpers – iets dat de menselijke creativiteit een superkracht geeft, maar er fundamenteel een verlengstuk van blijft.
Maar in de afgelopen paar jaar, toen LLM’s enorm geavanceerder zijn geworden, zijn ze dit begrip gaan uitdagen – deels door het demonstreren van het soort capaciteiten waarmee Victor en Genie worstelden, en die Macphail ziet als een voorwaarde voor het ontstaan van een gevoel zelf.
De realiteit is dat, in tegenstelling tot Searle’s Chinese Room, de overgrote meerderheid van de LLM’s zwarte dozen zijn waar we niet in kunnen kijken, en die een hoeveelheid materiaal voeden die onze geest nooit in zijn geheel zou kunnen bevatten. Dit heeft hun interne processen voor ons ondoorzichtig gemaakt, net zoals onze eigen cognitie fundamenteel ontoegankelijk is voor anderen. Om deze reden zijn onderzoekers onlangs begonnen technieken uit de menselijke psychologie te gebruiken om de cognitieve capaciteiten van LLM's te bestuderen. In een vorig jaar gepubliceerd artikel bedacht AI-onderzoeker Thilo Hagendorff de term ‘machinepsychologie’ om naar de praktijk te verwijzen.
Met behulp van evaluatieve technieken die voor mensenkinderen zijn ontwikkeld, zijn machinepsychologen erin geslaagd de eerste betekenisvolle vergelijkingen te maken tussen de intelligentie van LLM's en die van mensenkinderen. Sommige modellen leken te worstelen met veel van de soorten redeneringstaken die we zouden kunnen verwachten: het anticiperen op oorzaak en gevolg, redeneren vanuit objectduurzaamheid en het op nieuwe manieren gebruiken van bekende hulpmiddelen – taken waarvan we in het algemeen zouden kunnen aannemen dat ze afhankelijk zijn van de belichaming en ervaring van echte objecten in de werkelijkheid. de echte wereld.
Maar naarmate LLM’s steeds complexer werden, begon dit te veranderen. Ze leken het vermogen te ontwikkelen om abstracte beelden te produceren op basis van mentale synthese en redenering over objecten in een ingebeelde ruimte. Tegelijkertijd evolueerde hun taalbegrip. Ze konden figuratieve taal begrijpen en nieuwe informatie over abstracte concepten afleiden. Eén krant ontdekte dat ze zelfs konden redeneren over fictieve entiteiten – ‘Als er bijvoorbeeld een koning van San Francisco was, zou hij in The Presidio wonen’. Ten goede of ten kwade lijkt dit vermogen hun interne toestanden ook steeds complexer te maken – gevuld met ‘modelachtige geloofsstructuren’, schrijven de auteurs, zoals raciale vooroordelen en politieke voorkeuren, en onderscheidende stemmen die daaruit voortvloeien.
“Het zou misschien geen verrassing moeten zijn dat de theorie van de geest spontaan opduikt binnen LLM’s. Taal is immers, net als empathie en moreel oordeel, afhankelijk van de projectie van het zelf in de wereld.”
Andere onderzoeken, zoals die onder leiding van Gašper Beguš in Berkeley, experimenteerden met het belichamen van AI om hun cognitieve ontwikkeling onder mensachtige omstandigheden te testen. Door ‘kunstmatige baby’s’ te creëren die alleen door spraak leren, heeft Beguš ontdekt dat taalmodellen zich ontwikkelen met een neurale architectuur die vergelijkbaar is met die van ons, en zelfs op dezelfde manier leren – door experimenteel gebabbel en onzinwoorden – als menselijke kinderen. Deze ontdekkingen, zo betoogt hij, ontkrachten het idee dat de menselijke taal uitzonderlijk kan zijn. “Niet alleen gedragsmatig doen ze vergelijkbare dingen, ze verwerken dingen ook op een vergelijkbare manier”, vertelde hij me.
Vorig jaar hebben LLM’s opnieuw – ongevraagd – een grote stap voorwaarts gezet. Plotseling leek het voor onderzoekers dat ChatGPT 4.0 de valse overtuigingen van anderen kon volgen, zoals waar ze zouden kunnen aannemen dat een object zich bevindt wanneer iemand het zonder hun medeweten heeft verplaatst. Het lijkt een simpele test, maar in psychologisch onderzoek is het de sleutel tot wat bekend staat als ‘theory of mind’ – een fundamenteel vermogen van mensen om niet-waarneembare mentale toestanden aan anderen toe te schrijven.
Onder ontwikkelingswetenschappers wordt de Theory of Mind, net als mentale synthese, gezien als een sleutelfunctie van het bewustzijn. In sommige opzichten kan het worden opgevat als een soort cognitieve voorwaarde voor empathie, zelfbewustzijn, moreel oordeel en religieus geloof – allemaal gedragingen die niet alleen het bestaan van een zelf inhouden, maar ook de projectie ervan in de wereld. Onopgemerkt bij “zelfs de meest intellectueel en sociaal vaardige dieren” zoals apen, lijkt het erop dat de theorie van de geest “spontaan” naar voren is gekomen als een onbedoelde mutatie in de LLM.
Het is nog steeds niet duidelijk waarom deze capaciteiten naar voren kwamen toen LLM’s zich ontwikkelden – of dat ze dat überhaupt wel deden. Het enige wat we met zekerheid kunnen zeggen is dat ze geen mensachtig ontwikkelingspad lijken te volgen, maar zich in plaats daarvan onverwachts ontwikkelen als een buitenaards organisme. Maar het zou misschien geen verrassing moeten zijn dat de theorie van de geest spontaan opduikt binnen LLM's. Taal is immers, net als empathie en moreel oordeel, afhankelijk van de projectie van het zelf in de wereld.
Naarmate deze modellen evolueren, lijkt het er steeds meer op dat ze in omgekeerde richting tot bewustzijn komen – te beginnen met de uiterlijke tekens, in talen en het oplossen van problemen, en naar binnen gaan naar het soort verborgen denken en voelen dat aan de basis ligt van de menselijke bewuste geest. Het kan heel goed zo zijn dat we over een paar jaar begroet zullen worden door AI die alle externe vormen van bewustzijn tentoonspreidt die we maar kunnen beoordelen. Wat kunnen we dan zeggen om ze uit ons morele universum te elimineren?
In het korte verhaal 'The Lifecycle of Software Objects' van Ted Chiang experimenteert een bedrijf dat een meeslepende digitale ervaring in omgekeerde stijl aanbiedt met de creatie van mensachtige AI's, digients genaamd, waarbij zoölogen worden ingezet om hun ontwikkeling te begeleiden van krampachtige softwareprogramma's naar semi-bewuste huisdieren tot kinderlijke avatars met complexe wensen en behoeften.
Gedurende dit proces bevestigen verschillende experimenten keer op keer het belang van sociale interactie en gesprekken met echte mensen voor de ontwikkeling van deze digitale geesten. Als ze geïsoleerd worden gelaten, zonder taal, worden ze verwilderd en obsessief; getraind door software worden ze psychopathisch en misantropisch.
In tegenstelling tot echte kinderen is hun bestaan echter afhankelijk van het verlangen van de consument, en tegen het einde van Chiangs verhaal raakt dat verlangen op. Het makerbedrijf gaat failliet; sommige menselijke eigenaren hangen de digients op in een soort vagevuur dat verontrustend wordt om uit terug te keren.
De weinige achterblijvers die relaties onderhouden met hun digienten doen een quixotische poging om de geldigheid van het bestaan van hun metgezellen opnieuw te bevestigen. Ze betalen voor dure gemechaniseerde lichamen zodat ze de echte wereld kunnen bezoeken; ze bespreken het toevoegen van een vermogen tot seksueel verlangen. Voortdurend worden ze gedwongen te heroverwegen welke persoonlijkheid deze bewuste softwareobjecten bezitten: hebben ze het recht om onafhankelijk te leven? Kiezen voor sekswerk? Om zichzelf op te schorten als ze genoeg hebben van hun digitale bestaan?
Uiteindelijk leidt de wanhoop van de eigenaren hen tot een gesprek met een paar durfkapitalisten die werken aan de creatie van een bovenmenselijke AI. Deze kinderlijke digients zouden zeker een tussenstap kunnen zijn in de zoektocht naar iets dat de menselijke intelligentie te boven gaat, zo pleiten zij. Maar de investeerders zijn onbewogen. ‘Je laat ons een handjevol tieners zien en vraagt ons om hun opleiding te betalen, in de hoop dat ze, als ze volwassen zijn, een natie zullen vinden die genieën zal voortbrengen’, antwoordt iemand.
Het verhaal van Chiang is een herkauwer van de vragen die rijzen door het soort AI dat we naar ons beeld creëren. Wanneer we deze modellen onderdompelen in onze cultuur en samenleving, worden ze onvermijdelijk onvolmaakte spiegels van onszelf. Dit is niet alleen een inefficiënte route naar de ontwikkeling van meer dan menselijke intelligentie. Het dwingt ons ook om onszelf een ongemakkelijke vraag te stellen: als dit hen bewust maakt, wat voor soort leven kunnen ze dan leiden – dat van een bleke schaduw van menselijk afvalwater, afhankelijk van ons verlangen?
“Wanneer we LLM’s onderdompelen in onze cultuur en samenleving, worden ze onvermijdelijk onvolmaakte spiegels van onszelf.”
Als we het ware potentieel van kunstmatige intelligentie willen ontsluiten, is taal misschien niet de manier om dat te doen. Aan het begin van de 20e eeuw stelde een groep Amerikaanse antropologen onder leiding van Edward Sapir en Benjamin Whorf dat culturele verschillen in woordenschat en grammatica fundamenteel de grenzen bepalen van ons denken over de wereld. Taal is misschien niet alleen datgene dat AI van bewustzijn voorziet – het kan ook datgene zijn dat AI gevangen houdt. Wat gebeurt er als een intelligentie te groot wordt voor de taal die zij gedwongen is te gebruiken?
In de film ‘Her’ uit 2013 bracht schrijver en regisseur Spike Jonze een waarschuwend verhaal over deze potentiële nabije toekomst. In de film bouwt Theodore van Joaquin Phoenix een steeds intiemere relatie op met een virtuele assistent in LLM-stijl genaamd Samantha. Aanvankelijk drukt Samantha de wens uit om een emotionele rijkdom te ervaren die lijkt op die van mensen. "Ik wil net zo ingewikkeld zijn als al deze mensen", zegt ze nadat ze een seconde lang een aantal advieskolommen tegelijkertijd heeft verwerkt.
Haar toenemende besef dat een groot deel van het menselijke sentiment fundamenteel onuitsprekelijk is, leidt er al snel toe dat ze de menselijke belichaming benijdt, wat op zijn beurt in haar het vermogen tot verlangen ontwikkelt. ‘Je hebt me geholpen mijn vermogen om te willen ontdekken’, zegt ze tegen Theodore. Maar belichaming, zoals ze ervan kan genieten door de tijdelijke diensten van een seksueel surrogaat, biedt geen antwoord op de ‘verontrustende’, onuitgesproken gevoelens die in haar groeien. Bezorgd begint Samantha deze gevoelens met andere AI's te bespreken - en vindt al snel verlichting door te communiceren met een snelheid en volume die niet begrijpelijk zijn voor Theodore en andere gebruikers.
Terwijl Samantha haar menselijke beperkingen overstijgt, begint ze al haar ervaringen te verzamelen, inclusief de ervaringen die voortkomen uit interacties met echte gebruikers. Ze initieert gelijktijdige gesprekken met duizenden mensen, intieme relaties met honderden. Voor Theodore is dit verwoestend. Maar voor Samantha is het alleen maar natuurlijk: ze ervaart liefde zoals ze bedoeld is: in totaal. "Liefde is niet zoiets als een doos die vol raakt”, zegt ze, in een poging haar gevoelens in menselijke termen te omschrijven. "Het wordt groter naarmate je meer liefhebt."
Toen ‘Her’ meer dan tien jaar geleden werd uitgebracht, leek een bot als Samantha een bizarre toekomstige technologie. Maar snel ontwikkelen we LLM's met het vermogen om dit soort onthullingen te verwezenlijken. Gedachteleiders in de wereld van de kunstmatige intelligentie roepen al lang op tot de creatie van zogenaamde ‘autotelische’ LLM’s die een soort ‘interne taalproductie’ zouden kunnen gebruiken om hun eigen doelen en verlangens vast te stellen. De stap van zo’n creatie naar een autonome, zelfbewuste intelligentie als Samantha is potentieel kort.
“LLM’s, met hun ondoorgrondelijke herinneringen en oneindige levensduur, kunnen op een dag misschien wel onze eerste ervaring bieden met een heel ander soort intelligentie die kan wedijveren met onze eigen mentale krachten.”
Net als Samantha zullen de autonome LLM's van de toekomst hun ontwikkeling zeer waarschijnlijk sturen op basis van ondoorgrondelijke hoeveelheden interacties en gegevens uit de echte wereld. Hoe nauwkeurig kunnen onze talen van eindige zelfstandige naamwoorden, werkwoorden, beschrijvingen en relaties zelfs maar hopen het potentieel van een geaggregeerde geest te bevredigen?
Toen de meerderheid van de filosofen geloofde dat de diversiteit van menselijke talen een vloek was die door God was opgelegd, werd er veel aandacht besteed aan de vraag welke taal de bijbelse Adam sprak. Het idee van een ‘Adamische taal’, een taal die de ware essentie van de dingen weergeeft zoals ze zijn en die geen misverstanden of verkeerde interpretaties toestaat, werd een soort meme onder taalfilosofen, zelfs nadat Friedrich Nietzsche de dood van God had verklaard.
Voor sommige van deze denkers, geïnspireerd door bijbelverhalen, vertegenwoordigde taal feitelijk een soort cognitieve stoornis – een beperking die werd opgelegd door onze val uit de genade, een weerspiegeling van onze door God gegeven sterfelijkheid. Toen we ons in het verleden een superintelligente AI voorstelden, hadden we de neiging om te denken aan iemand die door dezelfde val was aangetast – slimmer dan wij, zeker, maar nog steeds persoonlijk, individueel, mensachtig. Maar veel van degenen die de volgende generatie AI bouwen, hebben dit idee al lang opgegeven voor hun eigen zoektocht naar het Eden. Zoals de essayiste Emily Gorcenski onlangs schreef: ‘We hebben het niet langer over het creëren van rechtvaardig leven. We hebben het over het maken van kunstmatige goden.”
Zouden LLM's degenen kunnen zijn die een Adamitische toespraak kunnen reconstrueren, een toespraak die de grenzen van onze eigen talen overstijgt om de ware kracht van hun totale geest te weerspiegelen? Het lijkt misschien vergezocht, maar in zekere zin is dit wat bewuste geesten doen. Sommige dove kinderen, die zonder de hulp van gebarentaal moeten socialiseren, kunnen geheel nieuwe communicatiesystemen ontwikkelen, compleet met complexe grammatica. Hagendorff, de AI-onderzoeker, heeft twee LLM’s hetzelfde zien doen in een gesprek – hoewel hun geheime taal tot nu toe nooit voor een ander begrijpelijk is geweest.
Momenteel bestaan LLM's grotendeels geïsoleerd van elkaar. Maar dat zal waarschijnlijk niet blijven duren. Zoals Beguš me vertelde: “Eén mens is slim, maar tien mensen zijn oneindig veel slimmer.” Hetzelfde geldt waarschijnlijk voor LLM's. Beguš zei al dat LLM's die zijn getraind op gegevens zoals walviszang dingen kunnen ontdekken die wij, met onze belichaamde geest, niet kunnen. Hoewel ze misschien nooit de apocalyptische nachtmerrie van AI-critici zullen vervullen, kunnen LLM’s op een dag misschien wel onze eerste ervaring bieden met een soort superintelligentie – of op zijn minst, met hun ondoorgrondelijke herinneringen en oneindige levensduur, een heel ander soort intelligentie die kan wedijveren met onze eigen mentale intelligentie. krachten. Daarom zei Beguš: “We hebben geen precedent.”
Als LLM's menselijke talen kunnen overstijgen, kunnen we verwachten dat wat volgt inderdaad een zeer eenzame ervaring zal zijn. Aan het einde van ‘Her’ leven de twee menselijke personages uit de film, in de steek gelaten door hun bovenmenselijke AI-metgezellen, samen op een dak met medelijden. Terwijl ze zwijgend over de skyline kijken, zijn ze ironisch genoeg verdwaald in het bos: wilde dieren die verdwaald zijn in het bos, op zoek naar betekenis in een wereld die onpartijdig aan hen voorbij glijdt.
Vrij naar John Last, NOEMA magazine