Het Vooruitzicht Van 'Meer Dan Menselijke' Intelligentie

De Evolutie Van Computers Zal Ai 'Levensecht' Maken door op in Wetenschap

In de hele wetenschap beginnen we het zelforganiserende principe van 'computers' te begrijpen als de bouwsteen van alle vormen van ontluikende intelligentie – van primitieve cellen tot generatieve AI. Dit proces omvat het leren van de omgeving, het aggregeren van informatie en het ordenen ervan door functionele instructies te delen via 'kopiëren en plakken' van code die een organisme in staat stelt zich te ontwikkelen, voort te planten en in stand te houden.

Zoals Blaise Agüera y Arcas en James Manyika in Noema schrijven: "computers bestonden al in de natuur lang voordat we de eerste 'kunstmatige computers' bouwden. Het begrijpen van computers als een natuurlijk fenomeen zal fundamentele vooruitgang mogelijk maken, niet alleen in de computerwetenschap en AI, maar ook in de natuurkunde en biologie." Aguera y Arcas is vicepresident van Google Research. Manyika is president van Research, Labs, Technology & Society bij Google.

Meer dan een halve eeuw geleden, zo merken ze op, hadden baanbrekende computerwetenschappers zoals John von Neumann de intuïtie dat organische en anorganische intelligentie dezelfde ontwikkelingsregels volgen.

“Von Neumann”, schrijven de auteurs, “besefte dat een complex organisme, om zich voort te planten, instructies voor de bouw van zichzelf nodig had, samen met een machine om die instructietape te lezen en uit te voeren. De tape moest ook kopieerbaar zijn en de instructies bevatten voor de bouw van de machine die hem leest.” Dit inzicht in de technische vereisten voor die “universele constructor” in de natuur – de “tape-achtige” instructies van DNA – komt precies overeen met de technische vereisten voor de vroegste computers.

Zoals Manyika en Agüera y Arcas het zien: "Von Neumann had aangetoond dat het leven inherent computationeel is. Dit klinkt misschien verrassend, aangezien we computers absoluut niet als levend beschouwen, en levende wezens absoluut niet als computers. Maar het is waar: DNA is code – hoewel de code moeilijk te reverse-engineeren is en niet sequentieel wordt uitgevoerd. Levende wezens rekenen noodzakelijkerwijs, niet alleen om zich voort te planten, maar ook om zich te ontwikkelen, te groeien en te genezen."

In dit verband noemen ze ook Alan Turings bijdrage aan de theoretische biologie, die voortkwam uit zijn ervaring met de bouw van wat algemeen erkend wordt als de eerste computer. Turing beschreef "hoe weefselgroei en -differentiatie geïmplementeerd konden worden door cellen die in staat waren chemische signalen te detecteren en uit te zenden … een krachtige vorm van analoog computergebruik."

De auteurs melden dat experimenten van Googles "Paradigms of Intelligence"-team hebben aangetoond hoe, in een gesimuleerd universum, een willekeurige "soep" van tapes met minimale programmeertaal zichzelf na miljoenen interacties organiseert tot "functionele tapes" die zichzelf beginnen te repliceren en zo de basis vormen voor "minimaal kunstmatig leven".

Om te differentiëren en zich verder te ontwikkelen, vereist computing een "doelgerichte structuur op elke schaal" waarin afzonderlijke functionele onderdelen moeten samenwerken, elk op symbiotische wijze afhankelijk van andere gespecificeerde functies.

"Hoe zou de complexiteit van het leven ooit kunnen ontstaan, laat staan blijven bestaan, in een willekeurige omgeving?" vragen de auteurs zich af. Het antwoord: alles wat levend is en zichzelf herstelt of reproduceert, is 'dynamisch stabieler' dan iets inerts of niet-levends, omdat een levend wezen (of zijn nakomelingen) in de toekomst nog steeds zal bestaan, terwijl alles wat levenloos is na verloop van tijd degradeert en ten prooi valt aan willekeur. Leven is computationeel omdat de stabiliteit ervan afhangt van groei, herstel of reproductie; en computing zelf moet evolueren om deze essentiële functies te ondersteunen.

De auteurs leggen vervolgens het belang uit van dit nieuwe begrip van de universaliteit van computing. Door de overeenkomst met natuurlijk computing te begrijpen en ervan te leren, geloven ze dat AI 'levensecht' zal worden, naarmate het zich verder ontwikkelt van het nabootsen van neurale computing naar voorspellende intelligentie, algemene intelligentie en uiteindelijk collectieve intelligentie.

Voortbouwend op de eerste fase van "natuurlijk computergebruik", zijn dit de fasen van AI-ontwikkeling die ze zien:

  • Neurale Computing - Het herontwerpen van de computers die AI aandrijven, zodat ze meer als een brein werken, "een prachtig voorbeeld van natuurlijk computergebruik", zal de energie-efficiëntie van AI aanzienlijk verhogen door datacompressie op steeds krachtigere chips en gedecentraliseerde parallelle verwerking tussen miljoenen knooppunten.

  • Voorspellende Intelligentie - "Het succes van grote taalmodellen (LLM's) laat ons iets fundamenteels zien over de aard van intelligentie: het omvat statistische modellering van de toekomst (inclusief iemands eigen toekomstige acties) op basis van evoluerende kennis, observaties en feedback uit het verleden. Dit inzicht suggereert dat de huidige verschillen tussen het ontwerpen, trainen en uitvoeren van AI-modellen van voorbijgaande aard zijn; geavanceerdere AI zal continu en interactief evolueren, groeien en leren, net als wij."

  • Algemene Intelligentie - "Intelligentie vereist niet noodzakelijkerwijs biologisch gebaseerde computatie. Hoewel AI-modellen zich zullen blijven verbeteren, zijn ze al breed capabel en kunnen ze een toenemend scala aan cognitieve taken aan met een vaardigheidsniveau dat het individuele menselijke vermogen benadert en in sommige gevallen overtreft. In die zin is "Artificial General Intelligence" er mogelijk al.

  • Collectieve intelligentie - "Hersenen, AI-agenten en samenlevingen kunnen allemaal capabeler worden door schaalvergroting. Grootte alleen is echter niet genoeg. Intelligentie is fundamenteel sociaal, aangedreven door samenwerking en de arbeidsverdeling tussen vele agenten. Naast het feit dat dit ons ertoe aanzet de aard van menselijke (of 'meer dan menselijke') intelligentie te heroverwegen, suggereert dit inzicht sociale en multi-agent benaderingen van AI-ontwikkeling die de computationele kosten zouden kunnen verlagen, de AI-heterogeniteit zouden kunnen vergroten en de AI-veiligheidsdebatten zouden kunnen herkaderen."

    Op dit laatste punt betogen de auteurs dat steeds autonomere modellen niet zozeer de neiging zullen hebben om te schurken, maar noodzakelijkerwijs op een "vriendelijke" manier hun onderlinge afhankelijkheid met andere modellen in hun eigen formatie zullen weerspiegelen. "Na decennia van magere AI-vooruitgang", concluderen Agüera y Arcas en Manyika, "gaan we nu snel op weg naar systemen die niet alleen de individuele menselijke intelligentie kunnen evenaren, maar ook onze collectieve, bovenmenselijke intelligentie kunnen uitbreiden. … Dat zal de mensheid ten goede komen, de wetenschap vooruithelpen en ons uiteindelijk helpen onszelf te begrijpen – als individuen, als ecologieën van kleinere intelligenties en als bestanddelen van grotere gehelen."

    Nathan Gardels, hoofdredacteur van Noema