AI Platform Macht
Vrij naar Dieuwertje Luitse, afdeling Mediastudies, Universiteit van Amsterdam, Nederland
Samenvatting
De afgelopen jaren zijn Amazon, Microsoft en Google drie van de dominante ontwikkelaars van AI-infrastructuren en -diensten geworden. De toenemende economische en politieke macht van deze bedrijven over de data, computerinfrastructuren en AI-expertise die een centrale rol spelen in de ontwikkeling van hedendaagse AI-technologieën, heeft geleid tot grote zorgen onder academische onderzoekers, kritische commentatoren en beleidsmakers die hun markt- en monopoliemacht aanpakken. Door dergelijke macro-economische analyses op te pakken, onderzoekt dit artikel specifieker de micro-materiële manieren waarop infrastructurele macht in AI wordt bediend via de respectieve cloud-AI-infrastructuren en -diensten die zijn ontwikkeld door hun cloudplatforms: AWS, Microsoft Azure en Google Cloud. Door een empirische analyse van hun evolutionaire trajecten in de context van AI tussen januari 2017 en april 2021, betoogt dit artikel dat deze cloudplatforms op drie belangrijke manieren proberen infrastructurele macht uit te oefenen: door verticale integratie, hun complementaire innovatie en de kracht van abstractie. Elke dynamiek wordt strategisch gemobiliseerd om de dominante positie van deze platforms aan het front van AI-ontwikkeling en -implementatie te versterken. Dit compliceert de kritische evaluatie en regulering van AI-technologieën door overheidsinstanties. Tegelijkertijd bieden deze vormen van infrastructurele macht in de cloud Amazon, Microsoft en Google invloed om de voorwaarden voor toekomstige AI-productie en -implementatie te bepalen.
Inleiding
Aangedreven door een bedrijfsbelofte die Google CEO Sundar Pichai (2017) uitriep als de verschuiving van een "mobile first naar een AI first world", zijn Amazon, Microsoft en Google drie van de dominante ontwikkelaars van kunstmatige intelligentie1 (AI) infrastructuren en diensten geworden (Srnicek, 2022). Naast het benutten van hun enorme hoeveelheden data, hebben deze drie grote techbedrijven zichzelf uitgerust met de nodige technische kennis door het aantrekken van AI-expertise, de overnames van AI-startups (bijv. Google/Deepmind) en de opkomst van uitgebreide zakelijke partnerschappen zoals die van Microsoft en OpenAI (Murgia, 2023). Bovendien hebben de afgelopen jaren aanzienlijke investeringen plaatsgevonden in de infrastructurele uitbreiding van hun cloud computing-platforms: Amazon Web Services (AWS), Microsoft Azure en Google Cloud. Deze platforms zijn goed voor 68% van de wereldwijde cloud computing-markt (Synergy Research Group, 2024) en bieden full-stack geïntegreerde tools en services voor de productie, training en implementatie van machine learning-systemen en -applicaties die gedijen op hun eigen cloudinfrastructuren die rekenkracht op schaal leveren (Luitse & Denkena, 2021). De meest recente ontwikkelingen omvatten de creatie en levering van zeer grote, vooraf getrainde modellen — basismodellen (Bommasani et al., 2022) — zoals OpenAI's DALL·E (Ramesh et al., 2021) of Google's PaLM (Chowdhery et al., 2022).
Gedreven door verwachtingen en hype rond het potentieel van AI, worden AI2-infrastructuren en -diensten voor de cloud van bedrijven steeds vaker geïmplementeerd in verschillende economische en maatschappelijke sectoren. Dit heeft geleid tot aanzienlijke zorgen over de vooringenomenheid en sociale gevolgen van deze systemen, omdat ze het risico lopen bestaande patronen van sociale ongelijkheid en discriminatie te verergeren (bijv. Bender et al., 2021; Miceli et al., 2022). Bovendien, na wetenschappelijke discussies over de politieke economie van AI (Luitse & Denkena, 2021; Widder et al., 2023), stellen deze snelle implementaties cloudplatforms in staat om hun AI-infrastructuren te benutten als kern "commerciële computing assets" (Narayan, 2022). Dit leidt tot nieuwe afhankelijkheidsrelaties voor externe ontwikkelaars, aangezien platforms de controle houden over de tools en de ontwikkelomgevingen voor AI-productie en -implementatie. Bijgevolg zien onderzoekers en publieke commentatoren een snelle concentratie van economische en politieke macht (monopolisatie) in handen van een kleine groep bedrijven (Srnicek, 2022). Deze tendens wordt steeds vaker beantwoord met oproepen tot actie om deze macht te confronteren en terug te vorderen door middel van regelgevende interventie door onder andere de Amerikaanse Federal Trade Commission en de Europese Commissie (Kak & Myers West, 2023). Dit artikel levert een bijdrage aan dit werk over de politieke economie van AI en biedt een empirische casestudy over hoe AWS, Microsoft Azure en Google Cloud hun macht in de productie en implementatie van AI in de loop van de tijd strategisch hebben geoperationaliseerd via de cloud-AI-ecosystemen die ze bedienen.
Kritische analyses van de monopoliemacht van big tech in AI hebben waardevolle inzichten op macroniveau opgeleverd, wat belangrijke toegangspunten voor regulering blijkt te zijn. Er is echter relatief weinig aandacht besteed aan de specifieke micro-materiële manieren waarop macht in AI wordt geoperationaliseerd door hun clouddochterondernemingen via de evolutie van hun netwerk van AI-infrastructuren en -diensten. Een expliciete focus op infrastructuur is belangrijk, aangezien "cloud computing-regelingen [...] fundamenteel zijn voor platformuitbreiding" (Narayan, 2022, p. 915). Als evoluerende samenstellingen van hardware- en softwarediensten stellen ze de voorwaarden vast voor de ontwikkeling van AI-systemen (Rieder, 2022). Dominante actoren die deze infrastructuren bezitten en exploiteren, geven zo vorm aan het heden van AI in termen van "wat we er wel (en niet) over weten" (Whittaker, 2021a, 55) en hoe het kan worden geproduceerd en ingezet. Tegelijkertijd bepalen ze vooraf de toekomstige trajecten van de technologieën die steeds vaker worden geïmplementeerd in maatschappelijke domeinen zoals culturele productie, gezondheidszorg en de veiligheidsindustrie (Jacobides et al., 2021), met aanzienlijke implicaties voor deze respectievelijke gebieden. AWS, Microsoft Azure en Google Cloud zijn de cloud computing-dochterondernemingen van toonaangevende bedrijven in AI-onderzoek en -ontwikkeling (Rikap, 2023) en de cloudinfrastructuurmarkt (Synergy Research Group, 2024). Daarom rechtvaardigen ze een diepgaander onderzoek naar de specifieke werking van de infrastructuren en services voor AI die ze in de loop van de tijd hebben ontwikkeld. Een dergelijk empirisch onderzoek stelt ons in staat om beter te begrijpen hoe deze platformbedrijven zich strategisch hebben gemanifesteerd in het veld en hoe ze proberen macht uit te oefenen over industriële AI-ontwikkeling en -implementatie.
Dit artikel biedt een dergelijk onderzoek door middel van een kritisch empirisch onderzoek naar de evolutie van AWS, Microsoft Azure en Google Cloud in de context van AI in de aanloop naar de huidige verschuiving naar basismodellen. Dat wil zeggen, voornamelijk sinds Sundar Pichai's definiërende proclamatie uit 2017 tot april 2021. Ik onderzoek de (vaak verborgen) ontwikkeling van hun cloud-AI-infrastructuren en -services in deze periode om te laten zien hoe deze grote cloudplatforms specifieke vormen van infrastructurele macht hebben geëxploiteerd in de grotere politieke economie van AI. Door Khalili (2018) aan te passen aan de context van cloud-AI, begrijp ik infrastructurele macht als het vermogen van (cloud)platformen om de samenstelling van computationele infrastructuren, AI-ontwikkelingspraktijken, discoursen en bestuursprocedures te smeden met het strategische doel om kapitalistische relaties te (re)produceren en af te dwingen. Dit type platformmacht is relationeel, verspreid en ontstaat materieel via het grote netwerk van cloud-AI-infrastructuren en -diensten, omdat ze de voorwaarden voor de mogelijkheid van AI-productie en -implementatie bepalen met het strategische doel om de politieke en economische positie van de bedrijven die ze exploiteren te versterken.
Om dit onderzoek voort te zetten, plaats ik dit onderzoek eerst in de literatuur over de politieke economie van AI en de infrastructurele macht van cloudplatformen. Dit wordt gevolgd door een bespreking van de methodologie die ik evolutionaire platformtechnologie noem, evenals de (gearchiveerde) materialen die ik heb geanalyseerd om de evolutie van de AI-specifieke infrastructuren en diensten van drie cloudecosystemen te traceren. De rest van het artikel put uit deze platform-evolutionaire trajecten om de manifestatie van infrastructurele macht in AI op drie substantiële manieren empirisch te analyseren - door verticale integratie, complementaire innovatie en abstractie - en beschouwt de implicaties voor de ontwikkeling van het veld.
Infrastructurele macht in de cloud en de politieke economie van AI
De macht van grote technologiebedrijven zoals Amazon, Microsoft en Google wordt vaak getheoretiseerd in termen van markt- en monopoliemacht (bijv. Khan, 2018; van Dijck et al., 2019) en de hedendaagse ontwikkeling van AI drijft hun monopoliserende tendensen verder aan. Onderzoek naar de politieke economie van AI in bedrijfskunde, kritische AI-studies en platformstudies heeft bijzondere aandacht besteed aan deze dynamiek (bijv. Jacobides et al., 2021; Srnicek, 2022) en identificeerde drie aspecten die deze concentratie van macht in het veld sturen. Ten eerste zijn technologiebedrijven voorstander van het verzamelen en verstrekken van enorme hoeveelheden waardevolle data die essentieel zijn voor AI-ontwikkeling. Ten tweede hebben deze bedrijven veel meer financiële middelen om te investeren in en hooggekwalificeerde AI-onderzoekers te behouden om expertise op dit gebied vast te leggen. Ten derde zorgt het geconcentreerde eigendom en de controle van grote technologiebedrijven over computerbronnen zoals Graphics Processing Units (GPU's) voor een "rekenkloof" (Ahmed & Wahed, 2020, p. 1) die aanzienlijke voordelen biedt voor deze bedrijven en een kleine groep samenwerkende academische onderzoeksinstellingen (Whittaker, 2021a). Samen vormen deze dynamieken een groot obstakel voor de democratisering van AI-ontwikkeling, d.w.z. het betrekken van een breder consortium van mensen (bijv. academische onderzoekers, publieke deelnemers en regelgevers) om bij te dragen aan AI-ontwikkelingsprocessen, inclusief kritische evaluatie- en auditmechanismen (Seger et al., 2023).
Als bijdrage aan deze observaties beschouwt dit artikel de infrastructurele kracht van AWS, Microsoft Azure en Google Cloud binnen de bredere politiek-economische structuur van AI. Hier put ik uit en bouw ik voort op kritisch werk in platformstudies (bijv. van Dijck, 2020; Plantin 2020; Rieder, 2022) dat heeft beschreven hoe de transformatie van platformarchitecturen naar servicecomponenten en de bijbehorende technische procedures "de marktdynamiek en, bij uitbreiding, politiek-economische machtsverhoudingen effectief kan veranderen" (Lomborg et al., 2024). Deze verschuivende machtsverhoudingen ontstaan wanneer platforms technische normen, voorwaarden en criteria voor AI-productie en -implementatie vaststellen via een verscheidenheid aan zogenaamde "technische grensbronnen" (Ghazawneh & Henfridsson, 2013). Dergelijke bronnen omvatten Application Programming Interfaces (API's), Software Development Kits (SDK's), richtlijnen voor ontwikkelaars, data- en softwaretools om machine-learningsystemen te bouwen en applicaties bovenop de reeds bestaande platforminfrastructuren. Deze functies vereisen dat ontwikkelaars in alle domeinen hun praktijken en data-infrastructuren afstemmen en integreren met die van het grotere platformecosysteem (Nieborg & Helmond, 2019). Hierdoor kunnen cloudplatforms zichzelf niet alleen infrastructureel uitbreiden door diepe integratie, maar ook profiteren van hun tussenpositie als eigenaar van de kerninfrastructuren waarop AI-systemen zijn gebouwd.
Verticale integratie is geïdentificeerd als een van de (belangrijkste) bronnen van infrastructurele macht van grote technologiebedrijven (Khan, 2018). Dit proces omvat de "naadloze integratie van platforms" (van Dijck, 2020, p. 8) in de onderliggende gepatenteerde "stack" (Bratton, 2016) van schaalbare infrastructuren die de verschillende materiële en abstracte lagen van (planetaire schaal) berekeningen vormen die eigendom zijn van en worden beheerd door deze kleine groep machtige bedrijven. Hierdoor kunnen deze bedrijven ontwikkelaarsactiviteiten verder kanaliseren onder hun bedrijfsbeheer, waardoor padafhankelijkheden ontstaan die resulteren in gebruikerslock-in en leverancierslock-in (van Dijck, 2020). Cloudplatforms zoals AWS, Microsoft Azure en Google Cloud werken volgens deze dynamiek door hun enorme en complexe set van infrastructurele technologieën en producten te benutten als geïntegreerde services over drie lagen van de cloudstack: 1) Infrastructure-as-a-Service (IaaS); 2) Platform-as-a-Service (PaaS); en 3) Software-as-a-Service (SaaS). IaaS verwijst naar de on-demand levering van verschillende computerbronnen zoals servercapaciteit, virtualisatietechnologie en netwerkmogelijkheden (Narayan, 2022) door bedrijfsclouds, inclusief het leveren van verwerkingseenheden voor de training en inferentie van machine-learningmodellen. De PaaS-laag bestaat uit een verzameling geïntegreerde ontwikkelingsbronnen, waaronder besturingssystemen, machine-learningframeworks en SDK's. Via deze laag beheren cloudproviders ook de onderliggende computerinfrastructuren voor derden binnen een respectief cloudecosysteem. SaaS stelt externe ontwikkelaars of individuele klanten in staat om geïntegreerde, gepatenteerde technologieën te sourcen die volledig worden beheerd en bediend door cloudplatforms. Deze servicelaag wordt ook wel AI-as-a-Service (AIaaS) genoemd (Parsaeefard et al., 2019), waarbij services kunnen worden gebruikt voor geavanceerde computercapaciteiten zoals gezichtsherkenning of taalgeneratie. Volgens van Dijck (2020) duidt de verticale integratie van IaaS-, PaaS- en AIaaS-services in de cloudstack op een strategische zet van bedrijfsclouds om mogelijk hun controle over AI-ontwikkelings- en implementatieprocessen uit te breiden, wat hun (kritieke) tussenliggende positie kan versterken. Vanuit dit perspectief maak ik gebruik van deze inzichten om specifieker te schetsen hoe AWS, Microsoft Azure en Google Cloud proberen deze bron van macht uit te oefenen via de infrastructuren en services voor AI-productie en -implementatie die ze hebben ontwikkeld.
Het vermogen van cloudplatforms om hun infrastructurele "kern" van computeractiva en microservices te benutten voor externe instellingen, wordt beschouwd als een andere belangrijke bron van hun infrastructuur. Het is een natuurlijke kracht omdat het hen in staat stelt zichzelf uit te breiden en te integreren in verschillende toepassingsdomeinen (Aradau & Blanke, 2022). Zoals Rieder (2022) uitlegt, wordt deze dynamiek van het voortbrengen van "complementaire innovatie" (Gawer, 2014) — naast het cross-market nut van data — aangestuurd door de transversaliteit van software, computerhardware en hun "vermogen om processen in zeer verschillende taakomgevingen te articuleren, structureren en automatiseren" (p. 3). Met andere woorden, na onderzoek in bedrijfskunde (bijv. Gawer, 2014) kunnen gepatenteerde cloud computing-infrastructuren zoals besturingssystemen, verwerkingschips in datacenters of software-serviceportfolio's strategisch worden toegepast om "innovatie" door externe instellingen of bedrijven in verschillende domeinen te faciliteren. Tot nu toe heeft dit bedrijven als Amazon, Microsoft en Google, die achter de ontwikkeling van deze infrastructurele technologieën staan, in staat gesteld hun activiteiten uit te breiden om verschillende markten en maatschappelijke sectoren te penetreren via hun cloud computing-takken en hun dominante positie in rap tempo te verstevigen (van Dijck et al., 2019). De snelle levering van AI-specifieke infrastructuren en services versnelt dit proces verder, aangezien machine-learningsystemen het potentieel hebben om vele doeleinden te dienen (Rieder, 2022) en in een meervoud aan contexten kunnen worden toegepast. Met het oog op dit probleem onderzoekt dit artikel hoe AWS, Microsoft Azure en Google Cloud hun AI-infrastructuren en -services specifiek hebben ontwikkeld en geëxploiteerd voor (nieuwe) activiteitsdomeinen, waardoor ze hun infrastructurele macht hebben gemobiliseerd ten opzichte van externe ontwikkelaars die AI-gestuurde systemen willen aanpassen aan hun respectievelijke praktijken.
Evolutionaire technografische analyse van AWS-, Microsoft Azure- en Google Cloud-infrastructuren voor cloud-AI
Empirisch onderzoek naar de evolutie van cloudplatforms is een uitdaging, omdat computationele ecosystemen niet alleen nogal complex en ondoorzichtig zijn, maar ook onderhevig zijn aan voortdurende verandering. Om deze moeilijkheden te overwinnen en te onderzoeken hoe deze bedrijven vormen van infrastructurele macht in AI operationeel maken via hun cloudecosystemen, heb ik een methodologische benadering ontwikkeld die ik evolutionaire platformtechnografie noem. Deze methode is aangepast van Buchers (2018) begrip van technografie en het werk van Helmond en van der Vlist (2021) over historische platformstudies en maakt het mogelijk om de werking van technische systemen, inclusief hele platforms, kritisch te observeren en te beschrijven. Het stelt ons dus in staat om hun ontwikkeling op een evolutionaire manier te traceren om rekening te houden met de "economische groei en technologische expansie" (Nieborg & Helmond, 2019, p. 197, nadruk in origineel) en uiteindelijk de uitoefening van macht door de cloudplatforms die deze infrastructuren bedienen.
Een technografische analyse van primaire en secundaire bronnen zoals (platform)documentatie, persberichten, media- of brancherapporten en blogposts van bedrijven, legt Bucher (2018) uit, is een manier om dergelijke materialen te lezen om een "kritisch begrip van de mechanismen en operationele logica van software" te ontwikkelen (p. 61). Het concentreert zich op de suggestieve kwaliteiten van sociotechnische systemen en infrastructuren, d.w.z. hoe deze systemen en infrastructuren werken, en belangrijker nog, voor wie ze werken (Galloway, 2004). Bovendien bieden dergelijke primaire industriële bronnen - de materiële sporen die platforms strategisch distribueren - inzicht in de "evoluerende productie, het voorkeursgebruik en de ingebedde politiek van softwareobjecten" (Helmond & van der Vlist, 2021, p. 4), zoals cloudinfrastructuren en -diensten, evenals de grotere infrastructurele ambities van big tech (Nieborg & Helmond, 2019). Als zodanig bieden deze bronnen waardevolle toegangspunten om specifieke strategieën achter de technologische ontwikkeling van een platform binnen een bepaald veld zoals AI kritisch te analyseren. Het is echter belangrijk om de bedrijfsmatige aard van deze materialen te erkennen, aangezien ze strategisch en zelfdienend zijn, geproduceerd en gedistribueerd door de industrie. Daarom zullen ze waarschijnlijk potentiële technologische risico's van de services die platforms promoten, verdoezelen. Bovendien bieden deze documenten geen inzicht in de specifieke controle-operaties in AI-ontwikkelingsecosystemen die waarschijnlijk begraven liggen in contracten en algemene voorwaarden, en ze bieden ook geen ruimte voor een analyse van hoe bedrijven antitrustwetten overtreden (bijv. Khan, 2018) om hun monopoliemacht verder te exploiteren. Door te vertrouwen op de geselecteerde openbare documenten, moet ik dus alert blijven op de discursieve strategieën achter deze materialen. Als zodanig vereisen deze bronnen een zorgvuldige en kritische afstand om oppervlakkige voortzetting van bedrijfsclaims te voorkomen die het risico lopen de AI-hypecycli verder te versterken.
De doelbewust aangepaste evolutionaire platformtechnologie put uit een breed scala aan historische gegevens van AWS, Microsoft Azure en Google Cloud die tussen januari 2017 en april 2021 zijn vrijgegeven. Aangezien webarchieven als waardevol worden beschouwd, voor het lokaliseren van dergelijke materiële (strategische) platformbronnen (Helmond & van der Vlist, 2021), omvatten de geselecteerde materialen voor deze studie (1) gearchiveerde productpagina's en documentatie die beschikbaar zijn via de Internet Archive Wayback Machine; (2) AWS, Microsoft Azure en Google Cloud's corporate blogposts en persberichten; en (3) relevante media of brancherapporten. De periode werd voornamelijk vastgesteld na de proclamatie van Sundar Pichai in 2017, omdat het wordt beschouwd als het begin van "een andere paradigmaverschuiving in de geschiedenis van computing" (Burkhardt, 2019, p. 209). Na dit moment traceer ik de ontwikkeling van cloud-AI-infrastructuren en -services in de loop van de tijd in de aanloop naar de release van basismodellen. Deze modellen domineren nu de huidige AI-discoursen, maar zijn aantoonbaar het resultaat van voortdurende strategische ontwikkelingen in de AI-industrie.
Voor elk van de drie bestudeerde cloudplatforms werd de set gearchiveerde cloud-AI-productpagina's systematisch opgehaald met behulp van de Wayback Machine. Daarnaast put ik uit blogposts van bedrijven die specifiek gericht zijn op de onderwerpen AI en machine learning (tabel 1). Om een relevante lijst met posts te identificeren en te verzamelen, werden alle vier blogs ondervraagd op vermeldingen van [AI], [kunstmatige intelligentie] en [machine learning]. In dezelfde geest zijn persberichten over AI- en machine learning-producten en -diensten verzameld en toegevoegd aan de uiteindelijke dataset van platformbronnen die werden overwogen voor analyse. Tot slot heb ik, zoals Bucher (2018) suggereert, een aantal relevante media- en brancherapporten overwogen. Na de vastgestelde studieperiode begint de dataset in 2017 en eindigt in april 2021. Bijlagen I en II bieden een volledig overzicht van de verzamelde (gearchiveerde) cloud AI-platformbronnen. Deze materialen zijn georganiseerd per cloudplatform en gesorteerd op type en datum om de analyse van deze bronnen in de loop van de tijd te vergemakkelijken. Bijlage III biedt inzicht in de brancherapporten die in deze studie als secundaire bronnen worden beschouwd, terwijl relevante mediabronnen rechtstreeks worden geciteerd.
De analyse werd uitgevoerd in twee complementaire fasen van empirisch onderzoek. Eerst heb ik de verzameling gearchiveerde productpagina's onderzocht om te reconstrueren hoe AWS, Microsoft Azure en Google Cloud hun cloud-AI-infrastructuren en -services in de loop van de tijd hebben ontwikkeld. Dit deel van het onderzoek wordt onderbouwd door doelbewust ontworpen visualisaties die fragmenten van deze reconstructies per bedrijf presenteren (figuren 1-4 en 6-11).3 De verkenning en visualisatie van de evolutie van de cloudplatforms gaf een overzicht van de respectievelijke niveaus van de stack naar verschillende AI-infrastructuren en -services die zijn ontwikkeld en beheerd - IaaS, PaaS of AIaaS - evenals hun toepassingsgebied. Dit deel van de analyse besteedde specifieke aandacht aan de bedrijfsontwikkeling en -exploitatie van computerinfrastructuur, zoals speciaal gebouwde hardware, waarvan is bewezen dat deze een bijzonder belangrijke rol speelt bij de productie en implementatie van hedendaagse machine-learningsystemen (Vipra & Myers West, 2023).
Tabel 1: Overzicht van bedrijfsblogs van Amazon, Microsoft en Google die werden doorzocht op vermeldingen van [AI], [kunstmatige intelligentie] en [machine learning] Bedrijfsblog-URL | |
---|---|
Amazon AWS Machine Learning Blog | https://aws.amazon.com/blogs/machine-learning/ |
Microsoft Azure Blog en updates | https://azure.microsoft.com/en-us/blog/ |
Google Google Cloud Blog | Nieuws, functies en aankondigingen | https://cloud.google.com/blog/ |
Google The Keyword | Google | https://www.blog.google/products/google-cloud/ |
De tweede fase van de analyse bouwt voort op het vorige niveau van onderzoek. Naar aanleiding van Bucher's (2012) verklaring dat technologie de kritische observatie, beschrijving en interpretatie van technische systemen op hun eigen materieel-discursieve termen vereist, omvatte deze stap een documentanalyse en een nauwkeurige lezing van de set verzamelde gearchiveerde productdocumentatie, blogberichten en persberichten. Bij het analyseren van deze materialen is er specifiek aandacht besteed aan het onderscheiden van de strategische posities van AWS, Microsoft Azure en Google Cloud bij het mobiliseren en bedienen van hun groeiende verzameling AI-gerelateerde infrastructuren en services. Dit onderdeel wordt onderbouwd door een analyse van de verzamelde media en brancherapporten die economische strategieën bespreken op verschillende gebieden van AI. Door de dynamiek van het bedrijfsplatform te schetsen, stelde deze technografische verkenning van de evolutie van hun platformspecifieke activiteiten mij in staat empirisch inzicht te krijgen in de specifieke manieren waarop AWS, Microsoft Azure en Google Cloud infrastructurele macht proberen uit te oefenen binnen de grotere politieke economie van AI.
Verticale integratie
De evolutionaire trajecten van AWS, Microsoft Azure en Google Cloud tonen aan dat deze platforms hun AI-capaciteiten strategisch hebben uitgebreid over de verschillende lagen van de cloudstack door hun computerinfrastructuren verticaal te integreren in hun respectievelijke PaaS- en AIaaS-services (cf. Aradau & Blanke, 2022). Als we eerst naar de onderste laag van infrastructuren voor berekeningen kijken, laten de visualisaties zien dat AWS en Google Cloud specifiek aangepaste verwerkingseenheden hebben ontwikkeld voor de training en inferentie van machine-learningsystemen en -toepassingen (Figuur 1). Het was het interne AI-onderzoeksteam van Google dat dit proces in 2016 startte, omdat het bedrijf nieuwe hardware nodig had die beter zou voldoen aan "de snelgroeiende computationele eisen van neurale netwerken" (Sato & Young, 2017). Dit leidde tot de ontwikkeling van een applicatiespecifieke geïntegreerde schakeling (ASIC) die is geoptimaliseerd voor deep-learningprocessen: de Tensor Processing Unit (TPU). Deze gespecialiseerde chip is nu alleen nog toegankelijk als infrastructurele service via Google Cloud's Computing Engine en Kubernetes Engine, of zijn AI-platform — nu Vertex AI (GCP–2021c).
Afbeelding 1: Aangepaste applicatiespecifieke geïntegreerde circuits (ASIC's) en field-programmable gate arrays (FPGA's) ontwikkeld en beheerd door AWS [roze], Microsoft Azure [blauw] en Google Cloud [groen] tussen januari 2017 en april 2021.
Bovendien heeft Google het gebruik van zijn eigen hardware-infrastructuur strategisch gekoppeld aan zijn open-source machine-learning framework TensorFlow, dat specifiek is geoptimaliseerd voor het bedienen van TPU's om de computervereisten te verminderen (Srnicek, 2022). Net als Google Cloud, maar anders dan Microsoft Azure, brak AWS met de traditie om te vertrouwen op Intel field-programmable gate arrays (FPGA's) en verschillende typen Nvidia Graphics Processing Units (GPU's) door de release van zijn gespecialiseerde verwerkingschips in 2019: AWS Inferentia (Barr, 2019) en Tranium (Lardinois, 2020) (Afbeelding 1). Deze geïntegreerde processors zijn respectievelijk geoptimaliseerd voor training en inferentie van deep-learningmodellen op schaal en voeden Amazon Elastic Compute Cloud (EC2)-instanties die alleen toegankelijk zijn via de Neuron SDK (AWSN–2021) of het ontwikkelingsplatform SageMaker (AWS–2017).
Afbeelding 2.1: Fragmenten van Cloud AI-infrastructuren en -services die door AWS op platform-as-a-service (PaaS)-niveau worden beheerd tussen januari 2017 en april 2021 (deel 1).
Afbeelding 2.2: Fragmenten van Cloud AI-infrastructuren en -services die door AWS op platform-as-a-service (PaaS)-niveau worden beheerd tussen januari 2017 en april 2021 (deel 2).
Afbeelding 3: Fragmenten van Cloud AI-infrastructuren en -services die door Microsoft Azure op platform-as-a-service (PaaS)-niveau worden beheerd tussen januari 2017 en april 2021.
Afbeelding 4: Fragmenten van Cloud AI-infrastructuren en -services die door Google Cloud op platform-as-a-service (PaaS)-niveau worden beheerd tussen januari 2017 en april 2021.
De kracht van verticale integratie wordt vooral zichtbaar door de samenstelling van dergelijke machine-learning-ontwikkelingsplatforms. Naast Amazon SageMaker (afbeelding 1) laten afbeeldingen 3 en 4 zien dat deze middelste laag (PaaS) wordt ingenomen door Azure Machine Learning (2017) en het AI-platform van Google Cloud (2016). De afgelopen jaren zijn deze platforms geëvolueerd tot enorme en volledig beheerde ontwikkelomgevingen die externe ontwikkelaars voorzien van de tools en services voor gegevensverwerking, evenals modelproductie, training, evaluatie, implementatie en monitoring. Tabellen 2 en 3 geven een overzicht van de SageMaker en Google Cloud AI-platformcomponenten. De specifieke set Microsoft Azure-platformservices (afbeelding 3) blijft echter ondergespecificeerd, ook al maken deze tools deel uit van geïntegreerde ontwikkelomgevingen (IDE's) zoals Visual Studio Code (Lardinois, 2017). Deze geïntegreerde bronnen stellen derden in staat om machine-learningmodellen te ontwikkelen en hun applicaties allemaal op één plek te implementeren. Toch stellen ze deze cloudproviders ook in staat om steeds meer een veelvoud aan fasen van machine-learning-ontwikkelingspijplijnen te beheren en dus te controleren, inclusief het monitoren van applicaties via hun zakelijke cloudecosystemen. Dit wordt zichtbaar door de collectieve push voor services die het beheer van hele machine-learningprojecten vergemakkelijken, zoals de MLOps-tools die worden geïllustreerd in afbeelding 5. Als een samenvoeging van machine learning en DevOps (ontwikkeling en bewerkingen) verwijst MLOps naar een set geïntegreerde praktijken die erop gericht zijn om machine-learning-ontwikkelings- en operationele cycli te verkorten en te vereenvoudigen (Kepes, 2013). Maar door dit te doen, roepen MLOps ook verdere standaardisatie en automatisering op, waardoor de platforms die ze bedienen — AWS, Microsoft Azure en Google Cloud — in de strategische positie komen om hun infrastructurele macht over deze processen uit te oefenen.
Tabel 2: Overzicht van SageMaker-platformcomponenten vanaf april 2021. Bron: Amazon Web Services (n.d.) SageMaker-productbeschrijving | |
---|---|
Automatische modelafstemming | Hyperparameteroptimalisatie |
Ingebouwde en eigen algoritmen | Tientallen geoptimaliseerde algoritmen of eigen algoritmen |
Gedistribueerde trainingsbibliotheken | Training voor grote datasets en modellen |
Kubernetes- en Kubeflow-integratie | Vereenvoudig Kubernetes-gebaseerd machine learning |
Lokale modus | Test en prototype op uw lokale machine |
Managed Spot-training | Verminder trainingskosten met 90% |
Multi-Model Endpoints | Verminder kosten door meerdere modellen per instance te hosten |
Implementatie met één klik | Volledig beheerd, ultralage latentie, hoge doorvoer |
Training met één klik | Gedistribueerd infrastructuurbeheer |
SageMaker Autopilot | Automatisch machine learning-modellen maken met volledige zichtbaarheid |
SageMaker Clarify | Vooroordelen detecteren en modelvoorspellingen begrijpen |
SageMaker Data Wrangler | Gegevens verzamelen en voorbereiden voor machine learning |
SageMaker Debugger | Trainingsruns debuggen en profileren |
SageMaker Edge Manager | Modellen op edge-apparaten beheren en bewaken |
SageMaker Experiments | Elke stap vastleggen, ordenen en vergelijken |
SageMaker Feature Store | Functies opslaan, bijwerken, ophalen en delen |
SageMaker Ground Truth | Trainingsgegevens labelen voor machine learning |
SageMaker JumpStart | Vooraf gebouwde oplossingen voor veelvoorkomende use cases |
SageMaker Model Monitor | Nauwkeurigheid van geïmplementeerde modellen behouden |
SageMaker Pipelines | Workflow-orkestratie en -automatisering |
SageMaker Processing | Ingebouwde Python, BYO R/Spark |
SageMaker Studio | Geïntegreerde ontwikkelomgeving (IDE) voor ML |
SageMaker Studio Notebooks | Jupyter notebooks met elastische berekening en delen |
Tabel 3: Overzicht van Google Cloud AI-platformcomponenten in april 2021. Bron: Google Cloud (n.d.) Beschrijving van Google Cloud AI Platform-product | |
---|---|
AI-uitleg | Begrijp hoe elke functie in uw invoergegevens heeft bijgedragen aan de uitvoer van het model |
AutoML | Ontwikkel eenvoudig hoogwaardige aangepaste machine learning-modellen zonder trainingsroutines te schrijven. Aangedreven door de geavanceerde transfer learning- en hyperparameterzoektechnologie van Google. |
Continue evaluatie | Verkrijg statistieken over de prestaties van uw modellen in productie. Vergelijk voorspellingen met ground truth-labels om continue feedback te krijgen en de modelprestaties in de loop van de tijd te optimaliseren. |
Data Labeling Service | Ontvang zeer nauwkeurige labels van menselijke labelers voor betere machine learning-modellen. |
Deep Learning Containers | Bouw en implementeer snel modellen in een draagbare en consistente omgeving voor al uw AI-toepassingen. |
Deep Learning VM-image | Instantieer een VM-image met de populairste AI-frameworks op een Compute Engine-instantie zonder u zorgen te maken over softwarecompatibiliteit. |
Neural Architecture Search | Bouw applicatiespecifieke modellen en verbeter bestaande modelarchitecturen met een geautomatiseerde service. Aangedreven door het toonaangevende AI-onderzoek van Google kunnen gebruikers modellen ontwerpen die zijn geoptimaliseerd voor latentie, nauwkeurigheid, stroomverbruik en meer. |
Notebooks | Maak, beheer en maak verbinding met VM's met JupyterLab, de standaard workbench voor datawetenschappers. VM's worden vooraf geïnstalleerd met deep learning-frameworks en -bibliotheken. |
Pipelines | Implementeer MLOps door de stappen in uw ML-workflow te orkestreren als een pipeline zonder de moeite van het instellen van Kubeflow Pipelines met TensorFlow Extended (TFX). |
Voorspelling | Implementeer uw modellen eenvoudig naar beheerde, schaalbare eindpunten voor online- of batchvoorspellingen. |
TensorFlow Enterprise | Ontwikkel en implementeer eenvoudig TensorFlow-modellen op Google Cloud met ondersteuning op ondernemingsniveau en prestaties op cloudschaal. |
Training | Train alle modellen in elk framework op elke hardware, van afzonderlijke machines tot grote clusters met meerdere accelerators. |
Vizier | Optimaliseer de output van uw model door hyperparameters intelligent af te stemmen. |
Afbeelding 5: Overzicht van Google Cloud AI Platform-componenten volgens de verschillende fasen van de levenscyclus van machine learning die Google in april 2021 voorstelde. Bron: Google Cloud (n.d.).
Tot slot wordt in de bovenste laag van de cloudstack infrastructurele kracht bediend via de snelle beschikbaarheid van verticaal geïntegreerde, kant-en-klare, vooraf getrainde modellen voor specifieke inferentietaken, zoals Amazon Recognition; Azure Vision API en Google Vision API voor beeldherkenning (AWSD–2021; MA–2021a; GCP–2021a); geautomatiseerde spraakherkenning (Amazon Lex en Google Speech API); of contentmoderatie (Azure Form Recognizer en Immersive Reader) (MA–2021a; MA–2021b). Deze vooraf getrainde modellen zijn respectievelijk beschikbaar als AI-services (AWS), Cognitive Services (Microsoft Azure) en verschillende API's (Google Cloud), gevisualiseerd in de figuren 6, 7 en 8. Ze worden geïntegreerd binnen eigen ecosystemen en op servicebasis benut via betaalde API's4 die beschikbaar zijn op alle cloudcomputingplatforms (AWSD–2021; MA–2021a; GCP–2021a). Als zodanig worden deze modellen benut als gesloten systemen die werken volgens de standaarden van AWS, Microsoft Azure of Google Cloud, en die draaien op infrastructuren van verschillende cloud-AI-branches, variërend van hardware (bijv. Inferentia) tot gegevensopslag (bijv. Amazon S3, BigQuery van Google). De "gatewayfunctie" (van der Vlist & Helmond, 2021, p. 13) van API's stelt deze bedrijven in staat om hun positie als krachtige tussenpersonen door de toegankelijkheid van vooraf getrainde modellen te regelen, evenals hun gebruik door externe ontwikkelaars voor de ontwikkeling van specifieke applicaties.
Afbeelding 6.1
Afbeelding 6.2. 6.1;6.2: Fragmenten van Cloud AI-infrastructuren en -services die door AWS op AI-as-a-service (AIaaS)-niveau werden beheerd tussen januari 2017 en april 2021.
Afbeelding 7.1
Afbeelding 7.2
Afbeelding 7.3
Afbeelding 7.4. 7.1–7.4: Fragmenten van Cloud AI-infrastructuren en -services die door Microsoft Azure op AI-as-a-service (AIaaS)-niveau werden beheerd tussen januari 2017 en april 2021.
Figuur 8: Cloud AI-infrastructuren en -services die door Google Cloud op AI-as-a-service (AIaaS)-niveau werden beheerd tussen januari 2017 en april 2021.
Samengenomen stelt deze groeiende operatie van verticaal geïntegreerde infrastructuren en services AWS, Microsoft Azure en Google Cloud in staat om strategisch te evolueren op manieren om hun operationele controle over ketens van waardevolle componenten — de productiemiddelen — voor AI-productie en -implementatie verder uit te breiden. Door dit te doen, mobiliseren bedrijfsclouds niet alleen hun infrastructurele componenten om de toegangsdrempels tot machine-learning-bronnen te verlagen, waardoor ontwikkelaars "sneller verder kunnen gaan", maar conditioneren ze ook actief de set technologieën in termen van "wat in de eerste plaats als mogelijk kan worden beschouwd" (Rieder, 2020, p. 16). Door deze elementen aan elkaar te koppelen via prijsarchitectuur (bijv. Khan, 2018), exclusieve overeenkomsten en strategische partnerschappen (Vipra & Myers West, 2023), faciliteren verticaal geïntegreerde services verdere standaardisatie en privatisering van machine learning-workflows. Van modelproductie en -evaluatie tot implementatie en monitoring: al deze stappen kunnen worden geconfigureerd en geoptimaliseerd via de ecosystemen van AWS, Microsoft Azure of Google Cloud. Net als bij andere softwaretools die in platformecosystemen worden gebruikt (bijv. Foxman, 2019), kunnen dergelijke diepe integraties van hardware en software leiden tot padafhankelijkheden en lock-in voor ontwikkelaars die machine learning in hun applicaties willen implementeren. Zodra klanten geïnvesteerd zijn in de tools en services die worden gebruikt door een van de grote cloudproviders, wordt het erg moeilijk om van leverancier te wisselen zonder substantiële investering in tijd, financiële middelen en computerbronnen (Vipra & Myers West, 2023). De sets van verticaal geïntegreerde infrastructuren en services kunnen dus worden gezien als strategisch gebruikte "motoren van winst" (Whittaker, 2021b) voor cloudplatforms zoals AWS, Microsoft Azure en Google Cloud. Deze bedrijven proberen op hun beurt niet alleen infrastructurele kracht te exploiteren via een compute-kloof in AI (Ahmed & Wahed, 2020), maar via strategisch gekoppelde verzamelingen van geïntegreerde hardware-infrastructuren en softwareservices die volledige machine-learning-ontwikkelingscycli bestrijken.
Complementaire innovatie
Door de infrastructurele kracht van AWS, Microsoft Azure en Google Cloud te lokaliseren in hun vermogen om "complementaire innovatie" te faciliteren (Gawer, 2014), onthult de evolutionaire technografische analyse dat deze cloudplatforms deze vorm van kracht op verschillende manieren exploiteren. Ten eerste zie ik dat de infrastructurele "kernen" van cloudplatforms voortdurend worden benut door "het opbreken, ontbinden en opnieuw samenstellen van [deze] bestaande digitale componenten" (Aradau & Blanke, 2022, p. 104). Deze kunnen vervolgens verder worden geïntegreerd in verschillende maatschappelijke domeinen, zoals de gezondheidszorg. Zoals figuur 6 en 8 laten zien, hebben AWS en Google Cloud hun kracht in Natural Language Processing (NLP) ingezet door doelbewust gezondheidsspecifieke services te ontwikkelen, zoals Amazon Comprehend Medical, Amazon Healthlake en Google Healthcare Natural Language API. Deze services voor tekstuele analyse in het medische domein bieden toegang tot vooraf getrainde taalmodellen die specifiek zijn getraind op gezondheidsgegevens. In tegenstelling tot zijn concurrenten heeft Google Cloud deze ontwikkeling nog een stap verder gebracht door gecontroleerde toegang tot MED-PaLM 2 aan te kondigen: een op de industrie afgestemd groot taalmodel (LLM) dat aansluit bij het medische domein en tegelijkertijd vertrouwt op het bestaande PaLM-model van Google (Gupta & Waldron, 2023). Door dergelijke aankondigingen kunnen we begrijpen hoe Google Cloud vertrouwt op zijn infrastructurele kracht en expertise in AI-ontwikkeling om de gezondheidszorgsector (bijv. medische centra, farmaceutische bedrijven en verzekeringsmaatschappijen) te betreden en het potentieel voor toepassingen binnen het ecosysteem van het platform vorm te geven.
In tegenstelling tot Google Cloud hebben AWS en Microsoft Azure hun AI-infrastructuren gepositioneerd voor de ontwikkeling van aanvullende services in de productie- en detailhandelssector. Gevisualiseerd in Afbeelding 6 vertegenwoordigen Amazon Monitron, Amazon Lookout for Equipment en AWS Panorama een set software- en hardwareservices voor assemblagelijnproductie, beheer en externe operaties die oorspronkelijk zijn ontworpen voor zijn magazijnen (AWS–2021d). Daarnaast lanceerde het platform AWS Panorama, een hardware-apparaat en SDK voor computer vision-toepassingen voor werkplekcontrole (Shieber, 2020). Microsoft Azure lanceerde een vergelijkbare set services, meer specifiek voor de detailhandel, via een platform genaamd Azure Percept (MA–2021c; Afbeelding 7). Aanvullende infrastructurele uitbreidingen zoals deze spelen in op het potentieel van machine-learningsystemen om meerdere doeleinden te dienen (Rieder, 2022). Als zodanig stellen ze AWS en Microsoft Azure in staat om verschillende legacy-domeinen te betreden (cf. van Dijck, 2020) en bieden ze deze bedrijfsclouds naar verluidt ook de capaciteit om de ontwikkeling en integratie van AI-systemen in deze respectievelijke gebieden strategisch te conditioneren.
Bovendien kunnen cloudplatforms infrastructurele kracht naar verluidt operationaliseren door middel van aanvullende innovatie door AI-infrastructuren en -services te ontwikkelen die naadloos samenwerken met bestaande dochterondernemingen van Amazon-, Microsoft- of Google-platformecosystemen. Dit kan worden geïllustreerd in het voorbeeld van AWS, dat heeft benadrukt dat zijn Monitron-service afhankelijk is van "dezelfde technologie die wordt gebruikt om apparatuur in Amazon Fulfilment Centers te bewaken" (AWS–2020b). Zoals Delfanti (2021) uitlegt, zijn Amazon-distributiecentra zwaar uitgerust met technologieën om logistieke operaties en arbeid verder te optimaliseren. In een poging om het onderhoud van de interne machines te optimaliseren, installeerde het bedrijf bijvoorbeeld AI-services zoals het Monitron-systeem om transportbanden te bewaken (Lee, 2020). Bovendien heeft AWS de machine-learningservices SageMaker Groundtruth en Amazon Augmented AI afgestemd op de Mechanical Turk crowdwork-marktplaats. Deze volledig beheerde services, gelanceerd in 2020 en 2021, stellen externe ontwikkelaars in staat om datalabeltaken of menselijke beoordeling voor (vooraf getrainde of aangepaste) modelvoorspellingen uit te besteden aan nieuwe of bestaande applicaties door ze te verbinden met de Mechanical Turk-werknemers (Morton-Youmans & Gupta, 2020) of externe leveranciers die actief zijn op AWS Marketplace. Terwijl klanten die de A2I-service gebruiken er ook voor kunnen kiezen om met hun eigen werknemers te werken, duiden de service-alignments met Mechanical Turk en de AWS Marketplace op een nieuwe stap van AWS om dataprocessen binnen de controle van het bedrijf van het platform te brengen, waardoor de macht over een aanzienlijk deel van de AI-ontwikkelingspijplijn wordt uitgebreid.
Tegelijkertijd zijn soortgelijke services ontwikkeld door alle cloudproviders om problemen rond AI-ethiek aan te pakken. Dergelijke tools omvatten AWS' Augmented AI, Microsoft Azure's Face API Transparency Note (MA-2019) of Google Cloud's What If Tool (Robinson & Wexler, 2019) en worden op de markt gebracht met de belofte om vooroordelen te bestrijden en de ontwikkeling van "verantwoordelijke systemen" te vergemakkelijken. Zoals eerder vermeld, is de Augmented AI-service echter gedeeltelijk gebouwd op Amazon Mechanical Turk, de crowdworker-marktplaats die bekendstaat om de exploitatie en de commodificatie van datagerelateerde microarbeid in het veld (bijv. Miceli et al., 2022). Microsoft Azure en Google Cloud presenteren hun tools als technische oplossingen om modeltransparantie te vergemakkelijken, maar ze zijn alleen toegankelijk via eigen infrastructuren die door deze bedrijven worden beheerd. Deze voorbeelden onderbouwen daarom kritiek op ethische initiatieven van bedrijven op het gebied van AI die worden beperkt door de cloudplatforms die het veld domineren (Aradau & Blanke, 2022): de bedrijven pakken kwesties van ethiek en verantwoordelijkheid aan via zelfregulerende kaders, maar kiezen nog steeds hoe ze AI-technologieën inzetten en bepalen de betekenis van 'ethische' en 'verantwoordelijke' AI.
Abstractie
Naast verticale integratie en complementaire innovatie proberen AWS, Microsoft Azure en Google Cloud infrastructurele macht uit te oefenen in de politieke economie van AI door de abstractie van AI-infrastructuren en -services. In de informatica verwijst het begrip abstractie naar de praktijk van het verpakken van gecompliceerde onderliggende bewerkingen in enkele opdrachten, waardoor veel technische complexiteiten met betrekking tot het bouwen, bedienen en beheren van computersystemen achter abstractielagen worden 'verborgen', waardoor ontwikkelaars werkprocessen kunnen versnellen. Zoals Selbst et al. (2018) leggen uit: "abstracties zijn essentieel voor computerwetenschappen, en met name voor machine learning" (p. 2) omdat ze de domeinspecifieke aspecten van een machine learning-probleem of -taak verbergen. Door abstractielagen te gebruiken, blijven machine learning-tools modulair en kunnen ze op zowel propriëtaire als open-sourcemanieren worden toegepast in verschillende economische en sociale domeinen (Selbst et al., 2018). In het geval van de verscheidenheid aan cloud-AI-infrastructuren en -services die worden bestudeerd, verdwijnen verschillende complexe bewerkingen voor de training en inferentie van machine learning-systemen steeds meer achter abstractielagen om het voor externe ontwikkelaars gemakkelijker te maken om deze functies als een service aan te passen in hun applicaties.
In de onderste en middelste lagen van de cloudstack laten de evolutionaire trajecten van AWS, Microsoft Azure en Google Cloud zien dat deze platforms de kracht van abstractie operationaliseren door de wijdverbreide voorziening van open-source machine-learning frameworks. Zoals weergegeven in Afbeelding 9 ondersteunen AWS, Microsoft Azure en Google Cloud allemaal hun eigen set frameworks die vooraf zijn geïnstalleerd op hun geïntegreerde machine-learning-ontwikkelingsplatforms. Ook gevisualiseerd in Afbeelding 10 bieden AWS en Google Cloud ontwikkelaars directe toegang tot frameworks via zogenaamde Deep Learning Virtual Machine Images (Deep Learning AMI's en Google VM Image) (AWS–2021b; GCP–2021a). Open-source frameworks, legt Burkhardt (2019) uit, bieden "vooraf gedefinieerde functies en functionaliteiten [die] ontwikkelaars ontlasten van het bouwen van software vanaf de grond af" (p. 213) en zijn tegenwoordig cruciale infrastructurele elementen geworden voor de ontwikkeling van AI-systemen. Afhankelijk van de individuele voorkeuren van ontwikkelaars bieden frameworks meerdere abstractieniveaus die het voor ontwikkelaars gemakkelijker maken om zich aan te passen aan machine learning, zelfs als ze niet over de specifieke expertise beschikken. Het high-level framework Keras voegt een extra laag abstractie toe aan TensorFlow en de Microsoft Cognitive Toolkit, en ondersteunt nog meer "eenvoudige en snelle prototyping" (Rieder, 2020, p. 112). Door geïntegreerde toegang te bieden tot verschillende frameworks met (meerdere) ingebouwde abstractielagen, vereenvoudigen en versnellen AWS, Microsoft Azure en Google Cloud de AI-productie- en implementatieprocessen. Deze schijnbaar open-source infrastructuren stellen deze bedrijven echter ook in staat om dergelijke processen te standaardiseren en af te stemmen op hun eigen belangen om het deep-learningparadigma van AI dat afhankelijk is van de cloud verder te stimuleren (Widder et al., 2023). Abstractie wordt daarom strategisch gemobiliseerd om infrastructurele macht uit te oefenen over AI-ontwikkelingsprocessen om de economische en politieke belangen van cloudplatforms te conformeren en de aandacht af te leiden van andere technieken en benaderingen die minder afhankelijk zijn van cloud-AI-servicemodellen (Vipra & Myers West, 2023).
Afbeelding 9: Open-source machine-learning frameworks ondersteund door de drie belangrijkste cloudplatforms.
Afbeelding 10: De evolutie van Deep Learning Virtual Machine Images geleverd door AWS [roze] en Google Cloud [groen] via de IaaS-laag van hun cloudecosysteem.
Microsoft gebruikt een andere abstractielaag via zijn Azure Machine Learning Platform (Azure ML) (afbeelding 3), waar het een no-code integrated development environment (IDE) biedt. Deze Machine Learning Designer IDE (MA–2020c) verbergt de onderliggende codelagen achter een visuele interface die klanten kunnen gebruiken om machine-learningmodellen te bouwen, implementeren en beheren. In plaats van te programmeren, worden klanten zonder enige code-ervaring aangemoedigd om volledige machine-learning-pipelines op te zetten door datasets, vooraf getrainde modellen en ontwikkeltoolsets te slepen en neer te zetten voor gegevensvoorbereiding, modeltraining en evaluatie (Zhang, 2020). Terwijl de introductie van deze IDE beweerde machine learning toegankelijker te maken voor mensen met weinig of geen programmeerervaring (MA–2020c), probeert Microsoft Azure naar verluidt macht uit te oefenen door de abstractie van machine learning-productie- en implementatieprocessen: door de code achter abstractielagen te verbergen, kunnen klanten de geselecteerde elementen niet langer aanpassen of herprogrammeren volgens hun specifieke voorkeuren. In plaats daarvan worden ze afhankelijk van de selectie van machine learning-modellen en -tools die Microsoft Azure biedt, zonder dat ze de technische werking van de afzonderlijke elementen kritisch kunnen verifiëren. Bovendien moeten klanten die afhankelijk zijn van Azure Machine Learning Designer de Azure Kubernetes Service gebruiken om hun modellen uit te voeren (MA–2020c). Daarom verliezen ze de autonomie en flexibiliteit van het kiezen en (her)configureren van hun implementatie-infrastructuur, omdat ze vastzitten in het Microsoft Azure-cloudecosysteem.
De strategie van cloudproviders om gecompliceerde onderliggende technische bewerkingen van AI-systemen en -infrastructuren te verpakken, wordt nog duidelijker als we kijken naar het grootschalige aanbod van grote, vooraf getrainde modellen als AI-services via betaalde API's. De verschillende services voor natuurlijke taalverwerking (NLP) stellen ontwikkelaars bijvoorbeeld in staat om deze vooraf getrainde modellen rechtstreeks uit te voeren voor taken zoals tekstgeneratie of vertaling of ze te gebruiken als essentiële bouwstenen voor applicatieontwikkeling. Hoewel deze technologieën programmeerbaar zijn in de zin dat ontwikkelaars machine-learningfunctionaliteiten in hun eigen applicaties kunnen integreren, kunnen de vooraf getrainde modellen zelf niet extern worden bekeken, geëvalueerd of gewijzigd. In plaats daarvan zijn hun complexe bewerkingen verdwenen achter abstractielagen die de technische werking en de principes die het gebruik van deze services beheersen, verbergen. Bijgevolg moeten ontwikkelaars die vooraf getrainde modellen implementeren, hun applicaties bedienen binnen de strakke grenzen die zijn gespecificeerd en gecontroleerd door de operators van deze services. Dit heeft geleid tot aanzienlijke zorgen onder leden van de kritische AI-onderzoeksgemeenschap, omdat het de kracht vergroot van de cloudplatforms om AI-technologieën vorm te geven en tegelijkertijd oproepen om privacyproblemen te beperken (bijv. Powles & Hudson, 2017) en de vooroordelen en discriminatie die door deze systemen worden afgedwongen (bijv. Bender et al., 2021) te ondermijnen.
Afbeelding 11: AutoML-services ontwikkeld en beheerd door Microsoft Azure [blauw] en Google Cloud [groen].
De abstractie van complexe machine-learning-ontwikkelingsmechanismen wordt zelfs nog een stap verder gebracht door de ontwikkeling van services voor geautomatiseerd machine learning (AutoML) op manieren die aantoonbaar nog specifieker zijn voor cloud-AI-ruimtes. Microsoft Azure en Google Cloud zijn specifiek geëvolueerd naar dit gebied door hun portfolio van eigen AutoML-services voor de ontwikkeling van aangepaste modellen uit te breiden naar domeinen zoals computer vision, videoanalyse, taalgeneratie en vertaling (GCP–2021a; Afbeelding 11). Deze services zouden automatisch neurale netwerkarchitecturen ontwikkelen en testen (Thomas, 2018) en hebben de neiging om bijna elk aspect van machine-learning-pipelines te abstraheren; van modelbouw, training en evaluatie tot modelimplementatie in specifieke omgevingen en onderhoud. Deze cloudplatforms zijn gericht op een ontwikkelaarsbasis zonder de benodigde expertise en bieden een geabstraheerde plug-and-play-versie van machine learning. Tegelijkertijd blijven AutoML-systemen beperkt in de reikwijdte van de problemen die ze naar verluidt oplossen en de hoeveelheid feedback die ze aan de gebruiker bieden. Google Cloud AutoML is bijvoorbeeld alleen beschikbaar via een API waar ontwikkelaars toegang toe hebben om te zoeken naar nieuwe invoer (Liang et al., 2019). Dit betekent dat ontwikkelaars weinig tot geen controle hebben over de productie-, trainings- en validatieprocessen van modellen. AutoML-systemen kunnen dus volledig profiteren van de kracht van abstractie, door functionele logica en praktische affordances op te leggen aan ontwikkelaars die zijn gedefinieerd door het AI-onderzoeksteam van Google (Thomas, 2018).
Concluderend stelt de abstractie van AI-systemen en hun onderliggende infrastructuren AWS, Microsoft Azure en Google Cloud in staat om hun infrastructurele macht verder te consolideren in de politieke economie van AI. Deze vorm van infrastructurele macht wordt echter op verschillende manieren geoperationaliseerd. Ten eerste bieden de open-source frameworks die cloudplatforms bieden allemaal meerdere abstractieniveaus die het voor ontwikkelaars gemakkelijker maken om hun machine-learningmodellen te bouwen, trainen en implementeren die "toepasbaar lijken te zijn op problemen in verschillende sociale omgevingen" (Selbst et al., 2018, p. 4) met grotere snelheid. Vervolgens mobiliseren AWS, Microsoft Azure en Google Cloud deze kracht van abstractie om meer gebruikers uit verschillende sectoren aan te trekken naar eigen AI-ecosystemen, waarbij ze hun activiteiten kanaliseren en structureren op basis van hun sterke punten en voordelen. Ten tweede laat de introductie van no-code IDE's door Microsoft en de groeiende beschikbaarheid van vooraf getrainde modellen door alle cloudproviders zien hoe deze platforms steeds vaker abstractielagen gebruiken met de poging om een verscheidenheid aan processen in machine-learning-pipelines te standaardiseren en te controleren. Dit wordt echter nog specifieker zichtbaar door de release van AutoML-services die volledige machine-learning-workflows abstraheren in plug-and-play-omgevingen die volledig afhankelijk zijn van de cloud. Als gevolg hiervan moeten externe instellingen of bedrijven hun AI-applicaties ontwikkelen binnen het kader van deze cloudproviders en hebben ze nauwelijks de mogelijkheid om de systemen te evalueren die ze gebruiken om automatisch te produceren of uit te voeren voor verdere applicatieontwikkeling. Deze organisaties worden meegezogen in een markt zonder een basiskennis van de potentiële risico's van de systemen die ze bedienen en integreren in hun respectievelijke applicaties, ook al is er aanzienlijk bewijs van de noodzaak om kritisch bewust te zijn (bijv. Miceli et al., 2022).
Conclusie
De evolutionaire technografische analyse van de AI-infrastructuren en -services van AWS, Microsoft Azure en Google Cloud toont aan dat deze grote cloudproviders infrastructurele macht op drie substantiële en complementaire manieren operationaliseren. Ten eerste toont de consistente verticale integratie van AI-infrastructuren en -services die worden bediend over de gelaagde stapel van cloudarchitecturen (Iaas, PaaS en AIaas) aan dat cloudproviders proberen infrastructurele macht uit te oefenen over hele AI-systemen en applicatieontwikkelingspijplijnen. Dit omvat gegevensopslag en -verwerking om productie, training, evaluatie, implementatie en de integratie van systemen voor de productie van specifieke applicaties te modelleren. Op dit niveau draagt dit onderzoek bij aan de literatuur over de politieke economie van AI, die benadrukt dat de macht van big tech in AI voornamelijk wordt gevestigd door de ongelijke verdeling van computerbronnen (Whittaker, 2021a). Bedrijven proberen niet alleen infrastructurele macht te verkrijgen door een compute divide (Ahmed en Wahed, 2020), maar door de set van verticaal geïntegreerde infrastructuren en gedistribueerde diensten die strategische verbinding maken met volledige AI-systemen en applicatie-ontwikkelingscycli binnen de respectievelijke ecosystemen van cloudplatforms.
Ten tweede proberen AWS, Microsoft Azure en Google Cloud hun infrastructurele kracht in AI te consolideren door middel van complementaire innovatie, aangezien ze de transversale kenmerken van de machine-learningsystemen die ze bedienen steeds meer in twee richtingen mobiliseren. Enerzijds faciliteren ze de strategische ontwikkeling van complementaire gespecialiseerde services om zichzelf infrastructureel uit te breiden naar verschillende toepassingsdomeinen, zoals gezondheidszorg, productie of detailhandel. Door de ontwikkeling van hun infrastructuren en services stellen AWS, Microsoft Azure en Google Cloud actief de voorwaarden voor AI-ontwikkeling in deze respectievelijke gebieden in de toekomst. Anderzijds toonde de analyse aan dat nieuwe machine-learningmogelijkheden op complementaire manieren werken die naadloos aansluiten bij andere branches in de grotere ecosystemen van Amazon, Microsoft en Google, zoals Amazon Mechanical Turk. Het meest opvallende is echter dat precaire arbeidskrachten voor data-arbeid, zoals de microwerkers die actief zijn op dit Amazon-platform (bijv. Miceli et al., 2022), worden gemobiliseerd om diensten te onderbouwen die de ontwikkeling van "ethische en verantwoorde AI" zouden moeten stimuleren. Macht wordt in dit geval operationeel gemaakt via infrastructuur om de normen voor ethische kaders vast te stellen die volledig aansluiten bij de belangen van zakelijke cloudplatforms zoals AWS, Microsoft Azure en Google Cloud (Aradau & Blanke, 2022).
Ten derde proberen AWS, Microsoft Azure en Google Cloud de kracht van abstractie strategisch uit te oefenen om hun positie in de politieke economie van AI te versterken. Hoewel abstractie wordt beschouwd als een centrale rol te spelen in computerwetenschappelijke praktijken (Selbst et al., 2018; Rieder, 2020), liet de analyse zien hoe deze platforms hun vermogens mobiliseren en verder ontwikkelen om de complexe operaties van hun cloudinfrastructuren en -diensten te verbergen over de verschillende lagen van de stack. Meer specifiek abstraheren AutoML-services machine-learning-workflows in plug-and-play-omgevingen die volledig afhankelijk zijn van de cloud. Dit creëert een extra laag met belangrijke voordelen voor cloudplatforms om AI-productie te structureren op manieren die de creatie van cloudafhankelijke AI-systemen en -toepassingen verder versterken. Bovendien dwarsboomt de wijdverbreide operationalisering van abstractie de kritische controle en evaluatie van AI-systemen, met name in het geval van AutoML, ook al zijn er steeds meer oproepen voor kritisch toezicht (bijv. Kak & Myers West, 2023). Als zodanig kan de strategische mobilisatie van abstractie AWS, Microsoft Azure en Google Cloud verder versterken in hun positie om infrastructurele kracht te exploiteren. Dit stelt hen in staat om de focus te verleggen van alternatieve bronnen en de ontwikkeling van nieuwe benaderingen die bijdragen aan verschillende inzichten over AI-technologieën buiten de beperkende ecosystemen van de cloud.
Samengevat benadrukken verticale integratie, complementaire innovatie en abstractie als drie centrale maar onderling verbonden bronnen van infrastructurele macht die big tech in de politieke economie van AI in handen heeft, het belang van recente oproepen voor regelgevende interventie door overheidsinstanties zoals de FTC en de Europese Commissie (Kak & Myers West, 2023). Er zijn steeds meer stappen in deze richting gezet (bijv. Khan, 2023), met name sinds de lancering van funderingsmodellen en de bedrijfsambities om deze te mobiliseren in domeinen zoals gezondheidszorg. Als u zich echter richt op individuele applicaties zoals ChatGPT of AI-systemen die zijn ontwikkeld voor specifieke domeinen zoals MedPaLM van Google Cloud, loopt u het risico over het hoofd te zien hoe ze deel uitmaken van evoluerende infrastructuren en services voor cloud-AI die strategisch worden beheerd in de ecosystemen van Amazon, Microsoft en Google (zie ook van der Vlist et al., 2024). Deze systemen vereisen daarom een dieper begrip van hun operationele politiek en macht in hun geïntegreerde vormen, geconditioneerd door bedrijfsdoelen om kapitalistische relaties op grote schaal te (ver)sterken. De materieel-infrastructurele benadering van het bestuderen van de evoluties van cloudplatforms en de specifieke vormen van infrastructurele macht in de politieke economie van AI die ik in dit artikel naar voren breng, biedt grond om dergelijke uitgebreide kaders verder te ontwikkelen.
Er is een dringende behoefte aan aanvullend empirisch onderzoek naar de infrastructurele macht van cloudplatforms en de specifieke implicaties ervan voor gesitueerde AI-toepassingen om dergelijk werk en regelgevende benaderingen te onderbouwen. Erkennend dat AI opereert in een dynamisch ecosysteem, zouden dergelijke studies de strategieën en operationele logica van andere belangrijke bedrijven zoals Alibaba Cloud, Tencent Cloud, Oracle, IBM en Nvidia verder kunnen onderzoeken. Hoewel wetenschappers uitgebreid onderzoek hebben gedaan naar de implicaties van platformmacht voor verschillende gebieden van de economie en samenleving (bijv. Lomborg et al., 2024), is de immense schaal waarop deze bedrijfsclouds AI-systeem- en applicatieontwikkeling in domeinen en wereldwijde contexten te besturen en te sturen, is nog grotendeels onderbelicht. Dit is met name zorgwekkend gezien de snelle implementaties van generatieve AI. Dit artikel biedt daarom een kritische empirische benadering voor verder onderzoek naar AI en de politieke economie ervan binnen de context van zakelijke cloudplatforms als enorme en complexe conglomeraten van hardware-infrastructuren en softwarediensten die over de stack heen werken. De (gearchiveerde) materialen en documentatie van cloudplatforms bieden waardevolle informatie over hun technische activiteiten en hun bestuursstructuren die kunnen worden gebruikt om verschuivende machtsverhoudingen in AI-productie en -implementatie te traceren. Alleen door een dergelijk gedetailleerd begrip van hoe deze infrastructuren strategisch worden gemobiliseerd en bediend, kunnen academische onderzoekers en regelgevende instellingen hun capaciteiten om effectief in te grijpen verder verdiepen.
Informatie over citaten en publicaties
Ontvangen: 13 november 2023 Beoordeeld: 31 januari 2024 Gepubliceerd: 26 juni 2024
Licentie: Creative Commons Naamsvermelding 3.0 Duitsland
Concurrerende belangen: De auteur heeft verklaard dat er geen concurrerende belangen bestaan die de tekst hebben beïnvloed.
Trefwoorden: Infrastructurele kracht, Kunstmatige intelligentie, Evolutie, Politieke economie, Cloud computing
Bron: Luitse, D. (2024). Platform power in AI: The evolution of cloud infrastructures in the political economy of artificial intelligence.
Internet Policy Review, 13(2). https://doi.org/10.14763/2024.2.1768
Download PDF
Dit artikel is onderdeel van Locating and theorising platform power, een speciaal nummer van Internet Policy Review onder gastredactie van David Nieborg, Thomas Poell, Robyn Caplan en José van Dijck.