Gebruikers Toekomstige Interfaces

AI voor producteigenaren door op in Lees Voer

Als ontwerper en liefhebber van sciencefictionfilms ben ik altijd gefascineerd geweest door de utopische visie van AI als assistent of voogd die voor al mijn grillen zorgt, of het nu gaat om de alomtegenwoordige stem van Scarlet Johannson in Her, een zorgzame robot in Big Hero 6, of J.A.R.V.I.S. in IJzeren Man. Wie houdt er niet van zich geen zorgen te maken over duizenden ongelezen e-mails, een persoonlijke gezondheidscoach die beslissingen voor je neemt zodat je in vorm blijft, of het runnen van een miljardenbedrijf delegeren zodat je een superheld kunt spelen? AI-ondersteunde intelligente systemen zullen het beste UI-paradigma voor een bepaald gebruikersscenario nauwkeuriger bepalen dan enig mens zou kunnen. Wat moeten ontwerpers doen om zich daar uiteindelijk op voor te bereiden?

Wanneer een AI wordt getraind op de menselijke ervaring van het hele internet, zouden die holdings verplicht moeten zijn om terug te geven op een manier die echte waarde voor iedereen creëert.

AI is een transformatieve technologie waarmee we nog maar net zijn begonnen te experimenteren. Het verhaal eindigt echter niet met multimodale "UI's" die proactief verschijnen. Willen mensen vertrouwen op intelligente systemen, dan moeten de systemen blijk geven van menselijke waarden, ethische besluitvorming, transparantie in de besluitvorming, privacycontroles, gegevensbeveiliging, traceerbaarheid, eerlijkheid en inclusie, contextualiteit en een hele reeks andere overwegingen.

Het bedrijf vertekent de gebruikersinterface.

Om een AI-compatibele multimodale 'conciërge' (zoals vermeld in de link hierboven) in een realiteit te brengen die mensen en de samenleving beschermt, moet opnieuw worden bekeken hoe de onderneming dergelijke systemen bouwt, beheert en onderhoudt. Hier is waarom: de cultuur en activiteiten van een bedrijf hebben een grote invloed op beslissingen die van invloed zijn op hoe een AI-ondersteunde service uiteindelijk zal functioneren.

Een door AI aangedreven product of dienst weerspiegelt de waarden, mensen, processen en statistieken die de organisatie promoot en ondersteunt. Voor coherentie in het doel moeten bedrijven bedrijfsmodellen en bestuurssystemen aannemen die het welzijn van mensen en de samenleving verbinden met zakelijk succes en tastbaar worden weerspiegeld in stimuleringsprogramma's voor werknemers. Het hebben van een goed opgestelde missieverklaring of posters van principes en waarden op elke kantoormuur is niet voldoende om afstemming of impact te garanderen - onderzoekers en ontwikkelaars hebben expliciete top-down richting nodig die extern wordt weerspiegeld om verantwoording af te leggen. Overheden vormen een duidelijker mening over hoe AI zou moeten werken en stellen steeds strenger beleid om mens en samenleving te beschermen. Werknemers, belanghebbenden en aandeelhouders moeten op dezelfde golflengte zitten als het gaat om het balanceren van het verdienen van geld en het behouden en prioriteren van de veiligheid en keuzevrijheid van mensen boven hun gegevens.

CEO's moeten organisaties aanpassen en opnieuw uitrusten met unieke vaardigheden, processen en methoden om te zorgen voor adequate bescherming die ethisch verdedigbare resultaten en waarde oplevert. Hoewel AI de onderneming efficiënter zal maken door middelen vrij te maken, moeten die middelen gericht zijn op een nieuwe reeks verantwoordelijkheden om de samenleving te beschermen: het Venn-diagram van middelen gaat van productbeheer naar bestuur en toezicht. Bedrijven zouden moeten experimenteren met strategieën voor het genereren van inkomsten en compensatie om werknemers te stimuleren het juiste te doen, zelfs als dit betekent dat ze inkomsten mislopen. Oprichters zullen de verwachtingen van investeerders moeten managen wanneer beslissingen op maatschappelijk niveau op het spel staan met betrekking tot het lanceren van systemen die niet getest of op grote schaal geverifieerd zijn. Een bedrijfsorganigram dat lijkt op de structuur van het menselijk brein.


Gemaakt met Midjourney.

Wie bepaalt wat het beste is voor mensen?

Naarmate de betrouwbaarheid van het 'begrip' van AI toeneemt, zullen grote AI-systemen meer van de nuances van menselijke communicatie begrijpen. AI zal om redenen van efficiëntie en doeltreffendheid meer leren van minder gegevens, waardoor de nauwkeurigheid van de synthese van menselijke input wordt verbeterd om nauwkeurigere aanbevelingen te genereren om de resultaten te verbeteren. Simpel gezegd…

Een virtuele conciërge die biedt wat nodig is op basis van inzicht in wie je bent en die beter wordt naarmate je er meer mee communiceert. — Rachel Kobetz

In deze wereld zal AI exponentieel beter worden in het begrijpen van non-verbale en verbale communicatiesignalen, gewoonten en data-uitputting om een high-fidelity profiel samen te stellen, beter dan enig mens zou kunnen. Het zal een niveau van intimiteit met het individu bereiken dat vooruitziend lijkt en de juiste antwoorden, suggesties en proactieve acties biedt in nauwelijks een oogwenk.

Rode teams helpen je zich voor te bereiden op onbedoelde resultaten.

Productontwerpers richten zich op het ontwerpen van oplossingen die tegemoetkomen aan de onvervulde behoeften van gebruikers, uitgaande van een empathische instelling om hen te helpen hun doelen te bereiken. Ze doen onderzoek om inzichten te ontdekken, hypothesen op te stellen en prototypes te bouwen en te testen, waarbij ze geleidelijk evolueren naar verzendbare oplossingen die functies bieden die de gebruikerservaring verbeteren. Het is een effectief, gestroomlijnd proces, maar een onvolledige methodologie.

Rode Teams werken op een geheel andere manier. Oorspronkelijk waren Red Reams 'hackers' die werden ingehuurd om manieren te vinden om beveiligingssystemen te doorbreken voor CTO's die penetratietesten uitvoeren, zodat ze hiaten in hun maatregelen konden identificeren, fouten konden verminderen en zwakke punten konden versterken zodra de hackers ze hadden geïdentificeerd.

Bij het helemaal opnieuw ontwerpen van AI-producten kunnen ontwerpers een blad uit het draaiboek van het Red Team halen en nadenken over manieren waarop de AI nadelige resultaten kan opleveren door zaken als gebrek aan transparantie of eerlijkheid, nadenken over hoe kwaadwillende actoren de AI kunnen manipuleren om de prestaties van het model of pas de AI toe op verschillende use-cases om schade aan te richten. Ze kunnen ook brainstormen over hoe de AI in de loop van de tijd kan afdrijven of opkomende mogelijkheden ontwikkelen die mogelijk niet aansluiten bij het oorspronkelijke beoogde doel. Door Red Team-brainstorms uit te voeren, kunnen productteams evalueren of een AI geschikt is voor het beoogde doel. Teams houden typische 'wat als'-brainstormsessies waarbij het doel is om een lijst te maken van 'hoe kan dit fout gaan'-scenario's. Deelnemers op het gebied van privacy, compliance, ethiek, filosofie, burgerrechten en mensenrechten, techniek en cyberbeveiliging worden uitgenodigd om zwarte hoedenrollen aan te nemen om de glimmende nieuwe productideeën te porren en aan te sporen. CTO's kunnen dit proces ook toepassen op bestaande producten om ze te beschermen tegen ongewenste resultaten. Uiteindelijk is deze aanpak bedoeld om risico's te helpen beoordelen, nieuwe toepassingen en kansen te identificeren en de algehele waardering van het team te verbeteren en uit te breiden voor een rigoureuze benadering van het ontwerpen en ontwikkelen van robuuste AI-oplossingen die mensen, de samenleving en het bedrijf beschermen.


Altijd aanwezige gebruikersinterface kan alle informatie in een oogwenk verstrekken. Gemaakt met Midjourney.

De mogelijke nadelen van het hebben van een altijd aanwezige, zeer intieme AI-copiloot.

“Stel je een altijd aanwezige onzichtbare AI voor die alles wat je doet kan zien en onthouden, met grondige kennis van al je woorden en handelingen, zodat het gemakkelijk contextuele informatie en diensten kan bieden die handig, gepersonaliseerd en niet opdringerig zijn. Op het eerste gezicht zou dit systeem de ultieme assistent zijn, je leven transformeren en je tijd vrijmaken zodat je je kunt concentreren op de essentiële dingen in het leven.

Met dat gegevensniveau kunnen modellen de hele dag voorspellen en elke beslissing zonder medeweten beïnvloeden. Degenen die het geld hebben om een AI-assistent te betalen, zouden een gouden ticket in het leven krijgen, waardoor de kloof tussen rijk en arm meedogenloos groter wordt. Mensen zouden leven in een wereld van hyper-gepersonaliseerde ervaringen die aan de oppervlakte magisch zouden aanvoelen. Mensen die meer gegevens delen, krijgen meer 'superkrachten' van AI, wat de cyclus bevordert. Mensen die geen toegang hebben tot de AI, worden nog steeds geregistreerd zonder dat ze zich kunnen afmelden voor het verzamelen van gegevens. Voor AI-adopters zullen hun wereldbeeld en verwachtingen van mensen in het algemeen echter worden veranderd door de duizenden openlijke en indirecte aanbevelingen die ze dagelijks ontvangen, waardoor ze worden gescheiden van degenen zonder, waardoor de gedeelde overtuigingen en gemeenschappelijke basis van de samenleving worden aangetast.”

Blauwe teams (teams gericht op positieve oplossingen) kunnen het scenario uitpakken, de beschreven risico's categoriseren en manieren zoeken om de nadelige gevolgen te verzachten, door 'Hoe kunnen we'-vragen te stellen om ervoor te zorgen dat de altijd aanwezige UI's (AI's) mensen niet kunnen schaden of hen beïnvloeden op een manier die niet bevorderlijk is voor hun welzijn of de stabiliteit van de samenleving.

Wat is de toekomst van interface-ontwerp?

Productontwerp zal minder gaan over het zweten van de pixels op een gebruikersinterface, je zorgen maken over componenten in de patroonbibliotheek of de inhoudsbeslissingen die in je navigatiesysteem zijn gegaan, hoewel al die dingen nog een tijdje nodig zullen zijn. AI-startups beginnen de rol van de ontwerper in veel typische productontwerptaken al uit te breiden en soms te vervangen, en zullen in de loop van de tijd alleen maar versnellen en verbeteren.

Ontwerpers moeten evolueren, gebruikmakend van hun empathie voor gebruikers en deze omzetten in een nieuwe rol, een rol die strategische ontwerpbesluitvorming aanstuurt die van invloed is op elke functie die betrokken is bij het ontwikkelen, beheren en besturen van intelligente systemen vandaag de dag. Om de samenleving te beschermen tegen een dystopische toekomst, moeten ontwerpers samenwerking tussen organisaties mogelijk maken en allianties aangaan met ecosystemen van experts en belanghebbenden waarmee ze nog niet eerder hebben samengewerkt (zoals ethici, voorvechters van burgerrechten en mensenrechten, compliance-experts, filosofen, psychologen, gedragseconomen, en antropologen) voor organisaties om goed geïnformeerde, coherente strategieën en operationele modellen te creëren die alle gemeenschappen op billijke wijze ten goede komen. Ontwerpers moeten leren zich te concentreren op systeemontwerp in plaats van op ontwerpsystemen, omdat AI wordt gebouwd en beheerd in veel concurrerende agenda's, systemen, processen en mensen. AI's daarentegen zullen in de toekomst uiteindelijk toezicht houden op ontwerpsystemen.

Dingen maken die denken.

Ontwerpers zijn gewend om te navigeren en zich aan te passen aan chaontwerpuitdagingen aan omdat ze een mensgerichte benadering hebben in alles wat ze doen. Deze verankerende focus kan ontwerpers door de ontwrichting van intelligente copilootsystemen helpen. De toekomst van high-impact design zal het kunstig ontwerpen van de intelligentie (AI-geest) van de service zijn, wat gebeurt lang voordat een pixel het glas raakt. Er zijn geen regelboeken, dus ontwerpers moeten zich richten op het samenbrengen van de juiste belanghebbenden om weloverwogen beslissingen te nemen over hoe de AI zich moet gedragen, tegen welke use cases het moet worden ontwikkeld, hoe het wordt getraind, hoe moet worden omgegaan als er iets misgaat, welk agentschap zijn gebruikers zullen hebben over hun gegevens en de aanbevelingen die de AI geeft, en of de waarde ervan opweegt tegen de inherente nadelen. Ontwerpers zullen moeten overwegen of volledige automatisering van sommige dingen niet betekent dat mensen dingen op de ouderwetse manier doen, omdat mensen soms moeten worden overgelaten aan het worstelen en niet kunnen groeien (neem onderwijs als voorbeeld). AI's stellen productteams in staat om vloten van gepersonaliseerde apps in verschillende gemeenschappen te beheren, waardoor cultuurnormen, beveiliging en menselijke keuzevrijheid worden gegarandeerd.

Waar moeten producteigenaren rekening mee houden tijdens de goudkoorts van AI?

~ Vraag fundamentele aannames over welke problemen de wereld moet oplossen en of AI geschikt is voor die oplossingen. Als het een universeel probleem is en de oplossing direct beschikbaar is en voor iedereen werkt, dan heb je misschien een winnaar.

~ Vraag of de missie van het team aansluit bij het welzijn van de samenleving en de planeet. Vertekenen de inkomstendoelstellingen hoe technologieën te benutten die de samenleving kunnen beïnvloeden?

~ Breid het concept van de ontwerpersrol verder uit dan iemand die zich uitsluitend richt op de gebruikersinterface van een product. Bedrijven moeten een liberal arts-benadering hanteren voor strategische planning van AI, en ervoor zorgen dat technische en datawetenschappers goed geïnformeerd zijn over de ethische, juridische en sociaalpsychologische gevolgen die de diensten die ze ontwikkelen kunnen hebben. Ontwerpdenken kan discussies, workshops en tactische implementaties mogelijk maken die de vereisten vanuit verschillende perspectieven synthetiseren en integreren om billijke resultaten te garanderen.

~ Het aanpassen en leren van nieuwe vaardigheden zorgt ervoor dat AI correct en ethisch is afgestemd om gebruikers, belanghebbenden, de samenleving en de planeet ten goede te komen.

~ Vraag — Moeten er minder mensen aan 'product' werken, zodat meer mensen kunnen werken aan de ethische besluitvormingskaders om de intelligente systemen te beheren?

~ Overweeg hoe ontwerpdenken ervoor kan zorgen dat oplossingen rechtvaardig en voor iedereen beschikbaar zijn. Als iedereen een telefoon van $ 700 en breedbandinternet nodig heeft, zul je waarschijnlijk ongelijkheden in stand houden die gemeenschappen eeuwenlang hebben gemarginaliseerd.

~ Overweeg een top-downstrategie te implementeren die ethische, maatschappelijke en juridische overwegingen op één lijn brengt met de bedrijfsdoelen, zodat productteams een duidelijk zicht hebben op succes. Denk na over de exponentiële leercurve die de AI van vandaag doormaakt, projecteer welke nieuwe voordelen en nadelen zouden kunnen komen, en werk terug vanaf degenen die de beslissingen van vandaag bepalen.

~ Houd er bij het ontwerpen van AI-producten rekening mee dat je gebruikersgemak niet verwart met goed doen in de wereld. Het leven gaat over leren omgaan met obstakels.

~ Robuuste risicobeoordelingsmethoden en besluitvormingskaders ontwikkelen om ervoor te zorgen dat teams de voordelen en uitdagingen van het beheer van AI-producten in overweging nemen. Creëren en optimaliseren en opvolgen van rode teamprocessen en evaluatiemethoden om ervoor te zorgen dat productteams vaart houden en tegelijkertijd hun uiterste best doen om mens en samenleving te beschermen.

~ Focus op de huidige AI-verantwoordelijkheid en privacykwesties, raak vertrouwd met wettelijke vereisten (vooral van de EU) en stel toekomstvisies uit totdat de operationele volwassenheid van de organisatie klaar is om de complexiteit van "denkmachines" te beheren.

Vrij naar Christopher Reardon