Let Op De Afstap

Foundation Modellen En De Geheime Verspreiding Van Militaire Inlichtingen, Surveillance En Targeting door op in Lees Voer

Vrij naar Heidy Khlaaf, Sarah Myers West, Meredith Whittaker

Foundation modellen zijn een type kunstmatige intelligentie dat is getraind op enorme hoeveelheden data. Hierdoor kunnen ze complexe patronen leren en content van menselijke kwaliteit genereren, zoals tekst, afbeeldingen en code.

Discussies over het dubbele gebruik van foundation models en de risico's die ze opleveren, hebben zich overweldigend gericht op een beperkte set use cases en nationale veiligheidsrichtlijnen, met name hoe AI de efficiënte constructie van een klasse systemen die bekend staat als CBRN mogelijk kan maken: chemische, biologische, radiologische en nucleaire wapens. De overweldigende focus op deze hypothetische en beperkte thema's heeft een broodnodig gesprek over het huidige gebruik van AI voor militaire systemen, met name ISTAR: intelligence, surveillance, target acquisition en reconnaissance, verhinderd. Dit zijn de toepassingen die het meest gegrond zijn in daadwerkelijke implementaties van AI die levensgevaarlijk zijn voor burgers, waarbij misbruik en mislukkingen geopolitieke gevolgen en militaire escalaties met zich meebrengen. Dit wordt met name onderstreept door nieuwe proliferatierisico's die specifiek zijn voor de wijdverbreide beschikbaarheid van commerciële modellen en het gebrek aan effectieve benaderingen die betrouwbaar voorkomen dat ze bijdragen aan ISTAR-capaciteiten.

In dit artikel schetsen we de significante nationale veiligheidszorgen die voortvloeien uit huidige en beoogde toepassingen van commerciële basismodellen buiten CBRN-contexten, en bekritiseren we de vernauwing van het beleidsdebat dat is ontstaan door een CBRN-focus (bijv. rekendrempels, modelgewichtvrijgave). We laten zien dat het onvermogen om te voorkomen dat persoonlijk identificeerbare informatie bijdraagt aan ISTAR-capaciteiten binnen commerciële basismodellen kan leiden tot het gebruik en de proliferatie van militaire AI-technologieën door tegenstanders. We laten ook zien hoe het gebruik van basismodellen binnen militaire omgevingen inherent de aanvalsvectoren van militaire systemen en de defensie-infrastructuren waarmee ze interfacen, uitbreidt. We concluderen dat het, om militaire systemen te beveiligen en de verspreiding van AI-bewapening te beperken, nodig kan zijn om militaire AI-systemen en persoonlijke gegevens te isoleren van commerciële basismodellen.

Onderwerpen: Computers en maatschappij (cs.CY)
Citeer als: arXiv:2410.14831 [cs.CY]
(of arXiv:2410.14831v1 [cs.CY] voor deze versie)
https://doi.org/10.48550/arXiv.2410.14831
Inzendingsgeschiedenis
Van: Heidy Khlaaf [e-mail bekijken]
[v1] vr 18 okt 2024 19:04:30 UTC (91 KB)