Generativ AI kan brukes til å automatisere rapportering av åpen kildeinformasjon (OSINT) i global skala.
Utfordringer og muligheter
OSINT-rapportering utføres daglig på global skala av forsvars- og nasjonale sikkerhetsorganisasjoner. Dette kan være en arbeidskrevende prosess som krever både tid og ressurser. Med den eksplosive veksten i offentlig tilgjengelig informasjon, kan ikke tradisjonelle metoder for manuell katalogisering og oppsummering av åpent kildeinnhold holde tritt. For eksempel gjør nettsteder for sporing av skip og fly enorme mengder data tilgjengelig for analytikere, men det er nesten umulig å oppsummere dataene eller kombinere den med sosiale mediedata. Resultatet er at analytikere trenger nye verktøy som kan se gjennom store mengder strukturert og ustrukturert data for å trekke ut lesbare innsikter.
Hvordan kan generativ AI hjelpe?
Automatisert syntese
Generativ AI kan brukes til å gjennomgå, evaluere og oppsummere informasjon fra en rekke åpne kildedokumenter, inkludert orienteringer, nyhetsmedier og andre rapporter.
Etterligne rapportstil
Med utallige antall OSINT-rapporter tidligere opprettet med tradisjonelle metoder, kan Generativ AI bruke disse som eksempler for å skrive rapporter i samme stil samtidig som den trekker fra oppdaterte datakilder.
Risiko og tillitt med generativ AI
Rettferdig og upartisk
Åpen kildeinformasjon er kanskje ikke upartisk, og den kan til og med være bevisst villedende eller falsk. Når en generativ AI-modell brukes til å gjennomgå og evaluere informasjon, krever det kapasitet og/eller menneskelig inngrep for å redusere skjevhet i OSINT-rapportering.
Sikkerhet
Den sensitive naturen til etterretningsspørsmål betyr at det må utvises forsiktighet for å forhindre at motstandere påvirker modellen eller samler sin egen etterretning fra det som blir spurt.
Pålitelig
Gitt at generativ AI er sårbar for å produsere unøyaktige utdata, er menneskelig validering nødvendig for at byråer skal kunne stole på OSINT-rapportering for å identifisere og rette opp AI-hallusinasjoner.