Det råder just nu en påtaglig diskrepans mellan hur artificiell intelligens beskrivs i den offentliga debatten och hur tekniken faktiskt fungerar i praktiken. AI framställs ofta som tillräckligt mogen för att redan nu ersätta eller kraftigt reducera behovet av programmerare, jurister, analytiker och andra kvalificerade yrken. Samtidigt visar närmare granskning att tekniken fortfarande präglas av brister som inte är tillfälliga eller marginella, utan strukturella.
Detta är inte ett argument mot AI som sådan. Det är ett argument mot övertro, och mot en implementeringstakt som inte står i proportion till teknikens faktiska mognad.
Nästan rätt – och därför farligt
Det verkliga problemet med dagens AI-system är inte att de ibland har fel. Det är att de ofta har nästan rätt.
En utvecklare som använder AI för att generera kod får ofta något som kompilerar, följer vedertagna mönster och ser rimligt ut vid en snabb genomläsning. Problemet uppstår i det som inte syns direkt: en subtil säkerhetsbrist i hanteringen av indata, ett antagande om autentisering som inte håller i alla miljöer, eller ett beroende som inte är versionslåst. Koden fungerar i test, levereras i tid och går i produktion. Först långt senare, när systemet utsätts för belastning eller illvillig användning, blir konsekvenserna synliga.
På samma sätt kan en jurist få ett resonemang som är språkligt korrekt, välstrukturerat och fullt av till synes relevanta hänvisningar – inklusive rättsfall som låter helt rimliga men i själva verket inte existerar. Vid en första granskning finns inget som omedelbart avslöjar felet. Det är först vid noggrann kontroll som hallucinationen framträder.
Det är just denna egenskap – att felen är diskreta, plausibla och ofta konsekventa – som gör tekniken farlig att övertolka. System som uppenbart inte fungerar avslöjar sig snabbt. System som fungerar tillräckligt bra för att inge förtroende, men inte tillräckligt bra för att bära ansvar, tenderar däremot att integreras djupt innan deras begränsningar blir synliga.
Att paketera risk: parallellen till finanskrisen 2008
Här finns en tydlig strukturell parallell till finanskrisen 2008. Då paketerades risk i allt mer komplexa finansiella produkter som presenterades som säkra, diversifierade och rationella. Modellerna såg stabila ut, ratinginstitut gav sitt godkännande och incitamenten drev på användningen. Riskerna hade inte försvunnit, men de hade abstraherats bort och gjorts svåra att överblicka.
När verkligheten förändrades visade det sig att säkerheten var illusorisk. Korrigeringen kom snabbt och brutalt.
AI-hypen uppvisar samma mönster. Risker paketeras i modeller som är ogenomskinliga även för dem som använder dem. Beslutsfattare ser fungerande demos, produktivitetsvinster och positiva kvartalsrapporter. De långsiktiga riskerna är diffusa, tidsförskjutna och svåra att attribuera. Precis som 2008 ser allt rationellt ut – tills det inte gör det längre.
Falsk epistemisk säkerhet i interaktiva system
Ett särskilt problematiskt drag hos generativa AI-system är hur de hanterar osäkerhet. Svar som bygger på ofullständigt underlag uttrycks ofta med hög grad av säkerhet. När användaren ifrågasätter eller ber om dubbelkontroll tenderar systemet inte sällan att försvara sitt tidigare svar, ibland genom att tillföra ytterligare argumentation eller referenser.
Detta skapar en falsk epistemisk säkerhet. Det blir svårt att avgöra när systemet faktiskt vet något och när det endast producerar en plausibel fortsättning. I professionella sammanhang är detta djupt problematiskt. Juridik, teknik och strategiskt beslutsfattande bygger inte på att resonemang låter övertygande, utan på att de håller vid granskning.
När en betald tjänst argumenterar emot invändningar och framställer sina svar som robusta kan ansvaret inte rimligen skjutas över på användaren, särskilt inte när användaren är källkritisk och aktivt begär verifiering. Disclaimers förändrar inte den praktiska effekten av ett sådant beteende. I praktiken uppträder systemet som auktoritet.
Varför tekniken ändå trycks ut för tidigt
Att dessa brister ignoreras beror inte på okunskap. De ignoreras på grund av incitament.
Kapprustningen mellan teknikbolag skapar ett läge där tid till marknad är viktigare än mognad. Att avvakta innebär att riskera att hamna på efterkälken, både tekniskt och narrativt. I en sådan miljö belönas de aktörer som kan visa upp fungerande tillämpningar här och nu, även om de långsiktiga konsekvenserna är oklara.
Detta förstärks av att kostnaderna för fel ofta uppstår långt senare, medan vinsterna kan realiseras omedelbart. Precis som i finanskrisen finns starka drivkrafter att externalisera framtida risk till förmån för kortsiktig framgång.
Yrken försvinner inte – men utbildningskedjan bryts
Det är också viktigt att nyansera påståendet att AI “ersätter” hela yrkesgrupper. I praktiken är det sällan seniora programmerare eller erfarna jurister som försvinner först. Det som i stället sker är en gradvis urholkning av instegsroller och juniora positioner.
AI används för att ersätta det arbete som traditionellt fungerat som lärande och socialisering in i yrket. Konsekvensen är inte omedelbar arbetslöshet bland seniora experter, utan att vi slutar utbilda nästa generation. När dagens seniorer lämnar yrket finns det färre som kan ta vid, och ännu färre som har byggt upp den erfarenhet som krävs för att bära ansvar.
Detta förstärker problemet med kompetensavveckling. Organisationer står kvar med system som fungerar på ytan, men utan tillräcklig intern förståelse för att vidareutveckla, granska eller reparera dem när något går fel.
Självkörande bilar och den synliga gränsen
Utvecklingen påminner om självkörande bilar, men med en viktig skillnad. När en bil kör fel är det synligt. När ett AI-system fattar ett felaktigt beslut eller ger ett bristfälligt underlag kan felet ligga dolt i månader eller år.
Precis som med självkörande bilar var problemet aldrig att tekniken saknade potential. Problemet var att den marknadsfördes som nästan klar. I AI-fallet är risken större, eftersom felen inte nödvändigtvis manifesterar sig som olyckor, utan som gradvis försämrade beslut, ökande teknisk skuld och ansvarsförskjutning.
Att inte springa med hypen
Det är därför rimligt att utgå från att bakslag kommer. Inte för att AI är värdelöst, utan för att tekniken implementeras snabbare än dess mognad tillåter. Organisationer som använder AI som verktyg, snarare än som ersättning för mänsklig kompetens, kommer sannolikt att stå starkare när korrigeringen kommer. De som bygger sin verksamhet på antagandet att tekniken redan är tillräckligt tillförlitlig riskerar däremot att upptäcka sina misstag först när kostnaderna blivit betydande.
Att inte springa med hypen är inte bakåtsträvande – det är intellektuell och organisatorisk självbevarelsedrift. Den största risken är inte vad tekniken kan göra, utan vad vi inbillar oss att den redan kan bära ansvar för.
