AI, styrning och organisatorisk samstämmighet
Ett positionspapper som hävdar att AI-styrning i reglerade organisationer i grunden handlar om distribuerad kognition, kulturell samordning och arkitektonisk samstämmighet.
Med utgångspunkt i organisationsteori från Edgar Schein (kultur), Karl Weick (meningsskapande) samt institutionella perspektiv på harmonisering och institutionalisering.
Introduktion
I reglerade organisationer beskrivs AI ofta antingen som en teknisk införandeutmaning eller som en fråga om regelefterlevnad. Båda perspektiven är viktiga, men de skymmer en djupare strukturell förändring: AI för in distribuerad kognition i organisationen.
Den här förändringen påverkar inte bara effektivitet eller automatisering, utan också hur kunskap produceras, valideras och institutionaliseras över tid.
Huvudtesen i den här texten är att AI-styrning i grunden är en fråga om organisatorisk samstämmighet. När kognition delvis förmedlas genom maskiner måste styrningen hantera inte bara risk och kontroll, utan också de tolkningsstrukturer som håller samman organisationen.
1. AI för in distribuerad kognition
När AI-system används för att utforma analyser, ta fram strategiskt underlag eller strukturera underlag för styrelsen är kognition inte längre begränsad till individer eller team. Den blir distribuerad mellan människor och modeller.
AI-system deltar i att:
- rama in problem
- generera alternativ
- strukturera argument
- kategorisera risker
- forma språket i beslutsfattandet
I den meningen blir AI en del av organisationens apparat för meningsskapande (Weick). Den påverkar inte bara resultat, utan också hur verkligheten i sig tolkas.
2. Distribuerad kognition utan gemensamma ramar skapar fragmentering
Om olika delar av en organisation förlitar sig på olika modeller, promptar och analytiska strukturer blir resultatet inte kollektiv intelligens utan epistemisk divergens.
Över tid leder detta till:
- inkonsekvent risktolkning
- skilda logiker för prioritering
- oförenliga beslutsunderlag
- otydligt ansvar
Ur ett kulturellt perspektiv (Schein) är det gemensamma antaganden och tolkningsscheman som stabiliserar organisationer. När AI-förmedlad kognition sker utan samordning börjar dessa gemensamma antaganden att erodera.
Den praktiska innebörden är enkel: organisationer kan redan i dag producera beslutsunderlag med externa LLM:er som verkar utanför formella styrningsstrukturer. Utan en gemensam tolkningsarkitektur skapar detta strukturell osamstämmighet.
3. EU:s AI Act förstärker behovet av harmonisering
EU:s AI Act bör, om den genomförs på ett genomtänkt sätt, inte enbart ses som en börda kopplad till regelefterlevnad. Den kan fungera som en harmoniserande mekanism.
Genom att tydliggöra roller (leverantör, användare), riskklassificeringar och dokumentationskrav väcker rättsakten underförstått en djupare fråga:
Har organisationen en gemensam beslutsarkitektur för AI?
Reglering fungerar i den här meningen som en institutionaliserande kraft. Den uppmuntrar samordning kring gemensamma standarder, ansvar och strukturer för ansvarsutkrävande.
4. AI-styrning som kulturell standardisering
Styrning tolkas ofta som ett system av kontroller, granskningar och dokumentation. Men i AI-intensiva miljöer måste styrning också hantera samordning i hur saker tolkas och förstås.
En hållbar modell för AI-styrning kräver gemensamma ramar för:
- riskklassificering
- mognadsgrad i förmågor
- ansvarsgränser
- begränsningar för användning
- dokumentationslogik
Utan sådan harmonisering blir AI kulturellt osammanhängande.
Och kulturellt osammanhängande system skalar inte.
AI-styrning är därför i första hand inte en juridisk disciplin. Den är kulturell och arkitektonisk.
5. Verktyg och modeller som kulturella artefakter
AI-verktyg och modeller är inte neutrala hjälpmedel. De bär med sig kategorier, antaganden och logiker för beslutsfattande.
När de används i stor skala blir de kulturella artefakter som formar hur problem definieras och hur auktoritet utövas.
Att standardisera användningen av AI är därför mindre en upphandlingsfråga och mer ett arbete för att bevara organisatorisk samstämmighet över tid.
Konsekvenser
För reglerade organisationer är den centrala utmaningen inte bara om AI-system följer regleringen, utan om deras integration bevarar epistemisk samordning.
Om AI lyckas eller misslyckas beror på de arkitektoniska villkor som omger systemen:
- tydligt ansvar
- varaktig kontext
- gemensamma tolkningsstrukturer
- styrningsmodeller i linje med regulatoriska krav
Detta perspektiv präglar det pågående arbetet på MokanTech, där fokus ligger på att utforma strukturella förutsättningar som gör att AI-system kan fungera samstämmigt, styrbart och hållbart i reglerade miljöer.
