Organisationens abdikation

ORGANISATIONENS ABDIKATION

När individens svagheter tenderar bli strukturell logik

Det här är del två. Del ett ligger här: länk. Individens abdikation är liten: en förskjutning av ansvar, ett spontant val att spara mental energi. Detta är väldokumenterat inom kognitionspsykologi som kognitiv lathet (Pennycook & Rand 2019; DOI: 10.1016/j.cognition.2019.01.017). I en organisation förstoras samma mekanism. Människor synkroniserar sin minsta möjliga ansträngning. Riktningar uppstår av vana. Riktning blir rutin. Rutin blir process. Process blir standard. AI rör sig längs dessa standarder och förstärker dem enligt forskning om machine behaviour (Rahwan et al. 2019; DOI: 10.1038/s41586-019-1138-y).
En logisk slutsats är att AI accelererar organisatoriska rörelser som redan finns i strukturen.

ANSVARSDIFFUSION

Beslut tappar ägare och landar hos systemet

Organisationer brukar vilja verka upptagna. Rörelse signalerar betydelse och bekräftar strukturens existens. Man producerar rapporter och avstämningar som visar aktivitet även när riktningen är oklar.
En trolig konsekvens är att flödet börjar ersätta ägarskapet, vilket ligger i linje med forskning om ansvarsdiffusion (Darley & Latané 1968; DOI: 10.1037/h0025589). När ansvar ska utkrävas är det ofta enklare att peka åt ett annat håll än att bära beslutet. Beslutet blir en produkt av att ”så här gör vi”. Logiska slutsatsen är att beslutet uppfattas som systemets snarare än någon persons. AI förstärker mönstret genom att leverera svar som uppfattas som neutrala, vilket minskar mänsklig vilja att ta ägarskap – en känd effekt av automation bias (Mosier et al. 1998).

AUKTORITETSÖVERTRO

Systemets utskrift väger tyngre än erfarenhet

Många antar att en modell är objektiv, stabil och mer pålitlig än mänskliga bedömningar. Detta stöds av forskning om algorithmic authority bias (Logg et al. 2019; DOI: 10.1016/j.obhdp.2018.06.004). Erfarna personer tystnar när systemet signalerar säkerhet. Kognitiv lathet gör resten. En rimlig följd blir att omdöme ersätts av följsamhet.

RESURSILLUSION

Granskning stryks, och kostnaden gömmer sig tills den exploderar

Organisationer nedprioriterar kontroll eftersom den syns som kostnad. Forskning om systemfel visar hur minskad kontroll skapar risker som växer osedda (Dekker 2005). När granskning faller bort ackumuleras fel som annars skulle ha stoppats tidigt.
Detta leder till att kostnaden visar sig först när den hunnit bli systemisk.

INCITAMENT

Det som mäts blir verkligheten, även när det saknar verklighet

När KPI styr beteenden ersätter mått omdöme. Goodhart’s Law är väldokumenterad (Strathern 1997). Organisationer följer det som syns i dashboarden: tempo, volym, kostnad. Kvalitet saknar mätpunkt och faller undan. En logisk slutsats är att kvalitet trängs undan av siffror som går snabbare att producera.

KOMPETENSFELALLOKERING

Systemet övervakas av dem som inte ser avvikelserna

Avancerade system kräver domänförståelse (Baxter & Sommerville 2011; DOI: 10.1016/j.intcom.2010.07.003). Senior kompetens är dyr, och övervakning tenderar därför att flyttas till juniora operatörer. Operatörer utan djup erfarenhet följer manualer. Manualer fångar inte avvikelser.
Logiska slutsatsen är att avvikelser kan bli osynliga tills de vuxit sig stora. När systemen påverkat tillräckligt många beslut syns konsekvenserna.
En trolig följd är att fel upptäcks sent i processen. AI förstärker mönstret genom koherenta svar som maskerar glidningar.

HYPE OCH LEGITIMITET

Teknik införs som signal snarare än funktion

Organisationer adopterar teknik som legitimitetsmarkör, beskrivet i forskningen om institutionell isomorfism (DiMaggio & Powell 1983; DOI: 10.2307/2095101). Införandet blir symbol, inte lösning.
Detta leder till att tekniken formas av kulturens förväntningar snarare än verksamhetens behov.

KULTURELL PASSIVITET

När ingen säger emot glider allt i samma riktning

Tystnadskultur är dokumenterat fenomen (Edmondson 1999; Morrison & Milliken 2000). Ingen vill vara den som går emot strömmen. Man undviker konflikter även när motstånd är nödvändigt. En rimlig följd blir att fel saknar motkraft. När invändningar försvinner passerar fel obemärkt. AI driver rörelsen vidare i en miljö där inget bromsar flödet.

KVALITETSBRISTER

Implementation före förståelse, varje gång

Organisationer implementerar snabbare än de förstår, ett mönster dokumenterat i studier om socio-tekniska system (Baxter & Sommerville 2011). Testning, rollback och verifiering skjuts upp.
Detta leder till att systemets logik verkar obehandlad i driftmiljö.

STRUKTURELL FÖRSTÄRKNING

AI förstärker strukturella brister tills de blir omöjliga att ignorera

AI modellerar miljön den placeras i (Rahwan et al. 2019). Lutningar i kultur, processer och incitament förstoras. En logisk slutsats är att organisatoriska svagheter skalar snabbare i AI-miljöer. När riktningen accelererar syns bristerna tydligt.
Detta leder till att strukturella skevheter påverkar nästa led av beslut.

SYRI

Ett exempel där processen blev hårdare än människan

SyRI låste fast människor i riskflaggning utan återväg. Överprövning saknades och ansvarskedjan var sönderbruten. Detta är dokumenterat i akademisk analys (van Eck 2018; DOI: 10.2139/ssrn.3590201). Strukturen höll kvar fel längre än en människa hade gjort.
Logiska slutsatsen är att processer utan friktion kan överrösta mänskligt omdöme.

LAT HET I MÄNGD BLIR EN ARKITEKTUR

Organisationens rörelse formas av dess samlade genvägar

Många små abdikationer skapar lutningar. Granskning tunnas ut. Kontroll försvagas. Processer fortsätter av egen tyngd. AI ger hastighet åt rörelsen. Människan gav den formen.

SYSTEM OPTIMERAR MÅLFUNKTIONEN, ÄVEN NÄR MÅLET ÄR SKEVT

Organisationer sätter KPI. Modellen följer dem som lagtext. Forskning om målfunktioner visar hur system optimerar även när målet är undermåligt (Amodei et al. 2016; Krakovna et al. 2020). När målet lutar följer systemet lutningen konsekvent.
En logisk slutsats är att systemet producerar fel med hög precision när målet är feldefinierat. Det är här del tre tar vid.


Källor

Pennycook, G., & Rand, D.G. (2019). Lazy, not biased. Cognition. DOI: 10.1016/j.cognition.2019.01.017
Mosier, K. L. et al. (1998). Automation Bias. Int. J. Aviation Psychology. DOI: 10.1207/s15327108ijap0801_3
Logg, J.M. et al. (2019). Algorithm Appreciation. OBHDP. DOI: 10.1016/j.obhdp.2018.06.004
Edmondson, A.C. (1999). Psychological Safety. DOI: 10.2307/2666999
Morrison, E.W. & Milliken, F.J. (2000). Organizational Silence. DOI: 10.5465/amr.2000.2791608
Strathern, M. (1997). Improving ratings. European Review. DOI: 10.1002/(SICI)1234-5679(199705)5:3<305
Baxter, G., & Sommerville, I. (2011). Socio-technical systems. Interacting With Computers. DOI: 10.1016/j.intcom.2010.07.003
Rahwan, I. et al. (2019). Machine behaviour. Nature. DOI: 10.1038/s41586-019-1138-y
Amodei, D. et al. (2016). Concrete Problems in AI Safety. DOI: 10.48550/arXiv.1606.06565
Krakovna, V. et al. (2020). Specification gaming examples. DOI: 10.48550/arXiv.2008.02275
van Eck, M. (2018). SyRI: System Risk Indication. DOI: 10.2139/ssrn.3590201

comments powered by Disqus