De kvalificerade gissningarnas cybernetik

Snabba skor. Bekväma, diskreta kläder. Vårdad frisyr. Över en och åttio lång. Helsvensk, även om detta inte är ett lika säkert tecken längre. Verkar ha haft godkänt i gymnastik. Ser ut att iaktta något, samtidigt som han kämpar för att se oberörd ut. En partner en bit bort. Liknande kännetecken. Liknande beteende. Din hjärna drar slutsatsen att personerna är civilpoliser.

Så här fungerar inte bara hjärnan utan allt fler saker i världen. Som de där algoritmerna som bestämmer vilken reklam som ska visas på sociala medier. Som skräppostfiltret på din dator som reagerar på att någon verkar maila dig för första gången, på en konstig avsändare, ett suspekt ämne, vissa ord och särskilt vissa kombinationer av ord och som sedan avgör om mailet ska betraktas som skräp eller inte.

Så fungerar också så kallade manipulationsanordningar om vilka vi kan läsa i Justin Joques eminenta bok Revolutionary Mathematics. Ett exempel är programmet Greyball som Uber använt sig av.

Uber har periodvis varit ålagda att följa vissa villkor för att få bedriva verksamhet på vissa platser. I några fall har de inte fått bedriva verksamhet alls. Om det stoppat dem? Såklart inte.

De har istället använt sig av Greyball, ett program som systematiskt avslöjat brottsbekämpande tjänstemän i städer där deras verksamhet brutit mot reglerna. Ubers app har gissat vilka av användarna som varit tjänstemän och ”gråbollat” dessa, det vill säga markerat dem som oönskade kunder. När de velat åka Uber för att kartlägga verksamheten och öppnat appen har de hamnat på en särskild version där det bara funnits ”spökbilar”, alltså fejkade bilar som bara existerar i appen. Har de råkat få tag på en riktigt bil har de nekats att åka med.

För att identifiera misstänkta tjänstemän använde Uber dels data från den egna appen men också kreditkortsinformation, platsdata, information från sociala medier och allt möjligt annat. Tillräckligt många varningssignaler resulterade i en grå boll. Alltså precis samma procedur som när ett skräppostfilter sorterar bort ett mail.

Volkswagen gjorde på liknande sätt under ”dieselgate”. Man använde ett program som gissade när någon utförde ett utsläppstest. När det misstänkte att så var fallet satte det igång utrustning som minskade utsläppen, men också prestandan.

Hur bilen visste att den höll på att bli testad? Den noterade förarens position, bilens hastighet, hur länge motorn var igång, på vilket sätt bilen kördes och allt möjligt annat. Den letade efter varningstecken och gissade.

Manipulationsanordningar, algoritmer, big data maskininlärning och en rad andra saker använder sig en särskild form av sannolikhetsberäkningar som utgår från den engelske 1700-tals matematikern Thomas Bayes idéer. Istället för att utgå från enskilda fakta och sedan dra slutsatser gällande större populationer börjar man med en någorlunda kvalificerad gissning och räknar sedan ut en sannolikhet som hela tiden kalibreras när nya gissningar görs och nya uppgifter blir tillgängliga.

Justin Joque menar att det pågår en ”bayesisk revolution” som innebär ett omfattande systemskifte som påverkar politik, media, finanser, shopping, kunskapsproduktion och kontroll av både enskilda individer och hela samhället. Som bestämmer vad som är normalt och vad som är avvikande och som styr hela vår sociala verklighet under den digitala kapitalismen.

Joques Revolutionary Mathematics är inte bara en bra start för någon som vill förstå den här bayesiska revolutionen utan också de idéer, teorier och böcker om ”cybernetik” som dykt på senare år, som exempelvis Cybernetikens hypotes (2013) av kollektivet Tiqqun och Anti-Oculus (2023) av ett annat kollektiv, Acid Horizon, hittills mest kända för sin podd

Men vad i all världen är cybernetik? Själva ordet kommer från av grekiskans Κυβερνήτης som betyder ungefär ”rorsman”. Det handlar om att styra saker med hjälp av signaler, återkoppling och kontroll. Cybernetiken beskriver en ganska statisk modell för kommunikation där en källa skickar iväg en signal som når sin destination via en mottagare vilket får något av ett begränsat antal konsekvenser.

Cybernetiken kritiseras ibland för att reducera kommunikation till just signaler och bortse från att den dels äger rum i ett samhälle som påverkar den och att den dessutom tolkas av människor som missförstår, förkastar, förhandlar, ignorerar och opponerar sig.

Här handlar det dock inte om enskilda fall av kommunikation utan om system för att styra hela samhällen. Tiqqun beskriver cybernetiken som en ”ny regeringsteknologi” som håller samman och förenar sina äldre släktingar disciplinen, biopolitiken, polisen och reklamen och som har som främsta uppgift att minska antal störningar. Förlåt, skrev jag ”samhälle”? Tiqqun menar att med de rätta cybernetiska teknologierna behövs inget sådant.

Acid Horizon liknar ett cybernetiskt, eller med deras ord ”okulärt” system, vid en vattenkokare som får signaler om när det är dags att stänga av och som då och då släpper ut lite ånga för att inte explodera. Ånga i form av allt mellan protester, fri debatt, strejker och olika former av missnöjesyttringar. 

Det oculus eller okularitet – maktens ögon – som boken vänder sig emot är olika praktiker för identifiera och reglera identiteter. Maktens ögon konstruerar, producerar och övervakar gränser för kroppen, tankarna och fantasin, för vad man kan vara och inte kan vara. Det handlar inte bara om att kontrollera våra kroppar utan också hur vi själva och andra upplever dem, medvetet och omedvetet. Det handlar framförallt om att skapa ”sanningar” som alla sedan måste rätta sig efter. Sanningar som inte sällan presenteras som nya former av frihet.

Samma teknologier som används för att sortera bilder, styra missiler, profilera misstänkta brottslingar och känna igen ansikten avvänds för att identifiera, neutralisera och rekuperera avvikande och upproriska identiteter. Men, som vi nyss konstaterat, också för att identifiera och lura rättsvårdande tjänstemän på jakt efter fusk i transport- och bilbranschen

Okulariteten skapar vad den fångar in i samma stund den fångar in det. Den gissar, ringar in och definierar. Den låter uppror, oro och missnöjesyttringar pysa ut under kontrollerade former till den förlorat sin sprängkraft. Så fungerar det oavsett om det handlar om en kravall på gatan eller ett bredare missnöje kring exempelvis klimatfrågor. Så är det tänkt att fungera med visitationszoner.

Men jag undrar om inte sådana här cybernetiska modeller faktiskt också blir allt mer relevanta för att förklara kommunikation i enskilda fall. Jag tänker inte på tidningsartiklar, teaterpjäser eller pressmeddelanden om budgetpropositioner som äger rum i ett sammanhang som påverkar budskapet och som tolkas av mottagaren på en rad sätt som ofta är svåra att förutspå. Alltså något väsensskilt från en cybernetisk signal som kan få en begränsad rad konsekvenser.

Jag tänker på sådan kommunikation som sker utan att jag märker av den och där samhället snarare påverkar själva signalen än det sammanhang där den konsumeras. Där jag inte har någon möjlighet att tolka utan kanske inte ens är medveten om att kommunikationen äger rum.

Ett exempel på det här är all data som min ”smarta” klocka samlar in. Den är inte föremål för någon tolkning, den är ofta i låg grad påverkad av sammanhang, jag har bara en vag uppfattning om att den samlas in och inte den blekaste aning om vad den ta vägen. Den här processen kan utan tvivlan beskrivas som cybernetisk.

Jag gissar att datan den samlar in dessutom används till kvalificerade gissningar om mig, mina förehavande och givetvis vad jag är sugen på att köpa, men inte vet om ännu.

Innebär det här att cybernetiska, bayesiska system sköter sig själva? Definitivt inte och det här är både bra och dåliga nyheter. Bra, för det innebär att de går att påverka. Dåliga, för att de i väldigt stor utsträckning styrs av samma krafter som styr resten av samhället och det här samhället är rasistiskt, sexistiskt och kapitalistiskt, bara för att nämna några saker.

Joque menar att de sådana här system ofta presenteras som neutrala och naturliga när det i själva verket är matade med högst partisk information. Om du matar maskinerna med data baserad på förtryck och fördomar i ena änden kommer det ännu mer fördomsfull och förtryckande data ur den andra.

Virginia Eubanks (2017) beskriver exempelvis hur data som myndigheter och andra organisationer samlar in används till att skapa vad hon kallar ett ”digitalt fattighus”, där fattiga profileras, övervakas, begränsas, exkluderas och straffas. Det kan handla om allt mellan att registrera och övervaka hemlösa, att systematiskt neka ansökningar om bidrag eller om att använda data man registrerat om föräldrar till hävda att deras barn löper särskilt stor risk att fara illa och utsättas för övergrepp.

Medan många övervakningssystem är väl synliga eller åtminstone uppenbara – som övervakningskameror, drönare eller telefonens autopositionering – är det digitala systemen snarare mystiska och osynliga koder som är inbäddade i sociala medier, strömmar genom ansökningar hos myndigheter eller registrerar varenda vara vi funderar på att köpa. Och, vilket du säkert redan gissat, ligger till grund för kvalificerade gissningar i bayesiska, cybernetiska system.

Eubanks menar att vi ofta övervakas i egenskap av medlemmar av sociala grupper, snarare än i egenskap av individer och att marginaliserade grupper övervakas i högre utsträckning än andra. Rasifierade, fattiga, sexuella minoriteter och andra granskas mer och datan från granskningen används sedan för att marginalisera dem ytterligare. Eubanks beskriver det som en sorts kollektiv varningsflagga och som en loop av orättvisor. Du övervakas för att du är fattig och övervakningen begränsar dig sedan ännu mer vilket riskerar att leda till att du blir ännu fattigare.

Acid Horizon spekulerar kring vad man kan göra åt saken. Anti-Oculus undertitel är ”flyktens filosofi” och filosofi handlar enligt kollektivet om att rikta teoretiska vapen mot sakernas ordning. De kommer fram till att det enda sättet att komma undan är att vara anonym. Det okända, okategoriserade, anonyma är ett hot mot det okulära systemet.

Jag undrar dock om den här anonymiteten är möjlig i dagens hypermedierade värld. Där vi ständigt – frivilligt och ofrivilligt, medvetet och omedvetet – delar med oss av data om oss själva, våra förehavanden, preferenser och relationer. Om man inte ska göra en UNA-bombaren och sticka till skogs alltså.

Kan det finnas något annat sätt? Du har säkert redan gissat det och jag vill snarare skrika än skriva det här:

VI MÅSTE SKAPA EGNA MANIPULATIONSANORDNINGAR.

Låt oss gråbolla systemet. Låt dem identifiera och kategorisera, men baserat på lögner. Gör deras gissningar mindre kvalificerade och deras sannolikheter osannolika. Följ de här råden:

Acid Horizon (2023) Anti-Oculus: A Philosophy of Escape. London: Repeater Books
Eubanks, Victoria (2017). Automating inequality: how high-tech tools profile, police, and punish the poor. New York: St. Martin’s Press.
Joque, Justin (2022). Revolutionary mathematics: artificial intelligence, statistics and the logic of capitalism. London: Verso Books.
Tiqqun (2013). Cybernetikens hypotes. Göteborg: Korpen Koloni.