Kortlægning af datastrømmen
“Skyen” er ingen svævende kollektiv bevidsthed, som vi kan synkronisere med og blive frie. Den er bygget, ejet og kontrolleret. Man plejer at sige, at hvis servicen er gratis, er man selv det produkt, der bliver solgt. Og præcis den forretningsmodel er kernen i så mange af de cloud services, vi er vant til at bruge. Prisen er vores privatliv, men vores glæde ved produktet overskygger det.
I Silicon Valley ved Stillehavskysten nåede de amerikanske nybyggere grænsen for den grådige landvinding mod vest – de løb tør for land at bygge på. I stedet har de lært sig selv at opfinde nye verdener, der endnu ikke findes. De har stillet sig tilfreds med til stadighed at genopfinde måden menneskene lever med hinanden på i resten af verden.
Den berømte dal uden for San Francisco er hjemsted for nogle af de største selskaber i verden. I dalens byer – Mountain View, Palo Alto, Cupertino blandt andre – findes en koncentration af teknologivirksomheder ulig noget andet sted på jorden. Google, Apple, Facebook, Sun, HP og mange andre ligger og soler sig på land, der tidligere var frugtbare abrikosplantager. Men i Silicon Valley fortaber man sig ikke i sit eget californiske paradis. Virksomhedernes planer er verdensomspændende. Hvis man arbejder i Silicon Valley, tænker man hele tiden på resten af verden.
Et af de steder, man tænker på, ligger længere mod nord langs kysten på den anden side af statsgrænsen til Oregon. Den lille by The Dalles ligger som en sval rede ved bredden af Columbia River, der transporterer vand fra Rocky Mountains til Stillehavet. I The Dalles står en computer på størrelse med et varehus. Den kører i døgndrift, og den regner alle de problemer ud, som Googles brugere sender til den. Der er først og fremmest to grunde til, at computeren står i The Dalles. Den første er kabler. I Harbour Pointe, cirka 400 km væk, løber et kabel fra Stillehavet op på landjorden. Pacific Crossing 1 (PC-1) forbinder Japan og det amerikanske fastland med næsten 3 terabit pr. sekund. Det sender data cirka femhundredetusinde gange så hurtigt som den gennemsnitlige danskers bredbåndsforbindelse. The Dalles har privilegeret adgang til kablet, og det er strategisk vigtigt for Google. Det hjælper dem på samme måde, som det hjælper et busselskab at have opsamlingssted i nærheden af motorvejen – der kan busserne hurtigt få lov til at køre stærkt, og det sparer tid. Den anden grund er strøm. The Dalles-dæmningen tøjler flodens energi og producerer 1,8 gigawatt. Det betyder, at Google har adgang til billig strøm i uendelige mængder. Strøm er en af de vigtigste ressourcer overhovedet for den digitale revolution, for uden store mængder strøm kan serverparkerne, som den Google har stående i The Dalles, ikke holdes kørende.
At tælle til 1.000.000.000.000.000
I 2006 skrev tekno-utopisten George Gilder, at hvert årti afføder en ny art af computere, som bliver konger af fødekæden. Det er den slags maskiner, der bor i Googles datacentre. Hvis de var et dyr, ville deres artsnavn være Peta – det præfiks man giver tal i størrelsesordenen 1015. Det er nemlig de dimensioner, som computerne opererer i. I 2002 byggede IBM supercomputeren Roadrunner til den amerikanske Department of Energy, der ville modellere henfaldstiden for landets atomarsenal. Roadrunner var den første computer, der ramte 1 petaflop per sekund. Det vil sige, at den var i stand til at lave 1000 billioner simple udregninger, f.eks. 1+1, i sekundet. I marts 2013 slukkede man for computeren. For det første var den slet ikke længere den hurtigste maskine i verden, og for det andet var den blevet for dyr i strøm sammenlignet med de nyere maskiner.
I Googles datacentre arbejder maskinerne også på peta-skala (og måske snart på exa-skala, 1018), men de er ikke dyre supercomputere, der som Roadrunner er bygget med enkelte specifikke opgaver som skæbne. Den første generation af datacentre blev bygget, fordi der var behov for at scanne, indeksere og gemme webbets sider, så vi kunne få adgang til dem via søgemaskiner. Google beundres ofte for den sofistikerede og hemmelige software-algoritme, der sørger for, at de mest relevante søgeresultater konsistent bliver serveret for brugerne. Men faktisk ligger en stor del af æren for deres succes i, at de knækkede den nød, det er at bygge en rygrad til internettet. Mens andre firmaer kiggede i retningen af ekstremt dyre supercomputere, som for eksempel Roadrunner, så kiggede Google den anden retning – i de lavere prisklasser. Google havde nemlig – ved hjælp af deres schweiziske vicepræsident for teknisk infrastruktur, Urs Hölzle – regnet ud, at prisen for hurtige computere stiger eksponentielt med regnekraften. Det vil sige, at én supercomputer er meget dyrere end en masse små computere, der tilsammen har samme regnekraft. Den mest priseffektive måde at levere svar på alle de forespørgsler, der med accelererende hast blev sendt til Googles servere, var at sammensætte flere tusinde billige moduler, der kun kunne præcis det, de skulle. På den måde kunne produktionsprisen på vores oplysninger gøres så lav, at de kunne give dem til os gratis – tænk Gmail. Datacentrene består derfor af tusindvis af små computere, men de fungerer som én stor. Tricket er at “smøre” opgaver ud på så mange af de små computere som muligt på samme tid, så de parallelt kan arbejde på samme problem. Det er i den forstand, det giver mening at tale om datacentrene som enorme udgaver af den PC, der står på dit skrivebord derhjemme.
Det digitale våbenkapløb
Din PC og datacenteret er ikke bare i familie med hinanden – de sørger også for at holde kontakten. Alle dine snapchatvideoer, Facebook-opdateringer, Google-søgninger og e-mails er information, der skal behandles af computere forskellige steder i internettet. Hvor de tidlige datacentre var skræddersyet til opgaver som søgemaskineindeksering, bygges nu i stigende grad “altmulig-maskiner”, der overtager arbejdet, der hvor din computer stopper. Når du skriver et dokument i Google Drive, kører programmet samtidigt på din computer og på en af Googles tusindvis (hvis ikke millionvis) af datacenter-computere. Du skriver ordet “sky”, det inputtes i programmet på din computer, sendes gennem luften til din trådløse router, med lysets hastighed gennem kabler, under Atlanterhavet og op i et af de luftkølede varehuse, hvor flere af serverne – altså applikationer der kører på computerne – gemmer ordet. Den proces gentages hvert sekund, og antallet af brugere tæller vi for længst i milliarder.
Milliard-efterspørgslen betyder, at firmaerne fra Silicon Valley kæmper side om side i noget, der ligner et digitalt våbenkapløb. Enhver tids succesfulde firmaer forstår at være generøse med de ting, der er billige og nærige med dem, der er dyre. I dag er der computerkraft i overflod, men tålmodigheden er knap. Derfor kan det betale sig for Google altid at bruge penge på hurtigere, klogere og smidigere teknologi, der kan skære millisekunder fra ventetiden i brugerens ende. Det betyder også, at det ofte kan betale sig at investere i serverplads tættere på brugerne. Hvis danskerne elsker en særlig Thomas Helmig-video på YouTube, er det smart, hvis den ligger på en server et sted i Tyskland og ikke i et af centrene i USA. Jo kortere kablet er, jo hurtigere kan man loade den århusianske gadedrengs krøller – det gælder selvom kablerne bliver hurtigere og hurtigere til at transportere dataen.
Den strategiske migration af datacentrene afhænger af klimaforhold, lokal kabelinfrastruktur og strømforsyning. Derudover er det ligegyldigt for Google, om deres datacenter ligger i Finland eller i Oregon. For nok kan man tænke på datacentrene som store individuelle computere – men de er alle forbundne kar. Det er en sjov ironi, at nutidens megacomputere er forbundet af det, der ellers blev spået til at være deres banemand – Internettet. Visse modkulturelle kredse i 70’ernes og 80’ernes San Francisco så den personlige computer som den personlige friheds våben. Internettets netværk af mindre computere var offentlighedens forum og kunne være værn mod den gamle centraliserede magt og kapital – symboliseret i den gamle, tunge mainframe og dens hulkort.
“Netværket er computeren”
Eric Schmidt, Googles bestyrelsesformand, forudsagde i 1993 den logik, som arbejdsdelingen mellem de personlige computere og internettet i dag er bygget op omkring: “When the network becomes as fast as the processor, the computer hollows out and spreads across the network”.
Når kablerne kan sende information tilstrækkeligt hurtigt, kan det ikke længere betale sig at lade computeren på skrivebordet eller telefonen i lommen håndtere tunge opgaver. Når en iPhone-ejer spørger Siri, hvor byens bedste kebab findes, sendes stemmeoptagelsen til et af Apples datacentre. Der bliver optagelsen analyseret af kraftfulde computere, der trækker en forespørgsel ud af den og sender spørgsmålet til en relevant webdatabase, som så serverer svaret for brugeren. Det kan være, den kebabsultne står i Kolding, men hans computerarbejde kan sagtens have været i USA og tilbage igen. Det er den samme netværkslogik, som den tidligere Sun Microsystems-medarbejder John Gage formulerede i 1984, da han sagde, at “netværket er computeren”. Og det er også den logik, som allerede i 1960’erne fik datalogen John McCarthy – der også opfandt udtrykket artificial intelligence – til at sige, at “computation may someday be organized as apublic utility”. Engang var menigmand nødt til at orientere sig om Ghz og megabytes, når han gik i Electronic World om lørdagen – i dag er det efterhånden irrelevant. Computerkraft er ikke længere noget, privatpersoner selv behøver bekymre sig om. Det er i stedet ligesom elektriciteten i stikkontakten: det produceres centralt og transporteres til kunden efter behov via netværket.
Man kan forestille sig, at det er det næsten-magiske ved denne tanke, der har stemt de Silicon Valley-entreprenører, som fandt på udtrykket cloud computing. I virkeligheden var det nok et marketinggreb fra Amazon, der gerne ville sælge deres Elastic Compute Cloud, som lod virksomheder leje såkaldte virtuelle computere – programmer der kører i datacentre – til at udføre deres egne opgaver. Ikke desto mindre virker udtrykket absurd, når man tænker på det samlede kompleks af processorer, nedkølingssystemer, dæmninger, kabler og bygninger, der trækker vores dataudvekslinger. Hvordan kan det være andet end et fremskridtsovervældet vanvid at sige: “Vi kalder det for skyen” ?
Udtrykket cloud computing er måske ret nyt, men faktisk er skyen som fænomen slet ikke en ny ting. Et firma i 70’erne, der havde brug for at generere viden om tunge datasæt eller udregne komplekse problemer havde sjældent sin egen computer (eller mainframe, som de værelsesstore klepperter hed dengang). Det var simpelthen for dyrt. I stedet skete størstedelen af arbejdet med computere i skyen. Firmaer, forskningsenheder og lignende kunne have en lokal terminal – for eksempel en skærm og et keyboard – der kunne ringe op til en central mainframe. På den måde kunne man fodre en central computer opgaver og få løsninger leveret til døren. Og mainframes var til deling – det var timesharing før ordet konnoterede shady gadesælgere på Gran Canaria. Den praksis blev trinvist afviklet, som computere blev billigere at producere og købe. Den personlige computer, PC’en, satte trumf på afviklingen ved at give almindelige dødelige råd til computere til privatbrug. Man kan tale om en historisk udvikling, hvor en række faktorer udvirkede en form for centrifugalkraft, der spredte den computerbaserede produktion af data og flyttede den fra mainframes til PC’er.
Unge europæere vil huske, hvordan det er at udvikle OCD-lignende rutiner for at sikkerhedskopiere det, man arbejder på. Et eksemplar af filen i ‘Dokumenter’, et på en brændt CD, måske et som vedhæftning på en hotmail-konto. Med den personlige computer fulgte også vores besættelse af at lave back ups. Computeren var et vidunderværktøj, der mangedoblede vores hjerners kapacitet – men den var upålidelig. Den glemte ting, den gik i sort. Og det var et problem, for vi havde ansvaret for den. Den personlige computers organiseringsprincip var nemlig lokalt. Det man arbejder på og gemmer placeres i computerens filsystem – altså en database, der rent fysisk er lagret på et snurrende harddrive i computerens mave. Det er brugerens ansvar at holde orden i det lokale system – præcis som det er hans ansvar at sørge for at bogreolen skrues rigtigt sammen, støves af og holder til vægten af de nye bøger.
Det er dette lokale organiseringsprincips forsvinden, der er det særligt nye ved cloud computing, og Google ser det som et naturligt skridt i planen om at leve op til deres slogan: “Don’t Be Evil”. De tror så meget på det, at de har lanceret en række computere, der er bygget til altid at gøre alting online. Chromebook – sådan hedder maskinerne – ligner de laptops, vi kender, men der er grundlæggende forskelle.
Chromebook-maskinernes styresystem har gjort op med en af de designmetaforer, vi som digitale indfødte kender allerbedst. Skrivebordet er erstattet med en browser. For at forstå forskellen, kan man kigge på designmetaforen. Et skrivebord står på mit kontor. Det er mit bord og jeg arbejder ved det. Jeg lægger de ting på det, som er relevante for de opgaver, jeg gerne vil løse. Derudover dekorerer jeg det måske med et billede af min kæreste. Hvis jeg er fræk, har jeg en flaske vodka liggende i skuffen, og det behøver ingen vide, for det er mit bord. Browseren, derimod, er først og fremmest et vindue. Den er ligesom timesharing-terminalen et blik ind i en verden, man deltager i på lånt tid. Den er et vindue, hvor alle de firmaer du besøger, kan se hvad du har gang i, hvor du har været før og så videre. Den data du ser gennem vinduet er ikke længere kun din egen.
En Midgårdsorm af stål, strøm, kabler og transistorer
Hvor de personlige computere spredte data-produktionen og gjorde den til vores egen, har vi i det seneste årti bevæget os i den modsatte retning. En større og større del af den data, vi omgiver os med, produceres i store afkølede haller, som den i The Dalles. Som allerede nævnt arbejder Google på højtryk for at kunne gøre produktionen så billig, at de kan give os dataene gratis. Med McCarthys idé om “computation as utility” in mente er det en fantastisk udvikling – det svarer til at få gratis strøm i stikkontakten. Men der er også tilsvarende farer på spil. Man plejer at sige, at hvis servicen er gratis, er man selv det produkt, der bliver solgt. Og præcis den forretningsmodel er kernen i så mange af de cloud services, vi er vant til at bruge. Prisen er vores privatliv, men vores glæde ved produktet overskygger det.
Det lokale organiseringsprincips død er det fede held, som NSA og andre sikkerhedsagenturer aldrig turde drømme om. Som PRISM-skandalen demonstrerede er det så let som ingenting for en efterretningstjeneste at få adgang til vores data i en af de mange centrale ophobninger. De skal bare stikke snablen ind og suge.
Der er et helt basalt misforhold mellem idéen om skyen og så den fysiske virkelighed, der ligger bag. Det ligner umiskendeligt den type drengestreger, som Silicon Valleys ideologiske hustlere igen og igen slipper afsted med (overvej udtrykket Twitter-revolution). Skyen slynger sig om kloden som en Midgårdsorm af stål, strøm, kabler og transistorer. Den er ingen svævende kollektiv bevidsthed, som vi kan synkronisere med og blive frie. Den er bygget, ejet og kontrolleret. Det er en forsimpling af virkeligheden, når rederi-milliardæren og laptop-filantropen Nicholas Negroponte fortæller, at der er findes atomer og bits, og at de to forresten er vidt forskellige. Bits er også atomer.
Den gamle Grateful Dead-sangskriver og Electronic Frontier Foundation John Perry Barlow skrev i 90’erne erklæringen A Declaration of the Independence of Cyberspace. Her hed det, at den industrielle verdens regeringer – “trætte kæmper af kød og stål” – ikke havde nogen autoritet i cyberspace, fordi man ikke kunne sætte hegnspæle i tankens immaterielle land. Det er der vist nogen, der har glemt at fortælle til Silicon Valley-nybyggerne, der utrætteligt fortsætter med at bygge hegn om deres egne bidder af internettet.
Søren Høgh Ipland er adm. direktør for Føljeton