Optimeringskontroll av Västra Götalandsregionen

Idag har jag gjort en större kontroll av hur Västra Götalandsregionens webbplatser presterar. Som många större organisationer har VGR väldigt många olika kanaler och webbplatser vilket gör en överblick ganska svår. Dessutom finns säkert hundratusentals undersidor på webbplatserna.
Tack vare att samtliga webbplatser indexeras i sökmotorn VGR har kan man dock få ut listor på nyligen ändrade eller skapade sidor.

Sagt och gjort, jag plockade ut de 500 senast skapade/ändrade sidorna och testade dem – resultatet har du här.

Den absoluta merparten av sidorna klarar inte av att leva upp till VGR:s checklista för bra webbkvalitet och bland fynden märks bland annat:

  1. Fel ordning på stilmallar och javascript vilket medför att det tar onödigt lång tid att rita upp sidan för besökaren.
  2. Flertalet javascript-filer och flertalet stilmalls-filer, att ha många filer ger mer väntetid än nödvändigt.
  3. Identiska javascript-filer anropas flera gånger på samma sida vilket är slarvigt och kan fördubbla nedladdningstiden för den filen.
  4. Anropsstorleken är upp till 3Kb per fil för att hämta små ikoner – alltså kan filen vara mindre än anropet…
  5. Bildhanteringspluginet ImageVault sätter inte utgångstid på bilder vilket gör att de laddas hem trots att de kan finnas i cache.
  6. CSS Sprites, sammanslagna bilder alltså, används visserligen men i väldigt liten omfattning vilket gör att det finns massor med små ikoner att ladda hem var och en för sig.
  7. Filer som inte existerar anropas, blank.gif exempelvis.
  8. Bilder skalas om via HTML eller CSS vilket gör att bildens nedladdningsstorlek i somliga fall kan minskas med 94%.
  9. ImageVault optimerar inte bilder för visning på webben, potential mellan 6-84% i att minska storleken på bilder som skickas till besökaren.

Ok, så hur kan man tolka detta?

Ja, beroende på hur man ser det så finns det tre olika som är “skyldiga” till detta. Slarviga konsulter, tillbakalutade beställare och okunniga redaktörer. Vi tar och , fördömer, dem en efter en 🙂

Slarviga webbkonsulter/leverantörer

När en kund vänder sig till en leverantör kommer man med förhoppningar och möts av den leverantör man till sist väljer av löften om god kvalitet. För inte så länge sedan läste jag på IDG & Facebook om ett IT-företag i Örebro som släppt ett nytt erbjudande i form av sociala intranät som är färdigt och kvalitetskontrollerat.
Jag är ju väldigt allergisk mot vissa termer och frågade vad de menade med “kvalitetskontrollerat” och vem som gjorde kontrollen. En tekniker från OneSys ryckte in och försökte så gott det gick att förklara att det var Microsofts .NET-plattform som avsågs. Helt enkelt lika kvalitetssäkrat, av utgivaren/intressenten, som Java och MySQL är av Oracle.
OneSys är på inget sätt ensamt, snarare är de som kör klarspråk om vad de erbjuder väldigt ensamma. Som leverantör är det kanske svårt att få uppdrag genom att prata mycket om sina egna svagheter och problemen med de saker de erbjuder, och självklart finns en selektivitet i vad man väljer att ta upp i den kortfattade dialog man har med kunder eller via media.

Problemet är att det uppstår ett glapp mellan vilken förväntan man sätter inledningsvis, vad som faktiskt levereras och hur bra det leverade står sig över tid. Vems problem är det? Mestadels är det leverantörens då de troligen vill ha ett bra rykte, men den som riskerar pengarna de investerar i en relation behöver ju också förstå ganska mycket av vad de beställer.

Första veckan som webbstrateg på Västra Götalandsregionen fick jag en sån surdeg till diskussion med en av de konsultfirmor VGR jobbat med väldigt länge. Diskussionen blev lite märklig på grund av en defensiv säljchef som tyckte att ansvaret var delat, vilket kan vara svårt att förstå när de lagt ut inloggningsuppgifter sökbara på nätet i ett öppet versionshanteringssystem. Inloggningsuppgifter som potentiellt kunde röja skyddade identiteter som lämnas ut av en slarvig konsult är åtminstone inte kundens ansvar.
Mycket smartare är att göra en pudel och bevaka rimligheten i hur mycket man kompenserar sin kund.

Tillåt mig lansera ett, för vissa leverantörer kanske nytt, begrepp. Yrkesheder!

Två frågeställningar som motiverar mig till justeringar av leverans utan önskan om betalning:

  • Det man levererat är sämre än förväntat på uppenbara punkter?
  • Det är sämre än det de andra leverantörerna man konkurrerade om uppdraget skulle levererat?

Som du ser är detta ett rörligt mål, särskilt när det handlar om hur man ser på webbsidor vilket gör att man kanske kan utfästa en garanti på sitt jobb som sträcker sig max några månader efter leverans.
Man kan fråga sig varför man ska ha en sådan garanti. Egentligen ganska enkelt. Inom konsultbolag pratas det konstant om att uppdrag är det bästa sättet att utbilda sina konsulter.
Vad kan vara bättre än att både få en nöjd kund och lära sig hur man uppfyller moderna krav – samtidigt?

Med andra ord förväntar jag mig som kund idag att en nyleverad webbplats bland mycket annat har ett prestandabetyg enligt Googles Pagespeed på absolut minst 80 av 100. Inte nog med det, inga galna slarvfel som att anropa filer som inte finns eller strunta i att aktivera komprimering eller utgångsdatum på statiska filer.
I leverantörernas ständiga mål med merförsäljning får det gärna ingå förslag på hur man mäter kvaliteten på användningen av webbplatsen. Detta erbjuds allt mer i form av rådgivning, rapporter och medföljande verktyg.

Tillbakalutade beställare

Som beställare är man gud allsmäktig enligt många jag jobbat med på konsultsidan. Tänk om det vore så pass enkelt. Man är varken mäktig, allvetande eller har gott om resurser.
I vissa fall är man, som inom det offentliga, bakbunden till att välja det billigaste förslaget på det man efterfrågar även om man vet att det är skojare eller kanske bara en okänd leverantör man har att göra med.

Inte sällan frågar man efter något man inte riktigt vet vad det innebär. Kommer ihåg den, i mitt tycke, märkliga diskussionen jag iakttog från sidlinjen när EPiServer valdes som publiceringssystem på VGR. Bland kombatanterna fanns verkligen allt möjligt från etablerade IBM med sin Lotus-plattform till då inte speciellt etablerade EPiServer via stora konsultfirmor.
Det argumentet som verkligen irriterade mig kring EPiServer gick ut på att det följde med standardmallar direkt i installationen, bland annat för kalender och diskussionsforum. Det var värdefullt att det följde med en textfil med <asp:Calendar /> helt enkelt.

Att samma saker fanns i merparten av de andra plattformarna är visserligen upp till leverantörerna att ta upp, men hur tusan ska man som leverantör veta exakt vad beställaren hänger upp sig på som mervärde? Det är lätt att vara subjektiv när man beställer något man inte kan göra själv.
Som beställare hade det varit önskvärt med en liten inkvisition av konkurrerande leverantörer som sitter ner och lyssnar in på varandra. Det kanske är en liten del av min roll nu på beställarsidan 😛

Om inte annat är det viktigt att ha verktyg för att följa upp hur webbplatsen presterar. Ofta finns verktyg för att analysera felloggar eller annat som teknikerna gillar, nog mer sällan för kvalitetsaspekter.

Okunniga redaktörer och användare

Har du gått redaktörskursen i ett publiceringssystem? Jag har åtminstone gått den för EPiServer 4. Det är inte raketkirurgi, tro mig 🙂
Man får lära sig hur man gör så systemet accepterar det jag försöker göra, det har väldigt lite ingredienser i sig om hur en bra webbplats blir till.

Jag skulle tro att de flesta webbredaktörer till största delen egentligen jobbar med något annat oavsett vilken organisation de jobbar i. Så är det i alla fall hos oss.

En öppen attityd om att vi alla felar, behöver hjälp av andra och lite hjälpsamma verktyg *host* optimeringskoll m.m., att generationen som tror att webben är en trycksak går i pension så kommer innehållet bli så mycket bättre.

Vad tror du?