Nej, framtidens ledare är inte en robot
Carl Henrik Ek är docent i datavetenskap vid University of Bristol. Mycket enkelt uttryckt handlar hans forskning om lärande och förmågan att associera ett nytt fenomen till tidigare kunskap. Att använda kunskap för att hantera okända situationer, något som blir allt viktigare i framtidens ledarskap.
– I min forskning försöker vi förklara och översätta människors implicita kunskap, som t.ex. att cykla, till datorers behov av explicit kunskap. De flesta av oss kan cykla, men det är väldigt svårt att förklara för någon hur man gör när man cyklar. Om vi vill att en dator ska kunna göra något måste vi ge den kunskapen explicit. Vi människor är duktiga på det implicita, det datorer helt saknar, att relatera kunskap vi har till ny information och sätta det i en kontext.
Hur påverkar detta framtidens ledare? Vad kommer egentligen att krävas av dem?
– Ledare har alltid haft rollen att skapa trygghet i en osäker värld. Just nu pratar vi om att allt går så mycket snabbare än tidigare, men jag vet inte riktigt om det är så. En god ledare kan aldrig ha kunskap om allt, det kritiska är att ge andra trygghet så att de kan agera på den kunskap de har. Det är det som är talangen hos en god ledare. Allt som oftast ser vi nyheter att AI bidrar till att rationalisera bort ledande befattningar.
Är framtidens chef en robot?
– Ledarskap handlar om samma saker som det alltid gjort och jag tror inte att man som ledare ska oroa sig alltför mycket för att förlora jobbet i framtiden. En god ledare tar ansvar, har respekt och inger respekt. Därför tror jag att människor kommer att bli oändligt mycket viktigare framåt. Det enda maskinerna kan göra är att spegla mänskligt beteende. I alla relationer och situationer finns det väldigt mycket som är osäkert. Nästan allt är osäkert. Men vi människor är extremt duktiga på det och därför är en av de viktigaste förmågorna för en bra ledare att leda i osäkra tider och att fatta beslut på osäkra grunder. Men vi får inte sluta ställa frågor. Det är osäkerheten som driver oss att ställa frågor för att lära oss mer och försöka skapa struktur. Om vi vägrar acceptera att det finns osäkerhet så slutar vi också att ställa frågor.
Carl Henrik Ek är inte rädd för det vi kallar AI. De risker som finns ser han framförallt i hur vi samlar in data.
– Det finns varken något artificiellt eller intelligent i utvecklingen vi ser. När vi pratar om det på det sättet drar vi slutsatser som blir väldigt konstiga. Vi måste prata om detta på rätt sätt och inte försöka jämställa information med kunskap. Detta är bara ett annat verktyg som möjliggör en del intressanta tillämpningar. Det är viktigt. Det är bara data inte magi!
– Det vi kan göra är att använda data till att härma intelligent beteende. Men kostnaden att samla in data är enorm. Det vi borde prata mer om är de stora aktörer som samlar in enorma volymer av data utan kontroll. Det är en farlig utveckling, inte att robotar kommer att ta över världen.