Vad händer?
De senaste åren har de oönskade konsekvenserna av sociala medier i allmänhet och Facebook i synnerhet blivit alltmer uppenbara, från ryska försök till valmanipulation över Cambridge Analytica skandalen till hur ångest, depression och psykisk obalans ökar bland unga i takt med ökad användning av sociala medier. Bakom alla dessa manipulationer och påverkansförsök ligger förstås algoritmer som blixtsnabbt, ned på individnivå, kan räkna ut vilka budskap som har största effekt, skapar största ilska eller håller kvar användaren längsta tiden i appen.
Men algoritmerna kan numera också användas av ”the good guys” för att uppmärksamma olika typer av oönskade konsekvenser. Redan i dag finns Allen Institutes’ Grover, vars algoritmer har lärt sig att med 90-procentig säkerhet avslöja om det är en människa eller en maskin som skrivit en text.
På samma sätt går det att utveckla algoritmernas ”kanariefåglar i gruvan” som i en mer övergripande kontext upptäcker om nya produkter eller tjänster riskerar att leda till desinformation, maktkoncentration, integritetsintrång, ojämlikhet, miljöförstöring och/eller social isolering. Förhoppningen är att sådana datasystem inte bara ska bli naturliga delar i innovationdrivna företags verktygslådor, utan framför allt kunna vägleda riskkapitalister och finansiärer i deras utvärdering av vilka projekt som är värda att stöttas.
Redaktionens kommentar
Ett ofta använt exempel på ny, lovande och viktig teknik, men med potentiellt stora risker för oönskade konsekvenser är gensaxen, CRISPR/Cas9 som för övrigt vann nobelpris förra året. Om t.ex. någon/några mindre nogräknade forskare skulle falla för frestelsen att för en rejäl summa använda tekniken och hjälpa förmöget folk att bli sensationellt mycket smartare och snyggare skulle det skapa en biologisk klyfta som överskuggar dagens ojämlikhet när det gäller ekonomi, hälsa och möjligheter.