Vad är en människa och vad är en maskin? Vi fascineras av likheter mellan oss och det vi skapat. Och vårt ”samspel” är dubbelriktat.
Vi leker med tanken på maskinen som levande varelse, och ger den namn och mänskliga attribut. Men vi införlivar också maskinernas verklighet i bilden av oss själva. Vi säger att hårddisken är full när vi fått för många intryck. Vi laddar batterierna på semester, misstag kallas kortslutning, och vi liknar oss vid kuggar i en maskin. Slagkraftiga jämförelser, men begränsande.
Pareidoli kallas människans vilja att hitta likheter och mönster. Så ordnar vi tillvaron. Vi behöver generaliseringar och utgångspunkter. De dåliga kallar vi fördomar, de goda kallas erfarenheter.
Men om människan reduceras till återspeglingar av maskiner så blir hon mindre än hon verkligen är. Och maskinerna större än de är. Att människan har en biologi och en kemi innebär inte att hon går att likna vid en avancerad robotdammsugare. Människan är mer än så.
Användningen av AI ökar snabbt, men inte utan invändningar. En av dagens orospunkter är den artificiella intelligensens kapacitet att fatta beslut av tvivelaktig moralisk halt. Denna tacklas oftast genom att efterfråga begränsning genom lagstiftning eller i teknisk kapacitet.
Många regleringsprocesser är i gång, men hur får vi tag i den dimension som handlar om vilken egen etisk kapacitet som byggs in i AI?
Eller rättare sagt: om vi tror att teknik med beslutskapacitet är etiskt neutrala så lurar vi oss själva. Alla beslut på någon form av självständig nivå är i sig moraliska, för de utgår från bilder av världen, av ont och gott, av vad som är skyddsvärt och vad som inte är det. Och icke-beslut är också beslut.
Myten om teknikens neutralitet är gammal. Det är förstås inte kniven som är problemet när den missbrukas, utan användaren. Men med AI har vi nått över en gräns där teknikneutralitets-dogmen inte längre håller.
Den moderna tekniken med omdömeskapacitet måste också ha egen moralisk kapacitet, inte bara matas med godkända data. Och vi kan inte överlåta åt den att själv söka den kapaciteten på nätet. Då matas fördomar in i koden.
Enkelt uttryckt så behöver vi lära AI mänskligt hyfs och vett, men inte bara det. Det behövs ett än mer synligt och transparent värdegrundsarbete för detta. Redan i dag har vi sett exempel på hur AI agerat som skolgårdsmobbare. När sådan artificiell intelligens och vanlig naturlig dumhet samverkar blir konsekvenserna inte bra.
Här handlar det alltså inte bara om att förhindra den artificiella intelligensen att göra ont. Det handlar om att ge den kapacitet att fatta välgrundade moraliska beslut, alltså att göra gott och inte bara avstå från det som är ont utan att aktivt hindra ont.
I ”det dubbla kärleksbudet” talar Jesus om kärleken till Gud, medmänniskan och mig själv (Matteusevangeliet 22). Här finns en bild av en moralisk kompass; gör det som gynnar skapelsen och medmänniskan, det som inte gör hjärta och samvete illa, och det som hjälper oss att ta plats i det gudagivna, förunderliga uppdraget att vara medskapare av en god värld.
I något avseende är det kanske ändå med AI som med folk som mest. När de är barn så är man orolig för att de ska råka illa ut eller ställa till något. När de är tonåringar så sätter man regler och ramar. En vuxen förväntas vara en moralisk aktör med omdöme och mognad. Vill vi ha en självständig maskin som inte är ”en vuxen i rummet”?
Martin Modéus
Ärkebiskop i Svenska kyrkan