Människa eller maskin?

Intelligenta maskiner

Forskare studerar hur maskiner med moraliskt beteende kan skapas. Henrik Carlsen konstaterar att ett nytt forskningsområde vuxit fram: robotetik.

Inom robotetik (eller mer generellt maskinetiken som även innefattar så kallade expertsystem) är man intresserad av om, och i så fall hur, det är möjligt att säkerställa att robotar beter sig mot människor på ett etiskt försvarbart sätt. Hur man än ställer sig till om detta är möjligt är det svårt att värja sig mot det faktum att artificiella system är delaktiga i händelseförlopp som kan ha etiska konsekvenser. Inom vårdsektorn utvecklas i dag system som syftar till att hjälpa akutläkare att ställa diagnos under stressade förhållanden. Det finns också planer på att utveckla robotar för övervakning på flygplatser. I några fall är dessa robotar också avsedda för direkta fysiska ingripanden mot människor som uppträder på ett sätt som kan verka misstänkt.

Robotetiken behandlar två centrala frågeställningar: Vill vi att vissa beslut av moralisk karaktär ska tas över av maskiner och hur ska dessa maskiner i så fall konstrueras? Man kan givetvis fråga sig om det inte är för tidigt att diskutera dessa frågor då robotutvecklingen ännu är i sin linda. Många forskare argumenterar för att det trots allt är viktigt att redan på ett tidigt stadium integrera dessa aspekter både i teknologiutvecklingen och i lagstiftningen så att vi får ett samhälle där människor kan leva sida vid sida med ”intelligenta maskiner”.
I många sammanhang tas svaret på den första frågan som mer eller mindre givet: Marknaden och det politiska systemet kommer inte att kunna motstå de förtjänster som den nya teknologin för med sig och detta kommer i sin tur att leda till att människor i vissa situationer också är villiga att överlämna ansvaret till maskiner.

När det gäller den andra frågan finns i dag två konkurrerande teorier om hur etiska principer bäst byggs in i robotar. Enligt den första teorin – som ofta kallas top-down – ska robotar programmeras att handla enligt ett antal givna principer. Så snart man bestämt vilka regler som ger ”bäst” moraliskt uppträdande är det bara att skrida till verket och ge roboten instruktioner att agera enligt dessa regler. Det finns en rad olika moraliska system som skulle kunna utgöra kandidater för att implementeras i framtidens etiska robotar: religiösa ideal, kulturella principer eller moralfilosofiska teoribildningar. Tio Guds bud är ett exempel på ett religiöst ideal. Dessa system leder dock ofta till motsättningar mellan de olika regler man har att förhålla sig till och därför har forskningen inom denna del av robotetiken främst kommit att fokuseras på att analysera olika moralfilosofier.

På grund av sitt tydliga mål att maximera den totala nyttan har utilitarismen kommit att bli något av en favoritfilosofi bland top-down-orienterade robotetiker. Om den utilitaristiska roboten står inför en beslutssituation har den bara att för varje handlingsalternativ summera nyttan för varje påverkad individ och välja det alternativ som har högst summa. Roboten stöter dock på samma problem som vilken människa som helst som försöker leva efter utilitaristiska principer: Hur ska nyttan mätas? Ett annat problem rör hur långt in i framtiden roboten ska beakta konsekvenserna av sina handlingsalternativ: Ska effekter av beslut i dag på kommande generationer tas med i beräkningen?
Deontologiska teorier, där fokus ligger på motiven bakom ett handlande, har också attraherat robotetikers intresse och det talas ibland om roboten som den perfekta kantianen. Kanske är det endast en maskin som mäktar med det som Immanuel Kant begär av oss, det vill säga att handla så att ens handlande kan upphöjas till allmän lag.

Alternativet till att bygga etiska robotar via ett regelbaserat system brukar kallas bottom-up. Detta betraktelsesätt hämtar inspiration från observationen att moral är något vi lär oss. Efter år av successiv träning och inlärning kvalificerar sig de allra flesta människor för medlemskap i en grupp byggd kring en gemensam moraluppfattning. I motsats till top-down-teorier implementeras inte ett regelsystem i roboten, utan det moraliska beteendet utvecklas i samspel med omgivningen.
Ursprunget till denna idé kan spåras tillbaka till en uppsats från 50-talet av Alan Turing, en av datalogins djupaste tänkare och samtidigt den brittiska underrättelsetjänstens skarpaste kodknäckare under andra världskriget. Uppsatsen inleds med en mening som har kommit att bli klassisk: ”I propose to consider the question, ’Can a machine think?’”. Frågan handlar om vad en maskin är, vad en maskin kan, men framför allt handlar uppsatsen om vad det innebär att tänka. Turing för här fram idén att i stället för att försöka skapa ett program som simulerar den vuxnas medvetande, kan man skapa ett program som simulerar ett barns medvetande. Om detta program sedan genomgår träning och successiv utveckling så skulle man erhålla något som liknar den vuxnes hjärna. Med inspiration från Turings idé har man börjat tala om evolutionär robotik. Hittills har dessa strategier mest kommit att tillämpas på att lära robotar mer triviala ting än moraliskt uppträdande, exempelvis förflyttning eller navigation i främmande miljöer, men förhoppningar finns om att nyttja liknande strategier för att utveckla högre kognitiva färdigheter.

Evolutionär robotik är, hävdar vissa forskare, en nödvändighet för att uppnå någon som helst grad av autonomt agerande hos framtidens robotar. Den ”läroprocess” som roboten då måste genomgå innebär nya utmaningar kring ansvarsutkrävande i samband med olyckshändelser där tekniska system varit inblandade. Traditionellt talar man om producentansvar och användaransvar. Enkelt uttryckt: Om användaren följt instruktionsboken faller ansvaret på producenten, medan användaren är ansvarig då olyckan orsakats av felaktigt nyttjande. En livaktig diskussion kring framtida autonoma system är huruvida detta – mycket förenklade – förhållande kan komma att utmanas då en tredje aktör införs i ansvarskedjan. Förutom producenten och användaren vid tillfället för tillbudet tillkommer då alla de användare som bidragit till att utbilda roboten genom inlärning i olika typer av miljöer och därmed varit med och påverkat dess utveckling. Det är lätt att tänka sig den ökade komplexitet som följer av att alla tidigare användare, tillsammans med tillverkaren, ska hållas ansvariga för en robots förehavanden.

Top-down respektive bottom-up representerar två ytterligheter i frågan om hur moraliskt beteende kan byggas in i maskiner. Analogt med hur man inom biologin talar om arv och miljö anser de flesta robotforskare att en kombination av de två ansatserna kommer att behövas om man över huvud taget ska nå någon framgång inom området.
När man talar om relationer mellan människor och maskiner är det i själva verket flera olika relationer som avses. Helt naturligt har maskinetiken kommit att fokusera på problemet kring hur maskiner som agerar etiskt i förhållande till människor kan byggas. Det är ingen överdrift att påstå att 99 procent av arbetet inom området berör detta problem. En naturlig följdfråga är hur människor etiskt bör förhålla sig till maskiner. Intuitivt kan denna frågeställning verka märklig, men i takt med större möjligheter att bygga avancerade maskiner kommer även denna frågeställning att aktualiseras.

Såsom i fallet med webbens framväxt visar sexindustrin ett intresse för den nya teknologins möjligheter. I januari förra året visades vad som påstås vara den första sexroboten. Enligt reklamen kan Roxxxy både föra enklare samtal och få (robot)orgasm. Företaget bakom Roxxxy arbetar nu även med att utveckla den manliga varianten, Rocky.
Även om redan detta utmanar några av våra föreställningar om vad som är etiskt försvarbart så dyker de verkliga problemen upp då Roxxxys mindre varianter lanseras. En inte allt för vågad gissning är att barnvarianten redan är under utveckling.  Är det etiskt försvarbart att ha sex med en robot som liknar ett barn? En vanlig argumentationslinje går ut på att dessa robotar skulle kunna få pedofiler att avstå från övergrepp på barn. I uppsatsen Virtual child pornography and utilitarianism analyserar filosofen Per Sandin frågan om den tekniska utvecklingen kan komma att tvinga oss att förändra en del av den moraliska argumentationen i debatten kring barnpornografi. Det vanligaste argumentet är att barn tar skada i framställningen av barnpornografi. Självfallet saknar detta argument grund i det virtuella fallet. Sandins argumentation kan överföras till sexrobotar som liknar barn, dock tror jag de allra flesta upplever situationen som (än) mer provocerande i fallet med en robot än ett datorprogram.

Den kanske allra mest grundläggande, och på lång sikt avgörande, frågan är hur samhället kommer att reagera på införandet av ”intelligenta” maskiner. Till avgörande del bestämmer existerande moraliska principer hur nya teknologier tas upp i samhället. Samtidigt är det viktigt att erinra sig att dagens moraliska teorier utvecklades långt innan autonomt agerande maskiner var tilltänkta. De nya teknologiernas möjligheter utmanar i vissa fall rådande moralparadigm; fildelningsdebatten utgör här ett färskt exempel. Är det så att vi på sikt får en utveckling där det moraliska system som är möjligt att implementera i robotar blir den allenarådande i samhället i stort? Kan teknologin på detta sätt få ett medbestämmande över samhällets moral?

Alan Turing drevs av nyfikenhet kring vad en maskin egentligen är. Jeanette Winterson vänder delvis på perspektivet i romanen Stengudarna och utforskar vad det innebär att vara människa genom att låta människan speglas i och utmanas av en nära avbild av henne, Robo sapiens. Vad definierar en människa? När upphör en människa att vara en människa? När blir en maskin en människa? Frågan om gränsdragningar kan i dag kännas trivial. Men i framtiden kommer robotarna att bli allt mer människolika samtidigt som vi kommer att bli allt mer robotlika, dels via olika typer av implantat som delar teknologi med robotarna men också via en socialiseringsprocess där vi lär oss att umgås med robotar. I den mån vi över huvud taget i framtiden kan tala om oss själva som en distinkt art, måste vi då kanske ta i den svåraste frågan av dem alla: Behövs vi? Det är endast den art som står högst upp i hierarkin som slipper motivera sin existens.

Henrik Carlsen
är filosofie doktor och forskningsledare vid Totalförsvarets forskningsinstitut, FOI. Han intresserar sig mest för klimatförändringarnas effekter på samhället och för teknikutveckling och social förändring.

http://www.unt.se/kultur/essa/manniska-eller-maskin-1510211.aspx

 

 



Kommentera:

Namn *:
E-post *:
Webbplats:
Kommentar *:
*