Featured Articles

This is featured item #1

This is description for featured item #1. You can change this content via theme option menu

This is featured item #1 This is featured item #1

This is featured item #2

This is description for featured item #2. You can change this content via theme option menu

This is featured item #2 This is featured item #2

This is featured item #3

This is description for featured item #3. You can change this content via theme option menu

This is featured item #3 This is featured item #3

This is featured item #4

This is description for featured item #4. You can change this content via theme option menu

This is featured item #4 This is featured item #4

This is featured item #5

This is description for featured item #5. You can change this content via theme option menu

This is featured item #5 This is featured item #5

Videos

Nick Bostrom on Superintelligence: Paths, Dangers and Strategies

https://www.youtube.com/watch?v=-UIg00a_CD4

 



Forskning som förändrar Övervakning, Integritet och Autonomi

http://www.swedishmedtech.se/News.aspx?r_id=121390

 



Videos

Martin Ingvar on ICT transforming healthcare

https://www.youtube.com/watch?v=PCHcgl8NvuY



Elektoder i Hjärnan Sveriges Radio, Etik och debatt-Nya Teknologier, Etikråd avseende hjärnimplantat, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi, Hjärninspirerade datorer, Nya teknologier för människa-maskin-integration

KTH Anders Lansner and Stockholm University create human like artificial intelligence by mimic the brain

BRAIN-ICT CONVERGENCE BY ANDERS LANSNER, KTH AND STOCKHOLM UNIVERSITY

Speaker: Anders Lansner,
Department of Computational Biology, School of Computer Science and
Communication, KTH and Stockholm University
When: Tuesday, February 21, 10:00 – 11:00AbstractThe
most advanced biological information processing system is the human
brain. It is an amazing and still partly mysterious organ that by far
outperforms man-made artifacts in tasks involving, for instance,
advanced perception and sensory-motor control. One possible path to
future human-like artificial intelligence is to mimic how the brain is
built and works. This development is promoted by the rapid progress in
neuroscience and brain research as well as in information technology –
the current development towards massively parallel computer
architectures and hardware designs makes our computers more brain-like.
The aim of this talk is to discuss developments and technological
potentials of the fields of computational neuroscience and brain-like
computing. I will discuss state-of-the-art in modeling and supercomputer
simulation of the brain. I will also describe some research activities
aiming at brain-like computation and development of neuromorphic
hardware.
BiographyAnders Lansner
received his PhD in Computer Science from KTH 1986. He is presently
Professor in Computer Science at Dept of Computational Biology joint
between Stockholm University and KTH. He has for 30 years done research
in computational neuroscience and brain-inspired computing. He is
partner in several EU research projects on computational neuroscience
and neuromorphic engineering and member of the IT section of the Royal
Swedish Academy of Engineering Sciences (IVA).

https://www.sics.se/events/brain-ict-convergence-by-anders-lansner-kth-and-stockholm-university



Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi, Nya teknologier för människa-maskin-integration

SvD Trådlös sensor med koll

Många användningsområden för sensornätverk

Datorerna har tagit klivet från skrivborden till våra fickor och nu fortsätter datakraften att sprida sig. Överallt får vi små sensorer som registrerar allt från luftföroreningar till våra egna hjärtslag. Effekterna blir drastiska men ännu är tekniken bara där internet var för 20 år sedan – vid starten på en lång osäker resa.

Uppdaterad kl 09:32, 12 april 2010

När lastbilen kör över bron vibrerar det. Vibrationerna fångas upp av en liten sensor som känner av om skakningarna tyder på att det håller på att bli en spricka.

Så håller det på dag efter dag ända tills sensorn verkligen märker att det blivit en spricka. Då går ett larm via mobilnätet och Trafikverket får skicka ut en ingenjör som kontrollerar saken.

Det här är ett av väldigt många scenarier för hur trådlösa sensornätverk kan användas. Men det är som sagt bara ett av många områden och i takt med att tekniken utvecklas och priserna faller räknar forskarna med att vår omgivning fylls av sensorer.

De är små, billiga och kan mäta allt från luftföroreningar till våra rörelser i hemmen. Framför allt kan de slå larm och berätta när någonting inte är som det ska.

De kommer dessutom i väldiga mängder. En siffra som ofta nämns, bland annat av Ericsson, är att det kommer att finnas 50 miljarder uppkopplade apparater 2020. Många är mobiler och datorer, men framför allt handlar det om en stor mängd sensorer som mäter allt möjligt.
Sensorerna kan dessutom ses som nästa stora steg i internets utveckling. Först var internet bara ett sätt att koppla ihop datorer. Nu ansluts allt fler mobiler och därefter är det dags för sensorerna.

Arbetet med trådlösa sensornätverk är ett ungt område där svenska forskare i Stockholm och Uppsala skaffat sig en bra position i Europa, vid sidan av de schweiziska kollegerna. Men som så ofta är det amerikanska forskare som går i täten och det försteget kan man spåra tillbaka till slutet av 1990-talet när det kom upp diskussioner om smart dust, intelligent damm.

Tanken var att militären från flygplan skulle kunna sprida ut tiotusentals små mätare över ett område. De skulle kopplas ihop trådlöst och för att sedan skicka tillbaka information om hur fienden rör sig, om det kommer farlig gas eller händer något annat som är viktigt att veta. Man skulle helt enkelt skapa ett moln över området som samlade in viktig information.
Sedan har tekniken tagit klivet över till den civila sidan och här arbetar forskarna med att försöka använda trådlösa sensorer på en rad olika områden. På sikt kan effekterna bli enorma och det hela påminner om hur det var när internet växte fram.

Även nätet började hos militären och de flesta hade länge svårt att föreställa sig vad tekniken skulle leda till. Idag har internet lett till drastiska förändringar på en rad olika områden.

–De trådlösa sensornätverken befinner sig ungefär på samma stadium som internet gjorde i slutet av 1980-talet, säger Adam Dunkels.

Han är forskare på datainstitutet SICS i Stockholm och har lyckats få en rad utmärkelser och bli en världskändis på området. Framför allt har han utvecklat operativsystemet Contiki som spelar en central roll i utvecklingen av trådlösa sensornätverk.
Eftersom sensorerna ska vara små och strömsnåla utgick man länge från att de krävde speciallösningar. Men Adam Dunkels utvecklade ett system för sensorer som bygger på samma teknik, ip, som används för att skicka data på internet.

Det gör också att man på ett förhållandevis enkelt sätt kan använda vilken dator eller internetansluten mobil som helst för att komma åt den information som en sensor lämnar ifrån sig. Förutsatt att man har rätt behörighet.

Sannolikt kommer just mobilen att framöver spela en central roll i sensornäten. Ett uppenbart skäl är att vi alltid har mobilen med oss och därför är det naturligt att de uppgifter som sensorerna samlar in visas där.

Mobilen är dessutom i sig en utmärkt insamlare av information. Den har kamera, mikrofon, rörelsesensorer, gps och annan teknik som kan registrera vad som händer runtomkring. Den kan också förses med sensorer som mäter luftföroreningar med mera.

Allt det här väcker också frågor kring den personliga integriteten. Vill vi verkligen ha sensorer som registrerar när vi kommer in i ett rum eller som ständigt övervakar vårt hjärta?

För en hjärtsjuk kan det vara tryggt att vara övervakad av en sensor som slår larm till läkaren om något händer. Men att någon annan via internet kan komma åt informationen känns inte bra.

–Den personliga integriteten är ett av de svåraste områdena. Det måste man vara medveten om när man utvecklar den här tekniken, säger Adam Dunkels.
Men det finns fler utmaningar. Priset på de trådlösa sensorerna måste ned, man måste ena sig om olika standarder, det krävs bättre batterier eller andra lösningar som kan ge sensorerna energi, och systemen måste bli mer stabila. Som Adam Dunkels uttrycker det har datorer en tendens att krascha och med trådlösa sensornätverk får vi en stor mängd datorer överallt. Och så måste man klara av att hantera de enorma datamängder som sensorerna skapar och knyta ihop de komplexa system som krävs om många miljarder datorer, mobiler och sensorer ska fungera ihop.



Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi, Nya teknologier för människa-maskin-integration

ERICSSON Biomedical Wireless Sensor Network

Biomedical Wireless Sensor Network
December 2007
• Advanced sensors combined with wireless communication
• Future opportunities for supporting mobility while monitoring vital body functions in hospital and home care
• Reduced costs, improved monitoring, and better life quality for the patient

bål

 

biomedcalhttp://www.sintef.no/project/Tradlospasient/Prosjekter/Biomedical%20Wireless%20Sensor%20Network%20(BWSN)_NICe%20report_web.pdf



Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi, Nya teknologier för människa-maskin-integration

Synthetic Populations – computer-generated populations of individuals.

 

SyntPop

Synthetic Populations

The group was created by Prof Magnus Boman and Dr Lisa Brouwers in 2007 to meet the demand for investigations into computer-generated populations of individuals. In particular, investigations into the use of such populations for simulating complex processes, such as epidemic spread in space and time, was prompted by important real-life problems. While the concept of ‘individuals’ normally pertains to people, it could be generalized to denote animals, robots, viruses, or even trees, but processes governing spread are our primary concern.

In general, modeling people and their actions is very difficult, and any claims for adequacy must be carefully scrutinized. When using data on real people, such as demographics, the problem of maintaining the anonymity and personal integrity of each individual is added to the list of problems that need to be addressed. Even handling such databases requires extreme care and special permits for running simulations, because of the ethical dimension. If instead a synthetic population can be generated with the same, or at least very similar, properties as the original database, the synthetic population can replace the original one in simulations and other forms of manipulation.

The SyntPop group is strongly linked to S-GEM, which provides an agora for interdisciplinary research into epidemiological processes, not least through its seminars. Our own seminar series concentrates on the computer and systems science aspects of epidemiology and, as the name implies, synthetic populations in particular.

 



Elektoder i Hjärnan Sveriges Radio

TV. UR Samtiden – Lundaforskare föreläser 2013 Prata med hjärnan

Det rör sig i våra hjärnor. Hjärncellerna är i ständig rörelse och pratar och lyssnar, säger Martin Garwicz, professor i neurofysiologi vid Lunds universitet. Vi vet mycket men måste förstå mycket mer om hur hjärnan fungerar för att kunna motverka nerv- och hjärnsjukdomar. Inspelat i juni 2013. Arrangör: Lunds universitet.

Längd:

 22:25Sändes:

tisdag 7 jan. 2014Tillgängligt t.o.m.

torsdag 13 mars. 2014

 

http://urplay.se/Produkter/177968-UR-Samtiden-Lundaforskare-forelaser-2013-Prata-med-hjarnan



Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi, Nya teknologier för människa-maskin-integration, Politik, Civil-Militär-Forskning

Stockholm Brain Institute Animal Tracking System

Ethovision XT is an automated animal tracking system which can be used for tracking and analysing behaviour, movement and activity of an animal.

(Homo sapiens is also an animal)

 

EthovisionXT

 

http://stockholmbrain.se/sbi-research/sbi-methodological-platforms/translational-behavioural-neuroscience-tbn/animal-tracking-system/



Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi, Nya teknologier för människa-maskin-integration, Transhumanism

Anders Sandberg Mobila människan

Mobiltelefonen har blivit prylen som vi fyller med mobil elektronik. Men många forskare tror att det här bara är början – att mobilen snart kan styras från din hjärna och leverera informationen direkt till hörselnerven.

Publicerad:

20 okt 2009 – 20:52

Uppdaterad:

27 nov 2013 – 11:00

Tänk dig en framtid där du hör om något spännande som du vill veta mer om. I stället för att gå till en dator trycker du bara på Google-knappen på din mobiltelefon. På dina glasögon projiceras då en bild över träffarna på Google för det som du tänkte på. Mobiltelefonen har redan registrerat dina tankar via en krets inopererad i hjärnan och vet vilket ämne du senast tänkt på. På den projicerade skärmen på glasögonens insida tittar du på den Google-träff du vill slå upp, och då skickar mobiltelefonen informationen uppläst till en elektronisk krets kopplad till dina hörselnerver.

Låter det som galen science fiction? Inte enligt Anders Sandberg, neurobiolog som just nu deltar i eu-projektet Enhance Project, där man undersöker etiska aspekter av alla dessa möjliga förbättringar av människan.

Jag bestämmer mig för att få höra hans syn på framtidens mobila människa och reser i väg till Oxford University där han just nu bedriver sin forskning i ett team knutet till den filosofiska institutionen.

När tåget från London närmar sig Oxford knappar jag in ett sms till Anders om när vi ska träffas. I framtiden kanske jag inte ens behöver knappa in bokstäverna. Framtidens t9 sitter i hjärnan, om man får tro forskare som Anders Sandberg.

 

Google-chipet ingår i neurobiologen Anders Sandbergs förhoppningar om framtiden.

Hjärnan som fjärrkontroll

För tre år sedan började 26-årige Matthew Nagles, som hade svåra skador på nervsystemet, kunna spela tvspel med hjärnan som fjärrkontroll. Det blev ett mycket konkret exempel på den forskning som görs där människans hjärna och nervsystem öppnas upp för anslutning till elektronik.

Forskningen presenterades i vetenskapstidskriften Nature och den visade hur en mycket liten inopererad krets i hjärnan kunde avläsa hans hjärnaktiviteter.

Matthew Nagle kunde i sin tur med hjälp av denna krets lära sig styra en markör på en datorskärm, spela datorspel, använda hjärnan som tv-fjärrkontroll och så småningom också styra en robot-arm så att han själv kunde koka sina potatisar.

Med hjärnan går det enligt forskarteamet också att skriva text på datorn, men i nuläget tar det dubbelt så lång tid som med ett vanligt tangentbord. På sikt kommer inmatning via hjärnimpulser förmodligen att gå snabbare än dagens tangentbordsskrivande, anser forskarna.

Redan i dag går det alltså att styra elektronik från hjärnan. Det är inte längre en fråga om science fiction. »Neurodevices« ses inom medicinsk affärsverksamhet som ett produktområde med snabb tillväxt. Företaget Cyberkinetics har redan varumärkesskyddat produkten Braingate där personer med hjärnskador kan styra sitt hem med hjärnan som fjärrkontroll.

 

I filmen Universal Soldier har USA:s armé skapat de perfekta stridsmaskinerna – döda soldater som trimmas upp med modern robotteknik. Men armén tappar kontrollen över sina soldater.

Efter medicinens framsteg

I framtiden kommer mobiltelefonen att vara navet för vår mobila uppkoppling till internet och elektroniken i vår omgivning, menar neurobiologen Anders Sandberg när jag tack vare dagens primitiva sms-teknik lyckas träffa honom i Oxford:

– Mobiltelefonen kommer att bli den naturliga punkt som all den mobila elektroniken samlas kring.

I nuläget handlar utvecklingen om den här tekniken ofta om att kunna komma tillrätta med skadade och funktionshindrade människors problem, att möjliggöra styrning av kroppens nervsystem. Men när man väl lyckats ta reda på hur nervsystem och hjärna kan interagera med elektronik utanför kroppen öppnas ett helt nytt fält av möjligheter.

Att det är den här typen av rent medicinska tillämpningar som kommer först beror bland annat på att det är den typen av forskning som kan få finansiering. Att utveckla för att hjälpa sjuka och skadade är prioriterat inom medicinsk forskning. Utanför medicinen är det bara den amerikanska militären som via den militära forskningsmyndigheten Darpa anslår stora belopp på forskning för att förbättra och bygga ut mänskliga egenskaper, då för de amerikanska soldaterna.

– Många menar att medicin enligt definitionen bara får ägna sig åt att bota sjukdomar och skador. Men medicinen har redan länge gjort många människoförbättrande åtgärder som inte handlat om att bota sjukdomar. p-pillret är väl det mest frekvent använda exemplet, säger Anders.

Anders själv har Google-chipet som en favorit bland uppfinningarna som det talas om inför framtiden. En av Googles skapare, Larry Page, har själv väckt idén om ett sådant chip.

– Inför framtiden kan vi tänka oss att din hjärna blir avlyssnad av Google, till exempel att du tänker på ett ämne, och så kan din mobiltelefon viska svaret i ditt öra, sa Larry Page till nyhetsbyrån Reuters.

»Galet genomgå operation«

Det här uttalandet rönte en hel del uppmärksamhet, inte minst bland kommentatorer som avfärdade det hela som galet att vi skulle vilja genomgå en operation för att möjliggöra Google-sökningar från hjärnan.

Anders Sandberg tror inte att Google som funktion är det som kommer att bli den första funktionen för elektroniska kopplingar till hjärnan. Det är inte konstigare än att internet inte skapades för att vi ville ha Google. Det första syftet för internet var snarare väldigt praktiskt anpassat för akademiska och militära myndigheter.

På samma sätt utvecklas den teknik vi här talar om just nu för svårt funktionshindrade, men när tekniken förfinas kan den komma till oss »vanliga« människor också.

– Första chippet i hjärnan måste göra något mer än bara googla – mobilen kan ju göra det utmärkt från start utan kirurgi. Så grundfunktionen för ett sådant chip är snarast uppmärksamhetsstyrning

– dels märka vad man uppmärksammar, men dels också chansen att kontrollera graden av vakenhet och kanske rent av rikta in den. När man väl har en sådan funktion är ju Google-information en extra funktion man kan lägga in, liksom styrning av interfacet i mobilen, säger Anders Sandberg.

 

I filmen Existenz kopplas elektronisk utrustning till människor genom nervsystem via svanskota. Med en fjärrkontroll kan man sedan styra sin virtuella verklighet.

En egen livsdatabas

Att kunna se information visuellt via glasögon i stället för stora skärmar är en tanke som visats i både science fictionfilmer som »Robocop« och i reklamfilmer från kreditkortsföretag.

– Glasögonen kan mycket väl utvecklas till kontaktlinser med tiden. De kan också spara informationen man ser och hör i ens egen »livsdatabas« som man kan använda vid behov, menar Anders Sandberg.

Just det här med livsdatabaser är något vi kommer in på flera gånger under intervjun. Redan i dag ser vi hur människor lagrar sina minnen i text och bild på webbaserade databaser som Flickr och Gmail.

– Man kan tala om tre slags minnen här, dels det biologiska minnet i hjärnan, dels det privata lagringsminne som vi har på exempelvis Flickr, men också det kollektiva minnet som finns på webbsajter som Wikipedia, säger Anders.

Redan i dag blir det kollektiva minnet allt viktigare och länkas ihop med personliga lagringsminnen. På bildsajten Flickr kan bilder taggas med exempelvis platsen de är tagna. Utifrån en stor mängd Flickr-medlemmars bilder kan Flickr skapa en 3d-modell på skärmen från Notre Dame. All information kan lagras i enorma databaser, och den nya kunskap det kollektiva minnet får är hisnande.

– Mobilen är både länken till informationsvärlden och ett filter för den, samtidigt som den agerar ett lokalt utskott av ens datorresurser, av vilka huvuddelen ligger hemma eller hyrs online på Flickr, Gmail och så vidare.

Det är inte säkert att elektroniken behöver opereras in i kroppen. Niels Bir-baumer, en hjärnforskare vid Tübingens universitet i Tyskland har utvecklat en teknik för att läsa av hjärnverksamheten genom huden. Om den typen av teknik kommer att räcka för våra framtida önskemål om att vara uppkopplade till vår mobila elektronik vet vi förstås inte.

Men möjligheten att komma åt mobil teknik från hjärnan utan kirurgiska ingrepp är förstås ett spår som känns mindre långt borta.

Stu Wolf, forskare på den amerikanska militärens forskningsmyndighet Darpa, menar att vi i framtiden kommer att se på datorer på samma sätt som vi betraktar skrivmaskiner i dag. Framtidens motsvarighet till datorerna menar han kan byggas in i ett pannband som läser av hjärnaktiviteterna. Det går att interagera med hjärnan utan inbyggda elektroner.

När jag intervjuar Anders Sandberg kommer vi förstås också in på integritetsfrågor. rfid är en teknik som gör att alla möjliga föremål och levande varelser kan märkas och avläsas var de befinner sig, som ett slags streckkod, men i form av en radiosignal. rfid-taggar fästs redan i dag under huden på husdjur. Nyligen krävde företaget Citywatcher.com att vissa anställda skulle bära rfid-taggar under huden, som en extra säkerhetsåtgärd menade man eftersom rfid-utrustade passerkort kan komma på avvägar.

Vill verkligen människor ha rfidtaggar på sig som identifierar dem när de går förbi elektroniska enheter, som tunnelbanespärrar? Vill verkligen människor att elektroniska system ska ha koll på var de befinner sig, och kanske till och med att mobilen lagrar data om deras tankeverksamhet?

 

I filmer som Strange Days och Total Recall visas en tänkt framtid där du kan köpa minnen av upplevelser, för att själv uppleva. Du köper helt enkelt en semesterresa, till exempelvis Mars, pluggar in den i armen, upplever den och kanske mår du också bra, även om den här bilden från Total Recall talar ett annat språk.

RFID-band runt halsen

Det är inte första rfid-konflikten som seglat upp på senare år. Övervakningsproblemet med rfid-taggar har varit på tapeten en längre tid, inte minst sedan en skola i Kalifornien infört rfid-band som eleverna måste bära runt halsen, som ett sätt att öka säkerheten på skolan.

– Problemet med integritet har vi redan i dag. Nu när vi sitter på det här kaféet och dricker var sin kaffe är vi övervakade av mer än tre videokameror, säger Anders och pekar ut ett flertal övervakningskameror både utanför och inne på kaféet.

Tekniken erbjuder också möjligheter att styra över integritetsproblemen, menar Anders Sandberg:

– Vi kommer att vilja ha rfid-taggar i vårt privatliv. Just därför kommer vi också att använda mobilen som en brandvägg för att sätta gränser för intrång i integriteten. Vi kommer att kunna sätta spärrar för rfid-sökningar av oss från mobilens gränssnitt.

Men utvecklingen där människans möjligheter utökas med ny teknik har också fått många andra invändningar:

– Vissa menar att det här hotar den mänskliga naturen. Det är en invändning som är vanlig i usa. I Europa är den vanligare invändningen att det ökar ojämlikheten, att bara de som redan i dag har ekonomiska resurser kommer att ha råd med att ta del av den nya tekniken.

Det finns också en oro att vissa företag ska kunna kontrollera vårt tänkande.

– Antag att ett visst chip från Microsoft stör tankarna på gratisprogram som Linux, säger Anders Sandberg.

 

Sony Ericssons Bluetooth-klocka och Motorolas Bluetooth-glasögon är två mobila prylar som redan kommunicerar med telefonen i fickan.

Läs mer på nätet

Cyberkinetics Inc. Företaget bakom utrustningen som låter människor med skadat nervsystem styra hemmet med hjärnan som fjärr kontroll.

Enhance Project EU:s projekt för etisk granskning av människoförbättring

Miguel Nicolelis sida om forskning om hjärnan och minnet

Anders Sandberg om RFID-brandväggar

http://www.mobil.se/business/mobila-m-nniskan



Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi, Hjärninspirerade datorer, Nya teknologier för människa-maskin-integration

BBC News Web-based ‘brain’ for robots goes live

BBC News 8 March 2013 Last updated at 11:55 GMT

Robot holding apple

Robots confused about what they encounter in the world of humans can now get help online.

European scientists have turned on the first part of a web-based database of information to help them cope.

Called Rapyuta, the online “brain” describes objects robots have met and can also carry out complicated computation on behalf of a robot.

Rapyuta’s creators hope it will make robots cheaper as they will not need all their processing power on-board.

The Rapyuta database is part of the European Robo Earth project that began in 2011 with the hope of standardising the way robots perceive the human world.

Instead of every robot building up its own idiosyncratic catalogue of how to deal with the objects and situations it encounters, Rapyuta would be the place they ask for help when confronted with a novel situation, place or thing.

In addition, the web-based service is able to do complicated computation on behalf of a robot – for example if it needs to work out how to navigate a room, fold an item of clothing or understand human speech.

The system could be particularly useful for drones, self-driving cars or other mobile robots who have to do a lot of number crunching just to get round, said Mohanarajah Gajamohan, technical head of the project at the Swiss Federal Institute of Technology in Zurich.

Cloud control”On-board computation reduces mobility and increases cost.” said Dr Heico Sandee, Robo Earth program manager at the Dutch University of Technology in Eindhoven in a statement. As wireless data speeds increase more and more robotic thinking could be offloaded to the web, he said.

Without access to such a database, roboticists fear machines will be restricted to working in very tightly controlled environments such as production lines and never live easily alongside humans.

The project, which involves researchers at five separate European research labs, has produced the database as well as software that robots can run to connect to and quiz Rapyuta.

The name Rapyuta is taken from the Japanese film by Hayao Miyazaki Castle in the Sky – in the film it is the place where all the robots live.

http://www.bbc.co.uk/news/technology-21714191

More on This Story

Related Stories

Related Internet links

The BBC is not responsible for the content of external Internet sites

 

 

 

 

 

 

 

 

 



Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi, Nya teknologier för människa-maskin-integration

Människa eller maskin?

Intelligenta maskiner

Forskare studerar hur maskiner med moraliskt beteende kan skapas. Henrik Carlsen konstaterar att ett nytt forskningsområde vuxit fram: robotetik.

Inom robotetik (eller mer generellt maskinetiken som även innefattar så kallade expertsystem) är man intresserad av om, och i så fall hur, det är möjligt att säkerställa att robotar beter sig mot människor på ett etiskt försvarbart sätt. Hur man än ställer sig till om detta är möjligt är det svårt att värja sig mot det faktum att artificiella system är delaktiga i händelseförlopp som kan ha etiska konsekvenser. Inom vårdsektorn utvecklas i dag system som syftar till att hjälpa akutläkare att ställa diagnos under stressade förhållanden. Det finns också planer på att utveckla robotar för övervakning på flygplatser. I några fall är dessa robotar också avsedda för direkta fysiska ingripanden mot människor som uppträder på ett sätt som kan verka misstänkt.

Robotetiken behandlar två centrala frågeställningar: Vill vi att vissa beslut av moralisk karaktär ska tas över av maskiner och hur ska dessa maskiner i så fall konstrueras? Man kan givetvis fråga sig om det inte är för tidigt att diskutera dessa frågor då robotutvecklingen ännu är i sin linda. Många forskare argumenterar för att det trots allt är viktigt att redan på ett tidigt stadium integrera dessa aspekter både i teknologiutvecklingen och i lagstiftningen så att vi får ett samhälle där människor kan leva sida vid sida med ”intelligenta maskiner”.
I många sammanhang tas svaret på den första frågan som mer eller mindre givet: Marknaden och det politiska systemet kommer inte att kunna motstå de förtjänster som den nya teknologin för med sig och detta kommer i sin tur att leda till att människor i vissa situationer också är villiga att överlämna ansvaret till maskiner.

När det gäller den andra frågan finns i dag två konkurrerande teorier om hur etiska principer bäst byggs in i robotar. Enligt den första teorin – som ofta kallas top-down – ska robotar programmeras att handla enligt ett antal givna principer. Så snart man bestämt vilka regler som ger ”bäst” moraliskt uppträdande är det bara att skrida till verket och ge roboten instruktioner att agera enligt dessa regler. Det finns en rad olika moraliska system som skulle kunna utgöra kandidater för att implementeras i framtidens etiska robotar: religiösa ideal, kulturella principer eller moralfilosofiska teoribildningar. Tio Guds bud är ett exempel på ett religiöst ideal. Dessa system leder dock ofta till motsättningar mellan de olika regler man har att förhålla sig till och därför har forskningen inom denna del av robotetiken främst kommit att fokuseras på att analysera olika moralfilosofier.

På grund av sitt tydliga mål att maximera den totala nyttan har utilitarismen kommit att bli något av en favoritfilosofi bland top-down-orienterade robotetiker. Om den utilitaristiska roboten står inför en beslutssituation har den bara att för varje handlingsalternativ summera nyttan för varje påverkad individ och välja det alternativ som har högst summa. Roboten stöter dock på samma problem som vilken människa som helst som försöker leva efter utilitaristiska principer: Hur ska nyttan mätas? Ett annat problem rör hur långt in i framtiden roboten ska beakta konsekvenserna av sina handlingsalternativ: Ska effekter av beslut i dag på kommande generationer tas med i beräkningen?
Deontologiska teorier, där fokus ligger på motiven bakom ett handlande, har också attraherat robotetikers intresse och det talas ibland om roboten som den perfekta kantianen. Kanske är det endast en maskin som mäktar med det som Immanuel Kant begär av oss, det vill säga att handla så att ens handlande kan upphöjas till allmän lag.

Alternativet till att bygga etiska robotar via ett regelbaserat system brukar kallas bottom-up. Detta betraktelsesätt hämtar inspiration från observationen att moral är något vi lär oss. Efter år av successiv träning och inlärning kvalificerar sig de allra flesta människor för medlemskap i en grupp byggd kring en gemensam moraluppfattning. I motsats till top-down-teorier implementeras inte ett regelsystem i roboten, utan det moraliska beteendet utvecklas i samspel med omgivningen.
Ursprunget till denna idé kan spåras tillbaka till en uppsats från 50-talet av Alan Turing, en av datalogins djupaste tänkare och samtidigt den brittiska underrättelsetjänstens skarpaste kodknäckare under andra världskriget. Uppsatsen inleds med en mening som har kommit att bli klassisk: ”I propose to consider the question, ’Can a machine think?’”. Frågan handlar om vad en maskin är, vad en maskin kan, men framför allt handlar uppsatsen om vad det innebär att tänka. Turing för här fram idén att i stället för att försöka skapa ett program som simulerar den vuxnas medvetande, kan man skapa ett program som simulerar ett barns medvetande. Om detta program sedan genomgår träning och successiv utveckling så skulle man erhålla något som liknar den vuxnes hjärna. Med inspiration från Turings idé har man börjat tala om evolutionär robotik. Hittills har dessa strategier mest kommit att tillämpas på att lära robotar mer triviala ting än moraliskt uppträdande, exempelvis förflyttning eller navigation i främmande miljöer, men förhoppningar finns om att nyttja liknande strategier för att utveckla högre kognitiva färdigheter.

Evolutionär robotik är, hävdar vissa forskare, en nödvändighet för att uppnå någon som helst grad av autonomt agerande hos framtidens robotar. Den ”läroprocess” som roboten då måste genomgå innebär nya utmaningar kring ansvarsutkrävande i samband med olyckshändelser där tekniska system varit inblandade. Traditionellt talar man om producentansvar och användaransvar. Enkelt uttryckt: Om användaren följt instruktionsboken faller ansvaret på producenten, medan användaren är ansvarig då olyckan orsakats av felaktigt nyttjande. En livaktig diskussion kring framtida autonoma system är huruvida detta – mycket förenklade – förhållande kan komma att utmanas då en tredje aktör införs i ansvarskedjan. Förutom producenten och användaren vid tillfället för tillbudet tillkommer då alla de användare som bidragit till att utbilda roboten genom inlärning i olika typer av miljöer och därmed varit med och påverkat dess utveckling. Det är lätt att tänka sig den ökade komplexitet som följer av att alla tidigare användare, tillsammans med tillverkaren, ska hållas ansvariga för en robots förehavanden.

Top-down respektive bottom-up representerar två ytterligheter i frågan om hur moraliskt beteende kan byggas in i maskiner. Analogt med hur man inom biologin talar om arv och miljö anser de flesta robotforskare att en kombination av de två ansatserna kommer att behövas om man över huvud taget ska nå någon framgång inom området.
När man talar om relationer mellan människor och maskiner är det i själva verket flera olika relationer som avses. Helt naturligt har maskinetiken kommit att fokusera på problemet kring hur maskiner som agerar etiskt i förhållande till människor kan byggas. Det är ingen överdrift att påstå att 99 procent av arbetet inom området berör detta problem. En naturlig följdfråga är hur människor etiskt bör förhålla sig till maskiner. Intuitivt kan denna frågeställning verka märklig, men i takt med större möjligheter att bygga avancerade maskiner kommer även denna frågeställning att aktualiseras.

Såsom i fallet med webbens framväxt visar sexindustrin ett intresse för den nya teknologins möjligheter. I januari förra året visades vad som påstås vara den första sexroboten. Enligt reklamen kan Roxxxy både föra enklare samtal och få (robot)orgasm. Företaget bakom Roxxxy arbetar nu även med att utveckla den manliga varianten, Rocky.
Även om redan detta utmanar några av våra föreställningar om vad som är etiskt försvarbart så dyker de verkliga problemen upp då Roxxxys mindre varianter lanseras. En inte allt för vågad gissning är att barnvarianten redan är under utveckling.  Är det etiskt försvarbart att ha sex med en robot som liknar ett barn? En vanlig argumentationslinje går ut på att dessa robotar skulle kunna få pedofiler att avstå från övergrepp på barn. I uppsatsen Virtual child pornography and utilitarianism analyserar filosofen Per Sandin frågan om den tekniska utvecklingen kan komma att tvinga oss att förändra en del av den moraliska argumentationen i debatten kring barnpornografi. Det vanligaste argumentet är att barn tar skada i framställningen av barnpornografi. Självfallet saknar detta argument grund i det virtuella fallet. Sandins argumentation kan överföras till sexrobotar som liknar barn, dock tror jag de allra flesta upplever situationen som (än) mer provocerande i fallet med en robot än ett datorprogram.

Den kanske allra mest grundläggande, och på lång sikt avgörande, frågan är hur samhället kommer att reagera på införandet av ”intelligenta” maskiner. Till avgörande del bestämmer existerande moraliska principer hur nya teknologier tas upp i samhället. Samtidigt är det viktigt att erinra sig att dagens moraliska teorier utvecklades långt innan autonomt agerande maskiner var tilltänkta. De nya teknologiernas möjligheter utmanar i vissa fall rådande moralparadigm; fildelningsdebatten utgör här ett färskt exempel. Är det så att vi på sikt får en utveckling där det moraliska system som är möjligt att implementera i robotar blir den allenarådande i samhället i stort? Kan teknologin på detta sätt få ett medbestämmande över samhällets moral?

Alan Turing drevs av nyfikenhet kring vad en maskin egentligen är. Jeanette Winterson vänder delvis på perspektivet i romanen Stengudarna och utforskar vad det innebär att vara människa genom att låta människan speglas i och utmanas av en nära avbild av henne, Robo sapiens. Vad definierar en människa? När upphör en människa att vara en människa? När blir en maskin en människa? Frågan om gränsdragningar kan i dag kännas trivial. Men i framtiden kommer robotarna att bli allt mer människolika samtidigt som vi kommer att bli allt mer robotlika, dels via olika typer av implantat som delar teknologi med robotarna men också via en socialiseringsprocess där vi lär oss att umgås med robotar. I den mån vi över huvud taget i framtiden kan tala om oss själva som en distinkt art, måste vi då kanske ta i den svåraste frågan av dem alla: Behövs vi? Det är endast den art som står högst upp i hierarkin som slipper motivera sin existens.

Henrik Carlsen
är filosofie doktor och forskningsledare vid Totalförsvarets forskningsinstitut, FOI. Han intresserar sig mest för klimatförändringarnas effekter på samhället och för teknikutveckling och social förändring.

http://www.unt.se/kultur/essa/manniska-eller-maskin-1510211.aspx

 

 



Forskning som förändrar Övervakning, Integritet och Autonomi, Nya teknologier för människa-maskin-integration, Politik, Civil-Militär-Forskning

Nya teknologier för trådlös kommunikation

Forskningsprojekt

PTS deltar i flera forskningsprojekt. Här finns information om några av dessa projekt.

Projekt hos Wireless @ KTH

Wireless@KTH är ett forskningscenter inom området Mobila system och tjänster. Centret arbetar tillsammans med forskare från KTH och industriella partners för att utveckla mobila system och tjänster, vilket är ett kärnområde för Sverige och Stockholm.

Wireless@KTH är involverat i interdisciplinära forskningsprojekt i samarbete med den akademiska världen och industrin. Ett viktigt område för centret är att överbrygga klyftan mellan utvecklingen av system och tjänster och deras kommersiella införande.

PTS är sedan ett antal år tillbaka s.k. Associate Partner med Wireless@KTH. Detta innebär bl.a. att PTS deltar i vissa forskningsprojekt, framförallt sådana som berör effektivt spektrumutnyttjande, och även att PTS bjuds in till seminarier och får ta del av aktuella och intressanta forskningsresultat. PTS breddar även genom sitt deltagande kontaktnätet med branschen och den akademiska världen.

I januari 2008 startade ett treårigt projekt benämnt MODyS(Multioperator Dynamic Spectrum Management) i vilket PTS deltar. Syftet med projektet är att utveckla detaljerade tekniska mekanismer för dynamisk access till spektrum i miljöer med många operatörer. Lite förenklat kan det även uttryckas som hitta metoder för att ”på en viss plats kunna nyttja det spektrum som för tillfället inte används av någon annan”. Övriga deltagare i projektet är Ericsson och Försvarets forskningsanstalt, FOI. Från PTS sida deltar Urban Landmark.

UCELL och UBRAIN

PTS är under 2008-2010 engagerad i två EU-drivna forskningsprojekt i det 7:e ramprogrammet, som leds av universitetet i Valencia, Spanien. Projekten benämns UCELL (Ultra wideband realtime interference monitoring and cellular management strategies) och UBRAIN (Ultra wideband car safety simultaneous radar and communications photonic integration).

Båda projekten syftar till att förbättra möjligheterna och applikationerna för system baserade på ultra wideband-teknik. UCELL är inriktat på applikationer som förbinder UWB-utrustningar till sammanhängande system i cellliknande strukturer. UBRAIN är inriktat på användningen av UWB-teknik i fordons- och vägtrafiktillämpningar. PTS bidrag i projekten består i första hand av deltagande i en regulatorisk expertpanel.

Syftet med deltagandet är att inhämta ytterligare kunskap om UWB-tekniken och dess användningsområden som kan förväntas få en bredare spridning de kommande åren och vars påverkan på andra kommunikationssystem fortfarande är relativt okänd. Från PTS sida deltar Urban Landmark.



Nya teknologier för människa-maskin-integration

Ny Teknik LEDARE. Lägg ”smart dust” på minnet.

Det låter som en kemisk dekokt ur tv-serien ”Breaking bad”. Men smart dust – intelligent damm – är i själva verket mycket små och enormt många trådlöst uppkopplade sensorer som registrerar allt vi ber dem om.

Bilars position och kommunikation med andra bilar, sprickbildningar på en bro, köbildning, folkmassor, vad du vill. Dessa allomfattande data lagras i molnet.

Svärmen av sensorer uppfattar också när du viftar på handen, för det är så du i framtiden får tillgång till internet. Dagens bärbara plattor och mobiler kommer inte att behövas.

Det är i alla fall en vision som Swarm Lab på Berkeleyuniversitetet i USA har som mål att förverkliga. Tekniken beskrivs i senaste numret av framtidsmagasinet Next som görs av oss på Ny Tekniks redaktion. Vår telekomreporter Helen Ahlbom intervjuar professor Jan Rabaey som berättar om en planerad konferens där han ska strömma video och ljud till olika bildskärmar och högtalare, bara genom att lyfta handen.

Jan Rabaey tror att det finns en miljon miljoner trådlöst uppkopplade sensorer år 2025. Bara han och kollegorna lyckas med utmaningen att konstruera ett öppet operativsystem så det intelligenta dammet – sensorsvärmarna – kan kommunicera.

Hisnande perspektiv, eller hur?

Kanske är Jan Rabaey ändå inte överoptimistisk i sin tidsbedömning. Arbetet med nästa generation mobilnät, 5g, är redan i full gång. Den här gången handlar det inte bara om högre datakapacitet för mobiltelefoni, utan om helt nya funktioner.

Framför allt är det prylar – allt från bilar och industrirobotar till delar av elnät – som ska kommunicera med varandra. Över 500 miljarder uppkopplade prylar år 2030 är en siffra som cirkulerar, även den är hisnande.

För att klara den stora efterfrågan på datatrafik i mobilnäten räcker det inte att bara bygga fler och större basstationer. Helen Ahlbom berättar på sidorna 14– 15 om ett projekt att i stället placera basstationer i bilar, bussar och tåg. Ett flexibelt sätt att skapa mobiltäckning där det tillfälligt behövs.

Allt som oftast rapporterar Ny Teknik om tekniska lösningar som känns svindlande i dag. Men några år senare tar vi dem för givna.

Publicerad 22 januari 2014 10:20 av Susanna Baltscheffsky

http://www.nyteknik.se/asikter/ledare/article3799243.ece?service=mobile

 



Etik och debatt-Nya Teknologier, Etikråd avseende hjärnimplantat, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi

Ericsson och Karolinska bildar hjärntrust om hjärnelektronik

Av Adam Edström (adam@etn.se)

(2001-09-27 14:48:00 UTC)  Stockholm får snart ett nytt forskningscentrum för så kallad kortikotronik, eller hjärnelektronik på svenska. Centrumet ska drivas av Karolinska Institutet med stöd från Ericsson och finansiering från stiftelsen för strategisk forskning.

Hur hanterar hjärnan kommunikationsfrågor? Hur ser hjärnans nätverksarkitektur ut? Hur kan sådan kunskap tillämpas på mobiltelefonsystem? Och hur kan telekomutvecklarnas erfarenhet av modellering hjälpa hjärnforskarna att förstå hjärnans beteende? Dessa frågor ska forskare från Karolinska Institutet nu försöka svara på i ett projekt kallat “Cortical dynamics and corticotronics for telecommunication systems”.Bakom projektet står professorerna Per Roland och Giorgio Innocenti vid institutionen för neurovetenskap på Karolinska Institutet, samt Jan Johansson på Ericsson Research. Ericsson ska stötta projektet med 3 miljoner kronor under tre år, och lika mycket pengar ska komma från stiftelsen för strategisk forskning.- Målet är att försöka förstå hjärnans sätt att lösa kommunikationsfrågor och kopiera detta i elektroniska system. Det är ett högriskprojekt, som dock öppnar för nya perspektiv och samarbetsytor mellan telekommunikationsföretag och neurvetenskap, sammanfattar stiftelsens planeringschef Olle Edqvist.

I projektet ska tre nivåer i hjärnan studeras – enskilda neuroner och hur de samverkar, grupper av neuroner och hur de samverkar, samt hela hjärnan som samlat system. Detta är områden som professorerna Roland och Innocenti har stor erfarenhet av.

Ericsson hoppas få konkret nytta av resultaten inom mobiltelefoni. När mobiltelesystemen når en miljard samtidiga användare – vilket kommer att inträffa inom några år – så behövs nya system för att i realtid lokalisera telefonerna och koppla samtalen. System med dagens teknik skulle bli alldeldes för stora, dyra och komplexa – Ericsson hoppas kunna utveckla flexibla och självlärande system som kan hantera uppgiften på ett mer dynamiskt sätt än idag.

Principerna och modellerna som forskarna förhoppningsvis får fram ska alltså studeras, testas och i möjligaste mån användas av Ericssons konstruktörer. Ericsson har också tagit på sig uppgiften att demonstrera modeller av allt från enskilda neuroner till hela hjärnor i verkliga halvledare. FPGA-kretsar, nätverk på kisel och så kallade flex-asic nämns i ansökan som möjliga tekniker för implementering.

Det låter lite science-fictionartat, men tanken är faktiskt inte att bygga några artificiella hjärnor som ska styra teletrafiken. För på flera områden är tekniken redan idag överlägsen hjärnan. Forskarnas ambition är snarare att identifiera de områden där hjärnan är överlägsen, och undersöka om och i så fall hur funktioner på dessa områden kan medverka till bättre telekomsystem.

Adam Edström

© Elektroniktidningen (www.etn.se)
http://etn.se/15616


Elektoder i Hjärnan Sveriges Radio, Etik och debatt-Nya Teknologier

Vårt tal kan avlyssnas med elektroder i hjärnan

Hjärnvågor avslöjar vilka ord som rör sig i huvudet. 

 

Vårt tal kan avlyssnas med elektroder i hjärnan

Röster i huvudet. Forskning om hjärnaktiviteten i den lyssnande hjärnan kan ge totalförlamade nya möjligheter att uttrycka sig.

Structure, säger en mansröst på engelska. En sekund senare upprepar en dator samma ord, grötigt men hörbart. Datorns tal bygger helt och hållet på elektriska signaler från tinningloben, den del av hjärnan där det talade språket analyseras.

Öronen omvandlar ljudet till nervsignaler som hjärnan sedan bearbetar i flera steg. Tidigare forskning har visat att hjärnaktiviteten hos en person som hör något till stora delar liknar aktiviteten hos den som bara föreställer sig samma ljud. Det innebär att den nya metoden skulle kunna göra det möjligt att avlyssna outtalade meningar direkt från hjärnan, skriver amerikanska forskare i tidskriften Plos Biology.

De studerade hjärnan på femton patienter som skulle opereras på grund av svår epilepsi eller hjärntumör. Kirurgerna fäste ett rutnät av elektroder utanpå tinningloben hos varje patient för att ta reda på exakt vilket område som bearbetar språket. Syftet var att undvika skador på språket under operationen.

Forskarna använde samma elektroder till att mäta den elektriska aktiviteten som uppstod i hjärnan på patienterna när de hörde en lista av ord. I nästa steg fick en dator omvandla signalen till ljud.

Om allt fungerar som forskarna hoppas skulle tekniken kunna leda till att en människa instängd i en förlamad kropp kan tala, trots att inga muskler fungerar.

http://fof.se/tidning/2012/3/vart-tal-kan-avlyssnas-med-elektroder-i-hjarnan



Elektoder i Hjärnan Sveriges Radio, Etik och debatt-Nya Teknologier, Forskning som förändrar Övervakning, Integritet och Autonomi, Nya teknologier för människa-maskin-integration, Politik, Civil-Militär-Forskning

SvD Nyheter – Forskare har skapat tankeläsningsmaskin

Forskare har använt gammal teknik för att skapa vad de kallar en “tankeläsningsmaskin”. Med elektroder placerade direkt på hjärnan kan en dator registrera exakt vilket ord en försökspersonen tänker på.

14 maj 2011 kl 20:51 , uppdaterad: 15 maj 2011 kl 09:48

Tekniken kallas ECoG (electrocorticography) och innebär att elektroder placeras under kraniet och hjärnhinnan direkt på själva hjärnan.

ECoG har använts sedan 1950-talet för att dokumentera vilken del av hjärnan som aktiveras vid exempelvis ett epilepsianfall. De senaste åren har elektroderna använts för att med hjärnans hjälp styra proteser.

Men det senaste forskningsområdet är att med hjälp av ECoG visa hur hjärnan behandlar språket och även avkoda våra tankar.

Forskare vid amerikanska Wadsworth Center uppger nu att de kan kombinera tekniken med modern programvara för att på en dator se vilket ord en försöksperson tänker på.

– Det här är både väldigt spännande och samtidigt lite skrämmande. Vi kommer verkligen ganska nära vad människor brukade kalla tankeläsning, säger Gerwin Schalk till radiostationen NPR.

Bland annat kan forskarna följa vad som händer i hjärnan när ett musikstycke spelas och visa att samma hjärnaktivitet upprepas om musiken spelas igen. Datan visar också på samma aktivitet när patienter bara tänker på musikstycket.

– Hjärnan berättar egentligen mer om musiken under de tidpunkter då det inte spelas någon musik, säger Schalk.

Anledningen till att ECoG är så effektivt är att tekniken plockar upp signaler från flera olika delar av hjärnan.

Elektroder som placeras inne i hjärnan är precisa men har bara kontakt med ett visst område. Elektroder utanpå huden håller kontakt med stora områden men där blir informationen inte lika specifik.

ECoG som ligger någonstans mitt emellan innebär en idealisk medelväg. Ett kirurgiskt ingrepp krävs för att placera elektroderna men inget ingrepp görs på själva hjärnan.

Neurokirurgen Eric Leuthardt som arbetat tillsammans med Gerwin Schalk på projektet säger att framsteg på området nu sker i rasande takt.

– Varannan vecka hittar vi något som verkligen får oss att klia oss i huvudet och tycka att vi hittat något häftigt.

http://www.svd.se/nyheter/utrikes/forskare-har-skapat-tankelasningsmaskin_6165203.svd



Elektoder i Hjärnan Sveriges Radio, Forskning som förändrar Övervakning, Integritet och Autonomi, Nya teknologier för människa-maskin-integration, Transhumanism

Stiftelsen för strategisk forskning – Elektroder för tankeläsning

Elektroder i hjärnan öppnar upp för nya metoder att behandla sjukdom, men ger också en möjlighet att implantera minnen eller läsa dina tankar. Mer samarbete och kommunikation mellan yrkesgrupper kommer att avgöra om tekniken tar sig ända fram till människan som vill ha den.

Konstgjorda elektroder ska röra sig som sjögräs i en hjärna. Små, lätta och flexibla följer de den övriga hjärnsubstansens mjuka rörelser. Redan idag kan sådana elektroder vara till stor hjälp för personer som lider av tremor, darrningar, och om en inte alltför avlägsen framtid kommer många andra patientgrupper att kunna få hjälp med sådan ny teknik, till exempel personer med epilepsi eller Parkinsons sjukdom. Det visade Jens Schouenborg, professor i neurofysiologi vid Neuronano Research Center, Lunds universitet, under den andra delen av seminariet Människa 2.0 – från biologi till medskapare.

Jens Schouenborg

- Vad händer när det här blir lika vanligt som en blodprovstagning? frågade han för att lyfta den etiska aspekten.

Han beskrev också hur elektroder kan användas för att inplantera minnen eller för att läsa dina tankar. Skrämmande, tyckte publiken vid seminariet. När de fick frågan om huruvida tankeavläsning är önskvärt svarade 98 procent nej.

Samarbete för jämlik vård

Ulf Hertin

Ulf Hertin, RxEye, beskrev en subspecialiserad sjukvård där ny teknik skulle kunna göra det möjligt för alla patienter att få tillgång till bästa expertisen och därmed en jämlik vård, men där organisation och strukturer står i vägen.

Samarbete och kommunikation mellan forskare, vården och andra människor verkade vara lösningen både för att få fram den bästa forskningen och innovationerna och för att dessa ska kunna tillämpas. Det menade flera av deltagarna.

Det oförutsägbara lockar

Fredrik Höök, professor i biologisk fysik, Chalmers, drömmer till exempel om att arbeta med forskningsprojekt som han inte kan komma på själv, som har kommit till i multidisciplinärt samarbete. Han menade att han kunde förutsäga vad 90 procent av föredragen på en vetenskaplig konferens om två år ska handla om. De övriga tio procenten är däremot helt oförutsägbara, och det är de som har tillkommit i samverkan mellan olika yrkesgrupper.

Fredrik Höök
Glöm inte implementeringen

Man får inte heller glömma att implementeringen av ny teknik är en förutsättning för att den ska fungera i vården, menade Emma Spak, ordförande för Sveriges yngre läkares förening, SYLF.

- Vi köper in en röntgenapparat som sedan ska stå där i tio år, men den behöver utvecklas allt eftersom. Vi måste fånga upp innovativa idéer hos vården och patienterna.

Roger Henriksson, professor och chef RCC Stockholm/Gotland, förhöll sig skeptisk till att använda vilken ny teknik som helst.

- Är det verkligen elektroder i hjärnan vi ska satsa på? Och vilka ska i så fall få tillgång till det?

Han gav också en känga till de som ”förhärligar” den innovativa forskningen och industrin.

-  Det är inte enbart fel på politiker och beslutsfattare för att det inte blir mer innovation i vården, sa han.

Förstå vården

Carola Lemne, Emma Spak och Anders Wennerberg, Johnson & Johnson

Carola Lemne, vd Praktikertjänst, gav företagen en hemläxa.

- Företagen måste lära sig förstå vården. Chefer måste belöna forskning och politiker måste hitta sätt att orka göra satsningar som går längre än den närmsta mandatperioden.

Text och bild: Karin Nordin

Film: Annika Widebeck

Section navigation

VAD TYCKTE DU OM SEMINARIET?

Eva Åstradsson, sjuksköterska, Universitetssjukhuset i Linköping

- Det var spännande och det stämmer att vi måste kommunicera mer med varandra över gränserna. Jag ser dagligen hur vi stänger in oss i våra organisationer. Vi tänker på organisationen i första hand och inte på det bästa för patienterna. Vi gör det för vi vill vara duktiga men samhället har en annan förväntasbild.

 

Pär Näverskog, ST-läkare i internmedicin vid Södersjukhuset i Stockholm och ledamot i SYLF-styrelsen.

- Det var intressant. Den erfarenhet jag har är att vården har svårt att ta till sig innovation och nya arbetssätt. Många försöker få fram ny teknik men vi implementerar den inte. Vi måste lära oss att förstå varandra och våra olika kompetenser och vi inom vården måste bli duktiga på att beskriva våra problem.

 

Läs om del ett av seminariet: Konstgjord livmoder snart inte science fiction längre

 

Läs om Almedalens forskningsscen.



Etik och debatt-Nya Teknologier

Smartdust

From Wikipedia, the free encyclopedia

Smartdust is a system of many tiny microelectromechanical systems (MEMS) such as sensors, robots, or other devices, that can detect, for example, lighttemperature,vibrationmagnetism, or chemicals. They are usually operated on a computer network wirelessly and are distributed over some area to perform tasks, usually sensing throughradio-frequency identification. Without an antenna of much greater size the range of tiny smart dust communication devices is measured in a few millimeters and they may be vulnerable to electromagnetic disablement and destruction by microwave exposure.

Design and engineering[edit]

The concepts for Smart Dust emerged from a workshop at RAND in 1992 and a series of DARPA ISAT studies in the mid-1990s due to the potential military applications of the technology.[1] The work was strongly influenced by work at UCLA and the University of Michigan during that period, as well as science fiction authors Neal Stephenson and Vernor Vinge. The first public presentation of the concept by that name was at the American Vacuum Society meeting in Anaheim in 1996.

A Smart Dust research proposal[2] was presented to DARPA written by Kristofer S. J. Pister, Joe Kahn, and Bernhard Boser, all from the University of California, Berkeley, in 1997. The proposal, to build wireless sensor nodes with a volume of one cubic millimeter, was selected for funding in 1998. The project led to a working mote smaller than a grain of rice,[3] and larger “COTS Dust” devices kicked off the TinyOS effort at Berkeley.

The concept was later expanded upon by Kris Pister in 2001.[4] A recent review discusses various techniques to take smartdust in sensor networks beyond millimeter dimensions to the micrometre level.[citation needed]

The Ultra-Fast Systems component of the Nanoelectronics Research Centre at the University of Glasgow is a founding member of a large international consortium which is developing a related concept: smart specks.[5]

See also[edit]

References[edit]

  1. Jump up^ Rosenthal, Marshal M. “Gamebits: Digital Tricks”. Games. Issue 160 (Vol 24, #3). Pg.6. May 2000.
  2. Jump up^ Smart Dust: BAA97-43 Proposal Abstract, POC: Kristofer S.J. Pister
  3. Jump up^ An autonomous 16 mm3 solar powered node for distributed wireless sensor networks Warneke, Scott, Leibowitz, Zhou, Bellew, Chediak, Kahn, Boser, Pister
  4. Jump up^ Smart Dust: Communicating with a Cubic-Millimeter Brett Warneke, Matt Last, Brian Liebowitz, and Kristofer S.J. Pister, Computer, vol. 34, pp. 44-51, 2001
  5. Jump up^ Smart Dust for Space Exploration

External links[edit]



Wikipedia

Roboethics

The term roboethics was coined by roboticist Gianmarco Veruggio in 2002, who also served as chair of an Atelier funded by the European Robotics Research Network to outline areas where research may be needed. The road map effectively divided ethics of artificial intelligence into two sub-fields to accommodate researchers’ differing interests:[1]

  • Machine ethics is concerned with the behavior of artificial moral agents (AMAs)
  • Roboethics is concerned with the behavior of humans, how humans design, construct, use and treat robots and other artificially intelligent beings

Issues[edit]

Robotics is rapidly becoming one of the leading fields of science and technology, so that very soon humanity is going to coexist with a totally new class of technological artifacts: robots. It will be an event rich in ethical, social and economic problems. “Roboethics is an applied ethics whose objective is to develop scientific/cultural/technical tools that can be shared by different social groups and beliefs. These tools aim to promote and encourage the development of Robotics for the advancement of human society and individuals, and to help preventing its misuse against humankind.” (Veruggio, 2002)[1] It is the first time in history that humanity is approaching the challenge to replicate an intelligent and autonomous entity. This compels the scientific community to examine closely the very concept of intelligence — in humans, animals, and of the mechanical — from a cybernetic standpoint.

In fact, complex concepts like autonomy, learning, consciousness, evaluation, free will, decision making, freedom, emotions, and many others shall be analyzed, taking into account that the same concept shall not have, in humans, animals, and machines, the same reality and semantic meaning.

From this standpoint, it can be seen as natural and necessary that robotics drew on several other disciplines, like LogicLinguisticsNeurosciencePsychologyBiology,PhysiologyPhilosophyLiteratureNatural historyAnthropologyArtDesign. Robotics de facto unifies the so-called two cultures, science and humanities. The effort to design Roboethics should take care of this specificity. This means that experts shall view robotics as a whole — in spite of the current early stage which recalls a melting pot — so they can achieve the vision of the robotics’ future.

Main positions on roboethics[edit]

Since the First International Symposium on Roboethics (Sanremo, Italy, 2004), three main ethical positions emerged from the robotics community (D. Cerqui, 2004):

  • Not interested in ethics (This is the attitude of those who consider that their actions are strictly technical, and do not think they have a social or a moral responsibility in their work)
  • Interested in short-term ethical questions (This is the attitude of those who express their ethical concern in terms of “good” or “bad,” and who refer to some cultural values and social conventions)
  • Interested in long-term ethical concerns (This is the attitude of those who express their ethical concern in terms of global, long-term questions)

Disciplines involved in roboethics[edit]

The design of Roboethics requires the combined commitment of experts of several disciplines, who, working in transnational projects, committees, commissions, have to adjust laws and regulations to the problems resulting from the scientific and technological achievements in Robotics and AI.

In all likelihood, it is to be expected that the birth of new curricula studiorum and specialties, necessary to manage a subject so complex, just as it happened with Forensic Medicine. In particular, the main fields involved in Roboethics are: roboticscomputer scienceartificial intelligencephilosophyethicstheologybiologyphysiologycognitive scienceneuroscienceslawsociologypsychology, and industrial design.

Principles[edit]

As Roboethics is a human-centered ethics, it has to comply with the principles state in the most important and widely accepted Charters of Human Rights:

  • Human dignity and human rights.
  • Equality, justice and equity.
  • Benefit and harm.
  • Respect for cultural diversity and pluralism.
  • Non-discrimination and non-stigmatization.
  • Autonomy and individual responsibility.
  • Informed consent.
  • Privacy.
  • Confidentiality.
  • Solidarity and cooperation.
  • Social responsibility.
  • Sharing of benefits.
  • Responsibility towards the biosphere.

General ethical issues in science and technology[edit]

Roboethics shares with the other fields of science and technology most of the ethical problems derived from the Second and Third Industrial Revolutions:

  • Dual-use technology.
  • Environmental impact of technology.
  • Effects of technology on the global distribution of wealth.
  • Digital divide, socio-technological gap.
  • Fair access to technological resources.
  • Dehumanization of humans in the relationship with the machines.
  • Technology addiction.
  • Anthropomorphization of the machines.

History[edit]

Main article: History of robots
Laws of robotics
Three Laws of Robotics
by Isaac Asimov
(in culture)

Tilden’s Laws of Robotics
by Mark Tilden

Related topics

Since antiquity, the discussion of ethics in relation to the treatment of non-human and even non-living things and their potential “spirituality” have been discussed. With the development machinery and eventually robots, this philosophy was also applied to robotics. The first publication directly addressing roboethics was developed by Isaac Asimov as his Three Laws of Robotics in 1942, in the context of his science fiction works, although the term “roboethics” was created by Gianmarco Veruggio in 2002.

The Roboethic guidelines were developed during some important robotics events and projects:

In popular culture[edit]

Roboethics as a science or philosophical topic has not made any strong cultural impact,[citation needed] but is a common theme in science fiction literature and films. One of the most popular films depicting the potential misuse of robotic and AI technology is The Matrix, depicting a future where the lack of roboethics brought about the destruction of the human race. An animated film based on The Matrix, the Animatrix, focused heavily on the potential ethical issues between humans and robots. Many of the Animatrix’s animated shorts are also named after Isaac Asimov’s fictional stories. The movie I, Robot (named after Isaac Asimov’s book I, Robot) also depicts a scenario where robots rebel against humans due to the lack of civil rights and ethical treatment.

Although not a part of roboethics per se, the ethical behavior of robots themselves has also been a joining issue in roboethics in popular culture. The Terminator series focuses on robots run by an uncontrolled AI program with no restraint on the termination of its enemies. This series too has the same futuristic plot as The Matrix series, where robots have taken control. The most famous case of robots or computers without programmed ethics is HAL 9000 in the Space Odyssey series, where HAL (a computer with advance AI capabilities who monitors and assists humans on a space station) kills all the humans on board to ensure the success of the assigned mission.

Notes[edit]

  1. Jump up to:a b Veruggio, Gianmarco (2007). The Roboethics Roadmap. Scuola di Robotica. p. 2. Retrieved 04/28/2011.

References[edit]

  • Levy, David (November, 2008). Love and Sex with Robots: The Evolution of Human-Robot RelationshipsHarper Perennial.
  • Laryionava, Katsiaryna/Gross, Dominik (2012). Deus Ex Machina or E-slave? Public Perception of Healthcare Robotics in the German Print Media, International Journal of Technology Assessment in Health Care 28/3: 265-270.

External links[edit]



Etik och debatt-Nya Teknologier, Hjärninspirerade datorer

KTHs superdatorer simulerar talorganen

  • Superdatorn Lindgren simulerar röstenSimulering av ljudtrycket för vokalen “i” i en starkt förenklad modell av ansatsröret. Foto: KTH
  • Superdatorn Lindgren simulerar röstenStegvisa förenklingar av huvudets yttre form används för att räkna ut ljudutbredningen utanför munnen. Foto: KTH
  • Superdatorn Lindgren simulerar röstenFör att studera hur röstljuden skapas och fortplantas i kroppen används biomekaniska datormodeller. Foto: KTH
  • Superdatorn Lindgren simulerar röstenSimulering av en tryckpuls på väg ut ur munnen. Foto: KTH

Superdatorn Lindgren simulerar rösten

KTH-forskare tar superdatorn Lindgren till hjälp i simuleringar som ska avslöja talorganens dolda hemligheter. Målet är en röstmaskin som kan tala alla språk och sjunga med olika sångtekniker

I april gick startskottet för EU-projektet Eunison. Med 25 miljoner i pengapåsen ska forskare vid fem universitet kartlägga den mänskliga rösten i detalj. Forskare vid KTH leder projektet.

-Människorösten är komplicerad och vi behöver bättre förståelse för hur den fungerar, säger Sten Ternström, professor i musikakustik vid KTH.

Fysiken bakom hur vi människor talar och sjunger handlar om komplexa samband mellan olika delorgan, som hittills studerats var för sig. Nu har datorkapaciteten blivit tillräckligt stor för att man ska kunna simulera hela röstorganet. På KTH tar forskarna superdatorn Lindgren till hjälp.

-Det handlar visserligen i grunden om rätt enkla fysikaliska samband och de fyra räknesätten, men samtidigt är det snabba rörelser hos tiotusentals punkter i tre dimensioner vi talar om. Det gör forskningen beräkningstung.

Målet med projektet är en röstmodell som ska gå att använda via internet. Och som ska kunna styras till att tala alla språk och sjunga på olika sätt.

På sikt hoppas Sten Ternström att forskningen ska leda till maskiner som talar, talproteser samt bättre metoder att undervisa i hur man använder rösten och vårdar den.

http://www.nyteknik.se/nyheter/innovation/forskning_utveckling/article3692143.ece



Wikipedia

Ubiquitous computing

From Wikipedia, the free encyclopedia
Jump to: navigation, search

Ubiquitous computing (ubicomp) is an advanced computing concept where computing is made to appear everywhere and anywhere. In contrast to desktop computing, ubiquitous computing can occur using any device, in any location, and in any format. A user interacts with the computer, which can exist in many different forms – laptop, tablets, terminals, phones, etc. The underlying technologies to support ubiquitous computing include Internet, advanced middleware, operating system, mobile code, sensors, microprocessors, new I/O (input / output), new user interfaces, networks, mobile protocols, location and positioning, new materials, etc.

This new paradigm is also described as pervasive computing, ambient intelligence,[1] or, more recently, everyware,[2] where each term emphasizes slightly different aspects. When primarily concerning the objects involved, it is also physical computing, the Internet of Things, haptic computing,[3] and things that think. Rather than propose a single definition for ubiquitous computing and for these related terms, a taxonomy of properties for ubiquitous computing has been proposed, from which different kinds or flavors of ubiquitous systems and applications can be described.[4]

Core concepts

At their core of all models of ubiquitous computing share a vision of small, inexpensive, robust networked processing devices, distributed at all scales throughout everyday life and generally turned to distinctly common-place ends. For example, a domestic ubiquitous computing environment might interconnect lighting and environmental controls with personal biometric monitors woven into clothing so that illumination and heating conditions in a room might be modulated, continuously and imperceptibly. Another common scenario posits refrigerators “aware” of their suitably tagged contents, able to both plan a variety of menus from the food actually on hand, and warn users of stale or spoiled food.

Ubiquitous computing presents challenges across computer science: in systems design and engineering, in systems modelling, and in user interface design. Contemporary human-computer interaction models, whether command-line, menu-driven, or GUI-based, are inappropriate and inadequate to the ubiquitous case. This suggests that the “natural” interaction paradigm appropriate to a fully robust ubiquitous computing has yet to emerge – although there is also recognition in the field that in many ways we are already living in an ubicomp world. Contemporary devices that lend some support to this latter idea include mobile phones, digital audio players, radio-frequency identification tags, GPS, and interactive whiteboards.

Mark Weiser proposed three basic forms for ubiquitous system devices, see also Smart device: tabs, pads and boards.

  • Tabs: wearable centimetre sized devices
  • Pads: hand-held decimetre-sized devices
  • Boards: metre sized interactive display devices.

These three forms proposed by Weiser are characterized by being macro-sized, having a planar form and on incorporating visual output displays. If we relax each of these three characteristics we can expand this range into a much more diverse and potentially more useful range of Ubiquitous Computing devices. Hence, three additional forms for ubiquitous systems have been proposed:[4]

  • Dust: miniaturized devices can be without visual output displays, e.g., Micro Electro-Mechanical Systems (MEMS), ranging from nanometres through micrometers to millimetres. See also Smart dust.
  • Skin: fabrics based upon light emitting and conductive polymers, organic computer devices, can be formed into more flexible non-planar display surfaces and products such as clothes and curtains, see OLED display. MEMS device can also be painted onto various surfaces so that a variety of physical world structures can act as networked surfaces of MEMS.
  • Clay: ensembles of MEMS can be formed into arbitrary three dimensional shapes as artefacts resembling many different kinds of physical object (see also Tangible interface).

In his book The Rise of the Network Society, Manuel Castells suggests that there is an ongoing shift from already-decentralised, stand-alone microcomputers and mainframes towards entirely pervasive computing. In his model of a pervasive computing system, Castells uses the example of the Internet as the start of a pervasive computing system. The logical progression from that paradigm is a system where that networking logic becomes applicable in every realm of daily activity, in every location and every context. Castells envisages a system where billions of miniature, ubiquitous inter-communication devices will be spread worldwide, “like pigment in the wall paint”.

Ubiquitous computing may be seen to consist of many layers, each with their own roles, which together form a single system:

Layer 1: task management layer

  • Monitors user task, context and index
  • Map user’s task to need for the services in the environment
  • To manage complex dependencies

Layer 2: environment management layer

  • To monitor a resource and its capabilities
  • To map service need, user level states of specific capabilities

layer 3: environment layer

  • To monitor a relevant resource
  • To manage reliability of the resources

History

Mark Weiser coined the phrase “ubiquitous computing” around 1988, during his tenure as Chief Technologist of the Xerox Palo Alto Research Center (PARC). Both alone and with PARC Director and Chief Scientist John Seely Brown, Weiser wrote some of the earliest papers on the subject, largely defining it and sketching out its major concerns.[5][6][7]

Recognizing that the extension of processing power into everyday scenarios would necessitate understandings of social, cultural and psychological phenomena beyond its proper ambit, Weiser was influenced by many fields outside computer science, including “philosophy, phenomenology, anthropology, psychology, post-Modernism, sociology of science and feminist criticism“. He was explicit about “the humanistic origins of the ‘invisible ideal in post-modernist thought’”,[7] referencing as well the ironically dystopian Philip K. Dick novel Ubik.

Andy Hopper from Cambridge University UK proposed and demonstrated the concept of “Teleporting” – where applications follow the user wherever he/she moves.

Roy Want, while a researcher and student working under Andy Hopper at Cambridge University, worked on the “Active Badge System”, which is an advanced location computing system where personal mobility that is merged with computing.

Bill Schilit (now at Google) also did some earlier work in this topic, and participated in the early Mobile Computing workshop held in Santa Cruz in 1996.

Dr. Ken Sakamura of the University of Tokyo, Japan leads the Ubiquitous Networking Laboratory (UNL), Tokyo as well as the T-Engine Forum. The joint goal of Sakamura’s Ubiquitous Networking specification and the T-Engine forum, is to enable any everyday device to broadcast and receive information.[8][9]

MIT has also contributed significant research in this field, notably Things That Think consortium (directed by Hiroshi Ishii, Joseph A. Paradiso and Rosalind Picard) at the Media Lab[10] and the CSAIL effort known as Project Oxygen.[11] Other major contributors include University of Washington‘s Ubicomp Lab (directed by Shwetak Patel), Georgia Tech‘s College of Computing, Cornell University‘s People Aware Computing Lab, NYU‘s Interactive Telecommunications Program, UC Irvine‘s Department of Informatics, Microsoft Research, Intel Research and Equator,[12] Ajou University UCRi & CUS.[13]

Examples

One of the earliest ubiquitous systems was artist Natalie Jeremijenko‘s “Live Wire”, also known as “Dangling String”, installed at Xerox PARC during Mark Weiser‘s time there. This was a piece of string attached to a stepper motor and controlled by a LAN connection; network activity caused the string to twitch, yielding a peripherally noticeable indication of traffic. Weiser called this an example of calm technology.[14]

Ambient Devices has produced an “orb”, a “dashboard”, and a “weather beacon“: these decorative devices receive data from a wireless network and report current events, such as stock prices and the weather, like the Nabaztag produced by Violet Snowden.

The Australian futurist Mark Pesce has produced a highly configurable 52-LED LAMP enabled lamp which uses Wi-Fi named MooresCloud after Moore’s Law.[15]

The Unified Computer Intelligence Corporation has launched a device called Ubi – The Ubiquitous Computer that is designed to allow voice interaction with the home and provide constant access to information.[16]

Current research

Ubiquitous computing touches on a wide range of research topics, including distributed computing, mobile computing, location computing, mobile networking, context-aware computing, sensor networks, human-computer interaction, and artificial intelligence.

See also

References

  1. ^ Hansmann, Uwe (2003). Pervasive Computing: The Mobile World. Springer. ISBN 3-540-00218-9.
  2. ^ Greenfield, Adam (2006). Everyware: the dawning age of ubiquitous computing. New Riders. pp. 11–12. ISBN 0-321-38401-6.
  3. ^ “World Haptics Conferences”. Haptics Technical Committee. Retrieved 2007-10-13.
  4. ^ a b Poslad, Stefan (2009). Ubiquitous Computing Smart Devices, Smart Environments and Smart Interaction. Wiley. ISBN 978-0-470-03560-3.
  5. ^ Weiser, Mark (1991). “The Computer for the 21st Century”. Retrieved 2012-12-19.
  6. ^ Weiser; Gold; Brown (1999-05-11). “Ubiquitous computing”. Retrieved 2008-05-07.
  7. ^ a b Weiser, Mark (1996-03-17). “Ubiquitous computing”. Retrieved 2007-11-03.
  8. ^ ieeexplore.ieee.org; T-Engine, arguably the most advanced ubiquitous computing platform in the world
  9. ^ t-engine.org
  10. ^ “MIT Media Lab – Things That Think Consortium”. MIT. Retrieved 2007-11-03.
  11. ^ “MIT Project Oxygen: Overview”. MIT. Retrieved 2007-11-03.
  12. ^ “Equator”. UCL. Retrieved 2009-11-19.
  13. ^ “Center_of_excellence_for_Ubiquitous_System”. CUS. Retrieved 2008-05-04.
  14. ^ Weiser, Mark; Rich Gold and John Seely Brown (1999). “The origins of ubiquitous computing research at PARC in the late 1980s”. IBM systems journal 38 (4): 693. doi:10.1147/sj.384.0693.
  15. ^ engadget.com
  16. ^ theubi.com

Resources and other external links

An introduction to the field appropriate for general audiences is Adam Greenfield‘s book Everyware: The Dawning Age of Ubiquitous Computing (ISBN 0-321-38401-6). Greenfield describes the interaction paradigm of ubiquitous computing as “information processing dissolving in behavior”.

Conferences in the field include:

Academic journals and magazines devoted primarily to pervasive computing:

Mark Weiser‘s original material dating from his tenure at Xerox PARC:

Other links:

[show]

[show]

This page was last modified on 24 July 2013 at 14:43.

http://en.wikipedia.org/wiki/Ubiquitous_computing



Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi, Hjärninspirerade datorer, Nya teknologier för människa-maskin-integration

Datororfoskare vill koppla nanoelektroder till hjärnan för 2-vägs kommunikation mellan dator och hjärna

Svenska Dagbladet

Forskare vill koppla protesen till hjärnan

Där nanovetenskap och medicin möts är det mest fantasin som sätter gränser för det möjliga. Ska blinda kunna se? Lama kunna gå? –Det är de flashiga sidorna av nanomedicin. Det finns mer närliggande angelägna frågor vi har löst innan vi är där, säger Martin Kanje professor i cell- och organism­biologi i Lund.

Publicerad kl 00:00, 7 oktober 2007
Uppdaterad kl 10:37, 15 oktober 2007

Sedan länge är hjärnor och datorer ihopkopplade i skön eller skrämmande förening i den värld science fiction-författare skildrar. Men så är det inte i verkligheten. Inte än, men ganska snart om man får tro Martin Kanje och hans kollegor på Neuronano­science Research Center (NRC) vid Lunds universitet.

Nano är grekiska för dvärg och nanomedicin handlar verkligen om det nästan obegripligt lilla formatet. En nanometer är en miljondels millimeter. De elektroder Martin Kanje arbetar med är ungefär 50 nanometer. Det innebär att om man vill kan hundratals placeras i en enda nervcell. Tekniken att göra så är på gång.

Det lilla formatet innebär att elektroderna ska kunna användas av personer i rörelse, i vardagen. De nanostora elektroderna följer med i hjärnans geléartade rörelser utan att störa.

–Men framför allt blir upp­lösningen extremt hög och kommunikationen mellan elektroderna som avläser aktiviteten i nervsystemet och omvärlden – till exem­pel en dator som tolkar signalerna – betydligt mer avancerad än dagens tillämpningar, konstaterar Martin Kanje.

Tanken att elektroniskt styra kroppsliga processer är inte ny.

En pacemaker håller takten åt hjärtat, implantat i örats snäcka ger ljud åt hörselskadade och elektroder i hjärnan dämpar symtomen hos parkinsonsjuka.

Men den gamla tekniken är alltför stor och trubbig för mer sofistikerade tillämpningar i centrala nervsystemet. Med få elektroder blir upplösning för dålig.

Dessutom vill forskarna på NRC inte bara ha envägskommunikation, de vill ha ett samtal mellan nervsystemet och omvärlden. Inte bara stimulering utan också respons.

–Vi vill skapa ett fungerande samspel så att information förmedlas både till och från nervsystemet, säger Martin Kanje.

I ett sådant tvåpartssamtal skulle nervfunktionerna vid många sjukdomar kunna talas till rätta.

Vid kronisk smärta dämpar ­eller helt blockerar nanoelektroden smärtsignalen i hjärnan. Vid epilepsi, där ett anfall kan liknas vid en elektrisk storm i hjärnan med en mängd nervceller inblandade, skulle en lyssnande elektrod kunna ge en bromssignal som avvärjer anfallet. Vid inkontinens tar elektroderna över den fallerade tömningen av urinblåsan. Tekniken kan också tillämpas så att en handprotes ger en känselupplevelse av vad handen gör.

Exemplen är många. Och i teorin fungerar det.

–Den största utmaningen ligger i att få kopplingen mellan det levande och tekniken att fungera över tid, säger Martin Kanje och jämför den miljö nanoimplantaten ska verka i med att lägga en radioapparat i saltvatten och få den att fortsätta fungera.

För att samtalen ska fortgå måste elektroden fungera i den fientliga miljön och självklart måste nervcellen överleva.

Allt främmande i kroppen kapslas in av inflammatoriska processer. Det skadar både nervcellen och skärmar av elektrodens signal.

–Kanske lösningen finns i fjärilens vinge, säger Martin Kanje. Den är hydrofob. Den blir aldrig blöt, ingenting fastnar på den.

Klär man nanoelektroderna med ett ytskikt som kopierar fjärils­vingens talar mycket för att inte heller immunförsvarets inflamma­toriska celler får fäste på den hydrofoba ytan. Tekniker för att modifiera ytor med nanoteknik finns redan.

Ska elektroder i vårt centrala nervsystem på ett mer sofistikerat sätt både ta emot och sända signaler på hjärnans elektriska språk vill det till att formatet är nano. Och att det ska lyckas är det fler än nanoforskarna själva som tror på.

Bland andra svenska Vetenskapsrådet som förra anslog 75-miljoner kronor i så kallade Linné­pengar och Knut och Alice Wallenbergs stiftelse med 40 miljoner kronor till NRC.

Kommunikationen utanför kroppen, till exempel med en mottagare/sändare som ligger ien liten urgröpning i skallbenet, är rent tekniskt mer lättlöst.

Men hur blir det med de blinda som kan se och de lama som kan gå?

–Jo, det kommer nog det också, säger Martin Kanje och berättar att det till exempel pågår EU-finansierade försök där näthinnereceptorer som skadats av sjukdom ersätts med ljuskänsliga elektroder.

–Mycket återstår, men jag tror att vi om tio år har tillgång till rela­tivt avancerade implantat ihjärnan, säger Martin Kanje.

FAKTA

Det är trångt i hjärnan, mycket trångt. Och komplext. Hundra miljarder nervceller, var och en av dem med tusen­tals förbindelser till andra nervceller. Allt detta i en volym på knappt en och en halv ­liter.

Därför är hjärnan det sista ofullständigt utforskade territoriet i våra kroppar, säger Martin Kanje.

TORD AJANKI
http://mobil.svd.se/c.jsp;jsessionid=7FE705385866E0C1FC0675EA2BB27D79.aldo4?cid=25968641&rssId=&item=http%3a%2f%2fwww.svd.se%2f%3fservice%3dmobile%26amp%3barticleId%3d290900%26amp%3bnew%3dtrue


Elektoder i Hjärnan Sveriges Radio, Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi

Sammanfattning av min licentiatavhandling del ett: Hjärnmaskingränssnitt idag och imorgon

Sammanfattning av min licentiatavhandling del ett: Hjärnmaskingränssnitt idag och imorgon

Mitt namn är Karim Jebari, och jag är doktorand i filosofi vid KTH. Min avhandling handlar om tillämpad etik och i synnerhet om hur vi bör förhålla oss till de utmaningar och möjligheter som den teknologiska utvecklingen ställer oss inför.

Jag är intresserad av det mesta som har med politik, etik och filosofi att göra. Mina största intressen just nu är transhumanism, rationell filantropi och existentiella risker.

I fredas skickade jag in min licentiatavhandling till tryckeriet. Den bestå av tre artiklar  varav en är publicerad och två andra är inskickade till internationell peer-reviewed press. I tre inlägg framöver tänkte jag sammanfatta innehållet i dessa artiklar.

Artiklarna i den här licenciatavhandlingen utforskar frågor som har att göra med de etiska aspekterna av användningen av hjärnmaskingränssnitt. Ett hjärnmaskingränssnitt möjliggör direkt utbyte av information mellan en hjärna och en maskin. Maskiner med denna funktion har förvisso funnits en längre tid, sedan den första electroencephalografin (EEG) började användas för att registrera och analysera patienters hjärnaktivitet. Men de senaste decennierna har denna teknik utvecklats avsevärt, främst inom sjukvården, och den har även börjat användas inom konsumentelektronik och marknadsföring. Eftersom hjärnmaskingränssnitt ger oss ett nytt sätt att interagera med datorer och maskiner, kan den här teknologin komma att få en stor påverkan på hur det moderna samhället och det mänskliga tillståndet utvecklas. Teknologisk utveckling är till sin natur svår att förutsäga och teknologier som har en potential att revolutionera vår tillvaro måste diskuteras och granskas innan de har förändrat samhället på ett irreversibelt sätt.

I den första artikeln, ”Brain Machine Interface and Human Enhancement – An Ethical Review”, argumenterar jag för att hjärnmaskingränssnitt tillhör den kategorin teknologier som har denna potential. Två trender inom teknikutvecklingen kan sägas påskynda denna process. Den ena är att avancerade datorer blir allt mindre, mer kraftfulla och billigare. Med hjälp av ren beräkningskraft kan mycket mer information från hjänan processas på ett effektivt sätt. Det har gjort att icke-invasiva gränssnitt, alltså sådana som kan användas utan att utsätta användaren för en medicinsk risk, kan användas inom allt fler områden.

De första tankestyrda proteserna krävde en riskabel och dyr operation, där mikroelektroder fästes direkt på hjärnbarken. Moderna proteser kan använda sig av den information som externa elektroder kan fånga upp. De allra senste proteserna har dessutom mjukvara som lär sig sina användares kroppsrörelser och kan därmed vara mer följsam och bekväm.

Den andra trenden är vår allt större kunskap om hjärnan, som möjliggör en mycket mer effektiv användning av hjärnmaskingränssnitt. Cochleaimplantat, hörhjälpmedel som genom elektrisk stimulering av hörselnerven ger gravt hörselskadade och döva barn möjligheten att uppfatta ljud, är förmodligen den mest kända tillämpningen av den här tekniken. Dessa implantat har förbättrats stadigt sedan de introducerades för mer än ett decennium sedan. Mycket av den här förbättringen har berott på just ökade insikter om hörslenervens komplexa anatomi.

Hjärnpacemakers, implantat som genom elektriska impulser stimulerar vissa hjärnregioner, är också en teknologi som utvecklats i en snabb takt det senaste decenniet. Till en början användes dessa hjärnimplantat endast för att motverka symptomen hos svåra neurodegenerativa sjukdomar, som parkinsons sjukdom och dystonia. Numera har även patienter med depression, svåra tvångssyndrom och kronisk smärta nytta av dessa implantat. Förhoppningen inom forskningen på detta område är att kunna stimulera hjärnan på ett liknande sätt utan att behöva utsätta patienten för en invasiv operation.

Om detta skulle bli verklighet kan hjärnpacemakers få en mängd nya användningsområden, eftersom hjärnstimulans har en förmåga att på ett precist och effektivt sätt påverka hjärnaktivitet som vida överträffar psykoaktiva drogers.

Hjärnmaskingränssnitt har tagit steget från att vara en rent medicinsk teknologi, där frågor om patientsäkerhet och djurförsök dominerade den etiska debatten, till att även bli en konsumentprodukt. EEG-baserade dataspelstillbehör säljs idag av minst två konkurrerande aktörer på marknaden. EEG används också för marknadsundersökningar, bland annat för att kartlägga testpublikers reaktioner på reklamfilmer. Denna vändning i teknikutvecklingen gör att nya etiska problem blir relevanta.

Den här artikeln undersöker två områden där ett potentiellt missbruk av hjärnmaskingränssnitt bör leda till vidare granskning och regleringar av denna teknologi. Eftersom hjärnmaskingränssnitt kan extrahera potentiellt mycket privat information om användaren är personlig integritet (eng. ”privacy”) en mycket relevant fråga.

Det bör påpekas att det är inte i nuläget möjligt att ”läsa tankar” med den här typen av teknologi, samt att den här möjligheten ligger långt fram i tiden. Likväl finns idag en trend att arbetsgivare, informationsföretag som Google och Amazon och PR-experter får en allt större insikt i människors beteende och hur de kan påverka det. Smarta kameror med ansiktsigenkänning, mjukvara som sparar personers datoranvändade samt statistiska analysverktyg kan redan idag generara mängder av information om vanliga personer, information som ofta är otillgänglig för allmänheten, och som ibland används för syften som inte gagnar individen. En ökad användning av hjärnmaksingränssnitt skulle innebära att mer sådan information produceras utan användares kännedom eller på sätt som inte är tillräckligt transparenta.

Hjärnmaskingränssnitt har stor potential att ge personer som idag är förlamade, blinda, döva, svårt deprimerade eller kroniskt sjuka en möjlighet att återfå en del av sina förlorade förmågor. I detta avseende kan den här typen av teknologi göra stor skillnad för dessa människors autonomi. Med autonomi menas här en individs möjlighet att utforma sitt liv i enlighet med vad individen själv finner vara goda och riktiga mål. Men det är inte bara sjukdom och skador som kan underminera en persons autonomi. Vissa filosofer har även argumenterat att reklam påverkar vår autonomi negativt, i den mån dess syfte är att påverka våra begär på ett sätt som går vår förnuftiga natur förbi.

I den mån som reklamföretag lär sig alltmer om individers vanor, preferenser och begär ökar rimligen företagens förmåga att påverka dessa. Givet att reklam utgör ett hot mot vår autonomi så kan sofistikerade hjärnmaskingränssnitt öka det här problemet. Men hjärnmaskingränssnitt kan också på ett direkt sätt påverka våra preferenser och begär, med hjälp av elektrisk stimulering av hjärnan. Notera att så länge som elektrisk stimulering förutsätter ett implantat så kommer den här typen av hjärnmaskingränssnitt att sannolikt endast användas av svårt sjuka personer. Skulle ett icke invasivt alternativ utvecklas däremot, finns det vissa möjligheter att dessa skulle kunna användas för att låta personer förändra sina preferenser och begär.

I den mån som vi själva har kontroll över dessa apparater kan vår autonomi öka avsevärt. Men givet att hjärnstimulering är så potent så bör den här möjligheten att vara förbehållen individen själv, annars riskerar vi att få ett samhälle där någon eller några aktörer får otillbörlig makt över andra människors känslor och attityder. Sett ur ett autonomiperspektiv vore detta beklagansvärt.

- See more at: http://politiskfilosofi.com/2012/11/06/sammanfattning-av-min-licentiatavhandling-del-ett-hjarnmaskingranssnitt-idag-och-imorgon/#sthash.A6XFRZkL.dpuf

http://politiskfilosofi.com/2012/11/06/sammanfattning-av-min-licentiatavhandling-del-ett-hjarnmaskingranssnitt-idag-och-imorgon/



Etik och debatt-Nya Teknologier, Hjärninspirerade datorer

Mysteriet med det mänskliga minnet snart ett minne blott

Beräkningsbiologi är ett område där matematiska metoder, i första hand datorsimulering, används för att försöka lösa komplexa biologiska problem. I nära samarbete med biologer och neurofysiologer försöker Anders Lansner och hans forskargrupp försöka lösa mysteriet med människans minne.

Matematik och datormodeller har länge använts inom fysik och kemi, men har nu även börjat användas inom biologisk forskning. Det här är en ny vetenskaplig trend vilken de åtta forskargrupperna på avdelningen för beräkningsbiologi (CB, computational biology) i allra högsta grad är en del av.

Professor Anders Lansner leder forskargruppen Computational Neuroscience and Neurocomputing på CB:

“Det pågår helt klart ett paradigmskifte inom biologin där den kvantitativa aspekten blir mer och mer framträdande. I framtiden kommer datalogi-beräkningsvetenskap och tillämpad matematik vara oerhört viktiga delar av den biologiska forskningen. Vi ser bara början,” säger han.

Forskargruppens huvudsakliga uppgift är att simulera minne och perception hos däggdjurshjärnan. En grundförutsättning för att simuleringarna ska gå att göra är tillgång till kraftfulla datorer, och den nya superdatorn på PDC var därför mycket efterlängtad. Med en så kraftfull superdator går det att simulera hundratals miljoner neuroner och många miljarder synapser, vilket börjar närma sig hjärnbarkens storlek hos ett litet däggdjur.

“Vi arbetar med storskaliga simuleringar och har länge tyckt att datorerna varit för svaga. Nuförtiden känns det inte så längre, vilket är väldigt trevligt eftersom det gör att våra idéer kan bli till verklighet i mycket större utsträckning,” säger Anders Lansner.

Anders började studera perception och minne när han kom till KTH under 80-talet och blev efter några år djupt involverad i modellering av lokomotoriska system tillsammans med neuroforskare på Karolinska Institutet, vilket han ägnade 20 år åt.

“Ja, och vi har under de senaste fem-sex åren återvänt till det här [perception och minne] forskningsområdet. Numera har vi en mycket mer detaljerad modell och mer biologisk data, och kan t ex återskapa oscillationerna i centrala nervsystemet i olika stadier,” säger Anders Lansner.

Forskningen i hans grupp fokuserar på dynamik på nätverksnivå för att försöka förstå vilka egenskaper hos neuroner och synapser som verkligen spelar roll för specifika kognitiva funktioner såsom det makroskopiska fenomenet minne, såsom återkallande av ett minne. Gruppen samarbetar bland annat med neurofysiologer på Karolinska Institutets avdelning för neurovetenskap och minnespsykologer på Stockholms universitet samt är en del av Stockholm Brain Institute (SBI) där Anders Lansner ansvarar för beräknings- och modelleringsplattformen.

Ett mål med forskningen är att förstå vilka neurala mekanismer som är associerade med vissa sjukdomar. Framtida praktiska tillämpningar av forskningsfynd är en bättre förståelse för hjärnsjukdomar såsom Alzheimers och schizofreni som en grund för att utveckla effektivare behandlingar och läkemedel. Men med ökad kunskap om hur hjärnan fungerar kan forskarna även beröra frågor som vanligtvis associeras med filosofi; vem är jag, vad är medvetande och hur fungerar tankeprocesserna?

“Exakt, och detta är frågor vi börjar komma närmare att kunna besvara. Vi kan se ifall en försöksperson upptäcker delvis gömd stimulus eftersom det då uppstår speciella typer av oscillationer i hjärnan. Och de här oscillationerna kan vi modellera, och därigenom se exakt vad som orsakade dem.”

Arbetet utförs inom ett flertal Europeiska samarbetsprojekt, såsom FACETS och BrainScaleS, och finansieras även av SSF, VR och Vinnova via SBI. De Europeiska projekten omfattar allt från neurobiologer som är specialister på hjärnbarken till designers av hjärnliknande hårdvara och i mitten har vi dataloger och fysiker som modellerar hjärnan. “Tanken är att integrera alla dessa kompetenser för att bygga en simulator i hårdvara med väldigt hög kapacitet för att replikera biologiska neurala system,” berättar Anders Lansner.

Han tillägger: “EU-pengarna har på senare tid varit väldigt viktiga för forskning om hjärnfunktioner såsom minne och perception. Dessutom är den här forskningen sammanlänkad med utvecklingen av framtidens datorberäkningar och hårdvara. Till exempel siktar det nyligen beviljade Europeiska ”månlandningsprojektet” Human Brain Project, finansierat av Future Emerging Technologies inom EU, på att inom tio år kunna simulera en modell av den mänskliga hjärnan fullt ut på näst-nästa generations superdatorer. I detta nya gigantiska forskningsprojekt är även internationella datorföretag som IBM och Cray involverade.”

Klicka här



Forskning som förändrar Övervakning, Integritet och Autonomi, Hjärninspirerade datorer

Lansner Talk – Experience from running spikingattractor neural networks

Experience from running spikingattractor neural networks on the Blue Gene supercomputer

Anders Lansner

Dept of Computational Biology
KTH and Stockholm University

Experience from running spiking attractor neural networks on the Blue Gene supercomputer Anders LansnerDept of Computational BiologyKTH and Stockholm University

http://mail.cyberliv.se/index.php/mail/viewmessage/getattachment/folder/INBOX/uniqueId/17582/filenameOriginal/b90d1d705b3cffac59b79b28be38b488



Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi

Hjärnorna bakom framtidens dator

Vår hjärna förbrukar lika mycket energi som en 30 watts glödlampa. En superdator som står inför samma uppgift skulle förbruka 1 gigawatt. KTH-forskarna Jeanette Hellgren Kotaleski och Anders Lansner deltar i det europeiska megaprojektet Human Brain Project som med hjärnan som förebild ska resultera i energieffektiva och självinstruerande datorer. Foto: Jörgen Appelgren

Hjärnorna bakom framtidens dator

Robotar smarta som råttor. Bot mot alzheimer och parkinson. EU:s flaggskepp The Human Brain Project seglar mot mål som kan förändra samhället i grunden. Forskare på KTH är med ombord.

Ta på hörselskydden, manar skylten på dörren. Erwin Laure, chef för Parallelldatorcentrum vid KTH, öppnar dörren och ljudvågen från kylfläktarna slår emot mot oss. Här, i det 244 kvadratmeterstora rummet, står ett av Sveriges kraftfullaste akademiska datorkluster. Klustret är en viktig förutsättning för att KTH-forskare ska kunna bidra till det europeiska mega­projektet The Human Brain Project.

– Målet är att samla in all tillgänglig kunskap om den mänskliga hjärnan och att återskapa den, bit för bit, i superdatorbaserade modeller och simuleringar, säger Erwin Laure.

Massiva matematiska superdator­simuleringar ska vaska fram vilka data som är nödvändiga när vår hjärna bearbetar information.

– Simuleringarna ska också visa vilka data vi saknar så att vi kan se till att få fram dem, säger Jeanette Hellgren Kotaleski, professor i beräkningsbiologi på KTH.

Hon arbetar med att ta fram matematiska modeller som visar hjärn­aktiviteten på olika nivåer, från pytte­små mottagare på våra celler till de stora nätverk av celler som lagrar och återkallar våra minnen. Modellerna är ett måste för att kunna simulera både den friska och den sjuka hjärnan.

– Genom att studera kopplingarna i små nätverk kan man till exempel se vad som går fel vid sjukdomar som alzheimer och parkinson.

Det är data som är hett efterlängtade av läkemedelsindustrin. Kunskap om sjukdomsmekanismerna är en förutsättning för att kunna ta fram nya läkemedel, som inte bara lindrar utan också botar.

Förståelsen och simuleringen av hjärnan kommer också att leda till en ny generation datorer: supersnabba, energisnåla och självinstruerande. Eller annorlunda uttryckt ”elektroniska hjärnor”.

Redan när forskningen når mål som en elektronisk mus- eller råtthjärna har man kommit långt. Det anser Anders Lansner, professor i datalogi vid Stockholms universitet och KTH, som ägnat sin akademiska bana åt att använda datorer för att göra hjärnsimuleringar.

– Hjärnliknande kretsar med samma kapacitet som den hos en råtthjärna kan till exempel ge robotar som är oerhört mycket mer kompetenta än dagens. De skulle kunna tolka synintryck och bli självlärande.

FAKTA Största satsningen i EU:s historia

Den 28 januari tillkännagav EU att The Human Brain Projekt – HBP – utsetts till ett av två vetenskapliga projekt som under tio års tid får en budget på drygt nio miljarder kronor. Det andra projektet är Graphene. Projekten är tillsammans den största forskningssatsningen i EU:s historia.

I höst startar uppbyggnads­fasen, som har en budget på 450 miljoner kronor och pågår i 2,5 år. Från Sverige deltar forskare från KTH (simulering och hjärnliknande datorer), Karolinska institutet (neuroinformatik), Uppsala universitet (etik) samt högskolan i Skövde (nerurorobotik). Projektet leds från schweiziska École Polytechnique Fédérale de Lausanne i Schweiz.

Av: Ulla Karlsson-Ottosson
Mejla reportern

http://www.nyteknik.se/nyheter/innovation/forskning_utveckling/article3650997.ece



Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi

E-vetenskap – två miljöer

Svenskt e-vetenskapligt forskningscenter

Lärosätets namn: Kungliga Tekniska Högskolan
Titel/forskningsmiljö: Svenskt e-Vetenskapligt Forskningscenter
Rektors namn: Peter Gudmundson
Kontaktperson: Dan Henningson, e-post: henning@mech.kth.se
Medsökande lärosäten: Linköpings universitet, Stockholms universitet, Karolinska Institutet
Medverkande forskare: Dan Henningson, Hans Ågren, Anna Delin, Anna-Karin Tornberg, Anders Ynnerman, Bengt Persson, Igor Abrikosov, Juni Palmgren, Anders Lansner, Erik Lindahl

Genom ett nytt centrum för e-vetenskap ska KTH tillsammans med tre andra universitet stärka samarbetet inom datorrelaterad forskning. Centrumet ska bidra till att Sverige får en stark e-vetenskaplig profil inom EU.

Datorer används idag som en grundläggande teknik för att skapa ny kunskap inom varierande forskningsfält. Detta kallas e-vetenskap eller e-science.
E-vetenskap kan till exempel användas inom forskning kring klimatförändringar eller förnyelsebar energi. Datornätverk gör samarbeten över stora distanser möjliga medan datorbaserade beräkningar kan användas för att försöka hitta liv i rymden. Avancerad bildbehandling, som till exempel används vid undersökningar med magnetkamera, har kommit till med hjälp av e-vetenskap. Datorbaserade tekniker kan också användas för att hitta sammanhang i och ta fram statistik från stora databaser.

Forskargrupper vid Kungliga Tekniska Högskolan, Linköpings universitet, Stockholms universitet och Karolinska Institutet har redan idag samarbete inom e-vetenskap. Men nu vill de ta samarbetet ett steg till och aktivt samordna resurser och strategiska mål. I ett nytt forskningscentrum ska de koppla ihop alla typer av datorrelaterad forskning.

Forskning ska bedrivas på viktiga e-vetenskapsmetoder, exempelvis beräkningar, lagring, databaser, visualisering, interaktivitet och modellering. I det nya centrumet kommer det att finnas flera mindre samarbetsgrupper, så kallade communities. Det innebär att forskare som arbetar inom algoritmutveckling kommer att arbeta tillsammans med forskare som använder e-vetenskap inom andra forskningsfält, till exempel naturvetenskap.

Till webbplatsen SeRClänk till annan webbplats, öppnas i nytt fönster

eSSENCE – ett samarbete inom e-vetenskap

Lärosätets namn: Uppsala universitet
Titel/forskningsmiljö: eSSENCE – ett samarbete inom e-Vetenskap
Rektors namn: Anders Hallberg
Kontaktperson: Kersti Hermansson, e-post: Kersti.Hermansson@mkem.uu.se
Medsökande lärosäten: Lunds universitet, Umeå universitet
Medverkande forskare: Tord Ekelöf, Hans Ellegren, Olle Eriksson, Erik Elmroth, Kersti Hermansson, Bo Jönsson, Bo Kågström, Anders Lindroth, Tore Risch, Sven Strömqvist

Med e-vetenskap ökar möjligheterna att göra framsteg inom alla andra vetenskapsområden. Tre universitet satsar nu gemensamt på en ny digital forskningsgemenskap inom e-vetenskap.

e-vetenskap är forskning och utveckling baserad på IT- och kommunikationsteknik. Denna vetenskap har stor betydelse för flera andra forskningsområden. Inom till exempel kemi och fysik används e-vetenskapliga metoder för att göra datorsimuleringar. Livsvetenskaperna och humaniora behöver e-vetenskap för att kunna lagra stora mängder data och för att finna mönster och samband i analyserna av informationen. Högenergifysik och klimatforskning är exempel på områden som använder e-vetenskapliga metoder för datalagring och analys likaväl som för modellering och simulering.

Med hjälp av e-vetenskapliga metoder går det att arbeta på nya sätt. Nya typer av experiment kan genomföras, mycket stora datamängder kan analyseras och det blir möjligt att simulera fenomen som tidigare inte gått att studera. Dessutom blir det möjligt för forskare att samarbeta på nya och mera effektiva sätt.

Universiteten i Uppsala, Lund och Umeå ska med sin gemensamma satsning eSSENCE skapa en digital forskningsgemenskap. I den nya miljön kommer specialister inom e-vetenskap att samarbeta med specialister inom de olika användningsområdena. Inom projektet kommer forskarna att ta sig an problem från olika områden, till exempel framtagning av nya material eller läkemedel, risker vid organtransplantationer, klimatförändringarnas påverkan på ekosystem och frågor om universums struktur.

Genom samarbetet i eSSENCE kommer också e-vetenskapen att utvecklas. Forskarna ska ta fram nya och mer effektiva modeller och programvara för simulering, lagring, visualisering och analys. Dessutom satsar de på att få fram nya metoder för kommunikation. Det blir då lättare att samarbeta kring gemensamma, men geografiskt spridda resurser, till exempel utrustning för experiment, databaser och avancerade datorer.

Till webbplatsen eSSENCElänk till annan webbplats, öppnas i nytt fönster

Text: Karin Nordin

Sidansvarig: webbredaktör
Senast uppdaterad: 2013-02-11


Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm

KTH Hjärnan simuleras i superdator

KTHAKTUELLT / NYHETER

Hjärnan simuleras i superdator

NYHET

Publicerad 2012-11-12

Just nu befinner sig en storskalig satsning på hjärnforskning och IT i startgroparna. Projektet går under namnet The Human Brain Project och målet är att efterlikna och simulera den mänskliga hjärnan. KTH ingår i projektet och forskarnas vapen mot bland annat neurologiska sjukdomar är superdatorn.

Här har hjärnbarken och dess nervsignaler rekonstruerats digitalt och sedan ingått i en rad simulationer på superdatorer i forskningsprojektet. Bild: EPFL-BBP, the HBP Report, 2012

Här har hjärnbarken och dess nervsignaler rekonstruerats digitalt och sedan ingått i en rad simulationer på superdatorer i forskningsprojektet. Bild: EPFL-BBP, the HBP Report, 2012

– Detta är inget vanligt hjärnforskningsprojekt. Det är IT-tung forskning som inbegriper ovanligt få experimentalister och neuroforskare, yrkesgrupper som tidigare dominerat forskningsprojekt om hjärnan. Man kan kalla denna forskning för “Computational Life Science” eller “Computational neuroscience” säger Anders Lansner, professor i datalogi på KTH.

Från proteinnivå hela vägen upp till hela människokroppen. Bild: EPFL-BBP, the HBP Report, 2012

Från proteinnivå hela vägen upp till hela människokroppen. Bild: EPFL-BBP, the HBP Report, 2012

Han har arbetat med hjärnsimuleringar sedan 80-talet. Tidigare handlade det om småskaliga simuleringar motsvarande en mushjärna i storlek. Nu är det alltså människohjärnan som befinner sig i fokus. En fullskalig, detaljerad modell av hjärnan på superdatorer som klarar av så kallad “massively parallel computing” ska vara klar 2023. Ett jätteprojekt.

Vad ska forskningen då användas till? Jo, morgondagens superdatorer och den mänskliga hjärnan har mycket gemensamt, förklarar Anders Lansner. Och det avser han och de andra nyttja.

- Ett av målen är förstås att förstå hur den friska hjärnan fungerar. Genom att göra det så kan vi utveckla och designa bättre datorer i framtiden. Få dem att efterlikna hjärnan. Även om alla inte är övertygade så är det min bestämda uppfattning att många av framtidens datorer kommer att vara uppbyggda på liknande sätt som hjärnan, säger Anders Lansner.

Det här erbjuder i sin tur möjligheten att revolutionera styrningen av robotar och möjligheterna med artificiell intelligens och maskininlärning. Exempelvis datorers möjlighet att tolka och förstå det mänskliga talet. Här kan exempelvis en variant av författaren Douglas Adams (Liftarens guide till galaxen) fantasikonstruktion babelfisken vara en framtida, verklig konstruktion. Det vill säga direköversättningar i realtid mellan två språk.

– Genom att simulera olika sjukdomstillstånd i hjärnan blir forskningen också uppenbart användbar inom sjukvården. Hjärnsjukdomar står för en stor kostnad i sjukvården, väl i nivå med cancer, säger Anders Lansner.

Denna forskning är efterlängtad, inte minst av läkemedelsföretagen. Många av dem har under senare tid varit tvungna att banta sin verksamhet, något som skett även i Sverige på Astrazeneca i Södertälje som fokuserat mycket på just hjärnsjukdomar. Industrin har accepterat att det är svårt att ta sig vidare från experimentell nivå där hjärnforskningen befunnit sig hittills, och att det behövs en bättre förståelse för det intrikata samspelet mellan nervcellerna i hjärnan.

– Historiskt har hjärnforskning varit experimentell. Men ju mer mätdata man får, desto tydligare blir det att superdatorn är det enda verktyget som möjliggör en exakt helhetsförståelse. Det blir snabbt väldigt mycket data att analysera. Det finns alltså ingen chans att förstå hjärnan utan modellering och simulering med hjälp av superdatorer. Det säger idag även erfarna och kunniga experimentalister. Och svårigheterna att förstå har fått läkemedelsindustrin att gå på knäna, säger Anders Lansner.

Anders Lansner, professor i datalogi på KTH.

Anders Lansner, professor i datalogi på KTH.

Han tillägger att en viktig del av forskningen också är att visulisera hur hjärnan fungerar. Även där spelar superdatorn en mycket viktig roll, liksom KTH genom forskarnas minst lika viktiga kompetens.

– Det är den nya generationen massivt parallella superdator som möjliggör denna forskning. Vi är en av få grupper i världen som utvecklar och genomför sådana här simuleringar på superdatorer. EU har satsat på den här typen av simuleringar under en längre tid, och Europa har därför en ledande position i förhållande till Japan, resten av Asien och USA inom denna forskning, säger Anders Lansner.

Han fortsätter med att berätta att forskningsprojektet The Human Brain Project är minst sagt omfattande och inbegriper 87 olika universitet, de allra flesta i Europa. KTH är med och bland annat är ämnesområden, avdelningar och samarbetet som Beräkningsbiologi, PDC och SciLifeLab representerade. Europas vassaste superdatorer från tyska superdatorcentret Forschungszentrum Jülich kommer att användas liksom förstås KTH:s egen stjärna i sammanhanget: superdatorn Lindgren.

The Human Brain Project befinner sig nu i finalen av The FET Flagship-Programmet (FET står för Future and Emerging Technologies) på EU-nivå där det tävlar med fem andra forskningsprojekt. I potten ligger forskningspengar om 10 miljarder kronor fördelat över 10 år, och beslut om vilka två av de sex forskningsprojekten som kommer att finansierats fattas enligt plan i februari 2013.

Här hittar du mer information: www.humanbrainproject.eu

För mer information, kontakta Anders Lansner på  08 – 790 62 10 eller ala@kth.se.

Peter Larsson

http://www.kth.se/aktuellt/nyheter/hjarnan-simuleras-i-superdator-1.351136

Tillhör: Aktuellt
Senast ändrad: 2012-11-12


Nya teknologier för människa-maskin-integration, Politik, Civil-Militär-Forskning

Global Computing Centre of Excellence

Global Computing Centre of Excellence

. a new research centre for Grid, Peer-to-Peer, and Service Oriented Architectures .

This document introduces Global Computing Centre of Excellence . a new joint industry/academia research centre for service-oriented computing. The centre is located in Stockholm, Sweden, and constituted by some of the world.s leading researchers in the fields of Grid computing, Service-oriented computing, and Peer-to-Peer computing, based at Royal Institute of Technology (KTH), Swedish Institute of Computer Science (SICS), and Swedish Defence Research Agency (FOI).

http://www.global-computing.org/



Videos

Dr. Theodore Berger — Piecemeal repair and replacement of brain parts is coming.

Ted Berger



Wikipedia

Biomimicry

Biomimicry

From Wikipedia, the free encyclopedia

Biomimicry or biomimetics is the imitation of the models, systems, and elements of nature for the purpose of solving complex human problems. [1] The terms biomimicry andbiomimetics come from the Greek words bios, meaning life, and mimesis, meaning to imitate. A closely related field is bionics.[2]

Over the last 3.6 billion years,[3] nature has gone through a process of trial and error to refine the living organisms, processes, and materials on Earth. The emerging field of biomimetics has given rise to new technologies created from biologically inspired engineering at both the macro scale and nanoscale levels. Biomimetics is not a new idea. Humans have been looking at nature for answers to both complex and simple problems throughout our existence. Nature has solved many of today’s engineering problems such as hydrophobicity, wind resistance, self-assembly, and harnessing solar energy through the evolutionary mechanics of selective advantages.

History[edit]

One of the early examples of biomimicry was the study of birds to enable human flight. Although never successful in creating a “flying machine”, Leonardo da Vinci (1452–1519) was a keen observer of the anatomy and flight of birds, and made numerous notes and sketches on his observations as well as sketches of “flying machines”.[4] The Wright Brothers, who succeeded in flying the first heavier-than-air aircraft in 1903, derived inspiration from observations of pigeons in flight.[5]

Otto Schmitt, an American academic and inventor, coined the term biomimetics to describe the transfer of ideas from biology to technology.[6] He developed the Schmitt triggerwhile attempting to replicate the biological system of nerve propagation.[7] The term biomimetics entered Webster’s Dictionary in 1974 and is defined as “the study of the formation, structure, or function of biologically produced substances and materials (as enzymes or silk) and biological mechanisms and processes (as protein synthesis or photosynthesis) especially for the purpose of synthesizing similar products by artificial mechanisms which mimic natural ones”.

In 1960, the term bionics was coined by psychiatrist and engineer Jack Steele to mean “the science of systems which have some function copied from nature”.[2] Bionics entered the Webster dictionary in 1960 as “a science concerned with the application of data about the functioning of biological systems to the solution of engineering problems”. Bionic took on a different connotation when Martin Caidin referenced Jack Steele and his work in the novel Cyborg which later resulted in the 1974 television series The Six Million Dollar Man and its spin-offs. The term bionic then became associated with “the use of electronically operated artificial body parts” and “having ordinary human powers increased by or as if by the aid of such devices”.[8] Because the term bionic took on the implication of supernatural strength, the scientific community in English speaking countries largely abandoned it.[9]

The term biomimicry appeared as early as 1982.[10] Biomimicry was popularized by scientist and author Janine Benyus in her 1997 book Biomimicry: Innovation Inspired by Nature. Biomimicry is defined in the book as a “new science that studies nature’s models and then imitates or takes inspiration from these designs and processes to solve human problems”. Benyus suggests looking to Nature as a “Model, Measure, and Mentor” and emphasizes sustainability as an objective of biomimicry.[11]

Nanobiomimicry[edit]

Biological imitation of nano and macro scale structures and processes is called nanobiomimicry. Nature provides a great variety of nano-sized materials that offer as potential templates for the creation of new materials, such as bacteria, viruses, diatoms, and biomolecules. Through the study of nanobiomimicry, key components of nanodevices likenanowiresquantum dots, and nanotubes have been produced in an efficient and simple manner when compared to more conventional lithographic techniques. Many of these biologically derived structures are then developed into applications for photovoltaics, sensors, filtration, insulation, and medical uses. The field of nanobiomimetics is highly multidisciplinary, and requires collaboration between biologists, engineers, physicists, material scientists, nanotechnologists and other related fields. In the past century, the growing field of nanotechnology has produced several novel materials and enabled scientists to produce nanoscale biological replicas.

Fabrication[edit]

Electron micrograph of rod shaped TMV particles.

SEM of rod shaped tobacco mosaic virusparticles

Biomorphic mineralization is a technique that produces materials with morphologies and structures resembling those of natural living organisms by using bio-structures as templates for mineralization. Compared to other methods of material production, biomorphic mineralization is facile, environmentally benign and economic.[12] Biomorphic mineralization makes efficient use of natural and abundant materials such as calcium, iron, carbon, phosphorus, and silicon with the capability of turning biomass wastes into useful materials. Templates derived from biological nanoparticles such as DNA, viruses, bacteria, and peptides can transform unordered inorganic nanoparticles into complex inorganic nanostructures. Biologically derived nanostructures are typically fabricated using either chemical or physical techniques. Typical chemical fabrication techniques are plasma spraying, plasma immersion ion implantation and deposition,sol–gelchemical vapor deposition, physical vapor deposition, cold spraying and self-assembly. Physical modification techniques include laser etching, shot blasting, physical plating, and physical evaporation and deposition. Methods of fabrication with high throughput, minimal environmental damage, and low costs are highly sought after.

Biologically inspired engineering[edit]

The use of biomineralized structures is vast and derived from the abundance of nature. From studying the nano-scale morphology of living organisms many applications have been developed through multidisciplinary collaboration between biologists, chemists, bioengineers, nanotechnologists, and material scientists.

Nanowires, nanotubes, and quantum dots[edit]

virus is a nonliving particle ranging from the size of 20 to 300 nm capsules containing genetic material used to infect its host. The outer layer of viruses are remarkably robust and capable of withstanding temperatures as high as 60 °C and stay stable in a wide range of pH range of 2-10.[12] Viral capsids can be used to create several nano device components such as nanowires, nanotubes, and quantum dots. Tubular virus particles such as thetobacco mosaic virus (TMV) can be used as templates to create nanofibers and nanotubes since both the inner and outer layers of the virus are charged surfaces and can induce nucleation of crystal growth. This was demonstrated though the production of platinum and gold nanotubes using TMV as a template.[13] Mineralized virus particles have been shown to withstand various pH values by mineralizing the viruses with different materials such silicon, PbS, and CdS and could therefore serve as a useful carriers of material.[14]A spherical plant virus called cowpea chlorotic mottle virus (CCMV) has interesting expanding properties when exposed to environments of pH higher than 6.5. Above this pH, 60 independent pores with diameters about 2 nm begin to exchange substance with the environment. The structural transition of the viral capsid can be utilized in Biomorphic mineralization for selective uptake and deposition of minerals by controlling the solution pH. Applications include using the viral cage to produce uniformly shaped and sized quantum dot semiconductor nanoparticles through a series of pH washes. This is an alternative to the apoferritin cage technique currently used to synthesize uniform CdSe nanoparticles.[15] Such materials could also be used for targeted drug delivery since particles release contents upon exposure to specific pH levels.

Display technology[edit]

Further information: Structural coloration and Patterns in nature
Morpho butterfly.

Vibrant blue color of Morpho butterfly due to structural coloration.

Morpho butterfly wings contain microstructures that create its coloring effect through structural coloration rather than pigmentation. Incident light waves are reflected at specific wavelengths to create vibrant colors due to multilayer interference, diffraction, thin film interference, and scattering properties.[16] The scales of these butterflies consist of microstructures such as ridges, cross-ribs, ridge-lamellae, and microribs that have been shown to be responsible for coloration. The structural color has been simply explained as the interference due to alternating layers of cuticle and air using a model of multilayer interference. The same principles behind the coloration of soap bubbles apply to butterfly wings. The color of butterfly wings is due to multiple instances of constructive interferencefrom structures such as this. The photonic microstructure of butterfly wings can be replicated through biomorphic mineralization to yield similar properties. The photonic microstructures can be replicated using metal oxides or metal alkoxides such as titanium sulfate(TiSO4), zirconium oxide (ZrO2), and aluminium oxide (Al2O3). An alternative method of vapor-phase oxidation of SiH4 on the template surface was found to preserve delicate structural features of the microstructure.[17] Now, companies like Qualcomm are specializing in creating color displays with low power consumption based on these principles.

Additional examples[edit]

Velcro was inspired by the tiny hooks found on the surface of burs.

Researchers studied the termite’s ability to maintain virtually constant temperature and humidity in their termite mounds in Africa despite outside temperatures that vary from 1.5 °C to 40 °C (35 °F to 104 °F). Researchers initially scanned a termite mound and created 3-D images of the mound structure, which revealed construction that can influence human building design. The Eastgate Centre, a mid-rise office complex in HarareZimbabwe,[18] stays cool without air conditioning and uses only 10% of the energy of a conventional building its size.

Modeling echolocation in bats in darkness has led to a cane for the visually impaired. Research at the University of Leeds, in the United Kingdom, led to the UltraCane, a product formerly manufactured, marketed and sold by Sound Foresight Ltd.

Janine Benyus refers in her books to spiders that create web silk as strong as the Kevlar used in bulletproof vests. Engineers could use such a material—if it had a long enough rate of decay—for parachute lines, suspension bridge cables, artificial ligaments for medicine, and other purposes.[11]

Other research has proposed adhesive glue from mussels, solar cells made like leaves, fabric that emulates shark skin, harvesting water from fog like a beetle, and more. Nature’s 100 Best is a compilation of the top hundred different innovations of animals, plants, and other organisms that have been researched and studied by the Biomimicry Institute.[18]

A display technology based on the reflective properties of certain morpho butterflies was commercialized by Qualcomm in 2007. The technology uses Interferometric Modulation to reflect light so only the desired color is visible in each individual pixel of the display.

Biomimicry may also provide design methodologies and techniques to optimize engineering products and systems. An example is the re-derivation of Murray’s law, which in conventional form determined the optimum diameter of blood vessels, to provide simple equations for the pipe or tube diameter which gives a minimum mass engineering system.[19]

In structural engineering, the Swiss Federal Institute of Technology (EPFL) has incorporated biomimetic characteristics in an adaptive deployable “tensegrity” bridge. The bridge can carry out self-diagnosis and self-repair.[20]

The extremely tough and mechanically versatile insect cuticle, inspired the scientists from the Wyss Institute for Biologically Inspired Engineering at Harvard University, who developed the Shrilk family of biomimetic plastics, based in the components and design of the insect skin.

The Bombardier beetle‘s powerful repellent spray inspired a Swedish company to develop a “micro mist” spray technology, which is claimed to have a low carbon impact (compared to aerosol sprays). The beetle mixes chemicals and releases its spray via a steerable nozzle at the end of its abdomen, stinging and confusing the victim. [21]

Flock of sheep.

Holistic planned grazing, using fencing and/or herders, seeks to restore grasslands by carefully planning movements of large herds of livestock to mimic the vast herds found in nature where grazing animals are kept concentrated by pack predators and must move on after eating, trampling, and manuring an area, returning only after it has fully recovered. Developed by Allan Savory,[22] this method of biomimetic grazing holds tremendous potential in building soil, increasing biodiversity, reversing desertification, and mitigating global warming,[23][24] similar to what occurred during the past 40 million years as the expansion of grass-grazer ecosystems built deepgrassland soils, sequestering carbon and cooling the planet.[25]

See also[edit]

References[edit]

  1. ^ Reading University: What is Biomimetics? Retrieved 3 June 2012.
  2. a b Mary McCarty. “Life of bionics founder a fine adventure”.Dayton Daily News, 29 January 2009.
  3. ^http://en.wikipedia.org/wiki/Timeline_of_evolutionary_history_of_life#Basic_timeline
  4. ^ Romei, Francesca (2008). Leonardo Da Vinci. The Oliver Press. p. 56. ISBN 978-1-934545-00-3.
  5. ^ Howard, Fred (1998). Wilbur and Orville: A Biography of the Wright Brothers. Dober Publications. p. 33. ISBN 978-0-486-40297-0.
  6. ^ Vincent, Julian F. V.; Bogatyreva, Olga A., Bogatyrev, Nikolaj R., Bowyer, Adrian, Pahl, Anja-Karina (21 August 2006). “Biomimetics: its practice and theory”. Journal of The Royal Society Interface 3 (9): 471–482. doi:10.1098/rsif.2006.0127.
  7. ^ “Otto H. Schmitt, Como People of the Past”. Connie Sullivan, Como History Article.
  8. ^ Compact Oxford English Dictionary. 2008. ISBN 978-0-19-953296-4.
  9. ^ Vincent, JFV (2009). “Biomimetics — a review”. Proc. I. Mech. E. 223: p919–939.
  10. ^ Merrill, Connie Lange (1982). Biomimicry of the Dioxygen Active Site in the Copper Proteins Hemocyanin and Cytochrome Oxidase. Rice University.
  11. a b Benyus, Janine (1997). Biomimicry: Innovation Inspired by Nature. New York, USA: William Morrow & CompanyISBN 978-0-688-16099-9.
  12. a b Tong-Xiang, Suk-Kwun, Di Zhang. “Biomorphic Mineralization: From biology to materials .” State Key Lab of Metal Matrix Composites . Shanghai: Shanghai Jiaotong University , n.d. 545-1000.
  13. ^ Dujardin E., Peet C. “Nano Lett.” 2003. 3:413.
  14. ^ Shenton W. Douglas, Young M. “Adv. Materials.” 1999. 11:253.
  15. ^ Ischiro Yamashita, Junko Hayashi, Mashahiko Hara. “Bio-template Synthesis of Uniform CdSe Nanoparticles Using Cage-shaped Protein, Apoferritin.” Chemistry Letters (2004). Volume: 33, Issue: 9. 1158–1159.
  16. ^ Ball, Philip (May 2012). “Scientific American”Nature’s Color Tricks 306. pp. 74–79. doi:10.1038/scientificamerican0512-74. Retrieved 3 June 2012.
  17. ^ Cook G., Timms PL, Goltner-Spickermann C. Angew. “Chem Int Ed.” 2003. 42:557.
  18. a b Biomimicry Institute: case study
  19. ^ Williams, Hugo R.; Trask, Richard S., Weaver, Paul M. and Bond, Ian P. (2008). “Minimum mass vascular networks in multifunctional materials”Journal of the Royal Society Interface 5 (18): 55–65. doi:10.1098/rsif.2007.1022.PMC 2605499PMID 17426011.
  20. ^ Korkmaz, Sinan; Bel Hadj Ali, Nizar, Smith, Ian F.C. (2011).“Determining Control Strategies for Damage Tolerance of an Active Tensegrity Structure”Engineering Structures 33 (6): 1930–1939. doi:10.1016/j.engstruct.2011.02.031.
  21. ^ Swedish Biomimetics: The μMist Platform Technology. Retrieved 3 June 2012.
  22. ^ Savory, Allan; Jody Butterfield (1998-12-01) [1988]. Holistic Management: A New Framework for Decision Making (2nd ed. ed.). Washington, D.C.: Island Press. ISBN 1-55963-487-1.
  23. ^ “Allan Savory: How to green the desert and reverse climate change.” TED Talk, February 2013.
  24. ^ Thackara, John (June 2010). “Greener Pastures”Seed Magazine.
  25. ^ Retallack, Gregory (2001). “Cenozoic Expansion of Grasslands and Climatic Cooling”The Journal of Geology(University of Chicago Press) 109: 407–426.

Further reading[edit]

  • Thompson, D’Arcy W.On Growth and Form. Dover 1992 reprint of 1942 2nd ed. (1st ed., 1917).
  • Vogel, S.Cats’ Paws and Catapults: Mechanical Worlds of Nature and People. Norton & co. 2000.
  • Benyus, J. M. (2001). Along Came a Spider. Sierra, 86(4), 46-47.
  • Hargroves, K. D. & Smith, M. H. (2006). Innovation inspired by nature Biomimicry. Ecos, (129), 27-28.
  • Marshall, A. (2009). Wild Design: The Ecomimicry Project”, North Atlantic Books: Berkeley.
  • Pyper, W. (2006). Emulating nature: The rise of industrial ecology. Ecos, (129), 22-26.
  • Smith, J. (2007). It’s only natural. The Ecologist, 37(8), 52-55.
  • Passino, Kevin M. (2004). Biomimicry for Optimization, Control, and Automation. Springer.

External links[edit]

Videos[edit]



Wikipedia

GNU Radio

GNU Radio

From Wikipedia, the free encyclopedia
The GNU Software Radio
GNU Radio Logo small.png
Original author(s) GNU project
Developer(s) Eric Blossom
Stable release 3.7.0 / July 3, 2013; 30 days ago
Written in C++, Python
Operating system Cross-platform
Type Radio
License GNU General Public License
Website gnuradio.org

GNU Radio is a free & open source software development toolkit that provides signal processing blocks to implement software-defined radio systems. It can be used with readily-available low-cost external RF hardware to create software-defined radios, or without hardware in a simulation-like environment. It is widely used in hobbyist, academic and commercial environments to support both wireless communications research and real-world radio systems.

GNU Radio applications are primarily written using the Python programming language, while the supplied performance-critical signal processing path is implemented in C++ using processor floating-point extensions, where available. Thus, the developer is able to implement real-time, high-throughput radio systems in a simple-to-use, application-development environment.

GNU Radio supports development of signal processing algorithms using pre-recorded or generated data, avoiding the need for actual RF hardware.[1]

GNU Radio is a signal processing package, which is distributed under the terms of theGNU General Public License (GPL). All of the code is copyright of the Free Software Foundation. The goal is to give ordinary software people the ability to ‘hack’ the electromagnetic spectrum, that is, to understand theradio spectrum and think of clever ways to use it.

As with all software-defined radio systems, reconfigurability is the key feature. Instead of purchasing multiple expensive radios, a single generic radio is purchased which feeds signal processing software. Currently only a few forms of radio can be processed in GNU Radio but if one understands the math of a radio transmission system, one can reconfigure GNU Radio to receive it.

The GNU Radio project utilizes the Universal Software Radio Peripheral (USRP) which is a computer-based transceiver containing four 64 mega sample-per-second (MS/s) 12-bit analog-to-digital (A to D) converters, four 128 MS/s 14-bit digital-to-analog (D to A) converters, and support circuitry for the interface to the host computer. Depending on the model, the host-to-USRP interface is eitherUSB 2.0 or Gigabit Ethernet. The USRP can process signals up to 25-MHz wide, depending on the model. Several transmitter and receiver plug-in daughter boards are available covering various bands between 0 and 5.9 GHz. The USRP was developed by Matt Ettus.

In order to run GNU Radio on a Macintosh operating system, one can install a package manager such as MacPorts to download and compile the source code.

History[edit sourceedit]

Started in 2001, GNU Radio is an official GNU Project.[2] Philanthropist John Gilmore initiated and has sustained GNU Radio with the funding of $320,000 (US) to Eric Blossom for code creation and project management duties.

GNU Radio began as a fork of the Pspectra code that was developed by the SpectrumWare project at the Massachusetts Institute of Technology (MIT). In 2004 a complete rewrite of the GNU Radio was completed, so today GNU Radio doesn’t contain any of the original Pspectra code. Also of note is that the Pspectra codebase has been used as the foundation of the commercial Vanu Software Radio.

In September 2010, Eric Blossom stepped down as project manager and was replaced by Tom Rondeau.[3] Tom is a graduate of Virginia Tech and is an expert in cognitive radio and a longtime contributor to GNU Radio.

Version history[edit sourceedit]

This is the version history, latest first:

Version Date
3.6.2 05/09/2012
3.6.1 11/06/2012
3.6.0 21/04/2012
3.4.0 23/09/2011
3.3.0 06/03/2010
3.2.2 07/15/2009
3.2.1 07/06/2009
3.2 05/24/2009
3.1.3 08/23/2008
3.1.2 03/24/2008
3.1.1 11/05/2007
3.1.0 10/22/2007
3.0.4 07/27/2007
3.0.3 03/01/2007
3.0.2 11/15/2006
3.0.1 11/08/2006
3.0 10/08/2006
2.8 04/15/2006
2.7 04/03/2006
2.6 12/09/2005
2.5 03/03/2005
2.4 02/02/2005
2.3 11/04/2004
2.2 10/11/2004

See also[edit sourceedit]

References[edit sourceedit]

External links[edit sourceedit]



Forskning som förändrar Övervakning, Integritet och Autonomi, Politik, Civil-Militär-Forskning

Sweden ICT A Software Radio-Empowered Sensor Network

A Software Radio-Empowered Sensor Network
Yafei Li, Zhitao He, Thiemo Voigt
Swedish Institute of Computer Science
{yafei, zhitao, thiemo}@sics.se
Sanna Leidelof ¨
Saab Systems
Abstract— Low power wireless sensors are limited by current radio technologies to short communication range and low throughput. We envision that future radios with advanced software programmable encoding and modulation will bring sensor networks unprecedented flexibility and performance.
We have taken a step towards realizing this vision by designing a softwarebased, narrow-band transceiver using the GNU Radio software and the Universal Software Radio Peripheral hardware. We have verified the compatibility of our implementation with existing wireless sensor platforms. We demonstrate the flexibility of our design with sensing applications running on a sensor network
communicating over hybrid radios.

A Software Radio-Empowered Sensor NetworkYafei Li, Zhitao He, Thiemo Voigt Swedish Institute of Computer Science{yafei, zhitao, thiemo}@sics.seSanna Leidelof ¨Saab SystemsAbstract— Low power wireless sensors are limited by current radio technologies to short communication range and lowthroughput. We envision that future radios with advanced software programmable encoding and modulation will bring sensornetworks unprecedented flexibility and performance. We havetaken a step towards realizing this vision by designing a softwarebased, narrow-band transceiver using the GNU Radio softwareand the Universal Software Radio Peripheral hardware. We haveverified the compatibility of our implementation with existingwireless sensor platforms. We demonstrate the flexibility of ourdesign with sensing applications running on a sensor networkcommunicating over hybrid radios.

http://soda.swedish-ict.se/3607/1/sncnw09-sdr-demo.pdf



Transhumanism

Tranhumanism Whole Brain Emulation

Once the brain is in a computer, you can do anything to it. Any analysis and modification becomes possible, in a reversible manner. No surgery, no need for expensive, biocompatible implants and clumsy electrodes. Every bit in the brain can be accessed with no negative effects on the rest of the ’tissue’. You can run all sorts of analysis algorithms, find common patterns among different brains, identify functional clusters that partake in different cognitive functions with the ultimate resoltion, unlike MRI or EEG machines that blur the finer details into overall patterns. You can also make any change that you want: Delete whole regions, or copy and paste them from one brain to the other, grow a few dozen millimeters of cortex without care for skull size.

http://wiki.transhumani.com/index.php?title=Whole_Brain_Emulation



Etik och debatt-Nya Teknologier, Forskning som förändrar Övervakning, Integritet och Autonomi, Hjärninspirerade datorer

Kungliga Tekniska Högskolan får 5 miljarder kronor för att simulera hjärnan

Forskningsprojektet The Human Brain Project har legat i startgroparna en längre tid, i väntan på finansiering. Nu står det klart att projektet, med målet är att efterlikna och simulera den mänskliga hjärnan och där bland andra KTH-forskare ingår, beviljas en mycket stor summa pengar. Närmare bestämt 5 miljarder kronor.

Här har hjärnbarken och dess nervsignaler rekonstruerats digitalt och sedan ingått i en rad simulationer på superdatorer i forskningsprojektet. Bild: EPFL-BBP, the HBP Report, 2012.

Här har hjärnbarken och dess nervsignaler rekonstruerats digitalt och sedan ingått i en rad simulationer på superdatorer i forskningsprojektet. Bild: EPFL-BBP, the HBP Report, 2012.

Anders Lansner, professor i datalogi på KTH, är en av forskarna från KTH som deltar i The Human Brain Project (hädanefter förkortat HBP).

– HBP är inget vanligt hjärnforskningsprojekt. Det är IT-tung forskning som inbegriper ovanligt få experimentalister och neuroforskare, yrkesgrupper som tidigare dominerat forskningsprojekt om hjärnan, säger han.

Anders Lansner har arbetat med hjärnsimuleringar sedan 80-talet. Tidigare handlade det om småskaliga simuleringar med några tusental nervceller, men nu är det alltså människohjärnan som befinner sig i fokus. En fullskalig, detaljerad modell av hjärnan på superdatorer som klarar av så kallad “massively parallel computing” ska vara klar 2023. Ett jätteprojekt med andra ord.

Vad ska forskningen då användas till? Jo, morgondagens superdatorer och den mänskliga hjärnan har mycket gemensamt, förklarar Anders Lansner. Det avser han och de andra forskarna nyttja.

Anders Lansner, professor i datalogi på KTH.

Anders Lansner, professor i datalogi på KTH.

– Ett av målen är förstås att förstå hur den friska hjärnan fungerar. Genom att göra det så kan vi utveckla och designa bättre datorer i framtiden. Få dem att efterlikna hjärnan. Även om alla inte är övertygade så är det min bestämda uppfattning att många av framtidens datorer kommer att vara uppbyggda på liknande sätt som hjärnan, säger Anders Lansner.

Det här erbjuder i sin tur möjligheten att revolutionera styrningen av robotar och möjligheterna med artificiell intelligens och maskininlärning. Exempelvis datorers möjlighet att tolka och förstå det mänskliga talet. Här kan exempelvis en variant av författaren Douglas Adams (Liftarens guide till galaxen) fantasikonstruktion babelfisken vara en framtida, verklig konstruktion. Det vill säga direköversättningar i realtid mellan två språk.

– Genom att simulera olika sjukdomstillstånd i hjärnan blir forskningen också uppenbart användbar inom sjukvården. Hjärnsjukdomar står för en stor kostnad i sjukvården, väl i nivå med cancer, säger Anders Lansner.

Han tillägger att en viktig del av forskningen också är att visulisera hur hjärnan fungerar. Även där spelar superdatorn en mycket viktig roll, liksom KTH genom forskarnas minst lika viktiga kompetens.

HBP ingår i The FET Flagship-Programmet (FET står för Future and Emerging Technologies) på EU-nivå där projektet har tävlat med fem andra forskningsprojekt. HBP blir alltså ett av tvåvinnande förslag som kommer att finansieras. Det är tre år av rigoröst utvärderingsarbete som lett fram till att just HBP fått forskningsanslaget om 5 miljarder kronor.

Förutom KTH ingår bland annat lärosäten som huvudkoordinatorn EPFL, Heidelberg-universitetet, KI, Aalto-universitetet, UCLA, University of Cambridge, Imperial College och Yale i HBP. Även företag som SAP och IBM deltar.

På KTH är även forskarna Jeanette Hellgren Kotaleski och Erwin Laure direkt involverade i HBP.

Här hittar du mer informationwww.humanbrainproject.eu

För mer information, kontakta Anders Lansner på 08 – 790 62 10 eller ala@kth.se.

Peter Larsson

http://www.kth.se/aktuellt/nyheter/5-miljarder-kronor-for-att-simulera-hjarnan-1.365752



Videos

WIRES IN THE BRAIN MIT

Uppladdad den 16 aug 2008
Rodolfo Llinas tells the story of how he has developed bundles of nanowires thinner than spider webs that can be inserted into the blood vessels of human brains.

While these wires have so far only been tested in animals, they prove that direct communication with the deep recesses of the brain may not be so far off. To understand just how big of a breakthrough this is—US agents from the National Security Agency quickly showed up at the MIT laboratory when the wires were being developed.

What does this mean for the future? It might be possible to stimulate the senses directly – creating visual perceptions, auditory perceptions, movements, and feelings. Deep brain stimulation could create the ultimate virtual reality. Not to mention, direct communication between man and machine or human brain to human brain could become a real possibility.

Llinas poses compelling questions about the potentials and ethics of his technology.



Forskning som förändrar Övervakning, Integritet och Autonomi

VINNOVA – Stockholm Brain Institute Berzelii Centra

Uppdaterad: 24 januari 2011

Genom att integrera världsledande expertis inom kognition, beräkningsmodeller och nervforskning ska centret få ökad förståelse av hjärnan. Främst läggs fokus på hjärnans interaktion av aktivitet, känsla och minne. Det ska bland annat leda till större förståelse av mekanismerna bakom, och i längden bättre prevention och behandling av, sjukdomar som ADHD, demens och schizofreni.

Tio forskargrupper på KI, KTH och Stockholms universitet ska samverka med Karolinska universitetssjukhuset, CogMed, AstraZeneca, IBM, Elekta, Carlson Research och flera mindre företag.

http://www.vinnova.se/sv/Resultat/Starka-forsknings-och-innovationsmiljoer/Stockholm-Brain-Institute-Berzelii-Centra/



Wikipedia

Multimedia Web Ontology Language

Machine interpretation of documents and services in Semantic Web environment is primarily enabled by (a) the capability to mark documents, document segments and services with semantic tags and (b) the ability to establish contextual relations between the tags with a domain model, which is formally represented as ontology. Human beings use natural languages to communicate an abstract view of the world. Natural language constructs are symbolic representations of human experience and are close to the conceptual model that Semantic Web technologies deal with. Thus, Natural language constructs have been naturally used to represent the ontology elements. This makes it convenient to apply Semantic Web technologies in the domain of textual information. In contrast, multimedia documents are perceptual recording of human experience. An attempt to use a conceptual model to interpret the perceptual records gets severely impaired by the semantic gap that exists between the perceptual media features and the conceptual world. Notably, the concepts have their roots in perceptual experience of human beings and the apparent disconnect between the conceptual and the perceptual world is rather artificial. The key to semantic processing of multimedia data lies in harmonizing the seemingly isolated conceptual and the perceptual worlds. Representation of the Domain knowledge needs to be extended to enable perceptual modeling, over and above conceptual modeling that is presently supported. The perceptual model of a domain primarily comprises observable media properties of the concepts. Such perceptual models are useful for semantic interpretation of media documents, just as the conceptual models help in the semantic interpretation of textual documents.

Multimedia Ontology language (M-OWL) is an ontology representation language that enables such perceptual modeling. It assumes a causal model of the world, where observable media features are caused by underlying concepts. In MOWL, it is possible to associate different types of media features in different media format and at different levels of abstraction with the concepts in a closed domain. The associations are probabilistic in nature to account for inherent uncertainties in observation of media patterns. The spatial and temporal relations between the media properties characterizing a concept (or, event) can also be expressed using MOWL. Often the concepts in a domain inherit the media properties of some related concepts, such as a historic monument inheriting the color and texture properties of its building material. It is possible to reason with the media properties of the concepts in a domain to derive an Observation Model for a concept. Finally, MOWL supports an abductive reasoning framework using Bayesian networks, that is robust against imperfect observations of media data.

History

W3C forum has undertaken the initiative of standardizing the ontology representation for web-based applications. The Web Ontology Language (OWL), standardized in 2004 after maturing through XML(S), RDF(S) and DAML+OIL is a result of that effort. Ontology in OWL (and some of its predecessor languages) has been successfully used in establishing semantics of text in specific application contexts.

The concepts and properties in these traditional ontology languages are expressed as text, making an ontology readily usable for semantic analysis of textual documents. Semantic processing of media data calls for perceptual modeling of domain concepts with their media properties. M-OWL has been proposed as an ontology language that enables such perceptual modeling. While M-OWL is a syntactic extension of OWL, it uses a completely different semantics based on probabilistic causal model of the world.

Key Features

Syntactically, MOWL is an extension of OWL. These extensions enable

  • Definition of media properties following MPEG-7 media description model.
  • Probabilistic association of media properties with the domain concepts.
  • Formal semantics to the media properties to enable reasoning.
  • Formal semantics for spatio-temporal relations across media objects and events.

MOWL is accompanied with reasoning tools that support

  • Construction of model of observation for a concept in multimedia documents with expected media properties.
  • Probabilistic (Bayesian) reasoning for concept recognition with the model of observation.

Bibliography

  • A Mallik, S Chaudhury and H Ghosh. Nrityakosha: Preserving the Intangible Heritage of Indian Classical Dance. In ACM Journal of Computing and Cultural Heritage. 4(3), December 2011.
  • A Malik, S Chaudhury, H Ghosh, Preservation of Intangible Heritage: A case-study of Indian Classical Dance. In eHeritage 2010: 2nd ACM Workshop on eHeritage and Digital Art Preservation [ACM Multimedia Conference], October 2010.
  • S Chaudhury and H Ghosh. Ontology based access to heritage artefacts on the web. In Multimedia Information Extraction and Digital Heritage Preservation. Ed. B.B. Chaudhuri and U. Munshi. World Scientific Pub Co. Inc., Mar. 2011
  • H. Ghosh, G. Harit and S. Chaudhury. Using ontology for building distributed digital libraries with multimedia contents. World Digital Library, 1(2), Dec 2008, pp. 83-100.
  • S. Wattamwar and H. Ghosh. Spatio-Temporal Query for Multimedia Database. Workshop on Multimedia Semantics. ACM Multimedia Conference 2008, Vancouver (Canada), October 2008
  • H. Ghosh, P. Poornachandra, A. Mallik and S. Chaudhury. Learning Ontology for Personalized Video Retrieval. International Workshop on Many Faces of Multimedia Semantics (WMS07), ACM Multimedia Conference, Augsberg (Germany) September 2007.
  • H.Ghosh, S. Chaudhury, K. Kashyap and B. Maiti. Ontology Specification and Integration for Multimedia Applications. In Ontologies in the Context of Information Systems, Ed. R. Sharman, R. Kishore and R. Ramesh. Springer, 2007, pp. 265-296
  • H.Ghosh, G. Harit and S. Chaudhury. Ontology based interaction with multimedia collections. International Conference on Digital Libraries, New Delhi, 2006.
  • G. Harit, S. Chaudhury and H. Ghosh. Using Multimedia Ontology for generating conceptual annotations and hyperlinks in video collections. International conference on Web Intelligence, Hong Kong, 2006.
  • T. Karthik, S. Chaudhury and H. Ghosh. Specifying Spatio-Temporal Relations in Multimedia Ontologies. International Conference of Pattern Recognition and Machine Intelligence, Kolkata 2005.
  • H. Ghosh and S. Chaudhury. Distributed and Reactive Query Planning in R-MAGIC: An Agent based Multimedia Retrieval System. IEEE Trans KDE, 16(9), Sep 2004.
  • H. Ghosh, N. Rajarathnam and S. Chaudhury. Knowledge Representation for Web based Services in a Multi-cultural Environment. IEEE International Workshop on Website Evolution (WSE-2001), Florence, Nov 2001.

http://en.wikipedia.org/wiki/Multimedia_Web_Ontology_Language



Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi

När vården flyttar hem till dig – den mobila vårdens etik – Dr Elin Palm

ETIK I PRAKSIS 2010 Kontroll och uppföljning av vårdtagares hälsa och allmäntillstånd bedrivs i hemmiljö med hjälp av Internet, mikrochips, mobiltelefoner och sensorer

När vården flyttar hem till dig – den mobila vårdens etik

Elin Palm (2010)

Västvärldens åldrande befolkning anses ofta ställa krav på nya former av vård och omsorg. Olika typer av informations- och kommunikationstekniskt (IKT) baserat vårdstöd framhålls ofta som en lösning. Tekniken medger en rad olika fördelar, exempelvis tätare tillsyn, kontinuerliga mätningar av vitala funktioner, med möjlighet att kontinuerligt ställa diagnos, och snabb respons på larm, men de tekniska lösningarna får också etiska implikationer. I den här artikelnbeskrivs och exemplifieras IKT-baserad vård och omsorg och teknikens påverkan på centrala värden som personlig integritet, autonomi, frivillighet ochinformerat samtycke diskuteras. Interaktiv etisk teknikvärdering föreslås för att bättre inkorporera alla berörda parters behov av och synpunkter på denhär typen av vårdstöd.

Nyckelord: autonomi, etik, frivillighet, informerat samtycke, interaktiv etisk teknik-värdering, IKT-baserat vårdstöd, hemvård, personlig integritet, robotteknik, sensor-teknik, säkerhet, trygghet, valfrihet

English summary: When health care moves in – the ethics of mobile

health care

An ageing population in the Western world is typically taken to require novel forms of health care. Different types of Information and Communication (ICT) based services and functions are presented as a solution. Even if such technology imply benefits in terms of more frequent attendance, continuous monitoring and diagnoses of vital signs and quick response to alarms, the technology also gives raise to ethical concerns. This article describes and exemplifies ICT-based health care and discusses implications on central values like privacy, autonomy, freedom of choice and informed consent. Interactive ethi-

cal technology assessment is suggested as a means to better incorporate the needs of all concerned parties and their perspectives on this type of support.

Key words: autonomy, ethics, freedom of choice, informed consent, interactive ethical technology assessment, ICT-based health care, home-care, privacy, robot technology, sensor technology, security

Inledning

Den utvecklade världens befolkning åldras och den vårdsituation som detta ger upphov till liknas ibland vid en tidsinställd bomb (Martin, Williams & O’Neill 2009). I länder som Spanien, Italien, Japan och USA går det snart två personer i gruppen 65 år och äldre på varje person i gruppen 20 år och yngre, och den högsta levnadsåldern förskjuts ständigt uppåt.1 Eftersom en större andel av personerna i segmentet 65 år och äldre lider av kroniska sjukdomar antas det att den åldrande befolkningen kommer att omkullkasta rådande vård-, sjukförsäkrings- och pensionssystem. Det antas att den demografiska utvecklingen och en växande ohälsa bland yngre kommer att kräva att det rådande vård- och omsorgssystemet förändras,2 och ofta framhålls informations- och kommunikations-tekniskt baserad vård som lösningen på denna utmaning (Hälsans nya verktyg (HNV) 2009–2011:5). Med hjälp av IKT-baserat patientstöd kan vård och omsorg ges utanför traditionella vårdinstitutioner som sjukhus, ålderdomshem och gruppboenden.

Vård och omsorg i hemmiljö beskrivs som en både kostnadseffektiv och kvalitetshöjande åtgärd (HNV 2009–2011: 14), och med hjälp av virtuella vårdplatser, distribuerad diagnostik och konsultationer ska läkare kunna ställa diagnos, rekommendera behandling och följa upp behandlingsresultat på distans. På den virtuella vårdavdelningen kan flera specialister vara engagerade i en patient samtidigt, vilket kan förkorta väntetider (HNV 2009–2011: 12) och förbättra behandlingen av äldre patienter med komplexa sjukdoms-bilder. I dagens sjukvård träffar dessa patienter vanligtvis flera olika specialister som behandlar symtom inom respektive expertområde, utan en helhetssyn på patienten. Med en mer sammantagen bild av patientens behov ökar chanserna att rätt insatser sätts in.

En rad olika IKT-baserade lösningar för vård och omsorg erbjuds redan i dag. Kontroll och uppföljning av vårdtagares hälsa och allmäntillstånd bedrivs i hemmiljö med hjälp av Internet, mikrochips, mobiltelefoner och sensorer. Sådana lösningar lanseras ofta som alternativ eller komplement till traditionell sjukhusvård, i synnerhet för vård av kroniskt sjuka eller handikappade personer. Med hjälp av IKT-baserat vårdstöd kan människor som behöver kontinuerlig tillsyn fortsätta att bo på egen hand längre, och behöver kanske inte särskilt boende förrän längre fram i tiden.

Samtidigt som tekniken kan medge ökad trygghet och självständighet (Socialstyrelsens årliga lägesrapport, 2010) innebär den att personspecifik och potentiellt integritetskänslig information överförs från vårdtagarens hem till en vårdenhet. Den information som samlas in kan lagras, bearbetas och samköras med annan information. Även om det primära syftet är tillsyn och stöd har IKT «minne» och kan därmed potentiellt användas för att övervaka personer. Det finns därför skäl att diskutera under vilka villkor, om alls, tekniken bör införas och det bör göras på ett tidigt stadium, innan den hunnit befästas. Syftet med den här artikeln är att ge en överblick över framväxande IKT-baserade hjälpmedel för hälsotillsyn i hemmet och att belysa etiska frågeställningar och problem som de ger upphov till. En sådan inventering kan bidra till att identifiera krav som bör ställas på tekniken.

Distribuerad vård och omsorg

Det påtalas ofta att vi behöver utveckla en vårdstruktur som är bättre rustad än den nuvarande att möta följderna av en åldrande befolkning. På EU-nivå betonas vikten av satsningar på e-hälsa, det vill säga informations- och kommunikationsteknik som kan användas för att ställa diagnoser, bistå behandling och för att följa upp och utvärdera patienters hälsotillstånd på distans.

Med hjälp av IKT-baserade vårdlösningar kan vårdpersonalen kontrollera och följa upp vårdtagaren och dennes hälsotillstånd samtidigt som vårdtagaren kan bli mer delaktig i vårdprocessen. Inom omsorgen är tekniken tänkt att hjälpa gamla och funktionshindrade människor som behöver kontinuerlig vårdkontakt att fungera och känna trygghet i sin hemmiljö så länge som möjligt. Tekniken ska även hjälpa anhöriga att i större utsträckning ta aktiv del i den vardagliga omsorgen av den vårdbehövande, trots geografiska avstånd.

Men IKT-baserade vårdlösningar är inte enbart avsedda att erbjudas sjuka, handi-kappade eller gamla, utan även friska personer kan använda tekniken, i ett preventivt syfte. Genom att kontinuerligt mäta och registrera olika vitala funktioner och värden kan friska människor få bättre kunskap om sitt hälsotillstånd. Kvalificerade diagnostiska metoder för hemmabruk ska hjälpa friska personer att ta större ansvar för sin hälsa och följa upp sitt hälsotillstånd över tid. Kontinuerliga tester av till exempel hjärta, lungor och stresstillstånd kan snabbt visa när det uppstår avvikelser från de egna normalvärdena (HNV 2009–2011: 1). Om det leder till att människors behov av att uppsöka vårdinrättningar minskar kan primärvården avlastas.

Patientcentrerade, integrerade informationssystem för hemsjukvård och äldreomsorg

Sensorteknik är på frammarsch inom ett stort antal tillämpningsområden och många förutspår att den kommer att påverka samhället i lika hög grad som Internet. Tekniken beskrivs med termer som «ambient …», «ubiquitous …» eller «pervasive computing» termer som är mer eller mindre synonyma men har olika tillkomsthistorier.5 Den gemensamma nämnaren är tekniska system som erbjuder informations- och kommunikationstjänster med hjälp av sensorer som är inbyggda i infrastruktur och vardagsföremål och därifrån kommunicerar med en databas. Miljöer och föremål kan göras «smarta» genom att «fysiska objekt kopplas elektroniskt till den digitala världen» (Datainspektionen 2007). Dessa kan programmeras att assistera användaren utan att denne aktivt efterfrågar assistans. Tekniken möjliggör också automatisk identifiering och lokalisering av människor, djur och objekt. Sensorerna registrerar och läser av sin omgivning utan att synas.

Det sammantagna resultatet är allestädes närvarande tjänster som är anpassade efter beställarens/användarens önskemål. I framtiden förutspås IKT vara fullständigt integrerad med tjänster som är tillgängliga överallt med hjälp av «smart dust», det vill säga mikrosensorer som läser av och samlar in information som den sedan rapporterar och kommunicerar med sin omgivning (Kosta, Pitkänen, Niemelä & Kaasinen 2009).

Inom vården används sensorteknik för medicinsk övervakning och diagnostisering. Inbyggda i kläder och klockor eller inopererade under huden kan sensorer läsa av en mängd hälsorelaterade parametrar som kroppstemperatur, syrehalt i blodet, hjärtrytm och blodtryck, och sedan vidarebefordra data till vårdgivaren (Otto, Jovanov & Milenkovic 2005).

Mikrosensorer kan byggas in i golv och väggar för att registrera och larma om vård-tagaren faller men även om hon inte rör sig i hemmet under en viss tid. De kan också rapportera om dörrar eller fönster står öppna eller om spisplattor eller strykjärn står på. Ett område som är under utveckling är smarta textilier, en samlingsbeteckning på interaktiva textila material som knutna till ett datorsystem kan läsa av och reagera på faktorer i omgivningen i ett visst syfte (Jul 2008). Textilier med invävda sensorer som kan registrera biosignaler kommer att kunna registrera hjärtrytm och andning hos hjärtpatienter och slå larm vid oregelbundenheter. Forskning bedrivs även på sensorer som kan läsa av biomarkörer och signalera vävnadsskada, exempelvis för att förhindra att trycksår uppkommer. Sensorerna ska integreras i föremål som kommer i kontakt med patientens hud, som kläder, bandage, lakan eller madrasser. Om en sängliggande patient inte rör sig tillräckligt ofta ska sensorerna aktivera en mekanisk rörelse i sängen som hjälper patienten att inta en ny, tryckavlastande position (HNV 2009–2011: 29).

Inom sjukvården förekommer, förutom biologiska implantat, även mikrosensorimplantat. Kokleaimplantat exempelvis stimulerar den akustiska nerven i örat vilket gör att döva och gravt hörselskadade kan höra (Wass 2009). Implanterbara defibrillatorer och pacemakers används för att övervaka och återställa bärarens hjärtrytm. En defibrillator som kontinuerligt övervakar hjärtats rytm kan upptäcka och häva en rubbning av hjärtfrekvensen med hjälp av en elektrisk stöt. Forskning bedrivs även på möjligheten att med hjälp av implantat stimulera nervsystemet för att behandla symtom på sjukdomar som parkinson och alzheimer men även vissa neuropsykiatriska sjukdomar som tvångsmässiga beteenden (Hildt 2006). Sammanfattningsvis är sensorer tänkta att integreras i väggar, inredning, kläder, bruksföremål och till och med i oss själva för att obemärkt assistera oss i vardagslivet. Fördelar som framhållits med sensorteknik i vård och omsorg är att den möjliggör smidig, kontinuerlig mätning och diagnostisering av vitala funktioner och snabb respons på larm inom hemsjukvård. I och med den elektroniska överföringen av hälsodata behöver inte vårdtagare uppsöka ett sjukhus eller en vårdcentral för att få sina värden mätta. Bärbara sensorer innebär att patienten slipper vara uppkopplad mot mätapparatur och lämpar sig på så vis för hemsjukvård.6 Om värden avviker från normalvärdena kan larm till vårdgivare eller anhörig aktiveras. Men låt oss nu se på de etiska implikationerna av sensortekniken utifrån en distinktion mellan extern och intern sensorteknik. Extern sensorteknik definieras här som sensorer i kläder, utrustning och boendemiljöer, medan intern sensorteknik är olika typer av implantat.

Etiska implikationer av extern sensorteknik

Sensorbaserade vårdlösningar som är utvecklade för sjukvård och omsorg i hemmet innebär att övervakningskapabel teknik flyttar in i hemmiljö. De flesta människor är nog benägna att se platsen där man bor som en sfär där man har rätt att vara fri från intrång och insyn. Genomgripande sensorteknik innebär ett intrång i denna uppenbart privata sfär. Larm knutna till sensorerna kan också upplevas som integritetskänsliga. När något händer larmas en vårdgivare och/eller en anhörig. Vårdtagaren kan uppleva det som pinsamt att systemet slår larm till en anhörig. Det kan även vara integritetskänsligt, beroende på relationen mellan vårdtagare och anhörig. Sensorer med larmfunktion kan också användas av paternalistiska skäl, för att förhindra att vårdtagaren utför handlingar som kan innebära en viss risk (Sharkey & Sharkey 2010), i sämsta fall utan respekt för att vårdtagare liksom människor i allmänhet är mer eller mindre benägna att ta eller undvika risker.

Bärbar sensorteknik som läser av olika hälsoparametrar genererar också personspecifik och potentiellt integritetskänslig information. Informationssäkerhetsregler kräver att endast behöriga personer får tillgång till informationen och att den sekretesskyddas vid överföring, lagring och behandling. Att informationen hanteras korrekt är avgörande för användarens förtroende för tekniken. Externa sensorer genererar också information som kanske inte är av uppenbart integritetskänslig natur, men som ändå bör hanteras med försiktighet. Rörelsekänsliga sensorer i vårdtagarens väggar och golv medför att vårdpersonalen kan följa dennes vardagliga förehavanden, som när vårdtagaren stiger upp och lägger sig, hur ofta hon öppnar kylskåpet, lagar mat, duschar, besöker toaletten, när hon har besök etc. Om den sensorgenererade informationen lagras och analyseras samlat kan tämligen komplexa kartor över vårdtagarens vanor och beteendemönster extraheras. Även om den information som lagras inte uppfattas som integritetskänslig i sig själv kan den komma att upplevas som känslig som en sammantagen bild. En person kan samtycka till att information a, b och c registreras var för sig men kanske inte till den sammantagna effekten av a + b + c (Palm 2005). En risk som uppstår i och med övervakningen kan även vara att patienten börjar agera i sitt hem som hon tror att det förväntas av henne, snarare än på det sätt som hon själv önskar leva sitt liv.

En hittills tämligen ouppmärksammad aspekt av den nya tekniken är hur människor påverkas av att ständigt uppdatera sig själv eller vårdgivaren om det egna hälso-tillståndet eller om parametrar som är centrala för hälsan. Den individanpassade vården kan innebära ett skifte i synen på patienten från en passiv mottagare av vård till en välinformerad och i vårdprocessen aktivt engagerad vårdtagare. Med kunskap om hur till exempel blodtrycket påverkas av kost, motion och medicin kan patienten formulera sina egna mål och ta makt över sitt eget liv.

Å andra sidan kan en situation där man ständigt förväntas kontrollera det egna hälso-tillståndet leda till en medikalisering av vårdtagarens identitet, där hon primärt förstår och definierar sig själv i termer av sin ohälsa eller hälsa, och som patient. Det finns en risk att patientrollen kommer att dominera vårdtagarens självuppfattning. Utifrån ett vidare perspektiv på hälsa är rutinmätningar inte med nödvändighet hälsofrämjande (Collste kommande).

I takt med att vårdtagare får tillgång till tekniska resurser för att kontinuerligt kontrollera sitt hälsotillstånd och faktorer som påverkar hälsan och på vilket sätt, kan det hända att läkares och vårdpersonals attityder till livsstilsrelaterad ohälsa förändras och att acceptansen för den sänks. Kost- och motionsvanor, till skillnad från genetiska förutsättningar, ligger ju inom ramen för vad individen kan påverka.

Etiska implikationer av intern sensorteknik

Vilka etiska implikationer kan då bruket av sensorer i kroppen ge upphov till? Enligt en något grovmaskig uppdelning kan man skilja mellan implantat som är avsedda att (1) identifiera en person, (2) diagnostisera/följa upp ett biologiskt tillstånd (3) återställa eller reparera funktioner hos personer och (4) förbättra en persons minne, syn, hörsel eller reaktionsförmåga (Kosta & Gasson 2008).

Implantat försedda med radiofrekvenssändare/-mottagare kan läsas av på distans och användas för att identifiera var vårdtagaren befinner sig och kartlägga hennes rörelser. I framtidens «smarta hem» där sensorläsare finns integrerade i väggar, golv, möbler och vardagsföremål kommer vårdtagare med implantat att kunna identifieras, läsas av och kontrolleras kontinuerligt.

En fördel med ID-implantatet är att det är knutet till bäraren på ett beständigt sätt, vilket kan underlätta för demensvården. I dag bär dementa patienter ofta med sig larm som är kopplade till vård- eller servicecentraler, men det är inte alltid som bäraren kommer ihåg att ta på sig larmet (Essén 2008). Ett ID-implantat med larmfunktion skulle alltid vara på plats. Inom demensvård är det viktigt att i möjligaste mån låta vårdtagarna röra sig fritt och samtidigt garantera att de inte förirrar sig (Welsh, Hassiotis, O’Mahoney & Deahl 2003). Oftast används olika typer av lås, exempelvis på gruppboenden för senildementa patienter, för att förhindra att de dementa patienterna lämnar området. Låsen kan dock begränsa friheten för andra vårdtagare som inte är demenssjuka. Med hjälp av RFID-implantat med larmfunktion kan man låta dörrar på gruppboenden vara olåsta och de demenssjuka kan få röra sig fritt, samtidigt som vårdgivaren kan ha kontinuerlig tillsyn.

En viktig aspekt på vård och omsorg är att agera med respekt för vårdtagarens värdighet. Det handlar dels om att behandla patienten som den unika person hon är, inte som en i den stora mängden av vårdtagare, dels om att vara lyhörd för hennes önskningar och preferenser. Det har hävdats att implantat är ovärdigt vårdtagare och socialt stigmatiserande, eftersom det traditionellt använts på djur och kriminella (O’Neill 2003). Men implantat kan tillgodose vårdtagarens specifika behov och stärka dennes värdighet genom att exempelvis förhindra att hon förirrar sig, vilket kan vara både traumatiskt och ovärdigt för en demenssjuk människa. En svårighet är dock för vårdpersonal att få ett informerat samtycke från demenssjuka patienter för vilka implantat skulle kunna innebära säkerhetsmässiga fördelar. Enligt en vanlig uppfattning inom medicinsk etik kan dock sensorbaserade larm implementeras för den demenssjukes bästa, utan att patienten har gett ett fullständigt informerat samtycke (Mahoney 2007).

En aspekt som förtjänar uppmärksamhet är att mikrochipset i implantatet kan registreras och läsas av utan att bäraren är medveten om detta. Det är alltså inte bara betydelsefullt vilken typ av information som finns registrerad på chipset, utan också hur den hanteras. Om den information som är registrerad i implantatet motsvarar data som vanligtvis finns på ett patientkort och läses av av vårdpersonal i direkt kontakt med bäraren finns det ingen uppenbar, etiskt relevant skillnad mellan patientkort och ID-implantat. Möjligheten att läsa av implantatet utan bärarens vetskap har dock etiska implikationer, eftersom det påverkar hennes möjligheter att kontrollera hur informationen används och vem som vet vad om henne etc. På så sätt begränsas vårdtagarens kontroll över den egna personen.

För en hjärtsjuk person kan det vara tryggt med en bärbar sensor som indikerar det egna hälsotillståndet och som slår larm vid oregelbundenheter i hjärtrytmen. Den kontinuerliga mätningen av hjärtrytmen kan ge vårdtagaren en känsla av ökad kontroll. Samtidigt kan rutinövervakningen generera en mer komplex och möjligen känsligare bild av vård-tagarens hälsotillstånd än enskilda mätningar spridda över tid, och eftersom implantatet är intimt och beständigt knutet till bäraren påverkas den personliga integriteten på ett speciellt sätt. Ett implantat som är inopererat i personen påverkar den fysiska/kroppsliga integriteten. Ytterligare frågor väcks av att forskare arbetar på att utveckla neuroimplantat som kan stödja nervsystemet och hjärnan. En sådan teknik skulle kunna få följder för beslutsintegriteten. Om hjärnan stimuleras på artificiell väg av implantat, i vilken utsträckning kan bäraren då sägas vara autonom? (Rodota & Capurro 2005).

Implantat kan påverka kroppen, dess karaktär och möjligheter, och viss sensorteknik kan tjäna till att återställa förlorade biologiska funktioner. Olika sorters proteser, artificiella leder, defibrillatorer och pacemakrar kan kompensera för eller återställa en förlorad funktion. Implantaten kan användas både för medicinska ändamål och för att förbättra eller förstärka kroppen eller kroppsliga funktioner. Det är dock inte alltid lätt att skilja mellan att reparera och förbättra, och vad man lägger in i respektive begrepp. Den svårigheten illustreras exempelvis av schismen mellan läkare som förordat koklea-implantat (cochlea implant, CI) och dövas intresseorganisationer (Reuzel 2004; Sandel 2007). Det kliniska perspektivet har varit att dövhet är en defekt som kan avhjälpas, medan de döva har argumenterat att dövhet är ett karaktärsdrag, att döva utgör en minoritet med ett eget språk – teckenspråket. De döva har värjt sig mot skälen för och den «korrigering» som implantaten innebär (Reuzel 2004). På sikt är det möjligt att det uppstår diskriminering där de som inte «förbättras» blir relativt sett underlägsna och möjligen exkluderade från vård för att de valt att inte «förbättra» vissa förmågor och därför kräver mer stöd eller resurser. Vårdtagaren kanske nekas annan vård eller hjälp för att hon valt att avstå från tekniken.

Möjligheten att med hjälp av elektroder som förs in i ett område i hjärnan dämpa signalerna till nerverna och därmed påverka en persons fysiska eller kognitiva förmåga väcker frågor om reversibilitet. Kan denna påverkan återställas eller är den permanent? (Fischer Hübner 2008). Vidare kan gränser för den fysiska kroppen, i viss mening, komma att suddas ut i och med att implantaten är datorstyrda. I förlängningen är det inte bara implantaten som är avgörande för bärarens hälsa och välmåga utan de tekniska system eller artefakter till exempel datorer som möjliggör deras funktion i kroppen. En relevant fråga blir huruvida kroppsuppfattningen och synen på rätten till den egna kroppen förändras när vissa delar i kroppen inte är «naturligt givna»? (van der Ploeg 2005). Och hur bör detta förstås när delar av kroppen ersätts med icke-biologiska delar, som ett artificiellt hjärta? (Kosta & Gasson 2008).

Kameraövervakning

Övervakning av det offentliga rummet har diskuterats intensivt det senaste decenniet. Ett relativt nytt tillämpningsområde som behöver genomlysas är kameraövervakning i vård och omsorg.

Flera svenska kommuner är på väg att införa kamerasystemet «Nattpatrullen» i den hembaserade äldrevården.7 Nattpatrullen är en mörkerseende kamera som installeras i sovrummet hos vårdtagaren, så att hemtjänstpersonalen kan se till vårdtagaren när som helst under natten. Om vårdtagaren slår larm kan hemtjänstpersonalen med kamerans hjälp bedöma hur akut vårdtagarens behov av assistans är. Möjligheten till mer frekvent tillsyn kan förhindra att vårdtagare som fallit ur sängen blir liggande på golvet under lång tid. Parterna kan också kommunicera via kameran.

Tekniken har godkänts av Socialstyrelsen och teknikutvecklaren Myjoice8 framhåller fördelar som minskade kostnader för kommunen, möjligheten för vårdgivaren att bedriva tätare kontroller och att vårdtagaren inte behöver bli störd i sömnen av att hemtjänsten «klampar in och tänder i hallen» på natten. Framför allt är tekniken avsedd att göra så att personalen kan se till vårdtagarna oftare och att personalresurserna samtidigt kan användas mer effektivt. Genom möjligheten att göra virtuella besök kan vårdtagaren få direkt assistans när hon faktiskt behöver den, hon kan slippa onödiga hembesök och personalinsatserna kan kanaliseras till de vårdtagare som bäst behöver fysisk tillsyn och assistans. Kamerasystemet Nattpatrullen lanseras som ett frivilligt komplement till vanliga hembesök.

Tillsyn med hjälp av ett videobaserat kommunikationsmedel som Nattpatrullen möjliggör inte bara tätare virtuella vårdkontakter utan även tillsyn överhuvud av vårdtagare i avlägsna delar av landet. Tekniken kan på så sätt kompensera för geografiska avstånd. Sedd ur ett rättviseperspektiv kan tekniken bidra till en jämnare fördelning av vårdtillsyn. Men hur påverkar den här typen av vårdstöd kvaliteten på vården?

IKT-baserad vård kan tas emot positivt av vårdtagare (Sävenstedt 2004), men tekniken kan även komma att användas för att spara pengar. I förlängningen kan kommuner skära ner antalet hembesök, vilket skulle göra många äldre isolerade. Om vårdgivaren skulle anställa fler personer till hemtjänsten för att kunna ge äldre som behöver vårdstöd tätare tillsyn skulle det rimligen uppfattas som en vårdkvalitetshöjande åtgärd, men gäller detsamma för tätare virtuell tillsyn? Tekniken kan innebära en trygghet för vårdgivare, vårdtagare och anhörig, men kan den tillgodose säkerhet? Kameratekniken inkräktar dessutom på vårdtagarens personliga integritet eftersom kameran opererar i hemmets mest uppenbart privata sfär.

Robotar i vård och omsorg

Robotteknik för vård och omsorg är ett expansivt område. Sjuksköterskeroboten Flo påminner patienter om att ta sin medicin, mäter vitala funktioner och rapporterar hälsodata via mejl till en databas.9 Roboten Bestic fungerar bokstavligen som en förlängd arm och hjälper funktionsnedsatta personer att äta utan hjälp av vårdpersonal.10 Smarta exoskelett (robotskelett), i form av dräkter med armskenor, utvecklas för att skydda och stärka vårdpersonal som utför tunga lyft och minimera risken för förslitningsskador.11 Roboten Robocab avlastar vårdpersonal från tunga sysslor genom att bära sängkläder och bädda sängar.12 I det följande diskuteras etiska implikationer av två specifika tillämpningar av robotteknik – roboten Giraffen och robotsälen Paro.

Roboten Giraffen

Giraffen13 är en fjärrstyrd och mobil robot med bildskärm och kamera som kommer att användas inom hemsjukvård för att underlätta för sjukvårdspersonal, släkt och vänner att kommunicera trots avstånd. Den är också tänkt att öka handikappades självständig-het och oberoende. Till skillnad från andra visuella kommunikationsmedel kan Giraffen söka upp och följa efter vårdtagaren i hemmet. Teknikutvecklaren lanserar Giraffen som ett frivilligt komplement till det befintliga vårdutbudet, för att öka tryggheten för vårdgivare, vårdtagare, anhörigvårdare och anhöriga. Inom traditionell hemtjänstvård upprättar vårdtagare och vårdgivare ett avtal för hur vården ska bedrivas (antal hembesök, vid vilka tillfällen och under vilka villkor vårdpersonalen har rätt att gå in i vårdtagarens hem med nyckel). På samma sätt klargörs ramarna för den robotbaserade vården. Man kan till exempel komma överens om att vårdpersonalen får rätt att se till vårdtagaren med hjälp av Giraffen om denne inte svarar när vårdpersonalen ringer.

Utgångspunkten är givetvis att kommunikationen mellan vårdpersonal och vårdtagare via roboten ska vara ömsesidig.

Även om tekniken kan innebära en ökad trygghet för vårdtagare, anhörigvårdare och anhöriga finns risken att tekniken, i förlängningen, kan komma att ersätta människor. Liksom Nattpatrullen möjliggör Giraffen tätare virtuella kontakter, vilket kan minska antalet fysiska vårdbesök och möten mellan vårdpersonal och vårdtagare. Men är en sådan utveckling etiskt problematisk, och i så fall på vilket sätt?

AI-baserad vård (AI = artificiell intelligens) har kritiserats för att vara kvalitativt sämre än vård och omsorg som utförs direkt av vårdpersonal av kött och blod, av det skälet att det känslomässiga utbytet mellan vårdpersonal och vårdtagare uteblir (Sparrow & Sparrow 2006). Inom vårdetiken betonas vikten av att vårdrelationen karaktäriseras av tid, kontinuitet, närhet, empati (Holm 1987), tillit och förtroende (Martinsen 1991).

Förvisso förmår inte AI att ge vård med empati, men det kan hävdas att den traditionella vården inte heller alltid lever upp till det kravet. Det finns inte alltid närhet i relationen mellan vårdpersonal och vårdtagare inom det rådande vårdsystemet (Coeckelberg 2010). Vårdpersonalen har ofta ett stort antal patienter att assistera och många av uppgifterna utförs på rutin. Det är inte alltid möjligt för vårdpersonalen att ha ett djupare känslomässigt engagemang (en viss distansering kan vara nödvändig). Att den traditionella vården inte alltid lever upp till vårdidealet är dock inte ett särskilt bra skäl för att ersätta «manuell vård» med robotar, utan snarare ett skäl för att förbättra vårdpersonalens förutsättningar för att ge högkvalitativ vård.

Men om tekniken kan få oss att uppleva något som är ett viktigt mål för vården, som lycka eller välbefinnande finns det då någon moraliskt relevant skillnad (och i så fall vilken) mellan lycka eller välbefinnande som genererats av manuell mänsklig vård och teknikassisterad eller virtuell vård? Med hjälp av Nozicks lyckomaskinsexempel diskuterar Mark Coeckelberg etiska implikationer av den virtuella vården. Om vi fick välja mellan att själva styra våra liv och att låta neuropsykologer koppla ihop oss med en maskin som genererar lyckoupplevelser i oss menar Nozick att vi skulle välja det reella livet i stället för det virtuella (Coeckelbergh 2010). Lyckoupplevelserna i maskinen är inte lika värdefulla som upplevelser som är knutna till våra egna val och handlingar, eftersom det är genom dessa vi konstituerar oss själva, skapar mening, etablerar relationer etc. Vägen till välbefinnandet är betydelsefull i sig.

Teknikutvecklaren påpekar dock att syftet med Giraffen är att komplettera och assistera snarare än att ersätta mänskligt arbete vid behov av kontinuerlig tillsyn. Förhoppningen är att tekniken ska frigöra tid från rutinuppgifter till förmån för kvalitetstid med patienter och därmed främja snarare än motverka mellanmänskliga relationer och närhet.

Robotsälen Paro

Paro är en avancerad robot i form av en mjuk liten sälkut, som utvecklats som sällskaps-djur att användas inom vård och omsorg. Sälroboten är utrustad med sensorer, vilket gör att den kan interagera med sin omgivning. Den känner av hur man klappar och håller den, sensorer styr dess rörelsemönster och reagerar på beröring. Paro är inte bara mjuk och gosig utan är försedd med ett element som avger «kroppstemperatur». Trots att man har påvisat positiva effekter av att ha levande sällskapsdjur såsom hund och katt på vårdavdelningar är detta oftast en omöjlighet av allergi- och tillsynsskäl (Banks & Banks 2002). Till skillnad från levande djur behöver inte Paro rastas och skapar inte allergier. Småskaliga studier indikerar att både sjuka barn och äldre reagerar mycket positivt när de klappar och pratar med Paro dels när patienterna själva skattar hur de mår, dels när man mäter mängden stresshormoner i blodet och studerar deras sociala samspel. Det har också noterats att de beter sig som om Paro vore ett riktigt djur.

Samma kritik som riktats mot AI-baserad vård kan drabba den här typen av «omsorgs-resurs» – att den inte kan tillgodose aspekter som är centrala för vården, som empati och ömsesidighet. Dessutom har den här typen av robotteknik kritiserats för att utge sig för att vara något som den inte är och för att föra vårdtagaren bakom ljuset (Sparrow & Sparrow 2006). Om vårdtagaren upplevde Paro som en bluff kunde det naturligtvis påverka hennes förtroende för vårdgivaren negativt. Huruvida Paro upplevs som en bluff eller inte beror rimligen på hur den introduceras av vårdgivaren.

Roboten kan introduceras (1) som ett substitut för kvalificerat sällskap (vårdpersonal), (2) som kompensation för de husdjur som man av praktiska skäl inte kan ha på vårdcentralen eller (3) som ren förströelse (komplement). Om den används för att ersätta kontakten med vårdpersonal är kritiken av Paro rimligen berättigad. Även om vårdtagaren upplever välbefinnande av att kela med Paro skulle hon förmodligen föredra personlig kontakt med vårdpersonal som hon känner, som bryr sig om, lyssnar på och rör vid henne (Sharkey & Sharkey 2010). Om den används som ett sätt att bemöta ett behov som inte kan realiseras på naturlig väg eller som ett komplement till ordinarie omsorg förefaller Paro dock inte vara uppenbart etiskt problematisk.

Den avgörande frågan för teknikens etiska berättigande verkar återigen vara huruvida tekniken ersätter/reducerar mellanmänskliga kontakter och manuell vård eller om den utgör ett komplement till sådan vård.

Vårdetiska principer och IKT

Centrala principer inom medicinsk etik och vårdetik är principerna om godhet, om att icke skada samt om autonomi och rättvisa (Beauchamp & Childress 2001) liksom principen om informerat samtycke, som ska säkerställa autonomi och valfrihet. I det följande diskuteras några av de etiska aspekter som tangerats upprepade gånger; personlig integritet, valfrihet och informerat samtycke.

Ett återkommande problem med de olika IKT-baserade vårdlösningarna är deras inverkan på den personliga integriteten, vilket motiverar en utförligare diskussion av det begreppet.

Att den personliga integriteten är viktig ifrågasätts sällan. Varför den är viktig och i vilken utsträckning den bör värnas råder det dock oenighet om. Vad som är integritetskänsligt sägs variera mellan kulturer, individer och över tid (Nissenbaum 2004; Anderson 2008). Den nakna kroppen anses ofta vara integritetskänslig i väst men till exempel inte i Japan. Information om nedsatt syn eller hörsel upplevs däremot som integritetskänslig i Japan men inte i väst (Adams, Murata & Orito 2009).

Skäl för att skydda de aspekter som anses känsliga är bland annat respekt för individens odelbarhet, okränkbarhet och särart (definition av värdet av personlig integritet i Svenska Akademiens ordlista), autonomi (Scanlon 1975; Rössler 2005), intimitet (Inness 1994) och värdighet (Bloustein 1964). Somliga menar dock att vi bör undvika att reducera personlig integritet till endast ett sådant värde och i stället se hur integriteten är central för att säkra förslagen ovan men även andra värden som demokrati (Lever 2007). Det har också betonats att den personliga integriteten inte bör förstås enbart som ett individuellt utan också som ett kollektivt värde. Ett skydd för den personliga integriteten är nödvändigt för att medborgare ska våga uttrycka sina åsikter och utnyttja sina politiska rättigheter (Regan 1995). Den personliga integriteten är med andra ord en mångfacetterad företeelse. Filosofen Beate Rössler använder tre dimensioner för att ringa in centrala aspekter av den personliga integriteten; (1) beslutsrelaterad integritet, (2) informationsrelaterad integritet och (3) rumslig integritet (Rössler 2005). De olika typerna av IKT-baserat vårdstöd som tidigare diskuterats inverkar på samtliga dimen-sioner. Möjligen kan det vara relevant att se den fysiska integriteten som en separat dimension en fjärde dimension som uppenbart påverkas i vård och omsorg.

Att IKT-baserat vårdstöd har en integritetskränkande potential, är ett av de vanligaste argumenten mot den typen av teknik. Å andra sidan kan det hävdas att den personliga integriteten oundvikligen kommer i kläm när en person uppsöker vård, och att över-vakningskapabla vårdfunktioner därför har en marginell inverkan. Den informations-relaterade integriteten kommer i kläm i mötet med läkare och/eller vårdpersonal, där patienten måste uppge hälsorelaterad information som kan röra intima aspekter av personen och hennes privatliv. Personkänslig medicinsk information antecknas i journaler, och informationen i patientjournaler har traditionellt ansetts känslig och skyddats med hjälp av sekretesslagen. Vid undersökningar är läkaren eller sköterskan dessutom oftast tvungen att röra vid patienten för att undersöka henne och ta prover etc. I hemsjukvård och omsorg assisterar vårdpersonalen vårdtagare i vardagliga sysslor, vilket kan inbegripa hjälp med toalettbesök och intimhygien. Även om den här typen av assistans är nödvändig innebär den ett visst intrång i den fysiska integriteten. Den beslutsrelaterade integriteten kan också komma att begränsas i fall där vårdpersonalen har svårt att få ett informerat samtycke från vårdtagaren. Vid vårdtillsyn i hemmet kommer ytterligare en dimension av den personliga integriteten att inkräktas på den rumsliga.

Vård och tillsyn kan med andra ord alltid begränsa den privata sfären, men patienten kan acceptera detta intrång för att säkerställa trygghet och kontinuerlig tillsyn. Det nämndes tidigare att den personliga integriteten är ett kontextuellt värde som skiftar över tid och rum. Hur mycket vårdstöd man behöver tycks vara en aspekt som påverkar hur man upplever den personliga integriteten. En viktig men otillräckligt undersökt fråga är hur personer med behov av stöd upplever den personliga integriteten. En del äldre personer hävdar att de inte ställer samma krav på personlig integritet som de gjorde tidigare eftersom de upplever sig själva som sköra och i behov av stöd och prioriterar säkerhet framför integritet (Essén 2008). När tekniken kritiseras för dess integritetskränkande aspekter är det inte med nödvändighet ur användarens perspektiv.

Teknikens inverkan på den personliga integriteten bör dock inte enbart vägas mot de positiva värden den kan främja i termer av trygghet och säkerhet, utan även mot dess möjligheter att skydda vissa dimensioner av den personliga integriteten. IKT-baserad vårdteknik kan vara både integritetskränkande och integritetsfrämjande, eftersom den personliga integriteten rymmer en rad olika dimensioner.

Även om IKT-stöd i hemvård innebär att övervakningskapabel teknik flyttar in i hemmet och att den rumsliga integriteten kränks kan hemvården undvika integritetskänsliga aspekter som ofta aktualiseras i sjukhusvården. Empiriska studier har exempelvis visat att patienter upplevt kränkningar av den egna integriteten i vården när de varit tvungna att dela rum med andra patienter (Marini 1999; Mattiasson & Hemberg 1998; Woogara 2005), men även att de reagerat negativt på att lyssna på samtal mellan läkare och patienter de delat rum med (Sidenvall, Fjellström & Ek 1994). Det har konstaterats att patienter verkar vara mer intresserade av integritetsskydd gentemot andra patienter än gentemot läkare och vårdpersonal (Essén 2008). Det bör också noteras att vårdtagaren i vissa sammanhang kan uppleva en fördel av att tillsynen sköts av en robot än av hem-tjänstpersonal, till exempel som stöd vid intimhygien och toalettbesök. Vårdtagarens fysiska integritet och värdighet kan med andra ord stärkas med hjälp av IKT-stöd.

Oavsett om äldre personer tenderar att prioritera trygghet över integritet är den person-liga integriteten ett viktigt värde och teknikens integritetskränkande följder bör minime-ras så långt som möjligt (Palm 2005). När det gäller allmän övervakning i det offentliga rummet är det av avgörande betydelse att händelser registreras men inte att individer identifieras. Identifiering blir nödvändig först vid tillbud. Personer kan följas via kameror utan att övervakaren ser vem det är. Det filmmaterial eller de foton som automatiskt tas när en person kliver in i en svensk taxibil krypteras och blir endast tillgängliga för behöriga parter om det händer något som leder till polisanmälan. När det gäller över-vakning av en vårdtagare i dennes hemmiljö är det dock svårare att avidentifiera övervakningsobjektet. I det fallet är övervakningen knuten till en på förhand registrerad identitet. Dessutom kan överskottsinformation samlas, exempelvis genom att anhöriga direkt eller indirekt blir föremål för övervakning. Trots detta går det att minimera teknikens integritetskränkande effekter genom att (1) vara lyhörd för vilken typ av information man hanterar, (2) endast samla in just den mängd information som behövs och (3) endast lagra och vidarebefordra data om det är nödvändigt. Vidare kan vård-givaren välja att i möjligaste mån använda sig av icke-identifierande övervakningsteknik som ljus- och rörelsesensorer  och trampmattor, snarare än identifierande kameror.

Frivillighet

I vilken utsträckning kan den individanpassade hälsokontrollen anses vara frivillig? Övervakning antas ofta stå i motsättning till frivillighet, men ett exempel på frivillig övervakning kan vara när personer självmant väljer att registrera information om sin hälsa på nätverkssajter som «The Quantified Self» och «Cure together»16. Dessa är exempel på nätverksgrupper där användare bygger profiler och delar med sig av det egna hälsotillståndet och tar del av andras dito i syfte att hitta lösningar på symtom och åkommor där den traditionella vården gått bet. Förmodligen upplever den här gruppen av «hälsoövervakare» att de själva kontrollerat den information de delger andra och de motiveras antagligen av förväntad personlig vinning. De förefaller dessutom vara relativt IKT-vana personer vilket inte med nödvändighet är sant om andra kategorier av vårdtagare. Men hur förhåller det sig med det IKT-baserade vårdstöd som exemplifierats tidigare i texten? Oftast framhåller teknikutvecklare och vårdgivare att den här typen av vårdlösningar endast är komplement till den rådande vårdformen.

Vårdtagaren kan frivilligt välja IKT-baserade vårdtjänster, som Nattpatrullen, utöver ordinarie tjänster. Men givet att dessa vårdlösningar (1) medför de säkerhets- och bekvämlighetsvinster och (2) är så effektiva och kostnadsbesparande som teknik-utvecklarna förespråkar är det inte orimligt att anta att de på sikt kan komma att utgöra standardformen för vård. Givet en sådan utveckling, i vilken utsträckning bör vårdgivaren tillmötesgå vårdtagare som efterfrågar resurskrävande vårdalternativ som personlig assistans i stället för kameramedierad sådan av integritetsskäl? I en värld av obegrän-sade resurser behövde inte frågan ställas, men utifrån rådande ekonomiska begräns-ningar där prioriteringar är nödvändiga blir den relevant.

Vårdtagarens anspråk på en mer resurskrävande vårdform av den totala vårdkakan inverkar (åtminstone indirekt) på andra vårdtagares möjligheter och valalternativ. I takt med att det IKT-baserade vårdstödet ökar kan integritetsskydd komma att bli en exklusiv preferens inom vård och omsorg.

Informerat samtycke

Vård och omsorg ska bedrivas med respekt för vårdtagarens autonomi. Med personlig autonomi menas vanligen självständighet, självstyre och självbestämmande. Genom att respektera en persons självbestämmanderätt i beslut som berör henne respekterar man personens autonomi. Hennes självbestämmande begränsas dock av andras lika rätt till att själva styra sina liv. Informerat samtycke är ett verktyg för att garantera patienten valfrihet och värna hennes autonomi. Ett avtal om en medicinsk behandling mellan vårdgivare och vårdtagare är moraliskt och juridiskt försvarbart först när vårdtagaren samtyckt. För att hennes samtycke ska vara ett informerat samtycke krävs att hon fått nödvändig och relevant information från vårdgivaren, att hennes valmöjligheter presenterats på ett sakligt och neutralt sätt och att hon inte utsatts för otillbörlig påverkan. Informationen ska även ha kommunicerats på ett sätt sådant att (den beslutskapable) vårdtagaren kunnat tillgodogöra sig den. Vårdtagaren ska även ha möjligheten att dra sig ur ett vårdprogram.

För att ytterligare skärpa kravet på informerat samtycke kan hävdas att man bör differentiera mellan (1) att ha tillgång till information, (2) att ha kunskap om vad informationen betyder och (3) att kunna använda sig av informationen, till exempel basera beslut på den. Det senaste kriteriet bör vara uppfyllt för fullvärdigt samtycke.

Vidare kan det finnas skäl till att analysera bakgrundsfaktorer som kan påverka patientens samtycke (Peter 2004). Man talar exempelvis om implicit tvång. I Sourgrapes – Studies in the Subversion of Rationality (Elster 1983) diskuterar Jon Elster preferensadaption. Han argumenterar att individers preferenser kan komma att formas utifrån vad de upplever vara realiserbara önskningar (Elster 1985). I likhet med fabelns räv som bestämmer sig för att druvorna som han inte når säkert ändå smakar surt, kan vårdtagaren omedvetet reducera värdet av det hon egentligen skulle ha önskat om det inte hade verkat så svårt att realisera. Om vårdtagaren är medveten om att det intuitivt mest tilltalande vårdalternativet X (personliga och täta hembesök) är mycket resurskrävande, kanske hon förmodar att vårdgivaren föredrar att hon väljer det mindre resurskrävande alternativet Y (Nattpatrullen) framför X. Vårdtagaren kan omedvetet komma att tona ned sina integritetsanspråk i situationer där det verkar vara svårt att få gehör för den typen av krav. Ett motargument skulle kunna vara att det är de preferenser vi ger uttryck för som bör räknas och att det i detta exempel är vårdtagarens överordnade preferens att «inte vara vårdsystemet till last». Men vården syftar till att verka i vårdtagarens intresse och preferensen «att inte vara till last» är inte ett rimligt intresse.17 För att undvika den här typen av preferensjustering är det viktigt att vård-givaren tydligt kommunicerar de valbara alternativen och vårdtagarens rättigheter. Öppenhet och tydlighet är en förutsättning för autonomi, valfrihet och informerat samtycke.

Möjligen ställer den genomgripande sensortekniken nya krav på informerat samtycke. En kontinuerlig dialog kan vara en rimlig åtgärd då vårdinsatsen eller vårdaren delvis blir osynlig när kontraktet väl har aktualiserats, till exempel i form av sensorbaserad omsorg. Vårdtagaren är visserligen medveten om att tillsyn kommer att ske med hjälp av sensorteknik när hon accepterar ett vårdprogram, men sensorbaserade tjänster kan integreras i hemmiljön och bli i det närmaste osynliga för användaren. Vårdtagaren kan övervakas utan att vara medveten om det när övervakningen sker och kan lätt glömma bort en dold övervakning.

Sammanfattning

Min översikt över framväxande IKT-baserat vård- och omsorgsstöd, vilket ibland kallas «skräddarsydd vård», är ingalunda uttömmande, och de etiska implikationerna förtjänar djupare analys. Den visar dock på att det är viktigt att redan på ett tidigt stadium diskutera under vilka villkor tekniken är önskvärd och etiskt försvarbar.

De primära målen bör vara att utveckla teknik som svarar mot reella behov och som stärker vårdkvaliteten. Det behövs empiriska studier av vårdtagares faktiska preferenser och prioriteringar för att säkerställa att teknikutvecklaren och vårdbeställaren utgår från vårdtagarens faktiska snarare än förmodade behov och preferenser. En vanlig före-ställning är att äldre människor är negativa till ny teknik, eller åtminstone inte moti-verade att sätta sig in i hur den fungerar. Det kan vara sant om vissa men inte med nödvändighet om alla äldre. Likaså antas ofta att gamla människor vill undvika risker och behöver riskförebyggande åtgärder.18 Sannolikheten att äldre drabbas av benbrott till följd av fall är generellt större än att unga människor gör det, men att skapa system och miljöer för att till varje pris undvika att gamla personer exponeras för risker kan leda till onaturligt säkra och sterila boendemiljöer. Sensorer och robotar i vårdtagarens hem kan programmeras för att varna vårdtagaren för att utföra vissa riskabla handlingar eller slå larm om hon utsätter sig för risk. Robotar kan även programmeras att utföra vissa praktiska sysslor, vilket kan vara ett välkommet stöd men också passivisera vårdtagaren. För att undvika oberättigad paternalism och passivisering bör införandet av vårdstödet föregås av diskussioner mellan vårdgivare och vårdtagare och andra berörda parter om trygghet och säkerhet liksom vad tekniken ska varna för och bistå med. I möjligaste mån

bör man avhålla sig från att behandla äldre eller för den delen handikappade eller sjuka som en homogen grupp och tillskriva individer ur denna grupp behov, attityder och preferenser. För att undvika stereotypiseringar är det viktigt att på ett tidigt stadium involvera användarna i utvecklingen och införandet av vårdstöd, och om vårdstödet ska ge skäl för epitet som «skräddarsydd» eller «individanpassad» måste det utvecklas för patientens bästa, anpassas till hennes förutsättningar och preferenser och införas i samråd med henne (och inte sammanblandas med vårdgivarens önskan om att förbättra arbetssituationen för vård- och omsorgspersonal).

IKT-baserat vård- och omsorgsstöd kan underlätta för patienter som behöver konti-nuerlig tillsyn men inte akut vård. Tekniken kan främja självständighet och trygghet och göra att äldre och handikappade som med visst stöd kan klara sig själva kan bo kvar i sin egen bostad. IKT-baserad vårdtillsyn möjliggör inte bara tätare virtuella vårdkontakter utan i vissa fall tillsyn över huvud taget. Även patienter i glesbygden där det annars vore svårt eller till och med praktiskt omöjligt kan få tillsyn. Vidare kan tekniken användas

för att utbilda friska människor i ett preventivt syfte, för att de ska behålla hälsan.

Det framhålls ofta att IKT-stöd kan anpassas till individers unika behov, vilket främjar värden som är viktiga för vård och omsorg, som valfrihet, oberoende och autonomi (HNV 2009–2011). Samtidigt betonas att vårdrelationen bör kännetecknas av närhet, empati (Holm 1987), tillit och förtroende (Martinsen 1991). Alltför starka satsningar på tekniklösningar för att främja självständighet och kvarboende kan leda till en ökad isolering bland vårdtagare och det är ännu oklart i vilken utsträckning till exempel närhet

kan förmedlas via videokommunikation. Olika typer av sensorteknik utvecklas för självhälsokontroll (preventiv såväl som reaktiv), vilket sägs främja en aktiv vårdtagare snarare än en passiv mottagare av vård. Men innebär dessa möjligheter ökat välbefinnande eller skapar de ökad oro?

Lagring och hantering av personanknutna hälsodata ställer inte bara krav på informa-tionssäkerhet och sekretess. Personspecifik och hälsorelaterad information som lagras i digitala arkiv och i implantat under huden kan komma att påverka vår självuppfattning och identitet, vilket förtjänar att uppmärksammas. Vidare kan implantat komma att påverka individers fysiska och mentala karaktär och förmågor på ett bestående sätt, och frågan om i vilken utsträckning den typen av teknik bör syfta till att reparera respektive förbättra individer aktualiseras.

Tekniken kan innebära kränkningar av vissa aspekter av den personliga integriteten och samtidigt främja andra. När man inför IKT-baserat vårdstöd bör målet vara att välja det minst integritetskränkande alternativet och att minimera de integritetskränkande aspekterna av den valda tekniken. Ett exempel kan vara att använda icke-identifierande sensorteknik i stället för identifierande kameror och att undvika att lagra insamlad infor-

mation om det inte är nödvändigt. Eftersom den personliga integriteten är kontextbe-roende krävs en lyhördhet för hur olika vårdtagare förstår och prioriterar den personliga integriteten utifrån sina specifika situationer och behov. Studier indikerar att personer som behöver vårdstöd prioriterar säkerhet över integritet och välkomnar övervakningskapabel teknik (Essén 2008). Men utöver den upplevda tryggheten, innebär IKT-baserat vårdstöd också en ökad faktisk säkerhet?

En rad viktiga frågor som kräver fördjupad reflektion har väckts. Mest avgörande är vad som kännetecknar god vård och i vilken utsträckning och på vilka villkor tekniken bör tillåtas att ersätta vårdformer som innebär fysiska möten mellan vårdpersonal och vårdtagare. Vilka risker finns det med att ersätta den traditionella, manuella vården med IKT-baserat vårdstöd? Vilken, om någon, är den etiskt relevanta skillnaden mellan virtuell, artificiell vård och «reell» dito? Beroende på hur vi bedömer vikten av reell/virtuell/artificiell vård, kan vi behöva ompröva synen på rådande praxis.

För att identifiera en etiskt hållbar teknikanvändning inom vård och omsorg föreslås att teknikutveckling och implementering föregås av interaktiv etisk teknikvärdering där samtliga berörda parter får komma till tals.

Noter

1 www.un.org/esa/population/publications/WPA2007/wpp2007.htm

2 Det vanligt förekommande antagandet att en åldrad befolkning kommer att innebära högre vårdkostnader förtjänar att problematiseras men kommer inte att diskuteras här.

3 http://www.epha.org/IMG/pdf/e-health_action_plan.pdf

4 Det är på sin plats att uppmärksamma läsaren på en medveten förenkling. Diskussionen fokuserar primärt på relationen vårdpersonal – vårdtagare, vilket är en grav förenkling av vård- och omsorgssituationen och i synnerhet när vårdtekniken flyttar hem till vårdtagaren. Berörda parter är inte bara vårdpersonalen (vilket bl.a inkluderar läkare, distriktssköterska och hemtjänst) och patienten utan även anhörigvårdare och andra anhöriga.

5 Några svenska termer motsvarande ambient, ubiquitous eller pervasive computing har inte fått fäste. I korthet är det en fråga om olika namn för samma tema inom olika forsknings- och utvecklingsområden. Engelskans ubiquitous betyder överallt närvarande och kommer från latinets ubique. Pervasive computing, som betyder genomträngande datateknik, är en annan term för mer eller mindre samma sak, vilken ofta används i amerikanska datatekniska sammanhang. Onödiga anglifieringar är vanligt förekommande inom området och behovet av begreppsreda påfallande. Till exempel används på svenska monitorering för engelskans monitoring. En risk är att det inte utvecklas någon terminologi på svenska, varför jag försöker introducera svenska termer som t.ex. genomgripande teknik eller integrerade informationssystem för de tre termerna ovan och uppföljning och kontroll i stället för monitorering. De här föreslagna termerna kan dock behöva preciseras.

http://vll.se/default.aspx?id=30 719&refid=25 638

http://www.svd.se/nyheter/inrikes/aldre-ska-overvakas-med-kamera_4 474 655.svd

http://www.myjoice.com/files/se/myjoice_produktblad_professionals.pdf

Se: www.cs.cmu.edu/~nursebotv

Se: http://www.sweden.se/eng/Home/Business/Innovation/Reading/Sweden-inves-ts-in-robots-for-better-care/

Se: http://videosift.com/video/Tokyo-University-of-Science-Demos-a-new-Mus-cle-Suit

Se: http://www.sweden.se/eng/Home/Business/Innovation/Reading/Sweden-invests-in-robots-for-better-care/

Se: http://robotdalen.se/Projekt/Utvecklingsprojekt-Giraff-AB-i-Sverige/

http://www.aist.go.jp/aist_e/latest_research/2004/20 041 208_2/20 041 208_2.html

Detta kan möjligen bero på att relationen läkarepatient är skyddad i lag men även på att läkare har ett berättigat intresse att ta del av den här typen av information, vilket inte gäller för relationen patientpatient.

http://www.quantifiedself.com/ och http://www.curetogether.com/

Samtyckesprincipen garanterar en moraliskt försvarbar form för avtal/kontrakt mellan vårdgivare och vårdtagare men ställer inte några explicita krav på innehållet i avtalet. En fråga som återstår att besvara är; vad bör individer få samtycka till?

Vårdgivaren är förvisso skyldig att verka i patientens intresse och aldrig agera till

skada för denne.

www.atdementia.org.uk/content_files/files/

Accessing_Assisted_Living_Technology_protocol.pdf

Litteratur

Adams, A., Murata, K. & Orito, Y. (2009) The Japanese sense of information privacy. AI & Society, 24, s. 327–341.

Anderson, S. (2008) Privacy without the right to privacy. The Monist, 91 (1), s. 81–108.

Beauchamp, T.L. & Childress J.F. (2001) Principles of biomedical ethics, 5. utg.

Oxford: Oxford University Press.

Banks, M.R. & Banks, W.A. (2002) The effects of animal-assisted therapy and loneliness in an elderly population in long-term care facilities. Journal of Gerontology Series: Biological Sciences and Medical Sciences, 57(A), s. 428–432.

Bloustein, E.J. (1964) Privacy as an aspect of human dignity: An answer to Dean Prosser. New York University Law Review, 39, s. 6.

Coeckelbergh, M. (2010) Health care, capabilities, and AI assistive technologies. Ethical Theory and Moral Practice, 13 (2), s. 181–190.

Collste, G. (kommande) ‘Under my skin’. The ethics of ambient computing for personal health monitoring. I The handbook of emergent technologies in social research, red. S. Biber-Hesse, s. 89–110. Oxford: Oxford University Press.

Dahlberg, K., Segesten, K., Nyström, M., Suserud, B-O. & Fagerberg, I. (2003) Att förstå vårdvetenskap. Lund: Studentlitteratur.

Datainspektionen. (2007) Ubiquitous computing – en vision som kan bli verklighet.

Rapport. Wennersten, april 2007. Hämtad 13. oktober 2010 från

http://www.datainspektionen.se/Documents/rapport-ubiq-computing.pdf

Elster, J. (1983) Studies in the subversion of rationality. Cambridge: Cambridge

University Press. Essén, A. (2008) The two facets of electronic care surveillance: An exploration of the views of older people who live with monitoring devices. Social Sciences & Medicine, 67 (1), s. 128–136.

Fischer-Huebner, S., Duquenoy, P., Zuccato, A. & Martucci, L. (red.) (2008) Proceedings of the IFIP/FIDIS Summer School on «The Future of Identity in the Information Society», Karlstad, Sweden, 4–8 Augusti 2007. New York: Springer.

Gasson, M. (2008) ICT-implants. The invasive future of identity? IFIP International Federation for Information Processing, 262, s. 287–295.

Hildt, E. (2006) Electrodes in the brain: Some anthropological and ethical aspects of deep brain stimulation, Ethics of Information Technology in Medicine and Health Care, 5 International Review of Information Ethics (september), s. 33–39.

Holm, U. (1987) Att förstå andra människors känslor. Stockholm: Natur och Kultur.

Hälsans nya verktyg (HNV). (2009–2011) Projektplan VINNOVA projekt. Hämtad oktober 2010 från http://www.halsansnyaverktyg.se/

Inness, J. (1994) Privacy, intimacy and isolation. Oxford: Oxford University Press. Jul, L. (2008) Adding values – smart textile options for Automotive Applications, The Nordic Textile Journal, 1. Hämtad 13. oktober 2010 från http://www.smart-textiles.se/filer/CTF_ JOURNAL_0108.pdf

Kosta, E. & Gasson, M. (2008) Deliverable D12.6: A Study on ICT-implants. The FIDIS consortium – EC Contract No 507 512. Hämtad 101 013 från

http://www.fidis.net/fileadmin/fidis/deliverables/fidis-wp12-del12.6.A_Study_on_ICT_

Implants.pdf Kosta, E., Pitkänen, O., Niemelä, M. & Kaasinen, E. (2009) Mobile-centric ambient intelligence in health- and homecare-anticipating ethical and legal challenges.

Science and Engineering Ethics, 6 (2), s. 303–323.

Lever, A. (2005) Feminism, democracy and the right to privacy, Minerva: An

Internet Journal of Philosophy, 9, s. 131.

Mahoney, D.F., Purtiloa, R. F., Webbeb, F.M., Alwanc, M., Bharuchad, A.J., Adlame, T.D., Jimisonf, H.B., Turnerc, B. & Beckerb, A. (2007) In-home monitoring of persons with dementia: Ethical guidelines for technology research and development. Alzheimer’s & Dementia, 3, s. 217–226.

Marini, B. (1999) Institutionalised older adults’ perceptions of nurse caring behaviours. Journal of Gerontological Nursing, 25 (5), s. 11–16.

Martin, R., Williams, C. & O’Neill, D. (2009) Retrospective analysis of attitudes to

ageing in the Economist: Apocalyptic demography for opinion formers. British

Medical Journal, 339 (b4914).

Martinsen, K. (1991) Omsorg, sykepleie og medisin, 2. utg. Otta: Engers Boktrykkeri.

Mattiasson, A.C. & Hemberg, M. (1998) Intimacy – meeting needs and respecting

privacy in the care of elderly people: What is a good moral attitude on the part

of the nurse/carer? Nursing Ethics, 5 (6), s. 527–534.

Nissenbaum, H. (2004) Privacy as contextual integrity. Washington Law Review, 79 (1), pp. 119–158.

O’Neill, D.J. (2003) Electronic tagging of people with dementia: Tagging should be reserved for babies, convicted criminals, and animals. British Medical Journal,

326, pp. 281.

Otto, C.A., Jovanov, E. & Milenkovic, A. (2005) A WBAN-based system for health

monitoring at home. Hämtad 13. oktober 2010 från http://www.ece.uah.edu/

~milenka/docs/coejam_isss-mdbs06.pdf

Palm, E. (2005) The dimensions of privacy. I The ethics of workplace privacy, red.

S.O. Hansson & E. Palm, s. 157–174. Brussels: P.I.E. – Peter Lang.

Peter, F. (2004) Choice, consent and the legitimacy of market transactions. Economics and Philosophy, 20, s. 1–18.

Van der Ploeg, I. (2005) Biometric identification technologies: Ethical implications of the informatization of the body. BITE Policy Paper, 1. Hämtat 101 013 från http://www.biteproject.org/documents/policy_paper_1_july_version.pdf

Regan, P.M. (1995) Legislating privacy. Technology, social values and public policy.

Chapel Hill, NC: University of North Carolina Press.

Reuzel, R. (2004) Interactive technology assessment of paediatric cochlear implantation. Poiesis & praxis: International Journal of Technology Assessment and Ethics of Science, 2 (2–3), s. 119–137.

Rodota, S. & Capurro, R. (red.) (2005) Ethical aspects of ICT implants in the human body. Brussels: The European Group on Ethics in Science and New Technologies.

Rössler, B. (2005) The value of privacy. Cambridge: Polity Press.

Sandel, M. (2007) The case against perfectionism; Ethics in the age of genetic engineering. Cambridge, MA, London, UK: Harvard University Press.

Scanlon, T. (1975) Thomson on privacy. Philosophy and Public Affairs, 4, pp. 315–322.

Sharkey, A. & Sharkey, N. (2010) Granny and the robots: Ethical issues in robot

care for the elderly. Ethics of Information Technology. DOI 10.1007/s10 676–

010–9234–6

Sidenwall, B., Fjellström, C. & Ek, A. (1994) The meal situation in geriatric care

intentions and experiences. Journal of Advanced Nursing, 20, s. 613–621.

Socialstyrelsens årliga lägesrapport (2010) Västerås: Edita Västra Aros. Hämtad 21.mars 2010 från http://www.socialstyrelsen.se/publikationer2010/2010–3–14/

Documents/2010–3–21%20Lägesrapport%202 010.pdf

Sparrow, R. & Sparrow, L. (2006) In the hands of machines? The future of aged care. Minds and Machines, 16 (2), s. 141–161.

Sävenstedt, S. (2004) Telecare of frail elderly: Reflections and experiences among health personnel and family members. Doktorsavhandling, Umeå universitet.

Wass, M. (2009) Children with cochlear implants. Doktorsavhandling, Linköpings

universitet.

Welsh, S., Hassiotis, A., O’Mahoney, G. & Deahl, M. (2003) Big brother is watching you: The ethical implications of electronic surveillance measures in the elderly with dementia and in adults with learning difficulties. Aging and Mental Health, 7 (5), pp. 372–375.

Woogara, J. (2005) Patients’ privacy of the person and human rights. Nursing Ethics, 12 (3), s. 273–287.

http://www.tapironline.no/last-ned/474

Lär artikeln här



Etik och debatt-Nya Teknologier, Etikråd avseende hjärnimplantat, Forskning som förändrar Övervakning, Integritet och Autonomi, Politik, Civil-Militär-Forskning

Datainspektionen-Skratta inte åt Ubicomp! Identifiera och lokalisera människor och apparater. Trådlöst. Överallt. Jämt.

Datainspektionen 25 maj 2007

Om du säger ”Ubicomp” är det många som småskrattar och tänker på intelligenta kylskåp. Men företeelsen ska inte underskattas. I flera år har IT-industrin i USA, EU och Japan lagt ner astronomiska belopp på utvecklingen. Människor och apparater ska bindas samman i ett gigantiskt trådlöst nätverk är det tänkt, och det kan innebära det hittills största hotet mot integriteten. Datainspektionen har tagit fram en rapport om fenomenet.

Ubicomp, eller Ubiquitous Computing, alltså datakraft som på ett självklart sätt är allestädes närvarande utan att man tänker på det – ungefär som elektriciteten är idag – betraktas av IT-industrin som framtidens kassako: en lätt tillgänglig, trådlös infrastruktur för information och kommunikation som ska kunna:

• Identifiera och lokalisera människor och apparater. Trådlöst. Överallt. Jämt.
• Hämta och lämna information mellan människor och från sensorer som ser hör, mäter och kan styra apparaterna.
• Lära sig användarnas personliga preferenser, apparaternas prestanda osv.

Visionen Ubicomp kom för nära tjugo år sedan, men systemet kräver tre grundfunktioner som man först nu kan skönja lösningen på:

• Trådlös identifiering. Här har RFID mognat och blivit billigt.
• Trådlöst bredband. 4G behövs för att klara kraven som Ubicomp ställer – det är på gång.
• Ett nästan oändligt antal Internetadresser. Nästa generation Internetprotokoll, IPv6, är under utveckling. Det ska räcka för att ”adressera varje sandkorn på jorden”.

Man talar om att Ubicomp ska revolutionera arbetsplatsen, vården, trafiken, handeln och hemmet, men de försök att konkretisera visionen som vi hittills har sett har fått en lätt töntstämpel, till exempel intelligenta kylskåp som säger till när mjölken börjar ta slut. Men man ska inte underskatta drivkrafterna bakom utvecklingen, världens samlade IT-industri representerar en enorm ekonomisk kraft, man behöver nya affärsområden och satsar nu på Ubicomp.

Om Ubicomp kommer, kan det innebära det hittills största hotet mot integriteten. Det är svårt att hålla en beredskap för ett hot som man inte vet hur det kommer att se ut, men i år står Ubicomp överst på programmet för dataskyddschefernas årliga världskonferens i Montreal i september. Och Datainspektionen har låtit ta fram en rapport, ”Ubiquitous Computing – en vision som kan bli verklighet”.

Läs rapporten Ubiquitous Computing – en vision som kan bli verklighet, i pdf-format

http://www.datainspektionen.se/press/nyheter/2007/Skratta-inte-at-Ubicomp/



Wikipedia

Emerging technologies

Emerging technologies

From Wikipedia, the free encyclopedia
Jump to: navigation, search

In the history of technology, emerging technologies are contemporary advances and innovation in various fields of technology. Various converging technologies have emerged in the technological convergence of different systems evolving towards similar goals. Convergence can refer to previously separate technologies such as voice (and telephony features), data (and productivity applications) and video that now share resources and interact with each other, creating new efficiencies.

Emerging technologies are those technical innovations which represent progressive developments within a field for competitive advantage;[1] converging technologies represent previously distinct fields which are in some way moving towards stronger inter-connection and similar goals. However, the opinion on the degree of impact, status and economic viability of several emerging and converging technologies vary.

Contents

History

Over centuries, innovative methods and new technologies are developed and opened up. Some of these technologies are due to theoretical research, others commercial research and development.

Technological growth includes incremental developments and disruptive technologies. An example of the former was the gradual roll-out of DVD as a development intended to follow on from the previous optical technology Compact Disc. By contrast, disruptive technologies are those where a new method replaces the previous technology and make it redundant, for example the replacement of horse drawn carriages by automobiles.

Emerging technologies in general denote significant technology developments that broach new territory in some significant way in their field. Examples of currently emerging technologies include information technology, nanotechnology, biotechnology, cognitive science, robotics, and artificial intelligence.[2]

Debate over emerging technologies

Many writers, including computer scientist Bill Joy, have identified clusters of technologies that they consider critical to humanity’s future. Joy warns that the technology could be used by elites for good or evil. They could use it as “good shepherds” for the rest of humanity, or decide everyone else is superfluous and push for mass extinction of those made unnecessary by technology.[3] Advocates of the benefits of technological change typically see emerging and converging technologies as offering hope for the betterment of the human condition. However, critics of the risks of technological change, and even some advocates such as transhumanist philosopher Nick Bostrom, warn that some of these technologies could pose dangers, perhaps even contribute to the extinction of humanity itself; i.e., some of them could involve existential risks.[4][5]

Much ethical debate centers on issues of distributive justice in allocating access to beneficial forms of technology. Some thinkers, such as environmental ethicist Bill McKibben, oppose the continuing development of advanced technology partly out of fear that its benefits will be distributed unequally in ways that could worsen the plight of the poor.[6] By contrast, inventor Ray Kurzweil is among techno-utopians who believe that emerging and converging technologies could and will eliminate poverty and abolish suffering.[7]

Some analysts such as Martin Ford, author of The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future,[8] argue that as information technology advances, robots and other forms of automation will ultimately result in significant unemployment as machines and software begin to match and exceed the capability of workers to perform most routine jobs.

As robotics and artificial intelligence develop further, even many skilled jobs may be threatened. Technologies such as machine learning[9] may ultimately allow computers to do many knowledge-based jobs that require significant education. This may result in substantial unemployment at all skill levels, stagnant or falling wages for most workers, and increased concentration of income and wealth as the owners of capital capture an ever larger fraction of the economy. This in turn could lead to depressed consumer spending and economic growth as the bulk of the population lacks sufficient discretionary income to purchase the products and services produced by the economy.[10]

Acronyms

NBIC, an acronym for Nanotechnology, Biotechnology, Information technology and Cognitive science, is currently the most popular term for emerging and converging technologies, and was introduced into public discourse through the publication of Converging Technologies for Improving Human Performance, a report sponsored in part by the U.S. National Science Foundation.[11]

Various other acronyms have been offered for the same concept such as GNR (Genetics, Nanotechnology and Robotics). Journalist Joel Garreau in Radical Evolution: The Promise and Peril of Enhancing Our Minds, Our Bodies — and What It Means to Be Human uses “GRIN”, for Genetic, Robotic, Information, and Nano processes,[12] while science journalist Douglas Mulhall in Our Molecular Future: How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World uses “GRAIN”, for Genetics, Robotics, Artificial Intelligence, and Nanotechnology.[13] Another acronym coined by the appropriate technology organization ETC Group is “BANG” for “Bits, Atoms, Neurons, Genes“.[14]

See also

Further reading

General
  • Giersch, H. (1982). Emerging technologies: Consequences for economic growth, structural change, and employment : symposium 1981. Tübingen: Mohr.
  • Jones-Garmil, K. (1997). The wired museum: Emerging technology and changing paradigms. Washington, DC: American Association of Museums.
Law and policy
  • Branscomb, L. M. (1993). Empowering technology: Implementing a U.S. strategy. Cambridge, Mass: MIT Press.
  • Raysman, R., & Raysman, R. (2002). Emerging technologies and the law: Forms and analysis. Commercial law intellectual property series. New York, N.Y.: Law Journal Press.
Information and learning
  • Hung, D., & Khine, M. S. (2006). Engaged learning with emerging technologies. Dordrecht: Springer.
  • Kendall, K. E. (1999). Emerging information technologies: Improving decisions, cooperation, and infrastructure. Thousand Oaks, Calif: Sage Publications.
Other
  • Cavin, R. K., & Liu, W. (1996). Emerging technologies: Designing low power digital systems. [New York]: Institute of Electrical and Electronics Engineers.

References

Footnotes
  1. ^ International Congress Innovation and Technology XXI: Strategies and Policies Towards the XXI Century, & Soares, O. D. D. (1997). Innovation and technology: Strategies and policies. Dordrecht: Kluwer Academic.
  2. ^ other examples of developments described as “emerging technologies” can be found here – O’Reilly Emerging Technology Conference 2008.
  3. ^ Joy, Bill (2000). Why the future doesn’t need us. Retrieved 2005-11-14.
  4. ^ Bostrom, Nick (2002). Existential risks: analyzing human extinction scenarios. Retrieved 2006-02-21.
  5. ^ Warwick, K: “March of the Machines”, University of Illinois Press, 2004
  6. ^ McKibben, Bill (2003). Enough: Staying Human in an Engineered Age. Times Books. ISBN 0-8050-7096-6.
  7. ^ Kurzweil, Raymond (2005). The Singularity Is Near: When Humans Transcend Biology. Viking Adult. ISBN 0-670-03384-7.
  8. ^ Ford, Martin R. (2009), The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future, Acculant Publishing, ISBN 978-1448659814. (e-book available free online.)
  9. ^ “Machine Learning: A Job Killer?”
  10. ^ “Will Automation Lead to Economic Collapse?”
  11. ^ Roco, Mihail C. and Bainbridge, William Sims, eds. (2004). Converging Technologies for Improving Human Performance. Springer. ISBN 1-4020-1254-3.
  12. ^ Garreau, Joel (2005). Radical Evolution: The Promise and Peril of Enhancing Our Minds, Our Bodies — and What It Means to Be Human. Doubleday. ISBN 0-385-50965-0.
  13. ^ Mulhall, Douglas (2002). Our Molecular Future: How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World. Prometheus Books. ISBN 1-57392-992-1.
  14. ^ ETC Group (2003). The Strategy for Converging Technologies: The Little BANG Theory. Retrieved 2007-02-09.

External links

*Collaborating on Converging Technologies: Education and Practice

http://en.wikipedia.org/wiki/Emerging_technologies



Videos

The Blue Print of The Human Brain Henry Markram The Human Brain Projekt



Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi, Nya teknologier för människa-maskin-integration, Wikipedia

Exocortex (Your brain on internet)

From Wikipedia, the free encyclopedia

An exocortex is a theoretical artificial external information processing system that would augment a brain’s biological high-level cognitive processes.

An individual’s exocortex would be composed of external memory modulesprocessorsIO devices and software systems that would interact with, and augment, a person’s biological brain. Typically this interaction is described as being conducted through a direct brain-computer interface, making these extensions functionally part of the individual’s mind.

Individuals with significant exocortices could be classified as cyborgs or transhumans.

Living Digital provided one description of the concept:

While [the traditional concept of] a cyborg has included artificial mechanical limbs, embedded chips and devices, another interesting concept is the exocortex, which is a brain-computer interface. In theory, the exocortex would be a computer-like processing system that would co-exist with and enhance the power of the human brain. Neuromancer is a book that has talked about such a scenario.[1]

Contents

[hide]

[edit]Etymology

The noun exocortex is composed of the Greek-derived prefix exo-, meaning external or outside, and the Latin noun cortex, which originally meant bark but is used in neuroscience for the outer bark-like layer of the brain that is the site of most sophisticated cognitive information processing. It was coined in allusion to the neocortex (literally ‘new bark’), the newest part of the mammalian brain (in evolutionary history), believed to be responsible for the highest human cognitive abilities including conscious thought, spatial reasoning, and sensory perception. Thus the terminology suggests a progression from reptilian thought (the older parts of the brain) through human (neocortex) to high-level human or even supra-human cognitive processing capabilities (exocortex).

[edit]Specific applications

In 1981 Steve Mann designed and built the first general purpose wearable computer. Later on he became one of the early pioneers in using wearable computers for augmented and computer-mediated reality. Although he does not refer to it as such, his personal wearable computer could be considered an exocortex. Running applications like the remembrance agent[2] on his wearable computer enhances his natural mental capabilities.

[edit]Intellectual background

The concept of an exocortex has intellectual roots both in the fields of computer science and evolutionary psychology.

[edit]Computer science roots

Within computer science, the seeds were planted by the DARPA associated researcher J.C.R. Licklider. Within his speculative 1960 paper Man-Computer Symbiosis, Licklider outlined his vision that humans and the new technology of computers, if tightly-coupledtogether, would prove to complement each others strengths to such a degree that many of the pure artificial intelligence systems envisioned at the time by optimistic researchers would prove unnecessary:

Man-computer symbiosis is a subclass of man-machine systems. There are many man-machine systems. At present, however, there are no man-computer symbioses. The purposes of this paper are to present the concept and, hopefully, to foster the development of man-computer symbiosis by analyzing some problems of interaction between men and computing machines, calling attention to applicable principles of man-machine engineering, and pointing out a few questions to which research answers are needed. The hope is that, in not too many years, human brains and computing machines will be coupled together very tightly, and that the resulting partnership will think as no human brain has ever thought and process data in a way not approached by the information-handling machines we know today.

Man-Computer Symbiosis, J.C.R. Licklider, March 1960.

A DARPA contemporary of Licklider, Douglas Engelbart, was thinking along similar lines in the field of computer science. In 1962, Engelbart authored Augmenting Human Intellect in which he details how to augment human intellectual effectiveness by exploiting the technology of the then emerging computer:

This is an initial summary report of a project taking a new and systematic approach to improving the intellectual effectiveness of the individual human being. A detailed conceptual framework explores the nature of the system composed of the individual and the tools, concepts, and methods that match his basic capabilities to his problems. One of the tools that shows the greatest immediate promise is the computer, when it can be harnessed for direct on-line assistance, integrated with new concepts and methods.

Augmenting Human Intellect: A Conceptual Framework, Douglas Engelbart, October 1962.

From this basis, the concept of an exocortex, the direct coupling of the human mind with computers to leverage their respective complementary strengths, can be viewed as a result of the ever increasing symbiotic coupling between human and computers.

[edit]Psychology roots

The exocortex concept also has roots in evolutionary psychology as a result of Merlin Donald of Queen’s University. Donald, in the 1990 book Origins of the Modern Mind as well as later papers, proposed an evolutionary model of the mind, from a functionary perspective, from its origins in prehistoric apes to the modern human being. Donald focuses significant attention on the use that modern humans make of external symbolic storage and manipulation systems—the range of technologies from cuneiformshieroglyphics, andideograms to alphabetic languagesmathematics and now computers. From Donald’s perspective, these external symbolic systems have allowed for the functional reorganization of the human mind in how it deals with the world.

The externalization of memory [via the use of external symbolic storage systems] has altered the actual memory architecture within which humans think, which is changing the role of biological memory, the way in which the human brain deploys its resources, and the form of modern culture.

Precis of Origins of the modern mind, Merlin Donald, 1996.

Thus to Donald, the human mind has long been a hybrid structure built from the vestiges of earlier biological stages and combined with our new external symbolic systems. The development of an exocortex, which could result in significant functional reallocation, again fits well within this long established trend.

[edit]Current applicability

[edit]Cognitive science origin

In November 1998 the specific term exocortex was coined by researcher Ben Houston. Houston coined the term to refer concisely totightly-coupled cognition-level brain-computer interface technologies in the spirit of Licklider’s and Engelbart’s original visions.

exocortex (eks’o kor’teks) n. Latin — an organ that resides outside of the brain that aids in high level thinking. …. This will not be a prominent term until prefrontal cortex neural implants become widespread. (emphasis in original)

—early exocortex definition, Ben Houston, May 2000 [1].

[edit]Use in science fiction

Speculative devices which fit the definition of exocortices were described in hard science fiction long before the term was coined; examples appear in Neuromancer by William Gibson and in The Peace War by Vernor Vinge, both published in 1984. More recently Vinge, in A Fire Upon the Deep and several short stories, described the functional effects of what are essentially several kinds of exocortices – both those composed of computational elements, and those enabled by high-bandwidth communication between groups of beings. Peter F. Hamilton‘s Night’s Dawn trilogy also describes in detail similar technological beings.

Charles Stross, the Hugo Award-nominated hard science fiction writer, has led the adoption of the term exocortex within science fiction circles. Beginning in 2004, Stross made use of the term in Elector, a short story published in the September issue of Asimov’s Science Fiction. Stross made more extensive uses of the term exocortex and its derivatives in Accelerando, his 2005 novel.

While Stross himself does not provide an explicit definition of the term, a few passages indicate his meaning:

About ten billion humans are alive in the solar system, each mind surrounded by an exocortex of distributed agents, threads of personality spun right out of their heads to run on the clouds of utility fog – infinitely flexible computing resources as thin as aerogel – in which they live. (emphasis added)

Accelerando, Charles Stross, 2005.

Sometimes he isn’t certain he’s still human; too many threads of his consciousness seem to live outside his head, reporting back whenever they find something interesting. …. And it’s too early for anyone out there to be trying to hackexocortices… isn’t it? Right now, the external threads of his consciousness are telling him that they like Annette…. (emphasis added)

Accelerando, Charles Stross, 2005.

The Wikibooks Accelerando Technical Companion provides this explanation:

An EXOcortex can best be described as the portion of a trans- or posthuman entity’s brain (or cortex) which exists outside of that entity’s primary computing structure, usually the brain inhabiting a person’s ‘meatbody.’ For example, a person’s exocortex could very well be composed of all the external memory modules, processor, and devices that the person’s biological brain interacts with on a realtime basis, thereby in effect making those external devices a functional part of the individual’s ‘mind.’ (emphasis in original)

Accelerando Technical Companion, Wikibooks.

[edit]Popular usage

While initial recognition of the exocortex concept was nonexistent, this has changed as a result of Charles Stross’s recent publications and the growing awareness of brain-computer interfacing. The term and concept of an exocortex has both been applied (i.e. “Suffered a Stroke in my Exocortex”) and noted as a novel interesting word (i.e. “Found Words: Exocortex”) by various bloggers. Here are some additional examples of proper contextual usage: [2], and [3]. The concept has been described in the March 2006 issue of Living Digital. James Hughen wrote in an essay entitled “What comes after humans?” that appeared in the Nov 16, 2006 issue of the New Scientist:

To remain the web’s weavers and not its ensnared victims, we must merge with our electronic exocortex, wiring greater memory, thought processing and communication abilities directly into our brains.

[edit]Future prospects

If one widens the definition of an exocortex, one can see that computational elements are already used as supporting elements of biological brains, and growing dependence on parts of the Internet that serve cognitive functions has brought what could be considered a proto-exocortex into existence. Wikipedia itself is an example, as technological interfaces enable inter-brain co-operation on high-level cognitive tasks. The fulfillment of the initial vision of Licklider and Engelbart suggests that continued development along this path is likely.

Currently, true exocortices remain speculative. The main issue is that the required underlying technology is yet to be produced by the scientific research fields of (1) cognitive neuroscience, (2) computational neuroscience and (3) neural engineering.

[edit]See also

[edit]References

[edit]External links

[show]

[show]



Transhumanism

Svenska transhumanister Människa +

Direktlänk



Transhumanism

Grundläggande introduktion till transhumanismen

Direktlänk



Transhumanism

Anders Sandbergs hemsida om transhumanism

Direktlänk



Transhumanism

Wikipedia Transhumanism

Transhumanism

Ambox grammar.svg
Den här artikeln eller avsnittet kan behöva språkvård eller korrekturläsning.
Motivering: Artikeln är dåligt översatt och mycket behöver skrivas om (2012-02)
Hjälp gärna till att förbättra texten om du kan, och diskutera saken på diskussionssidan. Se fler artiklar med samma problem.

Transhumanism är en internationell intellektuell och kulturell rörelse som förespråkar användning av teknik för att förbättra och utökamänniskans mentala och fysiska egenskaper. Enligt transhumanismen har människan onödiga brister som leder till handikapp, lidande, sjukdom, åldrande och död, och dessa vill man överkomma. Transhumanistiska tänkare studerar utvecklingen och användandet av teknik som kan användas för att förbättra människan, och vad denna kan ge för möjligheter och få för konsekvenser.[1]

“Transhumanism” ses ofta som en synonym till mänsklig förbättring och rörelsen symboliseras ibland med tecknen >H eller H+.[2] Även om den första kända användningen av termen “transhumanism” är från 1957, så kom begreppets nutida mening till under 1980-talet, närfuturister i USA började organisera vad som sedan dess har vuxit till den transhumanistiska rörelsen. Enligt transhumanistiska tänkare kan människan så småningom komma att få så väldigt utökade förmågor att termen ”post-människa” vore mer lämplig än ”människa”.[1]Transhumanism refereras därför ibland till som “posthumanism” eller en form av transformationell aktivism inspirerad av posthumanistiska ideal.[3]

Frågan om hur en transformerad framtida mänsklighet kommer att se ut i framtiden har intresserat en rad anhängare och kritiker från ett antal olika perspektiv och discipliner. Transhumanism har beskrivits av en kritiker, Francis Fukuyama, som ”världens farligaste idé”,[4]vilket bemöttes med uttalandet att det är den “rörelse som är ett idealt exempel på de mest våghalsiga, modiga, fantasifulla och idealistiska strävandena hos mänskligheten”.[5]

Innehåll

[göm]

Historia [redigera]

Enligt filosofer som studerat och skrivit om det transhumanistiska tänkandets historia[1] har transcendentalistiska impulser blivit uttryckta åtminstone så långt tillbaka som i jakten på odödlighetGilgamesheposet, såväl som i historiska jakter på Ungdomens källa,Livets elexir, samt andra strävanden att undgå åldrande och död. Transhumanstiska filosofer har dock rötterna i renässansen,humanismen och upplysningen. Exempelvis menade Giovanni Pico della Mirandola att människor skulle “skulptera sin egen staty”, ochMarquis de Condorcet spekulerade i användningen av medicinsk vetenskap för att inom obestämbar framtid utsträcka människans livslängd, medan Benjamin Franklin drömde om att tillfälligt få livsfunktionerna hos en människa att avstanna. Efter Charles Darwin “blev det alltmer sannolikt att anse den nuvarande versionen av mänskligheten inte som evolutionens slutpunkt utan snarare som en möjligtvis rätt tidig fas”[1]. Dock är Friedrich Nietzsche ansedd av vissa som endast en mindre influens, hans häftiga iver över begreppetövermänniska till trots, detta grundat på hans betoning av självförverkligande snarare än av teknologisk transformation.[1]

Den ryska kristna filosofen Nikolaj Fjodorovitj Fjodorov förordade radikal livsförlängning, fysisk odödlighet och även återuppståndelse från döden genom användning av vetenskapliga metoder. [6] Under 1900-talet fick en essä, Daedalus: Science and the Future, skriven 1923 av genetikern J.B.S. Haldane, ett visst inflytande som föregångare till transhumanistiska tankar. Den förutspådde de stora framsteg som skulle göras genom användningen av genetik och andra avancerade vetenskaper inom den mänskliga biologin, samt att sådana framsteg först skulle ses som blasfemi eller perversioner. John Desmond Bernal, som utvecklade röntgenkristallografi, spekulerade kringrymdkoloniseringbioniska implantat samt kognitiva förbättringstekniker, vilket har kommit att bli vanliga transhumanistiska teman sedan dess.[1] Biologen Julian Huxley, bror till Aldous Huxley, verkar vara den första som använde ordet “transhumanism”. 1957 definierade han transhumanism som “människan förblir människa, men upptäcker genom att överträffa sig själv nya möjligheter för sin egen mänskliga natur”.[7] Denna definition skiljer sig märkbart ut som den vanligast använda från och med 1980-talet.

FM-2030, en av förgrundsgestalterna inom transhumanismen.

Datalogen Marvin Minsky skrev från 1960-talet och framåt om relationen mellan människa och artificiell intelligens .[8] Under de påföljande decennierna genererade denna disciplin flera inflytelserika tänkare, som Hans Moravec och Ray Kurzweil, som pendlade mellan den tekniska arenan och futuristiska spekulationer i den transhumanistiska ådran.[9][10] Uppkomsten av en identifierbar transhumanistisk rörelse började ta form under de sista decennierna av 1900-talet. 1966 började FM-2030, tidigare känd som F.M. Esfandiary, en futurist som förespråkade “nya mäskliga koncept” på The New SchoolNew York City, identifiera de människor som anpassade nya teknologier, livsstilar och världsbilder för övergången till posthumanitet som “transhuman” (förkortning av “transitory human”)[11]. Under 1972 bidrog Robert Ettingertill vidare konceptualisering av begreppet genom sin bok Man into Superman.[12] FM-2030 publicerade sin Upwingers Manifesto under 1973 för att stimulera medveten transhumanistisk aktivism. [13]

De första självutnämnda transhumanisterna möttes formellt i början av 1980-talet påUniversity of California, Los Angeles, som därefter kom att bli det huvudsakliga centrumet för transhumanistiskt tänkande. Här undervisade FM-2030 i sin futuristiska ideologi “tredje vägen”. På EZTV, som frekventerades av transhumanister och andra futurister, presenterade Natasha Vita-More sin Breaking Away, en experimentell film från 1980-talet på temat hur människor bröt sig loss från sina biologiska begränsningar och jordens gravitationskraft för att bege sig ut i rymden. [14][15] FM-2030 och Vita-More började snart även arrangera sammankomster för transhumanister i Los Angeles. Dessa inkluderade studenter från FM-2030s kurser och publik från Vita-Mores konstnärliga produktioner. Under 1982 skrev Vita-More Transhumanist Arts Statement,[16] och producerade sex år senare ett program på kabel-tv med namnetTransCentury Update. Programmet hade temat transhumanism och nådde ut till över 100 000 tittare.

Under 1986 publicerade Eric Drexler Engines of Creation: The Coming Era of Nanotechnology,[17] som blev diskuterad utifrån möjligheterna inom nanoteknik och molecular assembler, och grundade Foresight Institute. Som den första ideella organisationen att forska, förorda och utföra kryonik, blev Alcor Life Extension Foundations lokaler i södra Kalifornien ett centrum för futurister. Under 1988 blev det första numret av Extropy Magazine publicerat av Max More och Tom Morrow. Under 1990 skapade filosofen Max More sin egen transhumanistiska doktrin, som tog formen som Principles of Extropy,[18] och lade grunden för modern transhumanism genom att ge den en ny definition: [19]

Transhumanism är en klass av filosofier som försöker leda oss mot ett posthumant tillstånd. Transhumanism delar många element av humanismen, inkluderat en respekt för förnuft och vetenskap, en förpliktelse till utveckling, och ett värde av mänsklig (eller transhumanistisk) existens i det här livet. […] Transhumanism skiljer sig från humanism genom erkännandet och föregripandet av radikala förändringar i naturen och möjligheterna i våra liv som resultat av olika vetenskaper och teknologier[…].

Under 1992 så grundade More och Morrow Extropy Institute, en katalysator för nätverkande futurister och brainstormade fram nyamemplex genom att organisera en serie av konferenser och, ännu viktigare, erbjöd en mailinglista som för första gången bidrog till att en stor del människor fick ta del av transhumanistiska perspektiv under cyberkulturens uppgång. Under 1998 så grundade filosoferna Nick Bostrom och David Pearce World Transhumanist Association (WTA), en internationell frivilligorganisation arbetandes för att transhumanism skulle erkännas som ett legitimt ämne för vetenskap och politik.[20] Under 1999 formulerade och antog WTA en transhumanistisk deklaration kallad The Transhumanist Declaration[21]. I The Transhumanist FAQ, som även den skrevs av WTA, gavs två formella definition av transhumanism: [22]

  1. Den intellektuella och kulturella rörelse som bejakar möjligheterna och strävandena av att fundamentalt förbättra den mänskliga beskaffenheten genom applicerad förnuft, speciellt genom utvecklingen och spridandet av tillgängliga teknologier för att eliminera åldrande och för att kraftigt utöka människans intellektuella, fysiologiska och psykologiska kapaciteter.
  2. Studiet av förgreningarna, löftena och potentiella faror av teknologier som möjliggör att övervinna fundamentala mänskliga begränsningar, and det relaterade studiet av etiska frågor involverade i utvecklingen av sådana teknologier.

Ett antal av liknande definitioner har blivit samlade av Anders Sandberg, en akademiker och framstående transhumanist.[23]

I en möjlig kontrast till andra transhumanistiska organisationer så har WTA-representanter ansett att sociala strömningar kan underminiera futuristiska visioner och behöver bemötas.[24] Ett särskilt bekymmer är jämlik tillgång till människoförbättringsteknologier över klasser och gränser.[25] Under 2006 utbröt en politisk strid inom den transhumanistiska rörelsen mellan den libertarianska högern och den liberala vänstern, vilket resulterade i en mer mitten-vänsterpositionering av WTA under dess dåvarande chef James Hughes.[26][25] Under 2006 avslutade Extropy Institute sin verksamhet då man menade att deras uppdrag var “i huvudsak avslutat”.[27] Detta efterlämnade World Transhumanist Association som den ledande internationella transhumanistiska organisationen.

Teori [redigera]

Det råder skilda meningar huruvida transhumanism är en gren av “posthumanism” och hur posthumanism ska bli konceptualiserad beträffande relationen till transhumanism. Det senare är ofta refererad till som en variant eller aktivistisk form av posthumanism av sina konservativa,[4] kristna[28] and progressiva[29][30] kritiker, men även av pro-transhumanistiska teoretiker som, exempelvis, karaktäriserar det som en undergrupp till “filosofisk posthumanism”.[31] En vanlig egenskap hos transhumanism och filosofisk posthumanism är den futuristiska visionen av en ny intelligent varelse som mänskligheten kommer att utvecklas till, vilken kommer att komplettera människan eller ersätta henne. Transhumanism betonar det evolutionära perspektivet, ibland inkluderat skapelsen av en extremt intelligent varelse med hjälp av kognitiva förbättringstekniker,[24] men tar fasta på att en “posthumanistisk framtid” som det slutgiltiga målet för en “deltagande evolution”.[32]

I vilket fall så har idén om att skapa artificiellt intelligenta varelser, förslaget av bland annat robotologen Hans Moravec, influerat transhumanismen.[9] Moravecs idéer har även blivit karaktäriserade som en “självbelåten” eller apokalyptisk variant av posthumanismen, i kontrast med den kritiska posthumanism som man finner inom humaniora och konst.[33] När en dylikt “kritisk posthumanism” skulle erbjuda resurser för att omvärdera relationerna mellan människor och alltmer sofistikerade maskiner, skulle transhumanism och liknande posthumanismer i detta perspektiv inte överge föråldrade koncept som det “autonoma liberala subjektet”, utan snarare expandera dess prerogativ till att innefatta även det posthumanistiska. [34] Transhumanister ser på sig själva som en fortsättning avhumanismen, och tänkandet från upplysningen överensstämmer med denna syn.

Några sekulära humanister uppfattar transhumanismen som en avkomma till den humanistiska fritankerörelsen och argumenterar för att transhumanister skiljer sig från den humanistiska mittfåran genom att ha ett specifikt fokus på teknologiska metoder för att lösa mänskliga bekymmer och frågan om dödlighet.[35] Andra progressiva har argumenterat för att posthumanism, oavsett om det är i dess filosofiska eller aktivistiska form, innebär en skiftning iväg från omsorg av social rättvisa, bort från strävanden att reformera mänskliga institutioner och andra upplysningstraditioner, mot en mer narcissistisk längtan efter en transcendentering av den mänskliga kroppen i jakt på ett mer enastående sätt att leva.[36] Ur detta synsätt så överger transhumanismen de traditionella målen från humanismen, upplysningen och progressiv politik.

Mål [redigera]

Medan många transhumanistiska teoretiker och förespråkare försöker applicera förnuftstänkande, vetenskap och teknologi för syftena att reducera fattigdom, sjukdom, handikapp, undernäring runt omkring jorden, så är transhumanismen distinkt i dess fokus på att genom användning av teknologier förbättra den mänskliga kroppen på den individuella nivån. Många transhumanister försöker aktivt fastställa potentialen för framtida teknologier och innovativa sociala system för att förbättra kvaliteten för allt liv, medan man samtidigt försöker göra den materiella verkligheten för den mänskliga naturen att uppnå löftena om juridisk och politisk jämlikhet genom att eliminera mentala och fysiska handikapp och barriärer.

Raymond Kurzweil på Stanford University 2006

Transhumanistiska filosofer argumenterar att det inte bara existerar ett perfektionistiskt etiskt imperativ för människan att sträva för utveckling och förbättring av den mänskliga naturen, men även att det är möjligt och eftersträvansvärt för mänskligheten att övergå i en transhumanistisk fas av existensen, i vilken människan har kontroll över sin egen evolution. I en sådan fas skulle den naturliga evolutionen bli ersatt med en medveten.

Några teoretiker, som Ray Kurzweil, anser att takten i den teknologiska innovationen accelererar och att de nästa 50 åren kan komma att innebära inte bara radikala teknologiska framsteg utan möjligtvis även en teknologisk singularitet, som kan komma att fundamentalt ändra den mänskliga naturen.[37] Transhumanister som förutser denna massiva teknologiska förändring anser generellt att den är eftersträvansvärd. Dock så är vissa även oroade med eventuella faror med en extremt snabb teknologisk utveckling och föreslår valmöjligheter för att garantera att avancerad teknologi används ansvarsfullt. Exempelvis har Bostrom skrivit utförligt om de existentiella riskerna för mänsklighetens framtida välgång, inkluderat risker som skulle kunna skapas genom framväxande tekniker.[38]

Etik [redigera]

Transhumanister engagerar sig i interdisciplinära angreppssätt för förståelse och bedömningen av möjligheterna att överkomma biologiska begränsningar. De influeras av futorologi samt en mängd fält inom etiken som bioetikinfoetiknanoetikneuroetikroboetikoch teknoetik, huvudsakligen men inte begränsat till perspektiv från filosofisk utilitarianismsocial progressivism, politisk och ekonomiskliberalism. Till skillnad från många filosofer, samhällskritiker och aktivister som placerar etiskt värde på bevarandet av naturen, så ser transhumanister konceptet av det specifikt “naturliga” som oklar i bästa fall, och som ett hinder att överkomma i det värsta.[39] Många framstående förespråkare av transhumanism refererar till transhumanismens kritiker från den politiska högern och vänstern som “biokonservativa” eller “neoludditer”. Den senare termen syftar till att ersätta den 1800-talsrörelse som motsatte sig ersättandet av mänsklig arbetskraft med maskiner.[40]

Aktuellt [redigera]

Det finns en stor variation av åsikter inom det transhumanistiska tänkandet. Många av de ledande transhumanistiska tänkarna har åsikter som är under konstant omarbetning och utveckling.[41] Några distinkta områden inom transhumanismen är identifierade och listade här i alfabetisk ordning:

  • Abolitionism, en etisk filosofi baserad på en uppfattad förpliktelse att använda teknologi för att eliminera ofrivilligt lidande i allt kännande liv.[42]
  • Demokratisk transhumanism, en politisk filosofi som syntetiserar liberal demokratisocialdemokrati och radikal demokrati med transhumanismen.[43]
  • Extropianism, en tidig skola av transhumanistiskt tänkande som karaktäriseras av en uppsättning principer som förordar en proaktiv inställning till den mänskliga evolutionen.[18]
  • Immortalism, en moralfilosofi som baseras på tron att teknologisk odödlighet är möjligt och eftersträvansvärt, och förordar forskning och utveckling för att möjliggöra dess förverkligande.[44]
  • Libertariansk transhumanism, en politisk filosofi som syntetiserar libertarianism och transhumanism.[40]
  • Transgenderism, en socialfilosofi som eftersträvar frivillig eliminering av kön hos den mänskliga arten genom applikationer av avancerad bioteknik och reproduktionsteknologi.[45]
  • Singularitarianism, en moralfilosofi som baseras på uppfattningen att en teknologisk singularitet är möjligt, och förordar medvetna steg för att garantera dess säkerhet.[37]
  • Technogaianism, en ekologisk filosofi som baseras på uppfattningen att framväxande tekniker kan hjälpa till att återställa jordens miljö, och att utveckla säkra och rena energikällor ska därför vara ett viktigt mål för miljövänner.[43]

Andlighet [redigera]

Även om några transhumanister uppger en stark känsla av sekulär andlighet så är större delen ateister.[20] En minoritet följer dock liberala former av österländska filosofiska traditioner som buddhism och yoga,[46] eller har sammanfogat sina transhumanistiska idéer med etablerade västerländska religioner som liberal kristendom[47] eller mormonism[48]. Trots den övervägande sekulära attityden så hänger sig vissa transhumanister år förhoppningar som man traditionellt har sett inom religion, exempelvis odödlighet,[44] medan ett flertal kontroversiella nyreligiösa rörelser, med grunden i slutet av 1900-talet, har uttalat slutit sig till transhumanistiska mål om att transformera den mänskliga naturen genom användning av teknologi för att förändra medvetandet och kroppen, som exempelvis inomRaëlism.[49] Dock så har de flesta tänkare associerad med den transhumanistiska rörelsen fokuserat på de praktiska målen av användningen av teknologi för att få längre och friskare liv, medan man ändå har spekulerat om att en framtida förståelse av neuroteologioch applikationsmöjligheterna från neuroteknologi kommer ge människan en större kontroll av förändrade medvetandenivåer, något som är vanligt uppfattat som “andliga upplevelser“, och genom detta uppnå en mer djupgående självkännedom.[46]

Majoriteten av transhumanister är materialister som inte tror på en transendental mänsklig själ. Transhumanisters personteori argumenterar även mot en unik identifiering av moraliska aktörer och subjekt med biologiska människor, menande att detta ärspeciesism då man exkluderar icke-mänskliga och halvmänskliga djur, och artificiell intelligens, från moraliska resonemang.[50] Många tror på kompatibiliteten av mänskliga medvetanden med datorhårdvara, med den teoretiska implikationen av att mänskligt medvetande någon gång i framtiden kan överföras till alternativa media, en spekulativ teknik kallad mind uploading.[51] En extrem formulering av denna idé kan man hitta i Frank J. Tiplers förslag om en Omega point. Med utgångspunkt i idéer inom digitalism så utvecklade Tipler tanken om att kollapsen av universum för miljarder år sedan och därigenom kan ha skapat förhållandena för bevarandet av människan i en simulerad verklighet inuti en superdator, och därigenom uppnått en form av “posthumanistisk gud”. Han var även inspirerad av paleontologen och jesuit-teologen Pierre Teilhard de Chardin, som såg en evolutionär telos i utvecklingen av en omspännande noosfär, ett globalt medvetande.[52]

Idén om att ladda upp personligheten till ett icke-biologiskt substrat, samt de underliggande antagandena, kritiseras av en rad tänkare, forskare och aktivister, ibland med hänvisning till tranhumanismen i sig, ibland med hänvisning till tänkare som Marvin Minsky och Hans Moravec som ofta ses som dess grundare. I relationen mellan de underliggande antagandena och till exempel cybernetik, så har vissa argumenterat för att detta materialistiska hopp frambringar en andlig monism, en sorts variant av filosofisk idealism.[53] Från ett konservativt kristet perspektiv så har idén om minduploading hävdats vara en representant för “nervärderingen” av den mänskliga kroppen, något som karaktäriseras av den gnostiska trosuppfattningen.[54] Transhumanism och dess förmodade intellektuella föregångare har även blivit beskrivna som neognostiska av neokristna och sekulära debattörer.[55][56]

Den första dialogen mellan transhumanism och “tro” var fokuset på ett akademiskt seminarium som hölls på Uninversity of Toronto under 2004.[57] På grund av att transhumanismen kan erbjuda samma funktioner som människor traditionellt har sökt i religion, så har religiösa och sekulära kritiker fasthållit att transhumanismen själv är en religion, eller i alla fall en pseudoreligion. Religiösa kritiker anklagade den filosofiska transhumanismen för att inte kunna erbjuda några eviga sanningar eller en relation med det gudomliga. De kommenterade att en filosofi som är berövad från dessa trosföreställningar lämnar mänskligheten på drift på det dimmiga havet avpostmodernistisk cynism och anomi. Transhumanister svarade med att sådan kritik reflekterar ett misslyckande med att se till det faktiska innehållet av transhumanistisk filosofi, som långt ifrån cynisk, har rötterna i optimism, idealistiska attityder som kan spåras tillbaka till upplysningen.[58] Till följd av denna dialog utförde William Sims Bainbridge en pilotstudie, publicerad i Journal of Evolution and Technology, där han menade att religiösa attityder var negativt korrelerade med en acceptans av transhumanistiska idéer, och indikerade att individer med djupt religiösa världsåskådningar tenderade att uppfatta transhumanism som en direkt, konkurrerande (men i slutändan meningslös) förolämpning mot deras andliga tro.[59]

Praktik [redigera]

Medan vissa transhumanister antar ett abstrakt och teoretiskt förhållningssätt till de uppfattade fördelarna av framväxande teknologier, så har andra erbjudit specifika förslag för modifikationerna till den mänskliga kroppen, inkluderat ärftliga sådana. Transhumanister lägger ofta stor vikt vid metoder för att förstärka det mänskliga nervsystemet. Vissa av förslagen gäller modifikationer av det perifera nervsystemet så är det den mänskliga hjärnan som anses vara den gemensamma nämnaren av personlighet och är följaktligen av primärt fokus för transhumanistiska ambitioner.[60]

Som förespråkare av självhjälp och body modification tenderar transhumanistiska förespråkare att använda existerande teknologier och tekniker som förmodat förbättrar kognitiv och fysisk prestation, samtidigt som man engagerar sig i rutiner och livsstilar som är utformade för att förbättra hälsa och livslängd.[61] Beroende på deras ålder så har vissa transhumanister uttryckt oro för att de inte kommer leva länge nog för att kunna ta del av fördelarna från framväxande teknologier. Dock så har många ett stort intresse av livsförlängningstekniker och finansierar forskning i kryonik för att möjliggöra att det sistnämnda en möjlig handlingsmöjlighet som sista utväg, istället för att låta det förbli en obevisad metod.[62] Regionala och globala transhumanistiska nätverk och gemenskaper med en rad mål existerar för att ge råd och forum för diskussioner och samarbete genom gemensamma projekt.

Teknologier av intresse [redigera]

Framväxande teknologier, en rapport från 2002 som utforskar potentialen för synergin inom nano-, bio-, info- och cogno-teknologier har blivit ett landmärke inom spekulationen av nära förstående teknologier.

Transhumanister stödjer utvecklingen av teknologier som nanoteknikbioteknikkognitiv vetenskapNBIC, samt hypotetiska framtida teknologier som simulerad verklighet,artificiell intelligenssuperintelligensmind uploading och kryonik. De tror att människor kan och bör använda dessa teknologier för att bli mer än människa.[63] De stödjer därför erkännandet och/eller bevarandet av kognitiv frihetmorfologisk frihet och reproduktiva rättigheter som medborgerliga rättigheter, för att kunna garantera individers val av att använda mänskliga förstärkningstekniker på sig själva eller sina barn.[64] Vissa spekulerar att mänskliga förstärkningstekniker och andra framväxande teknologier kan komma att skapa mer radikal mänsklig förstärkning under mitten av 2000-talet.[37]

En rapport från 2002, Converging Technologies for Improving Human Performance, beställd av National Science Foundation och United States Department of Commerceinnehåller beskrivningar och kommentarer på utvecklingen av NBIC-vetenskap och teknologier av de huvudsakliga bidragarna till dessa fält. Rapporten diskuterar potentiella användningar av dessa teknologier för implementeringen av transhumanistiska mål av förstärkt prestation och hälsa, och det pågående arbetet på planerad applikation av mänskliga förstärkningstekniker i det militära och i rationaliseringen av människa-maskininteraktion i industrin.[65]

Medan internationella diskussioner av de framväxande teknologierna och koncept från NBIC innehåller en stark kritik av dess transhumanistiska orientering och deras påstådda science fiction-karaktär,[66][67][68] så har forskning om teknologier för förändringar i hjärna och kropp accelererat under sponsring av United States Department of Defense, som har intresserat sig av eventuella fördelar på slagfältet som skulle kunna åstadkommas genom “supersoldater” för USA och deras allierade.[69]

Konst och kultur [redigera]

Transhumanistiska teman har blivit allt mer framstående i skilda litterära former under den period när rörelsen själv växte fram. Kontemporär science fiction innehåller ofta positiva framställningar av teknologiskt förstärkt mänskligt liv, utspelat i utopiska samhällen. Dock så har framställningarna inom science fiction kommit med en mer varnande twist. Vissa av de mer pessimistiska scenarierna innehåller många skräckskildringar eller dystopiska historier om hur mänsklig bioengineering har gått snett. Under decennierna precis innan transhumanismen växte fram som en explicit rörelse så började många transhumanistiska koncept och teman träda fram i science fiction av författare som Robert A. Heinlein (Lazarus Long-serien, 1941–87), A. E. van Vogt (Slan, 1946), Isaac Asimov (I, Robot, 1950), Arthur C. Clarke (Childhood’s End, 1953) och Stanislaw Lem (Cyberiad, 1967).[24]

Cyberpunk-genren, exempelvis William Gibsons Neuromancer (1984) och Bruce Sterlings Schismatrix (1985), har särskilt varit fokuserade på modifikationen av den mänskliga kroppen. Andra noveller som behandlar transhumanistiska teman som har stimulerat till breda diskussioner av dessa teman är bland andra Blood Music (1985) av Greg BearThe Xenogenesis Trilogy (1987–1989) av Octavia ButlerThe Beggar’s Trilogy (1990–94) av Nancy Kress, mycket av Greg Egans arbete sedan i början av 1990-talet, som Permutation City (1994) och Diaspora (1997); The Bohr Maker (1995) av Linda NagataOryx and Crake (2003) av Margaret AtwoodThe Elementary Particles och The Possibility of an Island av Michel Houellebecq; och Glasshouse (2005) av Charles Stross. Många av dessa arbeten har ansetts vara en del av cyberpunkgenren eller dess postcyberpunk-avknoppning.

Fiktiva transhumanistiska scenarion har även blivit populära i andra medier under sent 1900-tal och tidigt 2000-tal. Man kan finna det i serieböcker (Captain America, 1941; Him, 1967; Transmetropolitan, 1997), filmer (2001 – Ett rymdäventyr, 1968; Blade Runner, 1982;Gattaca, 1997), tv-serier (CybermenDoctor Who, 1966; The Six Million Dollar Man, 1973; BorgStar Trek: The Next Generation, 1989;manga och anime (Galaxy Express 999, 1978; Appleseed, 1985; Ghost in the Shell, 1989 och Gundam Seed, 2002), datorspel (Metal Gear Solid, 1998; Deus Ex, 2000; Half-Life 2, 2004), och rollspel (Shadowrun, 1989). Transhuman Space är ett RPG från 2002, utspelat år 2100, när människan har börjat kolonisera solsystemet, och där jakten på transhumanism är i full gång med allt fler människor som kämpar med att nå ett stadium av posthumanitet.

Utöver arbetet av Natasha Vita-More, skapare av Transhumanist Arts & Culture, har transhumanistiska teman framträtt i visuell och framförd konst.[70] Carnal Art, en form av skulptur härstämmande från den franska konstnären Orlan, använder kroppen som sitt medium och plastikkirurgi som sin metod.[71] Kommentatorer har pekat på den amerikanska artisten Michael Jackson som genom sin karriär har använt tekniker som plastikkirurgi och mediciner för att bleka huden och oxygen-terapi, med effekten att hans artistiska person har transformerats för att sudda ut identifikationer som kön, ras och ålder.[72] Arbetet av den australiska artisten Stelarc fokuseras på förändringen av sin kropp med robotprotester och vävnadsengineering.[73] Andra artister vars arbete sammanföll med framträdandet och blomstrandet av transhumanism och som utforskade teman relaterade till transformationen av kroppen är den jugoslaviska performanceartisten Marina Abramovic och den amerikanska mediaartisten Matthew Barney. En föreställning under 2005, Becoming Animal, på Massachusetts Museum of Contemporary Art, presenterade utställningsföremål av tolv artister vars arbete berör effekterna av teknologi i utsuddandet av gränserna mellan människa och icke-människa.

Kontrovers [redigera]

Transhumanistiskt tänkande och forskning skiljer sig avsevärt från huvudfåran och direkt utmanar ofta ortodoxa teorier. Själva uppfattningen och utsikten av mänsklig förstärkning och relaterade ämnen väcker till debatt hos allmänheten.[74] Kritik mot transhumanismen och dess förslag tar två huvudsakliga former: de som tvivlar på sannolikheten att transhumanistiska mål kommer nås (praktisk kritik); och de som protesterar mot de moraliska principer eller världsåskådning som upprätthåller transhumanistiska förslag eller är grundläggande för själva transhumanismen (etisk kritik). Dock så har dessa två fåror ibland konvergerat och överlappat varandra, särskilt med hänsyn till den etiken som rör förändringen av den mänskliga biologin trots att man har ofullständig kunskap.

Kritiker eller motståndare ser ofta transhumanisters mål som ett hot mot mänskliga värderingar. Vissa argumenterar även för att starkt stöd för en transhumanistisk inställning att förstärka det mänskliga tillståndet kan avleda uppmärksamhet och resurser från social omvandling. Då de flesta transhumanister förespråkar icke-teknologiska förändring för samhället, som spridandet av civila rättigheter och friheter, och de flesta kritiker av transhumanismen förordar teknologiska framsteg på områden som kommunikation och sjukvård, skillnaden är ofta en fråga om graden. Ibland så är det dock starka meningsskiljaktigheter om själva principerna som är involverade, med divergerade uppfattningar om mänskligheten, människans natur och moralfrågor angående transhumanistiska aspirationer. Åtminstone en organisation, den amerikanskt baserade Center for Genetics and Society, bildades 2001 med det uttalade målet att arbeta mot transhumanistiska agendor som involverade transgenerationell modifikation av den mänskliga biologin, som mänsklig kloning och “germinal choice technology”, som låter föräldrar bestämma den genetiska uppsättningen på sina barn. Institute on Biotechnology and the Human Future på Chicago-Kent College of Law granskar kritiskt föreslagna applikationer av genetik och nanoteknik på den mänskliga biologin ur ett akademisk synsätt.

Något av den mest kända kritiken av den transhumanistiska agendan finner man i litteratur och filmer. Dessa konstnärliga verk, trots att man presenterar föreställda världar snarare än filosofiska analyser, är använda som grundstenar för vissa mer formella argument.

Genomförbarhet (Framtidshype-argumentet) [redigera]

I sin bok från 2002, Futurehype: The Tyranny of Prophecy, skriver sociologen Max Dublin att många tidigare förutsägelser om teknologisk utveckling har varit felaktiga och argumenterar för att moderna futuristiska förutsägelser kommer att visa sig lika felaktiga. Han protesterar även mot vad han ser som scientism, fantatism och nihilism hos en del, och skriver att det finns historiska paralleller tillmillenaristiska religioner och kommunistiska doktriner.[75] Ett flertal framstående transhumanister har förutsagt att tekniker som överkommer döden kommer att anlända (vanligtvis sent) inom deras egen konventionellt uppskattade livstid. Wired Magazine grundare och verkställande redaktör Kevin Kelly har argumenterat för att dessa transhumanister har överdrivet optimistiska förväntningar om när dramatiska teknologiska framsteg kommer att ske för att de själva vill bli räddade från sin egen död av denna utveckling.[76]

Några transhumanistiska tänkare hävdar att takten för den teknologiska utvecklingen accelererar och att de nästa 50 åren kommer inte enbart erbjuda radikala teknologiska framsteg, men även att teknologisk singularitet är möjlig.

Trots hans sympatier för transhumanism så skrev biofysikern Gregory Stock i sin bok från 2002, Redesigning Humans: Our Inevitable Genetic Future, att han var skeptisk till den tekniska utförbarheten och hur pass lockande en cyborgisation, som förutspåtts avRay KurzweilHans Moravec och Kevin Warwick, skulle vara för den breda massan. Han tror att genom 2000-talet så kommer människor att bli i hög grad integrerade i system av maskiner, men kommer fortsätta vara biologiska. De huvudsakliga förändringarna till deras egen form och karaktär kommer inte att komma från cyberware, utan från direkt manipulation av genetikmetabolism och biokemi.[77]

Dataexperten Bob Seidensticker skrev i sin bok från 2006, Future Hype: The Myths of Technology Change, att dagens teknologiska bedrifter inte är enastående. Genom att försöka avslöja myterna om teknologin och undersöka historien om hightech-hypen så siktar han på att avslöja felaktigheter och missuppfattningar som kan karaktärisera den moderna transhumanistiska synen på teknologi. Genom att göra detta kan han förklara varför dessa perspektiv har skapats, och illustrera hur teknologisk förändring i själva verket går till.[78]

De tänkare som försvarar sannolikheten av en massiv teknologisk förändring inom en relativt kort tidsperiod lägger emfas på vad de beskriver som ett tidigare mönster av exponentiell ökning av människans teknologiska kapacitet. Denna emfas finns i populärvetenskapsförfattaren Damien Broderick, i synnerhet i hans bok från 1997, The Spike, som innehåller spekulationer om en radikalt förändrad framtid. Ray Kurzweil utvecklar denna position i detalj i sin bok från 2005, The Singularity Is Near. Broderick poängterar att många till synes osannolika förutsägningar hos tidiga science fiction-författare har faktiskt blivit genomförda, bland annat kärnkraft och månlandningar. Han hävdar dessutom att det finns en kärna av rationalism hos de nuvarande förutsägningarna om en väldigt snabb förändring, samt påstår att sådana iakttagare som Kurzweil tidigare har gjort ett bra jobb med att förutsäga takten på innovationen.[79]

Hybris (Leka Gud-argumentet) [redigera]

Biokomplexitetspiralen är en skildring av den flerplanade komplexiteten hos organismer i deras miljö, som ses av många kritiker som det ultimata hindret för transhumanistiska strävanden.

Det finns två distinkta kategorier av kritik, teologisk och sekulär, som har blivit refererade till som leka gud-argument:

Den första kategorin är baserad på den påstådda lämpligheten av människor att ersätta sig själva framför en riktig gud. Denna inställning exemplifieras av vatikanens uttalande 2002, Communion and Stewardship: Human Persons Created in the Image of God,[80]där man menar att:

Changing the genetic identity of man as a human person through the production of an infrahuman being is radically immoral.

Med detta implicerar man att människan har fulla rättigheter över förfogandet över hennes biologiska natur, men samtidigt så säger detta uttalande att skapandet av en supermänniska eller en sprirituellt överlägsen varelser är “otänkbar”, på grund av att sann förbättring enbart kan komma genom religiös upplevelse och att mer fullständigt se “bilden av Gud”. Kristna teologer och lekmannaaktivister från ett flertal kyrkor och kyrkosamfund har uttryckt liknande invändningar mot transhumanism och hävdat att kristna redan åtnjuter, dock efter döden, det radikala transhumanister lovar som odödlighet och abolition av lidande. Ur denna synpunkt är transhumanismen enbart ytterligare en representant av den långlivade utopiska rörelsen som söker förverkliga himmelriket på jorden.[81][82]

Den andra kategorin siktar huvudsakligen mot syntetisk biologi som ekonomen Jeremy Rifkin definierade som “uppgraderingen av existerande organismer och designen av helt nya med intentionen av att ‘perfektera’ deras prestation”,[83] samt försöka fullfölja transhumanistiska mål genom att genetiskt modifiera mänskliga embryon för att skapa “designbebisar”. Den emfaserar frågan ombiokomplexitet och det oförutsägbara i försök att styra utvecklingen av biologisk evolution. Detta argument, som utvecklats särskilt av biologen Stuart Newman, baseras på föreställningen att kloning och genetisk modifiering av djur är felbenägen och stör embryots utveckling. Följaktligen argumenterar man för att det skulle skapa oacceptabla risker att använda sådana metoder på mänskliga embryon. Att utföra experiment, särskilt sådana med permanenta biologiska konsekvenser för växande människor, skulle därför vara en överträdelse av de accepterade principerna för forskning på människor (se Helsingforsdeklarationen från 1964). Utöver detta så menar man att på grund av att förbättringar av försöksresultaten i experimenten på en djurras inte innebär att detta automatiskt går att överföra till en annan ras utan ytterligare forskande, så menar man att det är oetiskt att utföra genetisk modifiering på människor i tidiga utvecklingsstadier.[84]

Som en praktiskt fråga så behöver inte internationella bestämmelser om forskning på människor vara något juridiskt hinder för försök av transhumanister och andra att förbättra sin avkomma med genetisk teknologi. Enligt juristen Rabe Smolensky skyddar rådande lagar föräldrar, som väljer att förbättra sina barns genom, från framtida skyldigheter som skulle kunna uppstå av negativa resultat av proceduren.[85]

Religiösa tänkare som allierat sig med transhumanistiska mål, som teologerna Ronald Cole-Turner och Ted Peters, avvisar det första argumentet med hänvisning till att doktrinen om “medskapande” (co-creation) erbjuder en förpliktelse att använda genetisk modifiering för att förbättra den mänskliga biologin.[86][87]

Transhumanister och andra förespråkare av genetisk modifiering av människor avvisar inte det andra argumentet bara sådär, utan i den mån som det finns en grad av osäkerhet om de troliga resultaten av experimenterande med genetisk modifiering av människor. Dock så menar bioetikern James Hughes att en möjligt moralisk väg till genetisk manipulering av människor i tidiga utvecklingsstadier är byggandet av datormodeller av det mänskliga genomet, proteinerna det kodar för samt vävnaderna han även hävdar att det kodar för. Men de exponentiella framstegen inom bioinformatik så tror Hughes att en virtuell modell av hur generna tar sig uttryck i människokroppen inte kommer att vara så lång borta att det snart kommer bli möjligt att öka graden av genetiska modifikationer genom att simulera effekterna på virtuella människor.[24] Folkhälsoprofessern Gregory Stock pekar mot artificiella kromosomer som ett påstått säkrare alternativ till existerande genetiska modifieringstekniker.[77] Transhumanister argumenterar därför för att föräldrar har en moralisk skyldighet, kallad “prokreativ välgörenhet”, att använda dessa metoder, när de visat sig rimligt säkra och effektiva, för att få så friska barn som möjligt. De tillägger att denna skyldighet är ett moraliskt omdöme som är bäst lämnad till det individuella omdömet snarare än påprackad av lagen, i de allra flesta fall. I denna kontext kallas tyngdpunkten på valfrihet prokreativ frihet.[24]

Förakt för köttet (Ungdomens källa-argumentet) [redigera]

Filosofen Mary Midgley skrev i sin bok från 2002, Science as Salvation, om idén att uppnå odödlighet, genom att transcendentera den mänskliga kroppen (en teori som går under namnet mind uploading inom transhumanismen), som finns hos en grupp av manliga vetenskapliga tänkare i början av 1900-talet, inkluderat J.B.S. Haldane och andra i hans omgivning. Hon karaktäriserar idéerna som “kvasivetenskapliga drömmar och profetior” som involverar en sorts eskapistisk vision om att undfly kroppen sammankopplad med “självsvådliga, okontrollerade kraftfulla fantasier”. Hennes argument fokuserar på vad som upplever som pseudovetenskapligaspekulationer och fantasier uppkoppna genom irrationell rädsla för döden hos dessa tänkare, bortseende från lekmän samt avlägsenheten i dessa eskatologiska visioner.[88] Många transhumanister ser filmen The Fountain från 2006, med dess nekrofobiska tema och kritiken mot strävandena efter evig ungdom som en lämplig bild av denna kritik. [89]

Som den är upplevd som “förakt för köttet” i det Marvin MinskyHans Moravec och andra transhumanister har skrivit har den även blivit föremål för andra kritiker, för vad de anser vara en instrumentell uppfattning av den mänskliga kroppen.[34] Från en feministisk utgångspunkt har filosofen Susan Bordo kritiserat det transhumanistiska programmet genom att peka på den kontemporära bilden av kroppen som en besatthet av slankhet, ungdomlighet och fysisk perfektion, som hon anser påverkar både män och kvinnor men på distinkta sätt, som “den logiska (om extrema) manifestationerna av bekymmer och fantasier som fostrats genom vår kultur.”[90] Några kritiker ifrågasätter de sociala implikationerna av rörelsens fokus på kroppsmodifikation. Statsvetaren Klaus-Gerd Giesen har hävdat att den transhumanistiska fokuseringen på att ändra den mänskliga kroppen representerar den logiska men tragiska konsekvensen av atomisk individualism och kommersialiseringen av kroppen inom en konsumtionskultur.[55]

Nick Bostrom hävdar att önskan om att i allmänhet transcendentera de naturliga begränsningarna hos den mänskliga kroppen, och i synnerhet att förbli ung, är pankulturell och panhistorisk, och därmed inte nödvändigtvis knuten till 1900-talet. Han argumenterar för att det transhumanistiska programmet är ett försök att kanalisera denna önskan till ett vetenskapligt projekt i nivå med projektet att kartlägga den mänskliga genomenen och uppnå en av mänskligheten äldsta förhoppning, istället för en puerl fantasi eller social trend.[1]

Trivialisering av den mänskliga identiteten (Det är nog-argumentet) [redigera]

Amishfolket i USA är en religiös grupp som troligen är mest känd för sitt undvikande av viss modern teknologi. Transhumanister drar en parallell till detta genom att argumentera för att inom den närmsta framtiden kommer det troligen att uppstå ett “Humanish”, folk som väljer att “förbli människa” genom att välja att inte använda mänskliga förstärkningstekniker, vars val de anser måste bli respekterat och skyddat. [91]

I sin bok från 2003, Enough: Staying Human in an Engineered Age, argumenterar miljöfilosofen Bill McKibben mot många av de teknologier som är förslagna eller stödda av transhumanister, inkluderat kloning, nanomedicin och livsförlängningsmetoder. Han hävdar att det skulle vara moraliskt fel för människor att mixtra med fundamentala aspekter av dem själva, som känslighet mot åldrande, maximal livslängd och biologiska begränsningar för fysisk och kognitiv förmåga. Försök att “förbättra” dem själva genom dylikt manipulering kan ta bort begränsningar som ger en nödvändig kontext för upplevelsen av ett meningsfullt mänskligt val. Han hävdar att mänskliga liv inte längre skulle ses som meningsfulla i en värld där sådana begränsningar kan överskridas med teknologi. Även målet av att använda fostervalsteknologi för klart terapeutisk ändamål borde ges upp, då det oundvikligt skulle ge en frestelse för att mixtra med sådant som kognitiv kapacitet och dylikt. Han argumenterar för att det är möjligt för samhällen att dra fördel från att avstå från specifika teknologier, exemplifierat genom Mingdynastin iKinaTokugawa Japan och Amishfolket.[92]

Transhumanister och andra förespråkare av teknologiska förändring av den mänskliga biologin, som vetenskapsjournalisten Ronald Bailey, avvisar påståendet, att livet skulle upplevas som meningslöst om vissa mänskliga begränsningar är övervunna av förstärkningstekniker, som extremt subjektivt. De argumenterar för att dessa teknologier inte kommer att avlägsna huvuddelen av de individuella och sociala utmaningarna som mänskligheten står inför. De föreslår att en person med större förmågor skulle kunna tackla mer avancerade och svårgenomförbara projekt och fortsätta hitta mening i kampen för att uppnå överlägsenhet. Bailey hävdar även att McKibbens historiska exempel är bristfälliga, och förordar andra slutsatser vid närmare studier.[93] Exempelvis så är amishfolket mycket försiktiga med att ta till sig ny teknologi, men då de undviker television så välkomnar vissa möjligheten till att använda genterapi, då inavel har medfört förekomsten av sällsynta genetiska sjukdomar hos folkgruppen.[77]

Genetisk klyfta (Gattaca-argumentet) [redigera]

Vissa kritiker av libertariansk transhumansim har fokuserat på de troliga socioekonomiska konsekvenserna i samhällen där ekonomisk ojämlikhet finns och ökar. Bill McKibben har exempelvis sagt att framväxande mänskliga förstärkningstekniker kommer bli disproportionellt distribuerade mellan rika och fattiga, och därmed skapa en “genetisk klyfta”.[92] Biologen och vetenskapsförfattaren Lee M. Silver, som myntade termen “reprogenetik” och förordar dess applikationer, har uttryckt visst bekymmer över att dessa metoder kan komma att skapa ett tudelat samhälle av genetiskt manipulerade “haves” och “have nots”, om sociala och demokratiska reformer ligger efter implementeringen av förstärkningsteknologier.[94] Kritiker som hävdar dessa argument accepterar inte nödvändigtvis transhumanistiska antaganden om att mänsklig förstärkning är ett positivt värde; ur deras synvinkel borde det inte uppmuntras eller till och med förbjuden, då det skulle kunna medföra att människor med makt genom detta utökar sin makt ytterligare. I filmen Gattaca från 1997 så framställs ett dystopiskt samhälle där ens sociala klass beror uteslutande på genetiska modifikationer, vilken ofta används som referens av kritiker som förordar detta synsätt.[24]

Denna kritik framförs även av transhumanistiska kritiker till den libertariana transhumanismen, speciellt då från de självbeskrivna demokratiska transhumanisterna, som hävdar att majoriteten av de nuvarande eller framtida sociala eller miljömässiga problemen (somarbetslöshet och slut på fossila bränslen) måste åtgärdas med en kombination av politiska och teknologiska lösningar (så sommedborgarlön och alternativa energikällor. Därför anser bioetikern James Hughes i sin bok från 2004, Citizen Cyborg: Why Democratic Societies Must Respond to the Redesigned Human of the Future, att för bemöta frågan med en framväxande genetisk klyfta genom ojämlik åtkomst till mänskliga förstärkningstekniker så borde progressivister, eller mer specifikt technoprogressivister, artikulera och implementera politisk beslut (så som allmän sjukvård som även täcker mänskliga förstärkningstekniker) för att kunna motverka detta problem så mycket som möjligt, istället för att försöka förbjuda mänskliga förstärkningstekniker. Det sistnämna kommer då enbart, enligt Hughes, att förvärra problemet genom att teknologierna då blir osäkra eller tillgängliga enbart för rika på den svarta marknaden, eller i länder där sådant förbud inte genomdrivet.[24]

Hot mot moral och demokrati (Du sköna nya värld-argumentet) [redigera]

Det har framförts ett flertal argument om att effekten av mänskliga förstärkningstekniker kan komma att likna dystopin som skildrades iAldous Huxleys roman Du sköna nya värld från 1932. Ibland, som i texterna av Leon Kass, så är rädslan att institutioner och praktiker som är fundamentala för ett civiliserat samhälle kan komma att skadas eller förstöras.[95] I boken Our Posthuman Future från 2002, samt i en artikel i Foreign Policy från 2004, pekar ekonomen och filosofen Francis Fukuyama ut transhumanismen som världenas farligaste idé, då han tror att den kan komma att underminera egalitära värderingar i den liberala demokratin, genom den fundamentalt förändrade mänskliga naturen.[4] Socialfilosofen Jürgen Habermas gör en liknande analys i boken The Future of Human Nature från 2003, där han hävdar att moralisk autonomi förutsätter att man inte är subjekt för någon annans unilateralt påprackade vilja. Därmed anser Habermas att den mänskliga “artetiken” skulle kunna undermineras genom genetiska förändring på embryonivå.[96] Kritiker som Kass, Fukiyama och en stor mängd kristna författare anser att försök att göra signifikanta förändringar på den mänskliga biologin inte bara är omoraliskt utan även att det hotar den sociala ordningen. Alternativt så argumenterar de för att implementeringen av dylika teknologier skulle leda till “naturalisering” av sociala hierarkier eller ge nya metoder för social kontroll i händerna på totalitära regimer. AI-pionjären Joseph Weizenbaum kritiserar vad han ser som misantropiska tendenser i språket och idéerna hos några av sina kollegor, särskilt Marvin Minsky och Hans Moravec, som genom att nervärdera den mänskliga organismen i sig främjar en diskurs som medför söndrande och odemokratisk politiska beslut.[97]

I en artikel tidningen Reason från 2004 så bestrider vetenskapsjournalisten Ronald Bailey påståendena från Fukuyama genom att argumentera för att politisk jämlikhet aldrig har vilat på den mänskliga biologin som grund. Han hävdar att liberalism grundades, inte på den effektiva jämlikheten för människor, eller de jure-jämlikhet, utan på en tanke om en jämlikhet i fråga om medborgerliga rättigheter och likhet inför lagen, eller de jure-jämlikhet. Bailey hävdar att resultaten av genetisk modifiering mycket väl kan förbättra snarare än förvärra mänsklig ojämlikhet, genom att man ger till flertalet vad som tidigare endast var privilegier för en minoritet. Dessutom så argumenterar han för att den största bedriften för upplysningen är principen om tolerans. Detta medför enligt honom att politisk liberalism redan är lösningen för frågan om mänskliga och postmänskliga rättigheter, då lagen i liberala samhällen redan är menad att gälla jämlikt för alla, oavsett rik eller fattig, mäktig eller maktlös, bildad eller obildad, förstärkt eller oförstärkt.[5] Andra tänkare som är sympatiskt inställda till transhumanistiska idéer, som filosofen Russel Blackford, har protesterat mot vädjande till tradition och vad man ser som den alarmism som är involverad i Du sköna nya värld-typen av argument.[98]

Avhumanisering (Frankensteinargumentet) [redigera]

Den biopolitiska aktivisten Jeremy Rifkin och biologen Stuart Newman accepterar att bioteknologi har förmågan att medföra stora förändringar i organismers identitet. De argumenterar mot den genetiska modifieringen av människor, av anledning att de befarar att gränsen mellan människa och artefakt suddas ut.[99][84] Filosofen Keekok Lee ser en sådan utveckling som en del av en accelererande trend i moderniseringen, där teknologi har använts för att transformera det “naturliga” till det “artefaktiska”.[100] I det extrema så skulle detta kunna leda till producerandet av monster som hålls som slavar, som mänskliga kloner, hybrider av människor och djur eller “bioroider”, men även en mindre förskjutning mellan människor och icke-människor är problematiska utifrån ett perspektiv som sätter vikt vid sociala strukturer och ekologiska system. Filmen Blade Runner (1982), novellerna The Boys From Brazil (1978) och The Island of Dr. Moreau (1896) skildrar element av dylika scenarion, men Mary Shelleys novell Frankenstein från 1818 är oftast den som åsyftas av kritiker som anser att bioteknologi kan komma att skapa objektifierade och anomiska människor och submänniskor. Sådana kritiker föreslår strikta åtgärder för att förhindra möjligheterna, till vad dom anser vara dehumaniserande, från att någonsin inträffa, vanligtvis genom ett internationellt förbud för mänsklig genetisk modifikation.[101]

Ronald Bailey har i tidningen Reason anklagat motståndare mot forskning som involverar modifiering av djur som alarmistiska när de spekulerar om skapandet av submänskliga varelser med människoliknande intelligens och hjärnor som liknar dem hos homo sapiens. Bailey insisterar på att målet för att utföra forskning på djur helt enkelt är att skapa bättre sjukvård åt människor.[102]

Ett annat svar kommer från transhumanistiska personlighetsteoretiker, som protesterar mot vad de karaktäriserar som den antropomorfobi som ger bränsle åt kritiken för den här typen av forskning, som vetenskaps- och science fictionförfattaren Isaac Asimovbenämnde som “Frankensteinkomplexet”. De argumenterar för att, förutsatt att de har självmedvetande, så skulle mänskliga kloner,chimairor samt biologiska “upplyftna” djur vara unika personer som förtjänar respekt, värdighet, rättigheter och medborgarskap. De sluter sig till att den kommande etiska frågan inte rör skapandet av monster, utan vad de skulle karaktärisera som “äckelfaktorn” och mänsklig rasism som skulle fördöma och behandla dessa varelser som monster.[20][50]

Vålnaden av tvingande eugenik (Eugenik-krigen-argumentet) [redigera]

Vissa kritiker av transhumanismen hävdar att det finns en diskriminerande partiskhet i användning av koncept som “begränsningar”, “förstärkning” och “förbättring”. Vissa ser även den äldre eugenikensocialdarwinism och ideologierna och programmen som förespråkade en överordnad ras som varningar för vad förespråkandet av teknologi för eugenisk förstärkning kan åstadkomma. Några fruktar ett framtida eugenik-krig som sämsta tänkbara scenario: återkomsten av statligt påtvingad genetisk diskriminering och människorättskränkning som obligatorisk sterilisering av personer med genetiska defekter, dödandet av institutionaliserade och specifikt, segregering av och folkmord på, “raser” man ser som underordnade.[103] Hälsolagsprofessorn George Annas och teknologilagsprofessorn Lori Andrews är två framstående förespråkare för idén att användningen av denna teknologi kan leda till dylikkrigsföring mellan människa och “posthuman”.[101][104]

Eugeniken har under större delen av sin historia manifesterat sig själv som en rörelse förordandes sterilisering av “genetiskt olämpliga” mot deras vilja, samt uppmuntrandet av avel av de genetiskt lämpliga. De huvudsakliga transhumanistiska organisationer fördömer med kraft det tvång som är involverat i sådan politik och avvisar de rasistiska och klassifikatoriska antagandena som de baserar sig på, tillsammans med de pseudovetenskapliga uppfattningarna att eugenetiska förbättringar skulle kunna åstadkommas inom en meningsfullt tidsrymd genom selektiv mänsklig avel. De flesta transhumanistiska tänkarna förordar istället en “ny eugenik”, en form avegalitär liberal eugenik.[105] Bioetikerna Allen Buchanan, Dan Brock, Norman Daniels och Daniel Wikler argumenterar i deras bok From Chance to Choice: Genetics and Justice (2002) för att liberala samhällen har en skyldighet att uppmuntra en så bred tillämpning av eugeniska förstärkningstekniker som möjligt (så länge som ett sådant förhållningssätt inte kränker individers reproduktiva rättigheter eller utövar otillbörlig press mot presumtiva föräldrar som använder dessa teknologier) för att maximera folkhälsa och minimera skillnader som kan vara resultat av både naturlig genetiska förhållanden samt ojämlik distribuering av genetisk förstärkning.[106] De flesta transhumanister som tycker på ett liknande sätt distanserar sig dock från termen “eugenik” (och förordar istället till exempel “germinal choice” eller “reprogenetik”)[94] för att undvika att få sina ståndpunkter förknippade med de misstrodda teorierna och praktikerna från den tidiga eugenikrörelsen under 1900-talet.[107]

Existentiell risk (Terminator-argumentet) [redigera]

Slagen av en passage från Theodore Kaczynskis anarko-primitivistiska manifest (citerad i Ray Kurzweils bok The Age of Spiritual Machines (1999)[10]) så blev datalogen Bill Joy en framstående kritiker av de framväxande teknologierna.[108] Hans essä Why the future doesn’t need us (2000) argumenterar för att mänskliga varelser troligtvis skulle garantera sin egen utrotning genom att utveckla den teknologi som förordas av transhumanister. Den åberopar argument som exempelvis grå gegga-scenariot där okontrollerbara självreplikerande nanorobotar skulle konsumera hela ekosystem, slutligen resultera i ecophagy.[109] Joys varning antogs även avappropriate technology-organisationer som “ETC Group”. Liknande uppfattningar har också yttrats av den självbeskrivna neoludditenKalle Lasn, en kulturjammare som var medförfattare till parodin från 2001 på Donna Haraways Cyborg Manifesto från 1985, som en kritik mot teknoutopismen han uppfattade att den förordade.[110] Lasn har argumenterat för att utvecklingen av högteknologi ska upphöra helt för att det oundvikligen tjänar företagsintressen, med förödande konsekvenser för samhälle och miljö.[111]

Den brittiska astronomen Martin Rees skriver i sin bok Our Final Hour (2003) att avancerad vetenskap och teknologi medför en lika stor risk för katastrof som en möjlighet till utveckling. Dock så förordar han inte ett stopp för den vetenskapliga aktiviteten; han kräver bättre säkerhet och möjligtvis ett slut på den traditionella vetenskapliga öppenheten.[112] De som förordar “försiktighetsmodellen”, som exempelvis den gröna rörelsen, är även för en långsam och försiktig utveckling eller ett stopp för utvecklingen i potentiellt farliga områden. Vissa försiktighetsförespåkare tror att artificiell intelligens och robotik innebär möjligheter av alternativa kognitiva former som kan komma att hota mänskligt liv.[113] Terminator-seriens domedagsframställning av en artificiell intelligens som utvecklar en superintelligens, SkyNet, ett elakartat datornätverk som sätter igång ett kärnvapenkrig för att utrota människan, har blivit citerad av vissa i den här debatten.[114]

Transhumanister utesluter inte nödvändigtvis specifika restriktioner på framväxande teknologier för att på så sätt kunna minska utsikten av en existentiell risk. Rent generellt så bemöter man argument baserade på försiktighetsprincipen med att de ofta är orealistiska och ibland till och med kontraproduktiva, till skillnad från den gällande “technogaianistiska” transhumanismen som de hävdar är både realistisk och produktiv. I sin TV-serie Connections så analyserar vetenskapshistorikern James Burke ett flertal perspektiv på teknologisk utveckling, inkluderat varsamhet och restriktioner för fritt kunskapssökande. Burke ifrågasätter det praktiska i vissa av dessa perspektiv, men drar slutsatsen att fasthållningen av en status quo av kunskapssökande och utveckling innebär risker i sig självt, som den skenande hastigheten av förändring och förbrukningen av vår planets resurser. Den vanliga transhumanistiska positionen i frågan är en pragmatisk, där samhället tar medvetna steg för att försäkra sig om en tidig ankomst av fördelarna från säker, ren och alternativ teknologi, istället för att främja ett närmast vetenskapsfientligt och teknofobiskt perspektiv.[115]

En transhumanistisk lösning som föreslogs av Nick Bostrom är en “differentiell teknologisk utveckling”, där man gör medvetna försök att styra sekvensen i vilken teknologier utvecklas. Detta synsätt innebär att planerare skulle sträva efter att “retardera” utvecklingen av potentiellt skadliga teknologier och deras applikationer, samtidigt som man accelererar utvecklingen av presumtiva fördelaktiga teknologier, speciellt sådana som erbjuder skydd mot skadliga effekter av andra.[38]

Se även [redigera]

Referenser [redigera]

Noter [redigera]

  1. ^ [a b c d e f g] Bostrom, Nick. ”A history of transhumanist thought”. Hämtad 2006-02-21.
  2. ^ Anders Transhuman Page: Acronyms
  3. ^ Miah, Andy. “Posthumanism: A Critical History”. Hämtad 2006-02-21.
  4. ^ [a b cFukuyama, Francis. “The world’s most dangerous ideas: transhumanism“. Hämtat 2008-11-14.
  5. ^ [a b] Bailey, Ronald. “Transhumanism: the most dangerous idea?“. URL accessed on February 20, 2006
  6. ^ Berdayev, Nikolai. “The Religion of Resusciative Resurrection. “The Philosophy of the Common Task of N. F. Fedorov“. Hämtat 2008-01-04.
  7. ^ Huxley, Julian. “Transhumanism“. Hämtat 2006-02-24.
  8. ^ Minsky, Marvin. “Steps toward artificial intelligence“. Hämtat 2006-12-13.
  9. ^ [a bMoravec, Hans (1998). ”When will computer hardware match the human brain?”. Journal of Evolution and Technology 1. Läst 23 juni 2006.
  10. ^ [a bKurzweil, Raymond (1999). The Age of Spiritual Machines. Viking Adult. ISBN 0-670-88217-8OCLC 224295064
  11. ^ FM-2030 (1989). Are You a Transhuman?: Monitoring and Stimulating Your Personal Rate of Growth in a Rapidly Changing World. Viking Adult. ISBN 0-446-38806-8OCLC 18134470
  12. ^ Ettinger, Robert (1974) (HTML). Man into Superman. Avon. ISBN 0-380-00047-4
  13. ^ FM-2030 (1973). UpWingers: A Futurist Manifesto. New York: John Day Co.. ISBN 0-381-98243-2; available as an eBook: FW00007527. OCLC 600299
  14. ^ ”EZTV Media”.
  15. ^ Ed Regis (1990). Great Mambo Chicken and the Transhuman Condition: Science Slightly Over the Edge. Perseus Books
  16. ^ Vita-More, Natasha (1982; revised 2003). “Tranhumanist arts statement“. Hämtat 2006-02-16.
  17. ^ Drexler 1986
  18. ^ [a bMore, Max (1990–2003). “Principles of extropy“. Hämtat 2006-02-16.
  19. ^ More, Max. “Transhumanism: a futurist philosophy“. Hämtat 2005-11-14.
  20. ^ [a b c] Hughes, James. “Report on the 2005 interests and beliefs survey of the members of the World Transhumanist Association“. Hämtat 2006-02-26.
  21. ^ World Transhumanist Association. “The transhumanist declaration“. Hämtat 2006-04-03.
  22. ^ World Transhumanist Association (2002–2005). “The transhumanist FAQ“. Hämtat 2006-08-27.
  23. ^ Sandberg, Anders (undated). “Definitions of Transhumanism“. Hämtat 2006-05-05.
  24. ^ [a b c d e f gHughes, James (2004). Citizen Cyborg: Why Democratic Societies Must Respond to the Redesigned Human of the Future. Westview Press. ISBN 0-8133-4198-1OCLC 56632213
  25. ^ [a b”Humanity: The Remix”.
  26. ^ ”Among the Transhumanists”.
  27. ^ Extropy Institute. “Next Steps“. Hämtat 2006-05-05.
  28. ^ Hook, Christopher (2004). ”Transhumanism and Posthumanism”. Encyclopedia of Bioethics (utgåva 3rd). New York: Macmillan. sid. 2517–2520. ISBN 0028657748OCLC 52622160
  29. ^ ”Are Humans Obsolete?”.
  30. ^ Coenen, Christopher (2007). ”Utopian Aspects of the Debate on Converging Technologies”. Assessing Societal Implications of Converging Technological Development (utgåva 1st). Berlin: edition sigma. sid. 141–172. ISBN 978-3-89404-941-6OCLC 198816396
  31. ^ Miah, Andy. “Posthumanism: A Critical History“. Hämtat 2006-02-21.
  32. ^ ”Why I Want to be a Posthuman When I Grow Up”.
  33. ^ ”Theorizing Posthumanism”.
  34. ^ [a bHayles, N. Katherine (1999). How We Became Posthuman: Virtual Bodies in Cybernetics, Literature, and Informatics. University Of Chicago Press.ISBN 0226321460OCLC 186409073
  35. ^ ”Transhumanism: The Next Step?”.
  36. ^ Winner, Langdon. ”Resistance is Futile: The Posthuman Condition and Its Advocates”. The Future of Human Nature. Massachusetts Institute of Technology: M.I.T. Press. sid. 385–411. ISBN 0-262-524287-7
  37. ^ [a b cKurzweil, Raymond (2005). The Singularity Is Near: When Humans Transcend Biology. Viking Adult. ISBN 0-670-03384-7OCLC 224517172
  38. ^ [a bBostrom, Nick. “Existential risks: analyzing human extinction scenarios“. Hämtat 2006-02-21.
  39. ^ Bostrom, NickSandberg, Anders. “The Wisdom of Nature: An Evolutionary Heuristic for Human Enhancement“. Hämtat 2007-09-18.
  40. ^ [a bHughes, James. “The politics of transhumanism“. Hämtat 2006-02-26.
  41. ^ World Transhumanist Association (2002–2005). “What currents are there within transhumanism?“. Hämtat 2007-11-03.
  42. ^ ”Abolitionism”.
  43. ^ [a b] Hughes, James. “Democratic Transhumanism 2.0“. Hämtat 2007-01-26.
  44. ^ [a b”Immortality Institute”.
  45. ^ George Dvorksy. “Postgenderism: Beyond the Gender Binary“. Hämtat 2008-04-13.
  46. ^ [a b] Hughes, James. “Technologies of Self-perfection: What would the Buddha do with nanotechnology and psychopharmaceuticals?“. Hämtat 2007-02-21.
  47. ^ Ledford, James MacLean. “Prepare for HyperEvolution with Christian Transhumanism“. Hämtat 2007-02-05.
  48. ^ ”Mormon Transhumanist Association”.
  49. ^ Raël (2002). Oui au clonage humain: La vie éternelle grâce à la science. Quebecor. ISBN 1903571057OCLC 226022543
  50. ^ [a b] Glenn, Linda MacDonald. “Biotechnology at the margins of personhood: an evolving legal paradigm“. Hämtat 2006-03-03.
  51. ^ Sandberg, Anders. “Uploading“. Hämtat 2006-03-04.
  52. ^ Tipler, Frank J. (1994). The Physics of Immortality. Doubleday. ISBN 0-19-282147-4OCLC 16830384
  53. ^ Dupuy, Jean-Pierre. “The Philosophical Foundations of Nanoethics“. Hämtat 2006-12-05.
  54. ^ Pauls, David. “Transhumanism: 2000 Years in the Making“. Hämtat 2006-12-05.
  55. ^ [a b] Giesen, Klaus-Gerd. “Transhumanisme et génétique humaine“. Hämtat 2006-04-26.
  56. ^ Davis, Erik (1999). TechGnosis: Myth, Magic, and Mysticism in the Age of Information. Three Rivers Press. ISBN 0-609-80474-XOCLC 42925424
  57. ^ Campbell, Heidi; Walker, Mark Alan. “Religion and transhumanism: introducing a conversation“. Hämtat 2006-03-21.
  58. ^ ”TransVision 2004: Faith, Transhumanism and Hope Symposium”.
  59. ^ Bainbridge, William Sims. “The Transhuman Heresy“. Hämtat 2008-01-02.
  60. ^ Walker, Mark Alan. “Prolegomena to any future philosophy“. Hämtat 2006-03-02.
  61. ^ Kurzweil, Raymond (1993). The 10% Solution for a Healthy Life. Three Rivers Press
  62. ^ Kurzweil, Raymond (2004). Fantastic Voyage: Live Long Enough to Live Forever. Viking Adult. ISBN 1-57954-954-3OCLC 56011093
  63. ^ Naam, Ramez (2005). More Than Human: Embracing the Promise of Biological Enhancement. Broadway Books. ISBN 0-7679-1843-6OCLC55878008
  64. ^ Sandberg, Anders. “Morphological freedom — why we not just want it, but need it“. Hämtat 2006-02-21.
  65. ^ Roco, Mihail C. and Bainbridge, William Sims, eds. (2004). Converging Technologies for Improving Human Performance. Springer. ISBN 1402012543.OCLC 52058285
  66. ^ The Royal Society & The Royal Academy of Engineering. “Nanoscience and nanotechnologies (Ch. 6)“. Hämtat 2006-12-05.
  67. ^ European Parliament. “Technology Assessment on Converging Technologies“. Hämtat 2006-12-06.
  68. ^ Browaeys, Dorothée Benoit. “Les transhumains s’emparent des nanotechs“. Hämtat 2006-12-06.
  69. ^ Moreno, Jonathan D. (2006). Mind Wars: Brain Research and National Defense. Dana Press. ISBN 10-1932594167
  70. ^ Wilson, Cintra. “Droid Rage“. Hämtat 2008-01-11.
  71. ^ O’Bryan, C. Jill (2005). Carnal Art:Orlan’s Refacing. University of Minnesota Press. ISBN 0-8166-4322-9OCLC 56755659
  72. ^ Smith, Simon. “Looking at the Man in the Mirror“. Hämtat 2007-01-31.
  73. ^ Stelarc. “NeMe: From Zombie To Cyborg Bodies — Extra Ear, Exoskeleton and Avatars“. Hämtat 2007-02-01.
  74. ^ Garreau, Joel (2006). Radical Evolution: The Promise and Peril of Enhancing Our Minds, Our Bodies — and What It Means to Be Human. Broadway.ISBN 0767915038OCLC 68624303
  75. ^ Dublin, Max (1992). Futurehype: The Tyranny of Prophecy. Plume. ISBN 0-452-26800-1OCLC 236056666
  76. ^ Kelly, Kevin. “The Maes-Garreau Point“. Hämtat 2008-05-15.
  77. ^ [a b cStock, Gregory (2002). Redesigning Humans: Choosing our Genes, Changing our Future. Mariner Books. ISBN 0-618-34083-1OCLC51756081
  78. ^ Seidensticker, Bob (2006). Futurehype: The Myths of Technology Change. Berrett-Koehler. ISBN 1576753700OCLC 184967241
  79. ^ Broderick, Damien (1997). The Spike. Tom Doherty Associates. ISBN 0-312-87781-1OCLC 45093893
  80. ^ International Theological Commission. “Communion and stewardship: human persons created in the image of God“. Hämtat 2006-04-01.
  81. ^ Mitchell, Ben C. & Kilner, John F.. “Remaking Humans: The New Utopians Versus a Truly Human Future“. Hämtat 2006-12-05.
  82. ^ Barratt, Helen. “Transhumanism“. Hämtat 2006-12-05.
  83. ^ Rifkin, Jeremy (1983). Algeny: A New Word–A New World. Viking Adult. ISBN 0-670-10885-5
  84. ^ [a bNewman, Stuart A. (2003). ”Averting the clone age: prospects and perils of human developmental manipulation”. J. Contemp. Health Law & Policy19: ss. 431. Läst 17 september 2008.
  85. ^ Smolensky, Kirsten Rabe. “Parental liability for germline genetic enhancement: to be or not to be? (Public address, Stanford University)“. Hämtat 2006-06-18.
  86. ^ Cole-Turner, Ronald (1993). The New Genesis: Theology and the Genetic Revolution. Westminster John Knox Press. ISBN 0-664-25406-3OCLC26402489
  87. ^ Peters, Ted (1997). Playing God?: Genetic Determinism and Human Freedom. Routledge. ISBN 0-415-91522-8OCLC 35192269
  88. ^ Midgley, Mary (1992). Science as Salvation. Routledge. ISBN 0-415-06271-3OCLC 181929611
  89. ^ Dvorsky, George. “Aronofsky’s pro-death Fountain“. Hämtat 2007-01-23.
  90. ^ Bordo, Susan (1993). Unbearable Weight: Femininism, Western Culture and the Body. University of California Press. ISBN 0-520-08883-2OCLC27069938
  91. ^ Alexander, Brian (2000). “Don’t die, stay pretty: introducing the ultrahuman makeover“. Hämtat 2007-01-08.
  92. ^ [a bMcKibben, Bill (2003). Enough: Staying Human in an Engineered Age. Times Books. ISBN 0-8050-7096-6OCLC 237794777
  93. ^ Bailey, Ronald. “Enough Already“. Hämtat 2006-05-31.
  94. ^ [a bSilver, Lee M. (1998). Remaking Eden: Cloning and Beyond in a Brave New World. Harper Perennial. ISBN 0-380-79243-5OCLC 40094564
  95. ^ Kass, Leon (May 21, 2001). ”Preventing a Brave New World: why we must ban human cloning now”. The New Republic.
  96. ^ Habermas, Jürgen (2004). The Future of Human Nature. Polity Press. ISBN 0-7456-2987-3OCLC 49395577
  97. ^ Platt, Charles. “Superhumanism“. Hämtat 2006-12-05.
  98. ^ Blackford, Russell. “Who’s afraid of the Brave New World?“. Hämtat 2006-02-08.
  99. ^ Otchet, Amy. “Jeremy Rifkin: fears of a brave new world“. Hämtat 2006-02-20.
  100. ^ Lee, Keekok (1999). The Natural and the Artefactual. Lexington Books. ISBN 0-7391-0061-0OCLC 231842178
  101. ^ [a b] Darnovsky, Marcy. “Health and human rights leaders call for an international ban on species-altering procedures“. Hämtat 2006-02-21.
  102. ^ Bailey, Ronald. “Right-Wing Biological Dread: The Subhumans are coming! The Subhumans are coming!“. URL accessed on January 18, 2007
  103. ^ Black, Edwin (2003). War Against the Weak: Eugenics and America’s Campaign to Create a Master Race. Four Walls Eight Windows. ISBN 1-56858-258-7
  104. ^ Annas, GeorgeAndrews, Lori and Isasi, Rosario (2002). ”Protecting the endangered human: toward an international treaty prohibiting cloning and inheritable alterations”. Am. J. Law & Med. 28: ss. 151.
  105. ^ World Transhumanist Association (2002–2005). “Do transhumanists advocate eugenics?“. Hämtat 2006-04-03.
  106. ^ Buchanan, Allen; Brock, Dan W.; Daniels, Norman; Wikler, Daniel (2000). From Chance to Choice: Genetics and Justice. Cambridge University Press.ISBN 0-521-66977-4OCLC 41211380
  107. ^ Humphrey, Stephen. “No death, please, I’m bionic“. Hämtat 2006-02-21.
  108. ^ Kaczynski, Theodore. “Industrial society and its future“. Hämtat 2006-02-21.
  109. ^ Joy, Bill. “Why the future doesn’t need us“. Hämtat 2005-11-14.
  110. ^ Ian, Walker. “Cyborg Dreams: Beyond Human“. Hämtat 2007-02-02.
  111. ^ Lasn, Kalle (2005–). Changesurfer Radio: Tech for People, not for Corporate Control. Läst 2006-06-12.
  112. ^ Rees, Martin (2003). Our Final Hour: A Scientist’s Warning: How Terror, Error, and Environmental Disaster Threaten Humankind’s Future In This Century—On Earth and Beyond. Basic Books. ISBN 0-465-06862-6OCLC 51315429
  113. ^ Arnall, Alexander Huw. “Future technologies, today’s choices: nanotechnology, artificial intelligence and robotics.” (PDF). Greenpeace U.K. Hämtat 2006-04-29.
  114. ^ Layman, Dale. “Robowatch 2002: Mankind At The Brink“. London Diplomatic Academy. Hämtat 2007-01-23.
  115. ^ Dvorsky, George. “Technophiles and Greens of the World, Unite!“. Hämtat 2007-03-19.

Externa länkar [redigera]

http://sv.wikipedia.org/wiki/Transhumanism



Videos

Famous scientist, inventor, author of Singularity theory Ray Kurzweil about the Global Future 2045 Congress and the “Avatar” project.



Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi, Nya teknologier för människa-maskin-integration, Politik, Civil-Militär-Forskning

VINNOVA 100 miljoner kronor satsas på banbrytande informations- och kommunikationsteknik

Pressmeddelande, 2008-04-18

I en ny VINNOVA-satsning finansieras tio banbrytande tekniska lösningar inom informations- och kommunikationsteknologi med 100 miljoner kronor. Projekten handlar bland annat om optisk kommunikation, avancerad multimediateknik för vårdsektorn och trådlösa sensornätverk.

Satsningen ”Banbrytande IKT” finansierar utvecklingen av banbrytande tekniska resultat inom inbyggda system, programvara och hårdvara. På sikt ska projekten ge framgångsrika kommersiella lösningar för den svenska systemindustrin. Sammanlagt finansieras tio projekt med 100 miljoner kronor under 2008-2010.

- Projekten som vi nu satsar på spänner över viktiga områden där svensk industri traditionellt har varit stark men där vi i fortsättningen behöver bli ännu starkare för att vara internationellt konkurrenskraftiga, säger Jonas Wallberg, enhetschef på VINNOVA.

Urvalet har gjorts i nära samarbete med ett stort antal företrädare från industri och akademi. Totalt ansökte 90 projekt om cirka 800 miljoner kronor.

På KTH finansieras fyra projekt med drygt 37 miljoner kronor. På Chalmers finansieras tre projekt med drygt 34 miljoner kronor. Dessutom finansieras ett projekt på Uppsala universitet med knappt 10 miljoner kronor, ett projekt på Linköpings universitet med 6 miljoner kronor och ett projekt på Acreo i Kista med drygt 12 miljoner kronor.

Finansierade projekt:

Nätverksbaserade inbyggda reglersystem, KTH (10 256 000 kr)
Utveckling av trådlösa nätverksbaserade reglersystem som kan byggas ut till stora komplexa system. Kontakt: Karl Henrik Johansson, KTH.

Kvantkaskadlasrar för telekommunikation, Chalmers (12 465 000 kr)
Utveckling av kvantkaskadlasrar för telekommunikation, med fokus stor ­bandbredd. Kontakt: Thorvald Andersson, Chalmers.

Sökning och analys i realtid av stora mängder strömmande mätdata, Uppsala universitet (9 840 000 kr)
Utveckling av distribuerad mjukvara för storskalig sökning och analys av strömmande data, med fokus på dataflöden från distribuerade och mobila sensorer. Kontakt: Tore Risch, Uppsala universitet.

Avancerade optiska kommunikationsteknologier för access och transport, Chalmers (9 000 000 kr)
Utveckling av nyckelteknologier för optisk kommunikation, med fokus på koherent kommunikation. Kontakt: Magnus Karlsson, Chalmers.

Ultra Låg-Effect Inbyggda Trådlösa System för Medicinsk Telemetri och Televård, Linköpings universitet (6 000 000 kr)
Utveckling av trådlösa implantat för övervakning och diagnos av patienters hälsa, med fokus på låg energiförbrukning. Kontakt: Atila Alvandpour, Linköpings universitet.

Högtemperaturelektroniska system helt i kiselkarbid för elektriska fordon, Acreo (12 060 000 kr)
Utveckling av elektronikkomponenter baserade på kiselkarbid, med fokus på temperaturtålighet. Kontakt: Mietek Bakowski, Acreo.

Funktionshöjande teknik för inbyggda system med tillämpning inom avancerade medicinska processer, KTH (8 730 000)
Utveckling av bland annat mulitmediateknik för nya diagnostikmetoder inom vårdsektorn, till exempel baserat på känsel och mönstermatchning. Kontakt: Kristina Groth, KTH.

Plattform för MMIC baserade THz system, Chalmers (12 900 000 kr)
Utveckling av elektroniska kretsar som kan anpassas till olika tillämpningar, med fokus på frekvenser över 100 GHz. Kontakt: Herbert Zirath, Chalmers.

reSENSE – Ultra-reliable high-throughput wireless sensor networks, KTH (7 747 813 kr)
Utveckling av trådlösa sensornätverk, med fokus på säkerhet och robusthet. Kontakt: Mikael Johansson, KTH.

Elektronisk biomolekylsensor, KTH (10 950 000)
Utveckling av sensorsystem för vårdsektorn, baserade på nanostrukturer. Kontakt: Jan Linnros, KTH.

http://www.vinnova.se/sv/Arkiv/Aldre-pressmeddelanden/2008/2008-04-18-100-miljoner-kronor-satsas-pa-banbrytande-informations–och-kommunikationsteknik/



Videos

The Intelligence explosion part II Karim Jebari Royal Institute of Technology KTH



Wikipedia

Multi-agent system

From Wikipedia, the free encyclopedia

Simple reflex agent

Learning agent

multi-agent system (MAS) is a system composed of multiple interacting intelligent agents within an environment. Multi-agent systems can be used to solve problems that are difficult or impossible for an individual agent or a monolithic system to solve. Intelligence may include some methodicfunctionalprocedural or algorithmic searchfind and processingapproach.

Topics where multi-agent systems research may deliver an appropriate approach include online trading,[1] disaster response,[2] and modelling social structures.[3]

Contents

[hide]

[edit]Concept

Multi-agent systems consist of agents and their environment. Typically multi-agent systems research refers to software agents. However, the agents in a multi-agent system could equally well be robots,[4] humans or human teams. A multi-agent system may contain combined human-agent teams.

Agents can be divided into different types:

  • Very simple like: passive agents[5] or agent without goals (like obstacle, apple or key in any simple simulation)
  • Active agents[5] with simple goals (like birds in flocking, or wolf-sheep in prey-predator model)
  • Or very complex agents (like cognitive agent, which has a lot of complex calculations)

Environment also can be divided into:

  • Virtual Environment
  • Discrete Environment
  • Continues Environment

Agent environments can be organized according to various properties like: accessibility (depending on if it is possible to gather complete information about the environment), determinism (if an action performed in the environment causes a definite effect), dynamics (how many entities influence the environment in the moment), discreteness (whether the number of possible actions in the environment is finite), episodicity (whether agent actions in certain time periods influence other periods)[6], and dimensionality (whether spatial characteristics are important factors of the environment and the agent considers space in its decision making).[7]

[edit]Characteristics

The agents in a multi-agent system have several important characteristics:[8]

  • Autonomy: the agents are at least partially autonomous
  • Local views: no agent has a full global view of the system, or the system is too complex for an agent to make practical use of such knowledge
  • Decentralization: there is no designated controlling agent (or the system is effectively reduced to a monolithic system)[9]

[edit]Self organization and self steering

Multi-agent systems can manifest self-organization as well as self-steering and other control paradigms and related complex behaviors even when the individual strategies of all their agents are simple.

When agents can share knowledge using any agreed language, within the constraints of the system’s communication protocol, the approach may lead to a common improvement. Example languages are Knowledge Query Manipulation Language (KQML) or FIPA’s Agent Communication Language (ACL).

[edit]Systems paradigms

Many MAS systems are implemented in computer simulations, stepping the system through discrete “time steps”. The MAS components communicate typically using a weighted request matrix, e.g.

 Speed-VERY_IMPORTANT: min=45 mph, 
 Path length-MEDIUM_IMPORTANCE: max=60 expectedMax=40, 
 Max-Weight-UNIMPORTANT 
 Contract Priority-REGULAR

and a weighted response matrix, e.g.

 Speed-min:50 but only if weather sunny,  
 Path length:25 for sunny / 46 for rainy
 Contract Priority-REGULAR
 note - ambulance will override this priority and you'll have to wait

A challenge-response-contract scheme is common in MAS systems, where

 First a "Who can?" question is distributed.
 Only the relevant components respond: "I can, at this price".
 Finally, a contract is set up, usually in several more short communication steps between sides,

also considering other components, evolving “contracts”, and the restriction sets of the component algorithms.

Another paradigm commonly used with MAS systems is the pheromone, where components “leave” information for other components “next in line” or “in the vicinity”. These “pheromones” may “evaporate” with time, that is their values may decrease (or increase) with time.

[edit]Properties

MAS systems, also referred to as “self-organized systems”, tend to find the best solution for their problems “without intervention”. There is high similarity here to physical phenomena, such as energy minimizing, where physical objects tend to reach the lowest energy possible, within the physical constrained world. For example: many of the cars entering a metropolis in the morning, will be available for leaving that same metropolis in the evening.

The main feature which is achieved when developing multi-agent systems, if they work, is flexibility, since a multi-agent system can be added to, modified and reconstructed, without the need for detailed rewriting of the application. These systems also tend to be rapidly self-recovering and failure proof, usually due to the heavy redundancy of components and the self managed features, referred to, above.

[edit]The study of multi-agent systems

The study of multi-agent systems is “concerned with the development and analysis of sophisticated AI problem-solving and control architectures for both single-agent and multiple-agent systems.”[10] Topics of research in MAS include:

[edit]Frameworks

While ad hoc multi-agent systems are often created from scratch by researchers and developers, some frameworks have arisen that implement common standards (such as the FIPA agent system platforms and communication languages). These frameworks save developers time and also aid in the standardization of MAS development. One such developmental framework for robotics is given in [12]

See Comparison of agent-based modeling software.

[edit]Applications in the real world

[icon] This section requires expansion.

Multi-agent systems are applied in the real world to graphical applications such as computer games. Agent systems have been used in films.[13] They are also used for coordinated defence systems. Other applications include transportation, logistics[14], graphics, GIS as well as in many other fields. It is widely being advocated for use in networking and mobile technologies, to achieve automatic and dynamic load balancing, high scalability, and self-healing networks.

[edit]See also

[edit]References

  1. ^ Rogers, Alex; David, E.; Schiff, J.; Jennings, N.R. (2007). “The Effects of Proxy Bidding and Minimum Bid Increments within eBay Auctions”ACM Transactions on the Web.
  2. ^ Schurr, Nathan; Marecki, Janusz; Tambe, Milind; Scerri, Paul; Kasinadhuni, Nikhil; Lewis, J.P. (2005) (PDF). The Future of Disaster Response: Humans Working with Multiagent Teams using DEFACTO.
  3. ^ Sun, Ron; Naveh, Isaac. “Simulating Organizational Decision-Making Using a Cognitively Realistic Agent Model”Journal of Artificial Societies and Social Simulation.
  4. ^ Kaminka, G. A. (December 2004). “Robots are Agents, Too!“]. AgentLink News: 16–17.
  5. a b Kubera, Yoann; Mathieu, Philippe; Picault, Sébastien (2010), “Everything can be Agent!” (PDF), Proceedings of the ninth International Joint Conference on Autonomous Agents and Multi-Agent Systems (AAMAS’2010) (Toronto, Canada): 1547-1548
  6. ^ Russell, Stuart J.Norvig, Peter (2003), Artificial Intelligence: A Modern Approach (2nd ed.), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2
  7. ^ Salamon, Tomas (2011). Design of Agent-Based Models. Repin: Bruckner Publishing. p. 22. ISBN 978-80-904661-1-1.
  8. ^ Wooldridge, Michael (2002). An Introduction to MultiAgent SystemsJohn Wiley & Sons. pp. 366. ISBN 0-471-49691-X.
  9. ^ Panait, Liviu; Luke, Sean (2005). “Cooperative Multi-Agent Learning: The State of the Art” (PDF). Autonomous Agents and Multi-Agent Systems 11 (3): 387-434.
  10. ^ “The Multi-Agent Systems Lab”University of Massachusetts Amherst. Retrieved Oct 16, 2009.
  11. ^ Ahmed, S.; Karsiti, M.N. (2007). “A testbed for control schemes using multi agent nonholonomic robots”2007 IEEE International Conference on Electro/Information Technology.DOI:10.1109/EIT.2007.4374547.
  12. ^ Ahmed, Salman; Karsiti, Mohd N.; Agustiawan, Herman (2007). “A development framework for collaborative robots using feedback control”.
  13. ^ “Film showcase”MASSIVE. Retrieved 28 April 2012.
  14. ^ Máhr, T. S.; Srour, J.; De Weerdt, M.; Zuidwijk, R. (2010). “Can agents measure up? A comparative study of an agent-based and on-line optimization approach for a drayage problem with uncertainty”. Transportation Research Part C: Emerging Technologies 18: 99. DOI:10.1016/j.trc.2009.04.018edit

[edit]Further reading

[edit]External links

[hide]

Systems categories
Systems
Theoretical fields
Systems scientists
View page ratings
Rate this page
Trustworthy
Objective
Complete
Well-written

http://en.wikipedia.org/wiki/Multi-agent_system



Videos

The Intelligence explosion part I av Karim Jebari Royal Institute of Technology KTH



Forskning som förändrar Övervakning, Integritet och Autonomi, Wikipedia

The Internet of Things

From Wikipedia, the free encyclopedia

The Internet of Things refers to uniquely identifiable objects (things) and their virtual representations in an Internet-like structure. The term Internet of Things was first used by Kevin Ashton in 1999.[1] The concept of the Internet of Things first became popular through theAuto-ID Center and related market analysts publications.[2] Radio-frequency identification (RFID) is often seen as a prerequisite for the Internet of Things. If all objects of daily life were equipped with radio tags, they could be identified and inventoried by computers.[3][4]However, unique identification of things may be achieved through other means such as barcodes or 2D-codes as well.

With all objects in the world equipped with minuscule identifying devices, daily life on Earth would undergo a transformation.[5][6]Companies would not run out of stock or waste products, as involved parties would know which products are required and consumed.[6]Mislaid and stolen items would be easily tracked and located, as would the people who use them. Your ability to interact with objects could be altered remotely based on your current status and existing user agreements.[3]

Contents

[hide]

[edit]Original definition

Ashton’s original definition was: “Today computers—and, therefore, the Internet—are almost wholly dependent on human beings for information. Nearly all of the roughly 50 petabytes (a petabyte is 1,024 terabytes) of data available on the Internet were first captured and created by human beings—by typing, pressing a record button, taking a digital picture or scanning a bar code. Conventional diagrams of the Internet … leave out the most numerous and important routers of all – people. The problem is, people have limited time, attention and accuracy—all of which means they are not very good at capturing data about things in the real world. And that’s a big deal. We’re physical, and so is our environment … You can’t eat bits, burn them to stay warm or put them in your gas tank. Ideas and information are important, but things matter much more. Yet today’s information technology is so dependent on data originated by people that our computers know more about ideas than things. If we had computers that knew everything there was to know about things—using data they gathered without any help from us—we would be able to track and count everything, and greatly reduce waste, loss and cost. We would know when things needed replacing, repairing or recalling, and whether they were fresh or past their best. The Internet of Things has the potential to change the world, just as the Internet did. Maybe even more so.” [7]

[edit]Alternative definitions

Different definitions for the Internet of Things have appeared and the term is evolving as the technology and implementation of the ideas move forward. Here are several partially overlapping definitions:

CORDIS
an action plan for the European Union to introduce the governance based on the Internet of Things.[8]
Casagras
A global network infrastructure, linking physical and virtual objects through the exploitation of data capture and communication capabilities. This infrastructure includes existing and evolving Internet and network developments. It will offer specific object-identification, sensor and connection capability as the basis for the development of independent cooperative services and applications. These will be characterised by a high degree of autonomous data capture, event transfer, network connectivity and interoperability.[9]
SAP
A world where physical objects are seamlessly integrated into the information network, and where the physical objects can become active participants in business processes. Services are available to interact with these ‘smart objects’ over the Internet, query and change their state and any information associated with them, taking into account security and privacy issues.[10]
ETP EPOSS
The network formed by things/objects having identities, virtual personalities operating in smart spaces using intelligent interfaces to connect and communicate with the users, social and environmental contexts.[11]
CERP-IoT
Internet of Things (IoT) is an integrated part of Future Internet and could be defined as a dynamic global network infrastructure with self configuring capabilities based on standard and interoperable communication protocols where physical and virtual ‘things’ have identities, physical attributes, and virtual personalities and use intelligent interfaces, and are seamlessly integrated into the information network. In the IoT, ‘things’ are expected to become active participants in business, information and social processes where they are enabled to interact and communicate among themselves and with the environment by exchanging data and information ‘sensed’ about the environment, while reacting autonomously to the ‘real/physical world’ events and influencing it by running processes that trigger actions and create services with or without direct human intervention. Interfaces in the form of services facilitate interactions with these ‘smart things’ over the Internet, query and change their state and any information associated with them, taking into account security and privacy issues.[12]
Other
The future Internet of Things links uniquely identifiable things to their virtual representations in the Internet containing or linking to additional information on their identity, status, location or any other business, social or privately relevant information at a financial or non-financial pay-off that exceeds the efforts of information provisioning and offers information access to non-predefined participants. The provided accurate and appropriate information may be accessed in the right quantity and condition, at the right time and place at the right price. The Internet of Things is not synonymous with ubiquitous / pervasive computing, the Internet Protocol (IP), communication technology, embedded devices, its applications, the Internet of People or the Intranet / Extranet of Things, yet it relies on all of these approaches.[13] The association of intelligent virtual representations (e.g.: called avatars and embedded, hosted in the Cloud or centralized) and physical objects are sometimes called “cyberobjects”.[14] Cyberobjects are then considered as autonomous actors of the value chains they are involved in: able to perceive, analyze and react in various contexts; although acting under the guidance of human beings as programmed. Cyberobjects can then be assistants, advisors, decision makers, etc; and can be considered as true Agent (economics), helping to change existing economic or organization models. In such a scenario, the conception of avatars refers to artificial intelligence and Complex system.

[edit]Unique addressability of things

The original idea of the Auto-ID Center is based on RFID-tags and unique identification through the Electronic Product Code.

An alternative view, from the world of the Semantic Web[15] focuses instead on making all things (not just those electronic, smart, or RFID-enabled) addressable by the existing naming protocols, such as URI. The objects themselves do not converse, but they may now be referred to by other agents, such as powerful centralized servers acting for their human owners.

The next generation of Internet applications using Internet Protocol Version 6 (IPv6) would be able to communicate with devices attached to virtually all human-made objects because of the extremely large address space of the IPv6 protocol. This system would therefore be able to identify any kind of object.[16]

A combination of these ideas can be found in the current GS1/EPCglobal EPC Information Services[17] (EPCIS) specifications. This system is being used to identify objects in industries ranging from Aerospace to Fast Moving Consumer Products and Transportation Logistics.[18]

[edit]Trends and characteristics

Technology Roadmap: Internet of Things

[edit]Intelligence

Ambient intelligence and autonomous controlare not part of the original concept of the Internet of Things. Ambient intelligence and autonomous control do not necessarily require Internet structures, either. However, there is a shift in research to integrate the concepts of the Internet of Things and autonomous control.[19]In the future the Internet of Things may be a non-deterministic and open network in which auto-organized or intelligent entities (Web servicesSOA components), virtual objects (avatars) will be interoperable and able to act independently (pursuing their own objectives or shared ones) depending on the context, circumstances or environments.

Embedded intelligence[20] presents an “AI-oriented” perspective of IoT, which can be more clearly defined as: leveraging the capacity to collect and analyze the digital traces left by people when interacting with widely deployed smart things to discover the knowledge about human life, environment interaction, as well as social connection/behavior.

[edit]Architecture

The system will likely be an example of event-driven architecture,[21] bottom-up made (based on the context of processes and operations, in real-time) and will consider any subsidiary level. Therefore, model driven and functional approaches will coexist with new ones able to treat exceptions and unusual evolution of processes (Multi-agent systems, B-ADSc, etc.).

In an Internet of Things, the meaning of an event will not necessarily be based on a deterministic or syntactic model but would instead be based on the context of the event itself: this will also be a semantic web.[22] Consequently, it will not necessarily need common standards that would not be able to address every context or use: some actors (services, components, avatars) will accordingly be self-referenced and, if ever needed, adaptive to existing common standards (predicting everything would be no more than defining a “global finality” for everything that is just not possible with any of the current top-down approaches and standardizations).

[edit]Complex system

In semi-open or closed loops (i.e. value chains, whenever a global finality can be settled) it will therefore be considered and studied as aComplex system[14] due to the huge number of different links and interactions between autonomous actors, and its capacity to integrate new actors. At the overall stage (full open loop) it will likely be seen as a chaotic environment (since systems have always finality).

[edit]Size considerations

The Internet of objects would encode 50 to 100 trillion objects, and be able to follow the movement of those objects. Human beings in surveyed urban environments are each surrounded by 1000 to 5000 trackable objects.[23]

[edit]Time considerations

In this Internet of Things, made of billions of parallel and simultaneous events, time will no more be used as a common and linear dimension[24] but will depend on each entity (object, process, information system, etc.). This Internet of Things will be accordingly based on massive parallel IT systems (Parallel computing).

[edit]Space considerations

In an Internet of Things, the precise geographic location of a thing—and also the precise geographic dimensions of a thing—will be critical.[25] Currently, the Internet has been primarily used to manage information processed by people. Therefore, facts about a thing, such as its location in time and space, have been less critical to track because the person processing the information can decide whether or not that information was important to the action being taken, and if so, add the missing information (or decide to not take the action). (Note that some things in the Internet of Things will be sensors, and sensor location is usually important.[26]) The GeoWeb andDigital Earth are promising applications that become possible when things can become organized and connected by location. However, challenges that remain include the constraints of variable spatial scales, the need to handle massive amounts of data, and an indexing for fast search and neighbour operations. If in the Internet of Things, things are able to take actions on their own initiative, this human-centric mediation role is eliminated, and the time-space context that we as humans take for granted must be given a central role in this information ecosystem. Just as standards play a key role in the Internet and the Web, geospatial standards will play a key role in the Internet of Things.

[edit]Sub systems

Not all elements in an Internet of Things will necessarily run in a global space. Think, for instance, of domotics running inside a Smart House. While the same technologies are used as elsewhere, the system might only be running on and available via a local network.

[edit]Frameworks

Internet of Things frameworks might help support the interaction between “things” and allow for more complex structures like Distributed computing and the development of Distributed applications. Currently, Internet of Things frameworks seem to focus on real time data logging solutions like Pachube: offering some basis to work with many “things” and have them interact. Future developments might lead to specific Software development environments to create the software to work with the hardware used in the Internet of Things.

[edit]Applications

Alcatel-Lucent touchatag[27] service and Violet’s Mirror gadget provide a pragmatic consumer oriented approach to the Internet of Things by which a developer can link real world items to the online world using RFID tags and QR Codes. The Connected Home offering ofAlertMe[28] is based on ultra-low-power ZigBee-enabled devices scattered around the home, which are turned into internet devices via the proxy of a home gateway. Arrayent, Inc.[29] is a B2B company, internet-connecting consumer products (i.e. thermostats, security systems, toys, healthcare products) to smartphones, tablets, and web browsers. Pachube,[30] built by Connected Environments Ltd,[31]provides data management infrastructure for sensors, devices and environments, and describes itself as “a convenient, secure & scalable platform that helps you connect to & build the ‘internet of things’”. Nimbits,[32] is an open source data historian server built on cloud computing architecture that provides connectivity between devices using data points.[33]. Paraimpu,[34] is a social tool with the aim to allow people to connect, use, share and compose Things, services and devices to create personalized applications in the field of the Internet of Things.

MISOLIMA developed its Digital One Line Link or DOLLx8 Embedded Network system since 1991, where version 3.18 (as of 2011) is designed to address more than 28 trillion IoT objects. DOLLx8 for IoT are now due to be implemented into world first MISOLIMA eco-house system based on IoT as base technology where home, office, vehicle, alarm systems, sensors, controls and devices are all integrated into one single system.[35]

[edit]See also

[edit]References

  1. ^ Kevin Ashton: That ‘Internet of Things’ Thing. In: RFID Journal, 22 July 2009. Abgerufen am 8 April 2011.
  2. ^ Analyst Geoff Johnson interviewed by Sue Bushell inComputerworld, on July 24, 2000 (“M-commerce key to ubiquitous internet”)
  3. a b P. Magrassi, T. Berg, A World of Smart Objects, Gartner research report R-17-2243, 12 August 2002 [1]
  4. ^ Commission of the European Communities (2009-06-18).“Internet of Things — An action plan for Europe” (PDF). COM(2009) 278 final.
  5. ^ P. Magrassi, A. Panarella, N. Deighton, G. Johnson,Computers to Acquire Control of the Physical World, Gartner research report T-14-0301, 28 September 2001
  6. a b Casaleggio Associati The Evolution of Internet of Things2011
  7. ^ Kevin Ashton: That ‘Internet of Things’ Thing. In: RFID Journal, 22 July 2009. Abgerufen am 8 April 2011.
  8. ^http://ec.europa.eu/information_society/policy/rfid/documents/commiot2009.pdf
  9. ^ “Casagras IOT Definition”. Casagras. Retrieved 2011-03-18.
  10. ^ “SAP IOT Definition”. SAP Research. Retrieved 2011-03-18.
  11. ^ “ETP EPOSS IOT Definition”. ETP EPOSS. Retrieved 2011-03-18.
  12. ^ “Internet of Things Strategic Research Roadmap”. CERP-IoT. Retrieved 2011-04-28.
  13. ^ Uckelmann, DieterHarrisson, MarkMichahelles, Florian, eds. (2011). “An Architectural Approach Towards the Future Internet of Things”Architecting the Internet of Things. Berlin, Germany: Springer. p. 8. DOI:10.1007/978-3-642-19157-2ISBN 978-3-642-19156-5. Retrieved 2011-04-28.
  14. a b Gautier, Philippe; Gonzalez, Laurent (2011). L’Internet des Objets… Internet, mais en mieux. foreword by Gérald Santucci (European commission), postword by Daniel Kaplan (FING) and Michel Volle. Paris: AFNOR editions. ISBN 978-2-12-465316-4.
  15. ^ Dan Brickley et al., c. 2001
  16. ^ Waldner, Jean-Baptiste (2008). Nanocomputers and Swarm Intelligence. London: [[ISTE (publisher)|]]. pp. p227-p231.ISBN 1-84704-002-0.
  17. ^ http://www.gs1.org/gsmp/kc/epcglobal/epcis
  18. ^ Miles, Stephen B. (2011). RFID Technology and Applications. London: Cambridge University Press. pp. 6–8. ISBN 978-0-521-16961-5.
  19. ^ Uckelmann, Dieter; Isenberg, Marc-André; Teucke, Michael;Halfar, HarryScholz-Reiter, Bernd (2010). “An integrative approach on Autonomous Control and the Internet of Things”. In Ranasinghe, DamithSheng, QuanZeadally, SheraliUnique Radio Innovation for the 21st Century: Building Scalable and Global RFID Networks. Berlin, Germany: Springer. pp. 163–181. ISBN 978-3-642-03461-9. Retrieved 2011-04-28.
  20. ^ “Living with Internet of Things, The Emergence of Embedded Intelligence (CPSCom-11)”. Bin Guo. Retrieved 2011-09-06.
  21. ^ Philippe GAUTIER, « RFID et acquisition de données évènementielles : retours d’expérience chez Bénédicta », pages 94 à 96, Systèmes d’Information et Management – revue trimestrielle N°2 Vol. 12, 2007, ISSN 1260-4984 / ISBN 978-2-7472-1290-8, éditions ESKA. [2]
  22. ^ “3 questions to Philippe GAUTIER, by David Fayon, march 2010″
  23. ^ Waldner, Jean-Baptiste (2007). Nanoinformatique et intelligence ambiante. Inventer l’Ordinateur du XXIeme Siècle. London: Hermes Science. pp. p254. ISBN 2-7462-1516-0.
  24. ^ Janusz Bucki, “L’organisation et le temps” (in French)
  25. ^ Open Geospatial Consortium, “OGC® Abstract Specification”
  26. ^ Mike Botts et al, “OGC® Sensor Web Enablement: Overview And High Level Architecture”
  27. ^ “Home”. touchatag. Retrieved 2011-03-18.
  28. ^ “The Smart Home”. alertme. Retrieved 2011-09-14.
  29. ^ “Low Cost Gateway-Arrayent”. Arrayent.com. 2010-01-26. Retrieved 2011-03-18.
  30. ^ “data infrastructure for the Internet of Things”. Pachube. Retrieved 2011-03-18.
  31. ^ “Connected Environments Ltd”. Connectedenvironments.com. Retrieved 2011-03-18.
  32. ^ “free, social and open source internet of things.”. Nimbits. Retrieved 2012-05-10.
  33. ^ “Top 10 Internet of Things Developments of 2010″. Readwriteweb.com. 2010-12-15. Retrieved 2011-03-18.
  34. ^ “Paraimpu, a social tool for the Web of Things.”. Paraimpu. Retrieved 2012-05-28.
  35. ^ Anne Selene (March 2011). “The first Thai-developed digital embedded network is here”Home Technology Ezine.

[edit]Further reading

[edit]External links

[hide]

Concepts
Technologies
Platforms
Applications
Pioneers
Other


Hjärninspirerade datorer, Wikipedia

Fast Analog Computing with Emergent Transient States (FACETS)

From Wikipedia, the free encyclopedia

Fast Analog Computing with Emergent Transient States or FACETS is a European project to research the properties of the human brain. Established and funded by the European Union in September 2005, the five-year project involves approximately 80 scientists from Austria, France, Germany, Hungary, Sweden, Switzerland and the United Kingdom.

The main project goal is to address questions about how the brain computes. Another objective is to create microchip hardware equaling approximately 200,000 neurons with 50 million synapses on a single silicon wafer. Current prototypes are running 100,000 times faster than their biological counterparts, which would make them the fastest analog computing devices ever built for neuronal computations.

The institutions involved are the University of Heidelberg, the French National Centre for Scientific Research (CNRS) of Gif sur Yvette, the CNRS of Marseille, the Institut national de recherche en informatique et en automatique, the University of Freiburg, the University of Graz, the École Polytechnique Fédérale de Lausanne, the Swedish Royal Institute of Technology, the University of London, theUniversity of Plymouth, the University of Bordeaux, the University of Debrecen, the University of Dresden and the Institute for Theoretical Computer Science at Technische Universitat Graz.

FACETS website

A quick introduction into the computer paradigm

Read full article Wikipedia



Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi, Hjärninspirerade datorer

Stockolm Brain Institute, Datorn avslöjar hjärnans inre

2012-01-30 12:57

Datorn avslöjar hjärnans inre

Därmed är det möjligt att förstå exempelvis medvetandet, liksom drömmar och hur vi kan minnas dem, säger Anders Lansner, som är professor i datalogi och beräkningsbiologi på KTH.

Av Martin Wallström

Rädsla, minne och smärta är områden som forskarna kartlägger i allt snabbare takt. Om 15 år är datorerna kraftfulla nog att simulera en mänsklig hjärna.

Datorkraften blir allt oftare den begränsande resursen vid hjärnforskning, enligt professor Martin Ingvar.
Allt kraftfullare superdatorer med magnetkameror och simuleringsmodeller ökar förståelsen för hur hjärnan fungerar. Hjärnforskarna jobbar febrilt med att lokalisera funktioner som smärta, minne, känslor och medvetande till olika hjärnstrukturer.

Snabbt ökande datorkraft gör det möjligt att simulera hjärnan, samtidigt som magnetresonans- och petkameror i allt högre utsträckning avslöjar hjärnans hittills dolda hemligheter.

– Än så länge skrapar vi bara på ytan. Men tack vare ökande bearbetningskraft och allt högre upplösning i kamerorna lär vi oss allt mer om hur hjärnan fungerar, säger hjärnforskaren Martin Ingvar, professor i integrativ medicin på Karolinska institutet.

Rädsla, minne och smärta är några heta forskningsområden och där är den del av hjärnan som kallas amygdala involverad.

– För första gången kan vi exempelvis beskriva amygdalas funktion i rädsla och hur individer utvecklar fobier. Det sker genom att vi kombinerar en modell som både bygger på kamerastudier och med simuleringar av hur känslor aktiveras i hjärnan, säger Martin Ingvar.

Med kombinationen av kameror och avancerade bearbetningar går det att få förståelse för hur hjärnan faktiskt fungerar där det förr i tiden bara fanns teoretiska modeller.

– Genom modellerna kan vi få en grundläggande insikt i vilken typ av nervceller som är inblandade i inlärning och fobier, säger Martin Ingvar.

Via kamerabilder som bearbetas i snabba datorer går det att kartlägga hur rädsla aktiveras via trådar till och från amygdala och att börja förstå hur mekanismerna bakom smärta ser ut.

Superdatorerna används till beräkningar och bildhantering, vilka båda kräver växande datorresurser. Med hjälp av simulering har man även börjat förstå kopplingen mellan arbetsminne, alltså det vi minns medvetet med, och långtidsminnet.

– Därmed är det möjligt att förstå exempelvis medvetandet, liksom drömmar och hur vi kan minnas dem, säger Anders Lansner, som är professor i datalogi och beräkningsbiologi på KTH.

Trenden är tydlig och går mot att hjärnforskningen kräver mer datorkraft. Antingen så måste problemen förenklas, eller så måste datorkraften öka väsentligt de kommande åren.

Datorer kan användas för att simulera allt fler aspekter av den mänskliga hjärnan, än så länge i förenklad form. Nyligen genomförde Anders Lansner en simulering på världens kraftfullaste parallella Blue Gene-superdator som ligger i det tyska forskningscentret FZJ i Jülich.

– Med den kunde vi köra ett neuralt minnesnätverk som simulerade en mushjärna vilket krävde att vi använde hela superdatorn samtidigt, säger han.

Den datorkapacitet som behövs för att i realtid simulera ett neuralt nätverk av samma storlek som den mänskliga hjärnan är betydligt större och är möjlig att köra i en superdator inom femton år, spår Anders Lansner.

Stora delar av bearbetningarna körs via en Blue Gene-dator, på Paralledatorcentrum på KTH. Kombinationen av en kraftfull superdator och en pet-kamera var världsunik för några år sedan. Men det var då.

Efter fyra år betraktar forskarna datorn som närmast pensionsfärdig. En tillfällig lösning är att dela datorkraft. Bearbetningskraften hyrs ofta in från exempelvis superdatorcenter som EPFL i Lausanne, IBMs datorcenter i Zürich eller centret i Jülich.

– Datorkraften blir allt oftare den begränsande resursen. Därför kör vi ofta en kombinerad modell, med standardbearbetningar enligt en hyrmodell och jobb med höga krav på flexibilitet och snabbhet i maskinerna på KTH, säger Martin Ingvar.

– Man kan säga att vi tillämpar en molnmodell, som är bra för standardkörningar. Men molnmodellen är betydligt sämre när det gäller spetsforskning, med krav på högflexibla forskningsapplikationer, fortsätter han.

De ökande behoven leder till att nya investeringar måste göras. Det är till stor del en finansieringsfråga och inget är bestämt ännu. Beslutet kan gå i riktning mot att få loss mer Blue Gene-kraft, eller att köpa in nya resurser.

– Just nu är vi inne i en avgörandets tid, så vi kan inte säga hur det blir. Det kan bli aktuellt med en större investering inom ett halvår eller ett år, säger Martin Ingvar.

– Det är inte bara vi utan många forskningsprocesser inom KI behöver allt större datamängder för att fungera. Inte minst med tanke på att ambitionen i EU inom Human Brain Project, ett av EUs flaggskeppsprogram, är att bygga en simulerad hjärnmodell.

Enligt IBMs Tommy Auoja, som även är styrelseledamot i Stockolm Brain Institute, SBI, krävs mer datorkraft om man vill köra mer avancerade modeller.

– Det som slukar de mesta resurserna är de ökande datamängderna för bildhanteringen och allt mer avancerade matematiska beräkningar som behövs för att kunna skapa förståelse för de komplexa system som finns i hjärnan.

Till viss del är det möjligt att att göra framsteg med effektivare körningar, men generellt gäller att ju mer vi lär oss om nervsystemet, desto mer datorkraft behövs för att räkna fram vad som sker, säger han.

Tommy Auoja anser att det behövs en gemensam kraftsamling för att utveckla kompetensen kring att använda den här typen av matematiska metoder. Ett exempel samarbeten som det mellan SBI och KTH och samarbetet med andra datorcenter ute i Europa, för att få tillgång till molnmodeller via andra forskningscenter. Men det behövs inte bara mer datorkraft.

– Framför allt krävs ny kompetens inom optimering av beräkningar och inom uppskalning av de system som genomför beräkningarna, men även för nya typer av molnmodeller för att dela datorresurser.

– Först trodde man att det stora problemet skulle vara att få till stånd den datorkraft som behövdes för att hantera hjärnavbildning. Att genomföra en bearbetning av bildsekvenser kunde ta 12–15 timmar med kraftfulla Linuxkluster.

Bättre algogritmer har minskat den tid som krävs för bildbearbetning till en till två timmar i dagsläget.

– Lösningen på alla problem är inte bara mer datorkraft, utan även smartare algoritmer för att skapa bättre upplösning och kvalitet.

http://itivarden.idg.se/2.2898/1.429479/datorn-avslojar-hjarnans-inre



Wikipedia

Cognitive science

From Wikipedia, the free encyclopedia

Figure illustrating the fields that contributed to the birth of cognitive science, including linguisticsneuroscienceartificial Intelligencephilosophy,anthropology, and psychology. Adapted from Miller, George A (2003). “The cognitive revolution: a historical perspective”. TRENDS in Cognitive Sciences 7.

Part of a series on
Science
Science
Science Portal
Category

Cognitive science is the interdisciplinary scientific study of the mind and its processes. It examines what cognition is, what it does and how it works. It includes research on intelligence and behavior, especially focusing on how information is represented, processed, and transformed (in faculties such as perception, language, memory, reasoning, and emotion) within nervous systems (human or other animal) and machines (e.g. computers). Cognitive science consists of multiple research disciplines, including psychologyartificial intelligencephilosophy,neurosciencelinguisticsanthropologysociology, andeducation.[1] It spans many levels of analysis, from low-level learning and decision mechanisms to high-level logic and planning; from neural circuitry to modular brain organization. The fundamental concept of cognitive science is “that thinking can best be understood in terms of representational structures in the mind and computational procedures that operate on those structures.”[2]

Contents

[hide]

[edit]History

Cognitive science has a pre-history traceable back to ancient Greek philosophical texts (see Plato’s Meno); and certainly must include writers such as DescartesDavid HumeImmanuel KantBenedict de SpinozaNicolas MalebranchePierre CabanisLeibniz and John Locke. However, although these early writers contributed greatly to the philosophical discovery of mind and this would ultimately lead to the development of psychology, they were working with an entirely different set of tools and core concepts than those of the cognitive scientist.

The modern culture of cognitive science can be traced back to the early cyberneticists in the 1930s and 1940s, such as Warren McCulloch and Walter Pitts, who sought to understand the organizing principles of the mind. McCulloch and Pitts developed the first variants of what are now known as artificial neural networks, models of computation inspired by the structure of biological neural networks.

Another precursor was the early development of the theory of computation and the digital computer in the 1940s and 1950s. Alan Turingand John von Neumann were instrumental in these developments. The modern computer, or Von Neumann machine, would play a central role in cognitive science, both as a metaphor for the mind, and as a tool for investigation.

In 1959, Noam Chomsky published a scathing review of B. F. Skinner‘s book Verbal Behavior. At the time, Skinner’s behavioristparadigm dominated psychology: Most psychologists focused on functional relations between stimulus and response, without positing internal representations. Chomsky argued that in order to explain language, we needed a theory like generative grammar, which not only attributed internal representations but characterized their underlying order.

The term cognitive science was coined by Christopher Longuet-Higgins in his 1973 commentary on the Lighthill report, which concerned the then-current state of Artificial Intelligence research.[3] In the same decade, the journal Cognitive Science and the Cognitive Science Society were founded.[4] In 1982, Vassar College became the first institution in the world to grant an undergraduate degree in Cognitive Science.[5]

In the 1970s and early 1980s, much cognitive science research focused on the possibility of artificial intelligence. Researchers such asMarvin Minsky would write computer programs in languages such as LISP to attempt to formally characterize the steps that human beings went through, for instance, in making decisions and solving problems, in the hope of better understanding human thought, and also in the hope of creating artificial minds. This approach is known as “symbolic AI”.

Eventually the limits of the symbolic AI research program became apparent. For instance, it seemed to be unrealistic to comprehensively list human knowledge in a form usable by a symbolic computer program. The late 80s and 90s saw the rise of neural networks and connectionism as a research paradigm. Under this point of view, often attributed to James McClelland and David Rumelhart, the mind could be characterized as a set of complex associations, represented as a layered network. Critics argue that there are some phenomena which are better captured by symbolic models, and that connectionist models are often so complex as to have little explanatory power. Recently symbolic and connectionist models have been combined, making it possible to take advantage of both forms of explanation.[6]

[edit]Principles

[edit]Levels of analysis

A central tenet of cognitive science is that a complete understanding of the mind/brain cannot be attained by studying only a single level. An example would be the problem of remembering a phone number and recalling it later. One approach to understanding this process would be to study behavior through direct observation. A person could be presented with a phone number, asked to recall it after some delay. Then the accuracy of the response could be measured. Another approach would be to study the firings of individual neurons while a person is trying to remember the phone number. Neither of these experiments on their own would fully explain how the process of remembering a phone number works. Even if the technology to map out every neuron in the brain in real-time were available, and it were known when each neuron was firing, it would still be impossible to know how a particular firing of neurons translates into the observed behavior. Thus an understanding of how these two levels relate to each other is needed. The Embodied Mind: Cognitive Science and Human Experience says “the new sciences of the mind need to enlarge their horizon to encompass both lived human experience and the possibilities for transformation inherent in human experience.”[7] This can be provided by a functional level account of the process. Studying a particular phenomenon from multiple levels creates a better understanding of the processes that occur in the brain to give rise to a particular behavior. Marr[8] gave a famous description of three levels of analysis:

  1. the computational theory, specifying the goals of the computation;
  2. representation and algorithm, giving a representation of the input and output and the algorithm which transforms one into the other; and
  3. the hardware implementation, how algorithm and representation may be physically realized.

(See also the entry on functionalism.)

[edit]Interdisciplinary nature

Cognitive science is an interdisciplinary field with contributors from various fields, including psychologyneurosciencelinguistics,philosophy of mindcomputer scienceanthropologysociology, and biology. Cognitive science tends to view the world outside the mind much as other sciences do. Thus it too has an objective, observer-independent existence. The field is usually seen as compatible with the physical sciences, and uses the scientific method as well as simulation or modeling, often comparing the output of models with aspects of human behavior. Some doubt whether there is a unified cognitive science and prefer to speak of the cognitive sciences in plural.[9]

Many, but not all, who consider themselves cognitive scientists have a functionalist view of the mind—the view that mental states are classified functionally, such that any system that performs the proper function for some mental state is considered to be in that mental state. According to some versions of functionalism, even non-human systems, such as other animal species, alien life forms, or advanced computers can, in principle, have mental states.

[edit]Cognitive science: the term

The term “cognitive” in “cognitive science” is “used for any kind of mental operation or structure that can be studied in precise terms” (Lakoff and Johnson, 1999). This conceptualization is very broad, and should not be confused with how “cognitive” is used in some traditions of analytic philosophy, where “cognitive” has to do only with formal rules and truth conditional semantics.

The earliest entries for the word “cognitive” in the OED take it to mean roughly pertaining “to the action or process of knowing”. The first entry, from 1586, shows the word was at one time used in the context of discussions of Platonic theories of knowledge. Most in cognitive science, however, presumably do not believe their field is the study of anything as certain as the knowledge sought by Plato.[citation needed]

[edit]Scope

Cognitive science is a large field, and covers a wide array of topics on cognition. However, it should be recognized that cognitive science is not equally concerned with every topic that might bear on the nature and operation of the mind or intelligence. Social and cultural factors, emotion, consciousness, animal cognitioncomparative and evolutionary approaches are frequently de-emphasized or excluded outright, often based on key philosophical conflicts. Another important mind-related subject that the cognitive sciences tend to avoid is the existence of qualia, with discussions over this issue being sometimes limited to only mentioning qualia as a philosophically open matter. Some within the cognitive science community, however, consider these to be vital topics, and advocate the importance of investigating them.[10]

Below are some of the main topics that cognitive science is concerned with. This is not an exhaustive list, but is meant to cover the wide range of intelligent behaviors. See List of cognitive science topics for a list of various aspects of the field.

[edit]Artificial intelligence

“… One major contribution of AI and cognitive science to psychology has been the information processing model of human thinking in which the metaphor of brain-as-computer is taken quite literally. .” AAAI Web pages.

Artificial intelligence (AI) involves the study of cognitive phenomena in machines. One of the practical goals of AI is to implement aspects of human intelligence in computers. Computers are also widely used as a tool with which to study cognitive phenomena.Computational modeling uses simulations to study how human intelligence may be structured.[11] (See the section on computational modeling in the Research Methods section.)

There is some debate in the field as to whether the mind is best viewed as a huge array of small but individually feeble elements (i.e. neurons), or as a collection of higher-level structures such as symbols, schemas, plans, and rules. The former view uses connectionismto study the mind, whereas the latter emphasizes symbolic computations. One way to view the issue is whether it is possible to accurately simulate a human brain on a computer without accurately simulating the neurons that make up the human brain.

[edit]Attention

Main article: Attention

Attention is the selection of important information. The human mind is bombarded with millions of stimuli and it must have a way of deciding which of this information to process. Attention is sometimes seen as a spotlight, meaning one can only shine the light on a particular set of information. Experiments that support this metaphor include the dichotic listening task (Cherry, 1957) and studies ofinattentional blindness (Mack and Rock, 1998). In the dichotic listening task, subjects are bombarded with two different messages, one in each ear, and told to focus on only one of the messages. At the end of the experiment, when asked about the content of the unattended message, subjects cannot report it.

[edit]Knowledge, and Processing, of Language

well known example of a Phrase structure tree. This is one way of representing human language that shows how different components are organized hierarchically.

The ability to learn and understand language is an extremely complex process. Language is acquired within the first few years of life, and all humans under normal circumstances are able to acquire language proficiently. A major driving force in the theoretical linguistic field is discovering the nature that language must have in the abstract in order to be learned in such a fashion. Some of the driving research questions in studying how the brain itself processes language include: (1) To what extent is linguistic knowledge innate or learned?, (2) Why is it more difficult for adults to acquire a second-language than it is for infants to acquire their first-language?, and (3) How are humans able to understand novel sentences?

The study of language processing ranges from the investigation of the sound patterns of speech to the meaning of words and whole sentences. Linguistics often divides language processing into orthographyphonology and phoneticsmorphologysyntaxsemantics, and pragmatics. Many aspects of language can be studied from each of these components and from their interaction.

The study of language processing in cognitive science is closely tied to the field of linguistics. Linguistics was traditionally studied as a part of the humanities, including studies of history, art and literature. In the last fifty years or so, more and more researchers have studied knowledge and use of language as a cognitive phenomenon, the main problems being how knowledge of language can be acquired and used, and what precisely it consists of. Linguists have found that, while humans form sentences in ways apparently governed by very complex systems, they are remarkably unaware of the rules that govern their own speech. Thus linguists must resort to indirect methods to determine what those rules might be, if indeed rules as such exist. In any event, if speech is indeed governed by rules, they appear to be opaque to any conscious consideration.

[edit]Learning and development

Main articles: Learning and Developmental psychology

Learning and development are the processes by which we acquire knowledge and information over time. Infants are born with little or no knowledge (depending on how knowledge is defined), yet they rapidly acquire the ability to use language, walk, and recognize people and objects. Research in learning and development aims to explain the mechanisms by which these processes might take place.

A major question in the study of cognitive development is the extent to which certain abilities are innate or learned. This is often framed in terms of the nature versus nurture debate. The nativist view emphasizes that certain features are innate to an organism and are determined by its genetic endowment. The empiricist view, on the other hand, emphasizes that certain abilities are learned from the environment. Although clearly both genetic and environmental input is needed for a child to develop normally, considerable debate remains about how genetic information might guide cognitive development. In the area of language acquisition, for example, some (such as Steven Pinker)[12] have argued that specific information containing universal grammatical rules must be contained in the genes, whereas others (such as Jeffrey Elman and colleagues in Rethinking Innateness) have argued that Pinker’s claims are biologically unrealistic. They argue that genes determine the architecture of a learning system, but that specific “facts” about how grammar works can only be learned as a result of experience.

[edit]Memory

Main article: Memory

Memory allows us to store information for later retrieval. Memory is often thought of consisting of both a long-term and short-term store. Long-term memory allows us to store information over prolonged periods (days, weeks, years). We do not yet know the practical limit of long-term memory capacity. Short-term memory allows us to store information over short time scales (seconds or minutes).

Memory is also often grouped into declarative and procedural forms. Declarative memory–grouped into subsets of semantic andepisodic forms of memory–refers to our memory for facts and specific knowledge, specific meanings, and specific experiences (e.g., Who was the first president of the U.S.A.?, or “What did I eat for breakfast four days ago?). Procedural memory allows us to remember actions and motor sequences (e.g. how to ride a bicycle) and is often dubbed implicit knowledge or memory .

Cognitive scientists study memory just as psychologists do, but tend to focus in more on how memory bears on cognitive processes, and the interrelationship between cognition and memory. One example of this could be, what mental processes does a person go through to retrieve a long-lost memory? Or, what differentiates between the cognitive process of recognition (seeing hints of something before remembering it, or memory in context) and recall (retrieving a memory, as in “fill-in-the-blank”)?

[edit]Perception and action

The Necker cube, an example of an optical illusion

An optical illusion. The square A is exactly the same shade of gray as square B. See checker shadow illusion.

Main article: Perception

Perception is the ability to take in information via the senses, and process it in some way. Vision andhearing are two dominant senses that allow us to perceive the environment. Some questions in the study of visual perception, for example, include: (1) How are we able to recognize objects?, (2) Why do we perceive a continuous visual environment, even though we only see small bits of it at any one time? One tool for studying visual perception is by looking at how people process optical illusions. The image on the right of a Necker cube is an example of a bistable percept, that is, the cube can be interpreted as being oriented in two different directions.

The study of haptic (tactile), olfactory, and gustatory stimuli also fall into the domain of perception.

Action is taken to refer to the output of a system. In humans, this is accomplished through motor responses. Spatial planning and movement, speech production, and complex motor movements are all aspects of action.

[edit]Research methods

Many different methodologies are used to study cognitive science. As the field is highly interdisciplinary, research often cuts across multiple areas of study, drawing on research methods from psychologyneurosciencecomputer science and systems theory.

[edit]Behavioral experiments

In order to have a description of what constitutes intelligent behavior, one must study behavior itself. This type of research is closely tied to that in cognitive psychology andpsychophysics. By measuring behavioral responses to different stimuli, one can understand something about how those stimuli are processed. Lewandowski and Strohmetz (2009) review a collection of innovative uses of behavioral measurement in psychology including behavioral traces, behavioral observations, and behavioral choice.[13] Behavioral traces are pieces of evidence that indicate behavior occurred, but the actor is not present (e.g., litter in a parking lot or readings on an electric meter). Behavioral observations involve the direct witnessing of the actor engaging in the behavior (e.g., watching how close a person sits next to another person). Behavioral choices are when a person selects between two or more options (e.g., voting behavior, choice of a punishment for another participant).

  • Reaction time. The time between the presentation of a stimulus and an appropriate response can indicate differences between two cognitive processes, and can indicate some things about their nature. For example, if in a search task the reaction times vary proportionally with the number of elements, then it is evident that this cognitive process of searching involves serial instead of parallel processing.
  • Psychophysical responses. Psychophysical experiments are an old psychological technique, which has been adopted by cognitive psychology. They typically involve making judgments of some physical property, e.g. the loudness of a sound. Correlation of subjective scales between individuals can show cognitive or sensory biases as compared to actual physical measurements. Some examples include:
    • sameness judgments for colors, tones, textures, etc.
    • threshold differences for colors, tones, textures, etc.
  • Eye tracking. This methodology is used to study a variety of cognitive processes, most notably visual perception and language processing. The fixation point of the eyes is linked to an individual’s focus of attention. Thus, by monitoring eye movements, we can study what information is being processed at a given time. Eye tracking allows us to study cognitive processes on extremely short time scales. Eye movements reflect online decision making during a task, and they provide us with some insight into the ways in which those decisions may be processed.

[edit]Brain imaging

Main article: Neuroimaging

Image of the human head with the brain. The arrow indicates the position of thehypothalamus.

Brain imaging involves analyzing activity within the brain while performing various cognitive tasks. This allows us to link behavior and brain function to help understand how information is processed. Different types of imaging techniques vary in their temporal (time-based) and spatial (location-based) resolution. Brain imaging is often used in cognitive neuroscience.

  • Single photon emission computed tomography and Positron emission tomography. SPECT and PET use radioactive isotopes, which are injected into the subject’s bloodstream and taken up by the brain. By observing which areas of the brain take up the radioactive isotope, we can see which areas of the brain are more active than other areas. PET has similar spatial resolution to fMRI, but it has extremely poor temporal resolution.
  • Electroencephalography. EEG measures the electrical fields generated by large populations of neurons in the cortex by placing a series of electrodes on the scalp of the subject. This technique has an extremely high temporal resolution, but a relatively poor spatial resolution.
  • Functional magnetic resonance imaging. fMRI measures the relative amount of oxygenated blood flowing to different parts of the brain. More oxygenated blood in a particular region is assumed to correlate with an increase in neural activity in that part of the brain. This allows us to localize particular functions within different brain regions. fMRI has moderate spatial and temporal resolution.
  • Optical imaging. This technique uses infrared transmitters and receivers to measure the amount of light reflectance by blood near different areas of the brain. Since oxygenated and deoxygenated blood reflects light by different amounts, we can study which areas are more active (i.e., those that have more oxygenated blood). Optical imaging has moderate temporal resolution, but poor spatial resolution. It also has the advantage that it is extremely safe and can be used to study infants’ brains.
  • Magnetoencephalography. MEG measures magnetic fields resulting from cortical activity. It is similar to EEG, except that it has improved spatial resolution since the magnetic fields it measures are not as blurred or attenuated by the scalp, meninges and so forth as the electrical activity measured in EEG is. MEG uses SQUID sensors to detect tiny magnetic fields.

[edit]Computational modeling

A Neural network with two layers.

Computational models require a mathematically and logically formal representation of a problem. Computer models are used in the simulation and experimental verification of different specific and general properties of intelligence. Computational modeling can help us to understand the functional organization of a particular cognitive phenomenon. There are two basic approaches to cognitive modeling. The first is focused on abstract mental functions of an intelligent mind and operates using symbols, and the second, which follows the neural and associative properties of the human brain, is called subsymbolic.

  • Symbolic modeling evolved from the computer science paradigms using the technologies ofKnowledge-based systems, as well as a philosophical perspective, see for example “Good Old-Fashioned Artificial Intelligence” (GOFAI). They are developed by the first cognitive researchers and later used in information engineering for expert systems . Since the early 1990s it was generalized in systemics for the investigation of functional human-like intelligence models, such as personoids, and, in parallel, developed as the SOAR environment. Recently, especially in the context of cognitive decision making, symbolic cognitive modeling is extended to socio-cognitive approach including social and organization cognition interrelated with a sub-symbolic not conscious layer.
  • Subsymbolic modeling includes Connectionist/neural network models. Connectionism relies on the idea that the mind/brain is composed of simple nodes and that the power of the system comes primarily from the existence and manner of connections between the simple nodes. Neural nets are textbook implementations of this approach. Some critics of this approach feel that while these models approach biological reality as a representation of how the system works, they lack explanatory powers because complicated systems of connections with even simple rules are extremely complex and often less interpretable than the system they model.

Other approaches gaining in popularity include the use of Dynamical systems theory and also techniques putting symbolic models and connectionist models into correspondence (Neural-symbolic integration). Bayesian models, often drawn from machine learning, are also gaining popularity.

All the above approaches tend to be generalized to the form of integrated computational models of a synthetic/abstract intelligence, in order to be applied to the explanation and improvement of individual and social/organizational decision-making and reasoning.

[edit]Neurobiological methods

Research methods borrowed directly from neuroscience and neuropsychology can also help us to understand aspects of intelligence. These methods allow us to understand how intelligent behavior is implemented in a physical system.

[edit]Key findings

Cognitive science has much to its credit. Among other accomplishments, it has given rise to models of human cognitive bias and riskperception, and has been influential in the development of behavioral finance, part of economics. It has also given rise to a new theory of the philosophy of mathematics, and many theories of artificial intelligencepersuasion and coercion. It has made its presence firmly known in the philosophy of language and epistemology – a modern revival of rationalism – as well as constituting a substantial wing of modern linguistics. Fields of cognitive science have been influential in understanding the brain’s particular functional systems (and functional deficits) ranging from speech production to auditory processing and visual perception. It has made progress in understanding how damage to particular areas of the brain affect cognition, and it has helped to uncover the root causes and results of specific disfunction, such as dyslexiaanopia, and hemispatial neglect.

[edit]Criticism

In a paper written shortly before his death, B.F. Skinner stated that “cognitive science is the creation science of psychology.”[14]

[edit]Notable researchers

Some of the more recognized names in cognitive science are usually either the most controversial or the most cited. Within philosophy familiar names include Daniel Dennett who writes from a computational systems perspective, John Searle known for his controversialChinese RoomJerry Fodor who advocates functionalism, and Douglas Hofstadter, famous for writing Gödel, Escher, Bach, which questions the nature of words and thought. In the realm of linguistics, Noam Chomsky and George Lakoff have been influential (both have also become notable as political commentators). In Artificial intelligence Marvin MinskyHerbert A. SimonAllen Newell, and Kevin Warwick are prominent. Popular names in the discipline of psychology include James McClelland and Steven Pinker. AnthropologistsDan SperberEdwin HutchinsScott AtranPascal Boyer and Joseph Henrich have been involved in collaborative projects with cognitive and social psychologists, political scientists and evolutionary biologists in attempts to develop general theories of culture formation, religion and political association.

[edit]See also

Wikiversity has learning materials about Cognitive science

[edit]References

  1. ^ Thagard, Paul, Cognitive Science, The Stanford Encyclopedia of Philosophy (Fall 2008 Edition), Edward N. Zalta (ed.).
  2. ^ Thagard, Paul, Cognitive Science, The Stanford Encyclopedia of Philosophy (Fall 2008 Edition), Edward N. Zalta (ed.).
  3. ^ Longuet-Higgins, H. C. (1973). “Comments on the Lighthill Report and the Sutherland Reply”, in Artificial Intelligence: a paper symposium, Science Research Council, 35-37
  4. ^ Cognitive Science Society
  5. ^ http://cogsci.vassar.edu/about/index.html
  6. ^ Artur S. d’Avila Garcez, Luis C. Lamb and Dov M. Gabbay. Neural-Symbolic Cognitive Reasoning. Cognitive Technologies. Springer, 2008, ISBN 978-3-540-73245-7, 2008.
  7. ^ Varela, F. J., Thompson, E., & Rosch, E. (1991). The embodied mind: cognitive science and human experience. Cambridge, Mass.: MIT Press.
  8. ^ Marr, D. (1982). Vision: A Computational Investigation into the Human Representation and Processing of Visual Information. W. H. Freeman.
  9. ^ Miller, G. A. (2003). The cognitive revolution: a historical perspective. Trends in Cognitive Sciences, 7, 141-144.
  10. ^ A number of authors consider the qualia problem to be part of the cognitive science field, e.g. Some philosophical issues in cognitive science: qualia, intentionality, and the mind-body problemQualia: The Hard Problem, and indeed the entire discipline of philosophy as being part of the cog sci field, e.g. What is Cognitive Science?, while other reputable sources that cover both qualia and cog sci do not draw any obvious connection between them, e.g. the Stanford encyclopedia of philosophy (Jan 2008 online edition) does have full-size articles on both qualia and cog sci, but qualia are not even mentioned in the cog sci article while cog sci is not mentioned in the qualia article.
  11. ^ Sun, Ron (ed.) (2008). The Cambridge Handbook of Computational Psychology. Cambridge University Press, New York.
  12. ^ Pinker S., Bloom P. (1990). “Natural language and natural selection”. Behavioral and Brain Sciences 13 (4): 707–784.DOI:10.1017/S0140525X00081061.
  13. ^ Lewandowski, Gary; Strohmetz, David (2009). “Actions can speak as loud as words: Measuring behavior in psychological science”.Social and Personality Psychology Compass 3 (6): 992–1002. DOI:10.1111/j.1751-9004.2009.00229.
  14. ^ B. F. Skinner, “Can Psychology be a Science of Mind?”, American Psychologist, November 1990, page 1209, At the APA Web SiteSuccessfully accessed 29 December 2009

[edit]Further reading

Introductory literature
  • Eckardt, Barbara Von (2003): Cognitive Science: Philosophical Issues. In: Lynn Nadel (Ed.): Encyclopedia of Cognitive Science, Vol. 1, London: Nature Publishing Group, pp. 552–559.
  • Thagard, Paul (2nd, 2005). Mind : Introduction to Cognitive Science. Cambridge, MA: The MIT Press.
General
  • Bechtel, W. et al. Ed. (1999). A Companion to Cognitive Science. Blackwell Companions to Philosophy. Malden, MA: Blackwell Publishers.
  • Gardner, Howard (1987). The Minds New Science: A History of the Cognitive Revolution. New York: Basic Books.
  • Gleitman, Lila R.; Mark Liberman (Eds.) (1995). An Invitation to Cognitive Science, Vol. 1: Language. The MIT Press. ISBN 978-0-262-65044-1.
  • Isac, Daniela; Charles Reiss (2008). I-language: An Introduction to Linguistics as Cognitive Science. Oxford University Press.ISBN 978-0-19-953420-3.
  • Hutto, Daniel D. (2008). Folk Psychological Narratives: The Sociocultural Basis of Understanding Reasons. MIT Press. ISBN 978-0-262-08367-6.
  • Sun, Ron (2008). The Cambridge Handbook of Computational Psychology. Cambridge University Press, New York. ISBN 0-521-85741-4.
Classic texts
Definitions
Miscellaneous
  • Baumgartner, P., et al. Eds. (1995). Speaking Minds: Interviews With Twenty Eminent Cognitive Scientists. Princeton, NJ: Princeton University Press.
  • Damasio, A. R. (1994). Descartes’ Error: Emotion, Reason and the Human Brain. New York: Grosset/Putnam.
  • Gazzaniga, M. S. Ed. (1996). Conversations in the Cognitive Neurosciences. New York: The MIT Press.
  • Hunt, M. (1982). The Universe Within: A New Science Explores the Human Mind. Brighton: The Harvester Press.
  • Lakoff, G and Johnson, M. (1999). Philosophy In The Flesh. New York: Basic Books.
  • Port, Robert F. and vanGelder, Tim (1995). Mind as Motion: Explorations in the Dynamics of Cognition. Cambridge, MA: The MIT Press. ISBN 0-262-16150-8 .
  • Sun, Ron & L. Bookman, (eds.), Computational Architectures Integrating Neural and Symbolic Processes. Kluwer Academic Publishers, Needham, MA. 1994.
  • Thelen, Esther and Smith, Linda B. (1996). A Dynamic Systems Approach to the Development of Cognition and Action. Cambridge, MA: The MIT Press. ISBN 0-262-70059-X .
  • Tsakiridis, George. Evagrius Ponticus and Cognitive Science: A Look at Moral Evil and the Thoughts. Eugene, OR: Pickwick Publications, 2010.
Publications & publishers

[edit]External links

http://en.wikipedia.org/wiki/Cognitive_science



Wikipedia

Cognitive radio

cognitive radio is a transceiver which automatically changes its transmission or reception parameters so wireless communicationsmay have spectrum agility to select available wireless channels opportunistically. This process is also known as dynamic spectrum management. A cognitive radio, as defined by the researchers at Virginia Polytechnic Institute and State University, is “a software defined radio with a cognitive engine brain”.[1]

Contents

[hide]

[edit]Description

In response to the operator’s commands, the cognitive engine is capable of configuring radio-system parameters. These parameters include “waveform, protocol, operating frequency, and networking”.[2] It functions as an autonomous unit in the communications environment, exchanging information about the environment with the networks it accesses and other CRs.[2] A CR “monitors its own performance continuously”, in addition to “reading the radio’s outputs”; it then uses this information to “determine the RF environment, channel conditions, link performance, etc.”, and adjusts the “radio’s settings to deliver the required quality of service subject to an appropriate combination of user requirements, operational limitations, and regulatory constraints”. These processes have been described as “reading the radio’s meters and turning the radio’s knobs”.[1]

[edit]History

The concept of cognitive radio was first proposed by Joseph Mitola III in a seminar at KTH (the Royal Institute of Technology in Stockholm) in 1998 and published in an article by Mitola and Gerald Q. Maguire, Jr. in 1999.[3] It was a novel approach in wireless communications, which Mitola later described as:

The point in which wireless personal digital assistants (PDAs) and the related networks are sufficiently computationally intelligent about radio resources and related computer-to-computer communications to detect user communications needs as a function of use context, and to provide radio resources and wireless services most appropriate to those needs.[4]

Cognitive radio is considered as a goal towards which a software-defined radio platform should evolve: a fully reconfigurable wireless transceiver which automatically adapts its communication parameters to network and user demands.

Regulatory bodies in the world (including the Federal Communications Commission in the United States and Ofcom in the United Kingdom) found that most radio frequency spectrum was inefficiently utilized.[5] Cellular network bands are overloaded in most parts of the world, but other frequency bands (such as military, amateur radio and paging frequencies) are insufficiently utilized. Independent studies performed in some countries confirmed that observation,[6][7][8] and concluded that spectrum utilization depends on time and place. Moreover, fixed spectrum allocation prevents rarely used frequencies (those assigned to specific services) from being used, even when any unlicensed users would not cause noticeable interference to the assigned service. Therefore, regulatory bodies in the world have been considering to allow unlicensed users in licensed bands if they would not cause any interference to licensed users. These initiatives have focused cognitive-radio research on dynamic spectrum access.

The first phone call over a cognitive-radio network was made on Monday, 11 January 2010 in the Centre for Wireless Communications at the University of Oulu using CWC’s cognitive-radio network, CRAMNET (Cognitive Radio Assisted Mobile Ad Hoc Network), which was developed by CWC researchers.[9][10]

[edit]Terminology

Depending on transmission and reception parameters, there are two main types of cognitive radio:

  • Full Cognitive Radio (Mitola radio), in which every possible parameter observable by a wireless node (or network) is considered.[11]
  • Spectrum-Sensing Cognitive Radio, in which only the radio-frequency spectrum is considered.[12]

Other types are dependent on parts of the spectrum available for cognitive radio:

  • Licensed-Band Cognitive Radio, capable of using bands assigned to licensed users (except for unlicensed bands, such as the U-NIIband or the ISM band. The IEEE 802.22 working group is developing a standard for wireless regional area network (WRAN), which will operate on unused television channels.[13][14]
  • Unlicensed-Band Cognitive Radio, which can only utilize unlicensed parts of the radio frequency (RF) spectrum.[citation needed] One such system is described in the IEEE 802.15 Task Group 2 specifications,[15] which focus on the coexistence of IEEE 802.11 andBluetooth.[citation needed]
  • Spectrum mobility: Process by which a cognitive-radio user changes its frequency of operation. Cognitive-radio networks aim to use the spectrum in a dynamic manner by allowing radio terminals to operate in the best available frequency band, maintaining seamless communication requirements during transitions to better spectrum.
  • Spectrum sharing: Provides a fair spectrum-scheduling method; a major challenge to open-spectrum usage. It may be regarded as similar to generic media access control (MAC) problems in existing systems.

[edit]Technology

Although cognitive radio was initially thought of as a software-defined radio extension (full cognitive radio), most research work focuses on spectrum-sensing cognitive radio (particularly in the TV bands). The chief problem in spectrum-sensing cognitive radio is designing high-quality spectrum-sensing devices and algorithms for exchanging spectrum-sensing data between nodes. It has been shown that a simple energy detector cannot guarantee the accurate detection of signal presence,[16] calling for more sophisticated spectrum sensing techniques and requiring information about spectrum sensing to be regularly exchanged between nodes. Increasing the number of cooperating sensing nodes decreases the probability of false detection.[17]

Filling free RF bands adaptively, using OFDMA, is a possible approach. Timo A. Weiss and Friedrich K. Jondral of the University of Karlsruhe proposed a spectrum pooling system,[8] in which free bands (sensed by nodes) were immediately filled by OFDMA subbands. Applications of spectrum-sensing cognitive radio include emergency-network and WLAN higher throughput and transmission-distance extensions. The evolution of cognitive radio toward cognitive networks is underway; the concept of cognitive networks is to intelligently organize a network of cognitive radios.

[edit]Functions

The main functions of cognitive radios are:[18][19]

  • Spectrum sensing: Detecting unused spectrum and sharing it, without harmful interference to other users; an important requirement of the cognitive-radio network to sense empty spectrum. Detecting primary users is the most efficient way to detect empty spectrum. Spectrum-sensing techniques may be grouped into three categories:
  • Transmitter detection: Cognitive radios must have the capability to determine if a signal from a primary transmitter is locally present in a certain spectrum. There are several proposed approaches to transmitter detection:
  • Cooperative detection: Refers to spectrum-sensing methods where information from multiple cognitive-radio users is incorporated for primary-user detection[20]
  • Interference-based detection
  • Power Control: Power control is used for both opportunistic spectrum access and spectrum sharing CR systems for finding the cut-off level in SNR supporting the channel allocation and imposing interference power constraints for the primary user’s protection respectively. In [21] a joint power control and spectrum sensing is proposed for capacity maximization.
  • Spectrum management: Capturing the best available spectrum to meet user communication requirements, while not creating undue interference to other (primary) users. Cognitive radios should decide on the best spectrum band (of all bands available) to meetquality of service requirements; therefore, spectrum-management functions are required for cognitive radios. Spectrum-management functions are classified as:
  • Spectrum analysis
  • Spectrum decision

The practical implementation of spectrum-management functions is a complex and multifaceted issue, since it must address a variety of technical and legal requirements. An example of the former is choosing an appropriate sensing threshold to detect other users, while the latter is exemplified by the need to meet the rules and regulations set out for radio spectrum access in international (ITU radio regulations) and national (telecommunications law) legislation.[22][23]

[edit]Cognitive radio (CR) versus intelligent antenna (IA)

An intelligent antenna (or smart antenna) is an antenna technology that uses spatial beam-formation and spatial coding to cancel interference; however, it requires an intelligent multiple- or cooperative-antenna array. On the other hand, cognitive radio allows user terminals to sense whether a portion of the spectrum is being used to share spectrum with neighbor users. The following table compares the two:

Point Cognitive radio (CR) Intelligent antenna (IA)
Principal goal Open spectrum sharing Ambient spatial reuse
Interference processing Avoidance by spectrum sensing Cancellation by spatial pre/post-coding
Key cost Spectrum sensing and multi-band RF Multiple- or cooperative-antenna arrays
Challenging algorithm Spectrum management tech Intelligent spatial beamforming/coding tech
Applied techniques Cognitive software radio Generalized dirty-paper and Wyner-Ziv coding
Basement approach Orthogonal modulation Cellular based smaller cell
Competitive technology Ultra-wideband for greater band utilization Multi-sectoring (3, 6, 9, so on) for higher spatial reuse
Summary Cognitive spectrum-sharing technology Intelligent spectrum reuse technology

[edit]Applications

CR can sense its environment and, without the intervention of the user, can adapt to the user’s communications needs while conforming to FCC rules in the United States. In theory, the amount of spectrum is infinite; practically, for propagation and other reasons it is finite because of the desirability of certain spectrum portions. Assigned spectrum is far from being fully utilized, and efficient spectrum use is a growing concern; CR offers a solution to this problem. A CR can intelligently detect whether any portion of the spectrum is in use, and can temporarily use it without interfering with the transmissions of other users. According to Bruce Fette, “Some of the radio’s other cognitive abilities include determining its location, sensing spectrum use by neighboring devices, changing frequency, adjusting output power or even altering transmission parameters and characteristics. All of these capabilities, and others yet to be realized, will provide wireless spectrum users with the ability to adapt to real-time spectrum conditions, offering regulators, licenses and the general public flexible, efficient and comprehensive use of the spectrum”.[24]

[edit]Future plans

The success of the unlicensed band in accommodating a range of wireless devices and services has led the FCC to consider opening further bands for unlicensed use. In contrast, the licensed bands are underutilized due to static frequency allocation. Realizing that CR technology has the potential to exploit the inefficiently utilized licensed bands without causing interference to incumbent users, the FCC released a Notice of Proposed Rule Making which would allow unlicensed radios to operate in the TV-broadcast bands. The IEEE 802.22 working group, formed in November 2004, is tasked with defining the air-interface standard for wireless regional area networks (based on CR sensing) for the operation of unlicensed devices in the spectrum allocated to TV service.[25]

[edit]See also

[edit]References

  1. a b home [CWT Cognitive Radios]
  2. a b “Software-Defined Radio. White Paper. A Technology Overview.(2002, August). pp 1–10.”Wipro Technologies.
  3. ^ IEEE Xplore – Login
  4. ^http://www.it.kth.se/~jmitola/Mitola_Dissertation8_Integrated.pdf
  5. ^ IEEE Spectrum: The End of Spectrum Scarcity
  6. ^ Václav Valenta et al., Survey on Spectrum Utilization in Europe: Measurements, Analyses and Observations
  7. ^ IEEE Xplore – Login
  8. a b IEEE Xplore – Login
  9. ^ http://www.cwc.oulu.fi/home/files/news/CRAMNET_1.pdf
  10. ^ http://www.cwc.oulu.fi/home/files/news/CRAMNET_3.pdf
  11. ^ J. Mitola III and G. Q. Maguire, Jr., “Cognitive radio: making software radios more personal,” IEEE Personal Communications Magazine, vol. 6, nr. 4, pp. 13–18, Aug. 1999
  12. ^ S. Haykin, “Cognitive Radio: Brain-empowered Wireless Communications”, IEEE Journal on Selected Areas of Communications, vol. 23, nr. 2, pp. 201–220, Feb. 2005
  13. ^ IEEE 802.22
  14. ^ Carl, Stevenson; G. Chouinard, Zhongding Lei, Wendong Hu, S. Shellhammer & W. Caldwell (2009-01). “IEEE 802.22: The First Cognitive Radio Wireless Regional Area Networks (WRANs) Standard = IEEE Communications Magazine“. IEEE Communications Magazine (US: IEEE47 (1): 130–138.DOI:10.1109/MCOM.2009.4752688.
  15. ^ IEEE 802.15.2
  16. ^http://www.eecs.berkeley.edu/wireless/posters/WFW05_cognitive.pdf
  17. ^ http://ieeexplore.ieee.org/iel5/4234/30631/01413630.pdf?tp=&arnumber=1413630&isnumber=30631
  18. ^ Ian F. Akyildiz, W.-Y. Lee, M. C. Vuran, and S. Mohanty, “NeXt Generation/Dynamic Spectrum Access/Cognitive Radio Wireless Networks: A Survey,” Computer Networks (Elsevier) Journal, September 2006. [1]
  19. ^ Cognitive Functionality in Next Generation Wireless Networks
  20. ^ Z. Li, F.R. Yu, and M. Huang, “A Distributed Consensus-Based Cooperative Spectrum Sensing in Cognitive Radios,” IEEE Trans. Vehicular Technology, vol. 59, no. 1, pp. 383–393, Jan. 2010.
  21. ^ F. Foukalas et. al Joint optimal power allocation and sensing threshold selection for SU’s capacity maximisation in SS CRNS
  22. ^ CEPT Report 159 on technical and operational requirements for Cognitive Radio operation in TV White Spaces
  23. ^ European Research project on spectrum access policies for Cognitive Radio
  24. ^ Dr.Bruce.Fette. (2004, October). Cognitive Radio Shows Great Promise.COTS Journal, [online].pp.1–5. Available:http://www.cotsjournalonline.com/home/article.php?id=100206
  25. ^ Carlos Cordeiro, Kiran Challapali, and Dagnachew Birru. Sai Shankar N. IEEE 802.22: An Introduction to the First Wireless Standard based on Cognitive Radios JOURNAL OF COMMUNICATIONS, VOL. 1, NO. 1, APRIL 2006
  26. ^ Natasha Devroye, Patrick Mitran and V. Tarokh, Limits on Communication in a Cognitive Radio Channel,” IEEE Communications Magazine, pp. 44–49, June 2006.

[edit]External links

http://en.wikipedia.org/wiki/Cognitive_radio



Wikipedia

Artificial consciousness

Artificial consciousness (AC), also known as machine consciousness (MC) or synthetic consciousness, is a field related toartificial intelligence and cognitive robotics whose aim is to define that which would have to be synthesized were consciousness to be found in an engineered artifact (Aleksander 1995).

Neuroscience hypothesizes that consciousness is generated by the interoperation of various parts of the brain, called the neural correlates of consciousness or NCC. Proponents of AC believe it is possible to construct machines (e.g., computer systems) that can emulate this NCC interoperation.

Contents

[hide]

[edit]Philosophical views of artificial consciousness

As there are many designations of consciousness, there are many potential types of AC. In the philosophical literature, perhaps the most common taxonomy of consciousness is into “access” and “phenomenal” variants. Access consciousness concerns those aspects of experience that are amenable to a functional description, while phenomenal consciousness concerns those aspects of experience that seem to defy functional depiction, instead being characterized qualitatively in terms of “raw feels”, “what it is like” orqualia (Block, 1997). Weaker versions of AC only require that functional, “access consciousness” be artificially instantiated. Stronger versions of AC hold that all aspects of consciousness are instantiable in artificial, machine systems.

For example, when the visual cortex of the brain processes neural impulses from the eyes and determines that the image consists of a spherical object in a rectangular box, this is access consciousness and is not philosophically difficult, because such pattern recognitionhas been simulated by computer programs. But how to emulate phenomena such as pain, or anger, or motivation, or attention, or feeling of relevance, or modeling other people’s intentions, or anticipating consequences of alternative actions, or inventing or rediscovering new concepts or tools or procedures without reading about them or being taught?

[edit]The debate over the plausibility of artificial consciousness

There is considerable debate over the plausibility of AC. A view skeptical of AC is held by theorists (e.g., type-identity theorists) who hold that consciousness can only be realized in particular physical systems because consciousness has properties that necessarily depend on physical constitution (Block, 1978; Bickle, 2003). Their skepticism rests on the fact that there are many physical asymmetries between natural, organic systems and artificially constructed (e.g., computer) systems, and it seems reasonable to think these differences would be relevant to the generation of conscious states.

However, other theorists are more sanguine about the plausibility of AC. For some theorists (e.g., functionalists), who define mental states in terms of causal roles, any system that can instantiate the same pattern of causal roles, regardless of physical constitution, will instantiate the same mental states, including consciousness (Putnam, 1967). Along these lines, some theorists (e.g., David Chalmers) have proposed that consciousness can be realized in properly designed and programmed computers.

[edit]Chalmers’ argument for artificial consciousness

One of the most explicit arguments for the plausibility of AC comes from David Chalmers. His proposal, found within his manuscript A Computational Foundation for the Study of Cognition, is roughly that computers perform computations and the right kinds of computations are sufficient for the possession of a conscious mind. In outline, he defends his claim thus: Computers perform computations. Computations can capture other systems’ abstract causal organization. Mental properties are nothing over and above abstract causal organization. Therefore, computers running the right kind of computations will instantiate mental properties.

The most controversial part of Chalmers’ proposal is that mental properties are “organizationally invariant;” i.e., nothing over and above abstract causal organization. His rough argument for which is the following. Mental properties are of two kinds, psychological and phenomenological. Psychological properties, such as belief and perception, are those that are “characterized by their causal role” within an overall causal system. He adverts to the work of Armstrong (1968) and Lewis (1972) in claiming that “[s]ystems with the same causal topology…will share their psychological properties.” Phenomenological properties, on the other hand, are not prima facie definable in terms of their causal roles. Establishing that phenomenological properties are amenable to individuation by causal role therefore requires argument. Chalmers provides his “Dancing Qualia Argument” for this purpose.

Chalmers begins by assuming that agents with identical causal organizations could have different experiences in virtue of having different material constitutions (silicon vs. neurons, e.g.). He then asks us to conceive of changing one agent into the other by the replacement of parts (neural parts replaced by silicon, say) while preserving its causal organization. Ex hypothesi, the experience of the agent under transformation would change (as the parts were replaced), but there would be no change in causal topology and therefore no means whereby the agent could “notice” the shift in experience. To imagine, however, that it makes sense to say an agent could have qualitative changes in experience but be unable to notice changes in experience is absurd. Given the absurdity of the conclusion, Chalmers’ rejects the initial premise that agents with identical causal organization can have different experiences. Thus, by his Dancing Qualia Argument, Chalmers defends his view that phenomenological properties are organizationally invariant.

Critics of AC can object that Chalmers begs the question in assuming that all mental properties are sufficiently captured by abstract causal organization. It remains a contentious proposal. Regardless, it is important for laying a philosophical foundation for the plausibility of AC.

[edit]Ethics of artificial consciousness

If it was certain that a particular machine was conscious its rights would be an ethical issue that would need to be assessed (e.g. what rights it would have under law). For example a conscious computer that was owned and used as a tool or central computer of a building or large machine is a particular ambiguity. Should laws be made for such a case, consciousness would also require a legal definition (for example a machine’s ability to experience pleasure or pain, known as sentience). Because artificial consciousness is still largely a theoretical subject such ethics have not been discussed or developed to a great extent, though it has often been a theme in fiction (see below).

The rules for the 2003 Loebner Prize competition explicitly addressed the question of robot rights:

61. If, in any given year, a publicly available open source Entry entered by the University of Surrey or the Cambridge Center wins the Silver Medal or the Gold Medal, then the Medal and the Cash Award will be awarded to the body responsible for the development of that Entry. If no such body can be identified, or if there is disagreement among two or more claimants, the Medal and the Cash Award will be held in trust until such time as the Entry may legally possess, either in the United States of America or in the venue of the contest, the Cash Award and Gold Medal in its own right.[1]

[edit]Consciousness in digital computers

There are various aspects of consciousness generally deemed necessary for a machine to be artificially conscious. A variety of functions in which consciousness plays a role were suggested by Bernard Baars (Baars 1988) and others. The functions of consciousness suggested by Bernard Baars are Definition and Context Setting, Adaptation and Learning, Editing, Flagging and Debugging, Recruiting and Control, Prioritizing and Access-Control, Decision-making or Executive Function, Analogy-forming Function, Metacognitive and Self-monitoring Function, Autoprogramming and Self-maintenance Function, and Definitional and Context-setting Function. Igor Aleksander suggested 12 principles for Artificial Consciousness (Aleksander 1995) and these are: The Brain is a State Machine, Inner Neuron Partitioning, Conscious and Unconscious States, Perceptual Learning and Memory, Prediction, The Awareness of Self, Representation of Meaning, Learning Utterances, Learning Language, Will, Instinct, and Emotion. The aim of AC is to define whether and how these and other aspects of consciousness can be synthesized in an engineered artifact such as a digital computer. This list is not exhaustive; there are many others not covered.

Awareness

Awareness could be one required aspect, but there are many problems with the exact definition of awareness. The results of the experiments of neuroscanning on monkeys suggest that a process, not only a state or object, activates neurons. Awareness includes creating and testing alternative models of each process based on the information received through the senses or imagined, and is also useful for making predictions. Such modeling needs a lot of flexibility. Such model creating includes modeling of the physical world, modeling of one’s own internal states and processes, and modeling of other conscious entities.

There are at least three types of awareness[2] agency awareness, goal awareness, and sensorimotor awareness, which may also be conscious or not. For example, in agency awareness you may be aware that you performed a certain action yesterday, but are not now conscious of it. In goal awareness you may be aware that you must search for a lost object, but are not now conscious of it. In sensorimotor awareness, you may be aware that your hand is resting on an object, but are not now conscious of it.

Because objects of awareness are often conscious, the distinction between awareness and consciousness is frequently blurred or they are used as synonyms.[3]

Learning

Learning is also considered necessary for AC. By Bernard Baars, conscious experience is needed to represent and adapt to novel and significant events (Baars 1988). By Axel Cleeremans and Luis Jiménez, learning is defined as “a set of philogenetically [sic] advanced adaptation processes that critically depend on an evolved sensitivity to subjective experience so as to enable agents to afford flexible control over their actions in complex, unpredictable environments” (Cleeremans 2001).

Anticipation

The ability to predict (or anticipate) foreseeable events is considered important for AC by Igor Aleksander.[4] The emergentist multiple drafts principle proposed by Daniel Dennett in Consciousness Explained may be useful for prediction: it involves the evaluation and selection of the most appropriate “draft” to fit the current environment. Anticipation includes prediction of consequences of one’s own proposed actions and prediction of consequences of probable actions by other entities.

Relationships between real world states are mirrored in the state structure of a conscious organism enabling the organism to predict events.[5] An artificially conscious machine should be able to anticipate events correctly in order to be ready to respond to them when they occur or to take premptive action to avert anticipated events. The implication here is that the machine needs flexible, real-time components that build spatial, dynamic, statistical, functional, and cause-effect models of the real world and predicted worlds, making it possible to demonstrate that it possesses artificial consciousness in the present and future and not only in the past. In order to do this, a conscious machine should make coherent predictions and contingency plans, not only in worlds with fixed rules like a chess board, but also for novel environments that may change, to be executed only when appropriate to simulate and control the real world.

Subjective experience

Subjective experiences or qualia are widely considered to be the hard problem of consciousness. Indeed, it is held to pose a challenge to physicalism, let alone computationalism. On the other hand, there is a problem with uncertainty principle in physics, which has not made the research in physics impossible.

[edit]Symbolic or hybrid proposals

[edit]Franklin’s Intelligent Distribution Agent

Stan Franklin (1995, 2003) defines an autonomous agent as possessing functional consciousness when it is capable of several of the functions of consciousness as identified by Bernard Baars‘ Global Workspace Theory (Baars 19881997). His brain child IDA (Intelligent Distribution Agent) is a software implementation of GWT, which makes it functionally conscious by definition. IDA’s task is to negotiate new assignments for sailors in the US Navy after they end a tour of duty, by matching each individual’s skills and preferences with the Navy’s needs. IDA interacts with Navy databases and communicates with the sailors via natural language e-mail dialog while obeying a large set of Navy policies. The IDA computational model was developed during 1996–2001 at Stan Franklin’s “Conscious” Software Research Group at the University of Memphis. It “consists of approximately a quarter-million lines of Java code, and almost completely consumes the resources of a 2001 high-end workstation.” It relies heavily on codelets, which are “special purpose, relatively independent, mini-agent[s] typically implemented as a small piece of code running as a separate thread.” In IDA’s top-down architecture, high-level cognitive functions are explicitly modeled (see Franklin 1995 and Franklin 2003 for details). While IDA is functionally conscious by definition, Franklin does “not attribute phenomenal consciousness to his own ‘conscious’ software agent, IDA, in spite of her many human-like behaviours. This in spite of watching several US Navy detailers repeatedly nodding their heads saying ‘Yes, that’s how I do it’ while watching IDA’s internal and external actions as she performs her task.”

[edit]Ron Sun’s cognitive architecture CLARION

CLARION posits a two-level representation that explains the distinction between conscious and unconscious mental processes.

CLARION has been successful in accounting for a variety of psychological data. A number of well-known skill learning tasks have been simulated using CLARION that span the spectrum ranging from simple reactive skills to complex cognitive skills. The tasks include serial reaction time (SRT) tasks, artificial grammar learning (AGL) tasks, process control (PC) tasks, the categorical inference (CI) task, the alphabetical arithmetic (AA) task, and the Tower of Hanoi (TOH) task (Sun 2002). Among them, SRT, AGL, and PC are typical implicit learning tasks, very much relevant to the issue of consciousness as they operationalized the notion of consciousness in the context of psychological experiments.

The simulations using CLARION provide detailed, process-based interpretations of experimental data related to consciousness, in the context of a broadly scoped cognitive architecture and a unified theory of cognition. Such interpretations are important for a precise, process-based understanding of consciousness and other aspects of cognition, leading up to better appreciations of the role of consciousness in human cognition (Sun 1999). CLARION also makes quantitative and qualitative predictions regarding cognition in the areas of memory, learning, motivation, meta-cognition, and so on. These predictions either have been experimentally tested already or are in the process of being tested.

[edit]Ben Goertzel’s OpenCog

Ben Goertzel is pursuing an embodied AGI through the open-source OpenCog project. Current code includes embodied virtual pets capable of learning simple English-language commands, as well as integration with real-world robotics, being done at the robotics lab ofHugo de Garis at Xiamen University.

[edit]Neural network proposals

[edit]Haikonen’s cognitive architecture

Pentti Haikonen (2003) considers classical rule-based computing inadequate for achieving AC: “the brain is definitely not a computer. Thinking is not an execution of programmed strings of commands. The brain is not a numerical calculator either. We do not think by numbers.” Rather than trying to achieve mind and consciousness by identifying and implementing their underlying computational rules, Haikonen proposes “a special cognitive architecture to reproduce the processes of perceptioninner imageryinner speechpain,pleasureemotions and the cognitive functions behind these. This bottom-up architecture would produce higher-level functions by the power of the elementary processing units, the artificial neurons, without algorithms or programs“. Haikonen believes that, when implemented with sufficient complexity, this architecture will develop consciousness, which he considers to be “a style and way of operation, characterized by distributed signal representation, perception process, cross-modality reporting and availability for retrospection.” Haikonen is not alone in this process view of consciousness, or the view that AC will spontaneously emerge inautonomous agents that have a suitable neuro-inspired architecture of complexity; these are shared by many, e.g. Freeman (1999) andCotterill (2003). A low-complexity implementation of the architecture proposed by Haikonen (2003) was reportedly not capable of AC, but did exhibit emotions as expected. See Doan (2009) for a comprehensive introduction to Haikonen’s cognitive architecture.

[edit]Takeno’s self-awareness research

Self-awareness in robots is being investigated by Junichi Takeno [1] at Meiji University in Japan. Takeno is asserting that he has developed a robot capable of discriminating between a self-image in a mirror and any other having an identical image to it [2][3], and this claim has already been reviewed (Takeno, Inaba & Suzuki 2005). Takeno asserts that he first contrived the computational module called a MoNAD, which has a self-aware function, and he then constructed the artificial consciousness system by formulating the relationships between emotions, feelings and reason by connecting the modules in a hierarchy (Igarashi, Takeno 2007). Takeno completed a mirror image cognition experiment using a robot equipped with the MoNAD system. Takeno proposed the Self-Body Theory stating that “humans feel that their own mirror image is closer to themselves than an actual part of themselves.” The most important point in developing artificial consciousness or clarifying human consciousness is the development of a function of self awareness, and he claims that he has demonstrated physical and mathematical evidence for this in his thesis (Takeno 2008 [4]). He also demonstrated that robots can study episodes in memory where the emotions were stimulated and use this experience to take predictive actions to prevent the recurrence of unpleasant emotions (Torigoe, Takeno 2009).

[edit]Aleksander’s impossible mind

Igor Aleksander, emeritus professor of Neural Systems Engineering at Imperial College, has extensively researched artificial neural networks and claims in his book Impossible Minds: My neurons, My Consciousness that the principles for creating a conscious machine already exist but that it would take forty years to train such a machine to understand language.[6] Whether this is true remains to be demonstrated and the basic principle stated in Impossible minds—that the brain is a neural state machine—is open to doubt.[7]

[edit]Testing for artificial consciousness

The most well-known method for testing machine intelligence is the Turing test and it may be seen as an indirect test for consciousness. Another test, inspired by features of biological systems, is ConsScale, and it has been proposed as a means to measure and characterize the cognitive development of artificial creatures.

Yet there is a very serious objection to the plausibility of a test for consciousness. Tests, as such, are third-person procedures in which data is accessible to independent inquirers. However, qualia, or phenomenological consciousness, is an inherently first-person phenomenon. Accordingly, although various systems may display various signs of behavior correlated with functional consciousness, there is no conceivable way in which third-person procedures can have access to first-person phenomenological features. Ultimately, then, a test of strong versions of AC may be impossible.

[edit]Artificial consciousness in literature and movies

[edit]See also

[edit]References

  1. ^ Loebner Prize Contest Official Rules — Version 2.0 The competition was directed by David Hamill and the rules were developed by members of the Robitron Yahoo group.
  2. ^ Joëlle Proust in Neural Correlates of Consciousness, Thomas Metzinger, 2000, MIT, pages 307-324
  3. ^ Christof Koch, The Quest for Consciousness, 2004, page 2 footnote 2
  4. ^ Aleksander 1995
  5. ^ Aleksander 1995
  6. ^ Aleksander I (1996) Impossible Minds: My neurons, My Consciousness, Imperial College Press ISBN 1-86094-036-6
  7. ^ Wilson RJ (1998) review of Impossible Minds. Journal of Consciousness Studies 5(1), 115-6.
  • Ericsson-Zenith, Steven (2010), Explaining Experience In Nature, Sunnyvale, CA: Institute for Advanced Science & Engineering
  • Aleksander, Igor (1995), Artificial Neuroconsciousness: An Update, IWANN, archived from the original on 1997-03-02 BibTexInternet Archive
  • Armstrong, David (1968), A Materialist Theory of Mind, Routledge
  • Arrabales, Raul (2009), “Establishing a Roadmap and Metrics for Conscious Machines Development”Proceedings of the 8th IEEE International Conference on Cognitive Informatics (Hong Kong): 94–101
  • Baars, Bernard (1988), A Cognitive Theory of Consciousness, Cambridge, MA: Cambridge University Press, ISBN 0-521-30133-5
  • Baars, Bernard (1997), In the Theater of Consciousness, New York, NY: Oxford University Press, ISBN 0-19-510265-7
  • Bickle, John (2003), Philosophy and Neuroscience: A Ruthless Reductive Account, New York, NY: Springer-Verlag
  • Block, Ned (1978), “Troubles for Functionalism”, Minnesota Studies in the Philosophy of Science 9: 261-325
  • Block, Ned (1997), On a confusion about a function of consciousness in Block, Flanagan and Guzeldere (eds.) The Nature of Consciousness: Philosophical Debates, MIT Press
  • Chalmers, David (1996), The Conscious Mind, Oxford University Press, ISBN 0-19-510553-2
  • Cotterill, Rodney (2003), “Cyberchild: a Simulation Test-Bed for Consciousness Studies”, in Holland, Owen, Machine Consciousness, Exeter, UK: Imprint Academic
  • Doan, Trung (2009), Pentti Haikonen’s architecture for conscious machines
  • Franklin, Stan (1995), Artificial Minds, Boston, MA: MIT Press, ISBN 0-262-06178-3
  • Franklin, Stan (2003), “IDA: A Conscious Artefact”, in Holland, Owen, Machine Consciousness, Exeter, UK: Imprint Academic
  • Freeman, Walter (1999), How Brains make up their Minds, London, UK: Phoenix, ISBN 0-231-12008-7
  • Haikonen, Pentti (2003), The Cognitive Approach to Conscious Machines, Exeter, UK: Imprint Academic, ISBN 0-907845-42-8
  • Koch, Christof (2004), The Quest for Consciousness: A Neurobiological Approach, Pasadena, CA: Roberts & Company Publishers,ISBN 0-9747077-0-8
  • Lewis, David (1972), “Psychophysical and theoretical identifications”, Australasian Journal of Philosophy 50:249-258
  • Putnam, Hilary (1967), The nature of mental states in Capitan and Merrill (eds.) Art, Mind and Religion, University of Pittsburgh Press
  • Sanz, Ricardo; López, I; Rodríguez, M; Hernández, C (2007), “Principles for consciousness in integrated cognitive control”, Neural Networks 20 (9): 938–946, DOI:10.1016/j.neunet.2007.09.012PMID 17936581
  • Searle, John (2004), Mind: A Brief Introduction, Oxford University Press
  • Sun, Ron (December 1999), “Accounting for the computational basis of consciousness: A connectionist approach”, Consciousness and Cognition 8 (4): 529–565, DOI:10.1006/ccog.1999.0405PMID 10600249
  • Sun, Ron (2001), “Computation, reduction, and teleology of consciousness”, Cognitive Systems Research 1 (4): 241–249,DOI:10.1016/S1389-0417(00)00013-9
  • Takeno, Junichi; Inaba, K; Suzuki, T (June 27–30, 2005), “Experiments and examination of mirror image cognition using a small robot”The 6th IEEE International Symposium on Computational Intelligence in Robotics and Automation (Espoo Finland: CIRA 2005): 493–498, DOI:10.1109/CIRA.2005.1554325ISBN 0-7803-9355-4
  • Cleeremans, Axel (2001), Implicit learning and consciousness

[edit]Further reading

  • Haikonen, Pentti (2004), Conscious Machines and Machine Emotions, presented at Workshop on Models for Machine Consciousness, Antwerp, BE, June 2004.
  • Baars, Bernard J and Stan Franklin. 2003. How conscious experience and working memory interact. Trends in Cognitive Science 7: 166–172.
  • Franklin, S, B J Baars, U Ramamurthy, and Matthew Ventura. 2005. The role of consciousness in memory. Brains, Minds and Media 1: 1–38, pdf.
  • Casti, John L. “The Cambridge Quintet: A Work of Scientific Speculation”, Perseus Books Group , 1998
  • McCarthy, John (1971–1987), Generality in Artificial Intelligence [5]. Stanford University, 1971-1987.
  • Pharoah M.C. (online). Looking to systems theory for a reductive explanation of phenomenal experience and evolutionary foundations for higher order thought Retrieved Dec. 13, 2007.
  • Suzuki T., Inaba K., Takeno, Junichi (2005), Conscious Robot That Distinguishes Between Self and Others and Implements Imitation Behavior, ( Best Paper of IEA/AIE2005), Innovations in Applied Artificial Intelligence, 18th International Conference on Industrial and Engineering Applications of Artificial Intelligence and Expert Systems, pp. 101–110, IEA/AIE 2005, Bari, Italy, June 22–24, 2005.
  • Takeno, Junichi (2006), The Self-Aware Robot -A Response to Reactions to Discovery News- [6], HRI Press, August 2006.
  • Sternberg, Eliezer J. (2007) Are You a Machine? Tha Brain the Mind and What it Means to be Human. Amherst, NY: Prometheus Books.
  • Wikibook on consciousness
  • Site of Steven Ericsson-Zenith’s Explaining Experience in Nature information site.
  • Zagal, J.C., Lipson, H. (2009) “Self-Reflection in Evolutionary Robotics” [7], Proceedings of the Genetic and Evolutionary Computation Conference, pp 2179–2188, GECCO 2009.

[edit]External links

[edit]Open Source Software Projects

http://en.wikipedia.org/wiki/Artificial_consciousness



Wikipedia

Wireless Body area network

Body area network (BAN), wireless body area network (WBAN) or body sensor network (BSN) are terms used to describe the application of wearable computing devices.[1][2][3] This will enable wireless communication between several miniaturized body sensor units (BSU) and a single body central unit (BCU) worn at the human body.[4][5] The development of WBAN technology started around 1995 by considering wireless personal area network (WPAN) technologies for communications on, near and around the human body. Later around 2001, this application of WPAN has been named as body area network (BAN) to represent the communications on, in and near the body only.[6][7] A WBAN system can use WPAN wireless technologies as gateways to reach longer ranges.

http://en.wikipedia.org/wiki/Body_area_network



Wikipedia

Samlad öppen kunskap

I denna kategori kommer vi publicera insamlad nyttig information.



Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi, Nya teknologier för människa-maskin-integration

Linköpings Universitet Funktioner i människokroppen går att styra och mäta på elektronisk väg

25 miljoner till utveckling av bioelektronik

Funktioner i människokroppen går att styra och mäta på elektronisk väg. En forskningsmiljö ledd från Linköpings universitet får nu 25 miljoner kronor från Vinnova för att utveckla organisk bioelektronik där komponenterna är byggda i plastmaterial i stället för kisel.

Miljön omfattar forskargrupper vid tre LiU-institutioner, Karolinska Institutet och Acreo. Tre företag, St Jude Medical, Astra Zeneca och Kratz Medical deltar också i olika projekt. Forskningen inriktas på tillämpningar inom regenerativ medicin, kardiologi och screening av läkemedel.

Forskningsmiljön som leds av Magnus Berggren, professor i organisk elektronik vid LiU, ingår i Vinnova-programmet Innovationer för framtidens hälsa.

http://www.liu.se/forskning/forskningsnyheter/1.253144?l=sv

Åke Hjelm 2011-02-18



Etik och debatt-Nya Teknologier, Forskning som förändrar Övervakning, Integritet och Autonomi

”Omöjlig” radio sänder och tar emot samtidigt

Forskare vid Stanford har utvecklat världens första system som sänder och tar emot radiosignaler på samma kanal – samtidigt.

I dagens kommunikationsradio måste man turas om att prata, och i mobilnäten använder man varsin kanal för att kunna pladdra i munnen på varandra. Nu har en grupp forskare på amerikanska Stanford university utvecklat en radioteknik som gör det möjligt att samtidigt sända och ta emot radiosignaler på en enda kanal.

- Det här ska inte vara möjligt enligt läroboken, säger Philip Levis, som är forskare i datorvetenskap och elektronik på Stanford i ett uttalande.

Problemet är att inkommande signaler dränks av radions utsignaler, som är mycket starkare. Ungefär som att försöka höra en viskning medan man själv gallskriker.

Forskarna löser problemet genom att filtrera bort sändsignalerna, vilket gör det möjligt att detektera svaga inkommande signaler. Tekniken påminner om hur aktiva hörlurar släcker ut buller.

Än så länge har metoden verifierats i labb och kan ses på en video från Stanford.

Där framgår att två sändarantenner placerats på var sin sida om en ensam mottagarantenn. På så vis kan man få signalerna från de båda sändarantennerna att släcka ut varandra vid mottagaren.  Vilken frekvens som används framgår inte, inte heller hur stor bandbredden är.

Nu försöker forskarna kommersialisera tekniken. De ser flera intressanta tillämpningar, exempelvis att öka kapaciteten i dagens wifi-nät eller att bygga helt nya typer av effektiva nätverk.

Av: Charlotta von Schultz

Där framgår att två sändarantenner placerats på var sin sida om en ensam mottagarantenn. På så vis kan man få signalerna från de båda sändarantennerna att släcka ut varandra vid mottagaren.  Vilken frekvens som används framgår inte, inte heller hur stor bandbredden är.

Nu försöker forskarna kommersialisera tekniken. De ser flera intressanta tillämpningar, exempelvis att öka kapaciteten i dagens wifi-nät eller att bygga helt nya typer av effektiva nätverk.

Av: Charlotta von Schultz
Mejla reportern



Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi, Hjärninspirerade datorer

Pressfrukost: The Human Brain Project

[PRESSINBJUDAN 2011-05-09] Hjärnforskare från Karolinska Institutet har nu gått vidare som kandidater till att leda ett så kallat flaggskepp i en ny europeisk storsatsning på neurovetenskaplig forskning. The Human Brain Project är tillsammans med fem andra projekt slutkandidater till EU:s nya flaggskeppsprogram för framtida och framväxande teknologier.

Journalister är välkomna på pressfrukost

  • Medverkande: Projektets samordnare Henry Markram (engelsktalande) och professor Sten Grillner
  • Tid: Torsdag den 12 maj, 2011 kl. 9-10
  • Plats: Hall of Fame, Nobels väg 5, Karolinska Institutet campus Solna

- Den mänskliga hjärnan kan ses som en oändligt kraftfull, energieffektiv, självreparerande och självinstruerande dator. Om vi kan förstå och härma hjärnans sätt att arbeta, kan vi revolutionera såväl IT som läkarvetenskapen och samhället, säger Sten Grillner, professor vid institutionen för neurovetenskap.

Syftet med projektet är att bygga upp simuleringar av hela den mänskliga hjärnan och att skapa de tekniska lösningar som krävs för det. De simuleringar som skapas inom projektet kommer att utgöra grunden för nya diagnostiska instrument och behandlingar av sjukdomar i hjärnan. Med dessa hjärnmodeller hoppas man kunna påskynda förståelsen av orsakerna bakom olika neurologiska sjukdomar och kunna diagnostisera dessa på ett tidigt stadium. Förhoppningen är att hitta nya botemedel mot dessa sjukdomar och minska vårt behov av djurförsök. Sammanfattningsvis kommer The Human Brain Project att leda till dramatiska tekniska framsteg.

The Human Brain Project har partners över hela världen och en projektgrupp som kommer att bestå av Europas främsta neuroforskare, läkare, fysiker, matematiker, dataingenjörer och etiker. Nuvarande konsortium består av 13 universitet och forskningsinstitutioner under ledning av schweiziska École polytechnique fédérale de Lausanne, EPFL.

För ytterligare information, kontakta:

ProfessorSten Grillner

Tel:
08-524 869 00       eller            070-343 99 00
E-post:


Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi

På väg mot hjärnproteser Forskning och framsteg

På väg mot hjärnproteser?

Amerikanska forskare har i laboratorieförsök fått elektronik att ersätta skadade delar av hjärnan.

I experiment med en mushjärna utanför djurkroppen har en forskargrupp iUSA lyckats få en elektronisk krets att fungera som en del av hjärnan. I framtiden siktar man på att hos människor kunna ersätta delar av hjärnan som förstörts av exempelvis stroke.

- Vi har utvecklat ett system som kan läsa signaler från frisk hjärnvävnad, bearbeta uppgifterna och sedan skicka dem vidare till nästa område i hjärnan, säger professor Theodore W. Berger vid University of Southern California, USA.

Systemet består av två delar. En del innehåller mikrosensorer och mikrostimulatorer som kan registrera och skicka ut elektriska signaler till och från hjärnvävnaden.

- Den andra delen är en mikroprocessor som imiterar den skadade delen i hjärnan, det vill säga omformar den elektriska signal som kommer in till en signal som kan skickas vidare, berättar han. Problemlösningen bygger på moderna insikter om hur självorganiserade komplexa system fungerar.

I Sverige känner man till försöken:

- Det finns all anledning att tro att detta går i lås och att det i vissa fall kan skapa möjligheter för någon del i hjärnan som av olika skäl inte har en funktion, säger Martin Ingvar, professor i kognitiv neurofysiologi vid Karolinska institutet i Solna.

Han tror att även om tilllämpningen inte kommer att bli särskilt omfattande, finns klara förhoppningar för en viss grupp patienter.

FÖRFATTARE:

HÅKAN BORGSTRÖM

REDAKTÖR:

LOTTA FREDHOLM



Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi, Nya teknologier för människa-maskin-integration, Politik, Civil-Militär-Forskning

Scientists Warn of Ethical Battle Concerning Military Mind Control March 2012

Scientists Warn of Ethical Battle Concerning Military Mind Control

Advances in neuroscience are closer than ever to becoming a reality, but scientists are warning the military – along with their peers – that with great power comes great responsibility

By JASON KOEBLER

March 20, 2012 RSS Feed Print

A future of brain-controlled tanks, automated attack drones and mind-reading interrogation techniques may arrive sooner than later, but advances in neuroscience that will usher in a new era of combat come with tough ethical implications for both the military and scientists responsible for the technology, according to one of the country’s leading bioethicists.

“Everybody agrees that conflict will be changed as new technologies are coming on,” says Jonathan Moreno, author ofMind Wars: Brain Science and the Military in the 21st Century. “But nobody knows where that technology is going.”

[See pictures of Navy SEALs]

Moreno warns in an essay published in the science journal PLoS Biology Tuesday that the military’s interest in neuroscience advancements “generates a tension in its relationship with science.”

“The goals of national security and the goals of science may conflict. The latter employs rigorous standards of validation in the expansion of knowledge, while the former depends on the most promising deployable solutions for the defense of the nation,” he writes.

Much of neuroscience focuses on returning function to people with traumatic brain injuries, he says. Just as Albert Einstein didn’t know his special theory of relativity could one day be used to create a nuclear weapon, neuroscience researchintended to heal could soon be used to harm.

“Neuroscientists may not consider how their work contributes to warfare,” he adds.

Moreno says there is a fine line between using neuroscience devices to allow an injured person to regain baseline functions and enhancing someone’s body to perform better than their natural body ever could.

“Where one draws that line is not obvious, and how one decides to cross that line is not easy. People will say ‘Why would we want to deny warfighters these advantages?’” he says.

[Mind Control, Biometrics Could Change the World]

Moreno isn’t the only one thinking about this. The Brookings Institution’s Peter Singer writes in his book, Wired for War: The Robotics Revolution and Conflict in the 21st Century, that “‘the Pentagon’s real-world record with things like the aboveground testing of atomic bombs, Agent Orange, and Gulf War syndrome certainly doesn’t inspire the greatest confidence among the first generation of soldiers involved [in brain enhancementresearch.]”

The military, scientists and ethicists are increasingly wondering how neuroscience technology changes the battlefield. The staggering possibilities are further along than many think. There is already development on automated drones that are programmed to make their own decisions about who to kill within the rules of war. Other ideas that are closer-than-you-think to becoming a military reality: Tanks controlled from half a world away, memory erasures that could prevent PTSD, and “brain fingerprinting” that could be used to extract secrets from enemies.Moreno foretold some of these developments when he first published Mind Wars in 2006, but not without trepidation.

“I was afraid I’d be dismissed as a paranoid schizophrenic when I first published the book,” he says. But then a funny thing happened—the Department of Defense and other military groups began holding panels on neurotechnology to determine how and when it should be used. I was surprised how quickly the policy questions moved forward. Questions like: ‘Can we use autonomous attack drones?’ ‘Must there be a human being in the vehicle?’ ‘How much of a payload can it have?’. There are real questions coming up in the international legal community.”

All of those questions will have to be answered sooner than later, Moreno says, along with a host of others. Should soldiers have the right to refuse “experimental” brain implants? Will the military want to use some of this technology before science deems it safe?

“There’s a tremendous tension about this,” he says. “There’s a great feeling of responsibility that we push this stuff out so we’re ahead of our adversaries.”

Read article here

Tags:

science,

brain health,

technology,

military



Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi, Nya teknologier för människa-maskin-integration, Vad är nanoteknik

Nanoteknik och Hjärnimplantat

[PDF]

Nanoteknologi och hjärnimplantat

www.ftf.lth.se/fileadmin/ftf/Course_pages/Faff15/Filer/Nanoteknolog

Filtyp: PDF/Adobe Acrobat - Snabbtitt
1. Nanoteknologi och hjärnimplantat. Nano. Detta prefix, som fått sitt namn från det grekiska ordet nanos, dvärg, har dykt upp allt oftare de senaste åren. Prefixet 

http://www.ftf.lth.se/fileadmin/ftf/Course_pages/Faff15/Filer/Nanoteknologi_och_hjaernimplantat_-__slutvers.pdf

Texten har ingen signatur.  Googla “ftf.lth” taget ifrån dokumentets adress, adressen går till http://www.ftf.lth.se/
Lunds Universitet, Fasta tillståndets fysik.


Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi, Nya teknologier för människa-maskin-integration

Tala telepatiskt. Allt Om Vetenskap 2008

2008-05-06

telepati
Genom att låta en dator analysera hjärnans signaler från talcentrum kan syntetiskt tal nu framställas.

Metoder för att sätta den mänskliga hjärnan i direktkontakt med datorer utvecklas snabbt just nu. Det senaste är en apparat som kan känna av nervimpulser från hjärnan på väg till talorganen, och omvandla signalerna till syntetiskt tal via en dator. Det gör att personer som av olika anledningar inte kan tala naturligt, till exempel på grund av sjukdom eller skada, nu kan göra det via den här tekniken­.
Systemet fungerar genom en krage på halsen som registrerar de signaler som ”tänks” fram och som är på väg till stämbanden. Kragen sänder signalerna vidare trådlöst till en dator­ som lärt sig känna igen signalerna­ för 150 olika ord. Datorn återger sedan orden via syntetiskt­ tal, efter en kort paus för analys.
Precis som i andra modeller­ av sådana här så kallade brain-machine interface, så kräver det en del träning för att det ska gå att tänka fram de rätta signalerna. Det ska enligt konstruktörerna inte heller­ vara några problem att skilja mellan privata tankar, och det som man verkligen vill uttrycka som tal, eftersom det krävs en medveten ansträngning för att få hjärnan att signalera talljudet via halsnerverna.
Företaget Ambient som skapat kragen planerar att lansera en modell som kan uppfatta ett obegränsat antal ord inom ett år. Den ska kunna känna igen talets enskilda ljudkomponenter, fonem­, istället för hela ord.
De tänker sig också att man i framtiden ska kunna skicka instruktioner eller­ meddelanden trådlöst till internet genom att bara tänka fram dem som om de vore tal, till exempel via sin mobiltelefon.
En demonstration av tekniken finns på youtube.

FAKTA

Elektroder i hjärnan eller utanpå huvudet kan fånga upp signaler direkt från nervcellerna. På det viset har man lyckats få personer att styra markörer på en datorskärm, och därmed också andra maskiner, till exempel rullstolar, via datorn. Genom att koppla trådar direkt till motoriskt centrum hoppas bland andra svenska forskare att en patient ska kunna styra en handprotes med enbart sin vilja i framtiden.
Ett enklare sätt att ansluta nervsystemet till elektronik är att koppla på sensorer längre bort från hjärnan, som i fallet med kragen som gör tankar till tal. Redan idag kan man till exempel lära en person att styra en armprotes genom att fånga upp nervsignalerna till armens muskler.
Svårigheten ligger ofta i att lära en person­ att sända ut de rätta signalerna, och att sedan­ översätta signalerna till användbar information­.
Se ett exempel på forskning om hur man översätter nervsignaler till användbar information­, på Neuroscience hemsida.

Externa länkar

Youtube:
Ambient:
NeuroScience:



Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi

Stiftelsen för Strategisk Forskning: Simulering öppnar också nya möjligheter där fysiska experiment inte är möjliga på grund av små eller stora skalor, höga kostnader, eller etiska problem

Tillämpad Matematik – Datorsimulering och Beräkningsmatematisk Modellering Teknik Naturvetenskap Johan Hoffman 2011-08-24 18:09 Område/Delområde: Tillämpad matematik/ Datorsimulering och Beräkningsmatematisk Modellering Datorsimulering och beräkningsmatematisk modellering blir en allt viktigare del av forskning och utveckling, på universitet liksom i industri och samhälle, och de flesta experter är överens om att virtuella världar i framtiden kommer att bli en allt större del av våra liv, och att denna sektor kommer att generera nya branscher och företag. Redan idag erbjuder denna teknologi ett kostnadseffektivt komplement till fysiska experiment, där virtuella miljöer accelererar utvecklingsprocessen och fungerar som en katalysator för innovation. Simulering öppnar också nya möjligheter där fysiska experiment inte är möjliga (på grund av små eller stora skalor, höga kostnader, eller etiska problem), och kommer i framtiden att fungera som ett allt viktigare beslutsstöd inom områden som t.ex. medicin och miljöpolitik. Simulering baseras på en fysikmotor, vars konstruktion bygger på grundläggande matematisk modellering av fundamentala fysikaliska lagar i form av ekvationer (typiskt differentialekvationer), samt utveckling av algoritmer och mjukvara för lösning av dessa ekvationer anpassade till datorer vars hårdvaruarkitektur ständigt uppdateras. Då alltfler viktiga beslut kommer att tas baserade på datorsimulering kommer det att krävas en god förståelse för de möjligheter och begränsningar som följer med simuleringstekniken, speciellt behövs algoritmer med felkontroll för att kunna uppskatta noggrannheten i prediktioner (beräkningsfel), samt i vilken grad dessa prediktioner kan appliceras på den verkliga världen (modelleringsfel). Komplexiteten i de system som kan simuleras ökar också hela tiden, vilket motsvarar en rörelse från traditionell disciplinär forskning mot interdisciplinär forskning och multifysik. Här är ett matematiskt generalistperspektiv kritiskt för grundläggande metodutveckling, väl rotat i en god förståelse för beräkningsmatematisk modellering, numerisk analys, effektiva algoritmer och implementering i mjukvara. Sverige har idag flera internationellt mycket starka forskare inom området, t.ex. identifierade genom riktade individuella stöd från ERC, SSF, VR och KVA, varav flera kommit fram tack vare SSFs tidigare satsning på Tillämpad Matematik under 1990-talet.

http://www.stratresearch.se/sv/Strategiprocessen/Fas-1/Tillampad-Matematik—Datorsimulering-oc/



Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi, Nya teknologier för människa-maskin-integration

Forskning och framsteg 3/2012 Vårt tal kan avlyssnas med elektroder i hjärnan

Vårt tal kan avlyssnas med

elektroder i hjärnan

Hjärnvågor avslöjar vilka ord som rör sig i huvudet.

Structure, säger en mansröst på engelska. En sekund senare upprepar en dator samma ord, grötigt men hörbart. Datorns tal bygger helt och hållet på elektriska signaler från tinningloben, den del av hjärnan där det talade språket analyseras.

Öronen omvandlar ljudet till nervsignaler som hjärnan sedan bearbetar i flera steg. Tidigare forskning har visat att hjärnaktiviteten hos en person som hör något till stora delar liknar aktiviteten hos den som bara föreställer sig samma ljud. Det innebär att den nya metoden skulle kunna göra det möjligt att avlyssna outtalade meningar direkt från hjärnan, skriver amerikanska forskare i tidskriften Plos Biology.

De studerade hjärnan på femton patienter som skulle opereras på grund av svår epilepsi eller hjärntumör. Kirurgerna fäste ett rutnät av elektroder utanpå tinningloben hos varje patient för att ta reda på exakt vilket område som bearbetar språket. Syftet var att undvika skador på språket under operationen.

Forskarna använde samma elektroder till att mäta den elektriska aktiviteten som uppstod i hjärnan på patienterna när de hörde en lista av ord. I nästa steg fick en dator omvandla signalen till ljud.

Om allt fungerar som forskarna hoppas skulle tekniken kunna leda till att en människa instängd i en förlamad kropp kan tala, trots att inga muskler fungerar.

http://fof.se/tidning/2012/3/vart-tal-kan-avlyssnas-med-elektroder-i-hjarnan



Forskning som förändrar Övervakning, Integritet och Autonomi, Hjärninspirerade datorer, Nya teknologier för människa-maskin-integration

Scientists use brain imaging to reveal the movies in our mind

By Yasmin Anwar, Media Relations | September 22, 2011

Professor Jack Gallant discusses vision reconstruction researchPsychology and neuroscience professor Jack Gallant displays videos and brain images used in his research. Video produced by Roxanne Makasdjian, Media Relations.

BERKELEY — Imagine tapping into the mind of a coma patient, or watching one’s own dream on YouTube. With a cutting-edge blend of brain imaging and computer simulation, scientists at the University of California, Berkeley, are bringing these futuristic scenarios within reach.

Using functional Magnetic Resonance Imaging (fMRI) and computational models, UC Berkeley researchers have succeeded in decoding and reconstructing people’s dynamic visual experiences – in this case, watching Hollywood movie trailers.

As yet, the technology can only reconstruct movie clips people have already viewed. However, the breakthrough paves the way for reproducing the movies inside our heads that no one else sees, such as dreams and memories, according to researchers.

The approximate reconstruction (right) of a movie clip (left) is achieved through brain imaging and computer simulation

“This is a major leap toward reconstructing internal imagery,” said Professor Jack Gallant, a UC Berkeley neuroscientist and coauthor of the study published online today (Sept. 22) in the journal Current Biology. “We are opening a window into the movies in our minds.”

Eventually, practical applications of the technology could include a better understanding of what goes on in the minds of people who cannot communicate verbally, such as stroke victims, coma patients and people with neurodegenerative diseases.

It may also lay the groundwork for brain-machine interface so that people with cerebral palsy or paralysis, for example, can guide computers with their minds.

However, researchers point out that the technology is decades from allowing users to read others’ thoughts and intentions, as portrayed in such sci-fi classics as “Brainstorm,” in which scientists recorded a person’s sensations so that others could experience them.

Previously, Gallant and fellow researchers recorded brain activity in the visual cortex while a subject viewed black-and-white photographs. They then built a computational model that enabled them to predict with overwhelming accuracy which picture the subject was looking at.

In their latest experiment, researchers say they have solved a much more difficult problem by actually decoding brain signals generated by moving pictures.

“Our natural visual experience is like watching a movie,” said Shinji Nishimoto, lead author of the study and a post-doctoral researcher in Gallant’s lab. “In order for this technology to have wide applicability, we must understand how the brain processes these dynamic visual experiences.” 

Mind-reading through brain imaging technology is a common sci-fi theme

Nishimoto and two other research team members served as subjects for the experiment, because the procedure requires volunteers to remain still inside the MRI scanner for hours at a time.

They watched two separate sets of Hollywood movie trailers, while fMRI was used to measure blood flow through the visual cortex, the part of the brain that processes visual information. On the computer, the brain was divided into small, three-dimensional cubes known as volumetric pixels, or “voxels.”

“We built a model for each voxel that describes how shape and motion information in the movie is mapped into brain activity,” Nishimoto said.

The brain activity recorded while subjects viewed the first set of clips was fed into a computer program that learned, second by second, to associate visual patterns in the movie with the corresponding brain activity.

Brain activity evoked by the second set of clips was used to test the movie reconstruction algorithm. This was done by feeding 18 million seconds of random YouTube videos into the computer program so that it could predict the brain activity that each film clip would most likely evoke in each subject.

Finally, the 100 clips that the computer program decided were most similar to the clip that the subject had probably seen were merged to produce a blurry yet continuous reconstruction of the original movie.

Reconstructing movies using brain scans has been challenging because the blood flow signals measured using fMRI change much more slowly than the neural signals that encode dynamic information in movies, researchers said. For this reason, most previous attempts to decode brain activity have focused on static images.

“We addressed this problem by developing a two-stage model that separately describes the underlying neural population and blood flow signals,” Nishimoto said.

Ultimately, Nishimoto said, scientists need to understand how the brain processes dynamic visual events that we experience in everyday life.

“We need to know how the brain works in naturalistic conditions,” he said. “For that, we need to first understand how the brain works while we are watching movies.”

Other coauthors of the study are Thomas Naselaris with UC Berkeley’s Helen Wills Neuroscience Institute; An T. Vu with UC Berkeley’s Joint Graduate Group in Bioengineering; and Yuval Benjamini and Professor Bin Yu with the UC Berkeley Department of Statistics.

RELATED INFORMATION

Categories: 
Tags: 



Nya teknologier för människa-maskin-integration

The brain is like a computer, and we can fix it with nanorobots

Ed Boyden: The brain is like a computer, and we can fix it with nanorobots

Synthetic biology has the potential to replace or improve drug therapies for a wide range of brain disorder

ed boyden

Ed Boyden’s background is in electrical engineering and physics. Photograph: Quinn Norton

Ed Boyden heads the Synthetic Neurobiology Group at MIT Media Lab. He is working on developing technologies and tools for “analysing and engineering brain circuits” – to reveal which brain neurons are involved in different cognitive processes and using this knowledge to treat brain disorders.

What is synthetic neurobiology?

The synthetic biology part is about taking molecules from the natural world and figuring how to make them into little machines that we can use to address complex brain problems.

Moreover, if we can synthesise the computation of the brain and write information to it, that allows us to test our understanding of the brain and fix disorders by controlling the processes within – running a piece of software on the brain as if it is a computer.

The brain as computer… we probably shouldn’t be surprised that your initial training was in electrical engineering and physics?

Training as a physicist was very helpful because you are trained to think about things both at a logical and intuitive level. Electrical engineering was great too because neurons are electrical devices and we have to think about circuits and networks. I was interested in big unknowns and the brain is one of the biggest, so building tools that allow us to regard the brain as a big electrical circuit appealed to me.

So do you have a “circuit board” of the brain?

It’s not even known how many kinds of cells there are in the brain. If you were looking for a periodic table of the brain, there is no such thing. I really like to think of the brain as a computer. Let’s take an iPhone – there are millions around the world, they all have the same map but at this moment they are all doing a different computations – from firing birds at walls to reading an email. You need more than just a map to understand a computation.

So how do you find out about the functions of the different neurons?

We have a collaboration with a team at Georgia Institute of Technology to build robots to help us analyse the brain at single-cell resolution. We hope to use these robots to harvest the contents of cells to figure out what their properties are. The tip of this robot is a millionth of a metre wide.

And what would you do with the data?

One strategy we are working on is what you might call high throughput screening (HTS) for the living brain. HTS has been used for decades to, for example, screen for genes important for a biological process. But how do you do it in the living brain? We are working on technologies like those robotics or three-dimensional interfaces which would allow you to target information to thousands of points of the brain, so you could determine which circuits are important to a given cognitive process or fixing a disorder.

Robots and interfaces – sounds invasive.

Some degree of invasiveness might not be the end of the world – 250,000 people have some kind of neural implant already, such as deep brain stimulators or cochlear implants. Some people perceive that invasive treatment done subtly could be more desirable than something that you have to wear all the time like an helmet.

Have your techniques been used in live experiments?

In a collaboration led by Alan Horsager from the University of Southern California, we tried to restore vision to a blind eye. There are lots of examples of blind eyes where the photoreceptors have gone: in such a case, there’s no drugs you can give because there’s nothing to bind to. So we thought, why don’t we build an entire suite of tools that would deliver the gene for a light-activated protein into a targeted set of cells and try to restore visual behaviour. Neurons are electrical devices. Normally, photosensory cells in the retina capture light and transform them into electrical signals, which can then be processed by the retina and relayed to the rain. But what if the photosensory cells are gone? What we did was take a light-sensitive protein from a species of green algae, which converts light into electrical signals, and installed it in spared cells in the retina of a blind mouse. Then, the newly photosensitive cells in the retina could capture light. Basically the previously blind retina became a camera.We found we could take a blind mouse that couldn’t solve a maze problem and by making its retina light sensitive, it could navigate a fairly complex maze and go right to the target. Does this show the mouse has conscious vision? I don’t know if we can really say that, but it does show these mice can make cognitive use of visual information.

How far are we from using these techniques on humans?

My lab is focused on inventing the tools. But of the people who are pursuing blindness treatments there are at least five groups who have stated plans or started ventures to take these technologies and move to humans.

What are the advantages of these technologies over drugs?

They can help solve problems where drugs can’t. And maybe they can help people find better drugs. There are many disorders where a specific kind of cell in the brain is atrophied or degenerates. If we can get information to that cell, then we might more accurately be able to correct a brain disorder while minimising side-effects. A drug might affect cells that are normal as well as cells that need to be fixed, causing side effects.

And these tools could also be used to aid drug discovery?

Drugs have a lot of good things about them – they are portable, non-invasive, they don’t need a specialist to administer them. Suppose we could go through the brain with an array of light sources and track down which specific molecules on specific cells are most impactful for treating a disorder. If we can find a drug that can bind to that molecule, (although only 1 in 10 molecules are bindable) maybe we could develop drugs that affect specific classes of cell in the brain and not others.



Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi, Hjärninspirerade datorer, Nya teknologier för människa-maskin-integration, Politik, Civil-Militär-Forskning

Stockholms Handelskammare, Maskin eller människa?

Stockholms Handelskammare

Information
DATUM 21 mars 2012
TID 08:00-09:00
PLATS
Stockholms Handelskammare, Malmskillnadsgatan 46, 7 tr, Stockholm

Frukostmöte:

Hur maskiner med moraliskt beteende kan skapas, är något som robotforskare och filosofer har börjat studera.

Vilken roll har människan i en framtid där moraliska beslut också tas av maskiner?
När blir en maskin en människa? Frågan om gränsdragningar mellan maskin och människa kan idag kännas trivial, men faktum är att den blir allt mer aktuell.

I framtiden kommer robotarna att bli allt mer människolika samtidigt som vi kommer att bli allt mer robotlika, dels via olika typer av implantat som delar teknologi med robotarna men också via en socialiseringsprocess där vi lär oss att umgås med robotar.
I den mån man överhuvudtaget i framtiden kan tala om oss själva som en distinkt
art, måste vi då kanske ta i den svåraste frågan av dem alla: Behövs vi?

Det är endast den art som står högst upp i hierarkin som slipper motivera sin
existens.

Henrik Carlsen har jobbat på FOI i lite drygt tio år. Han har en bred bakgrund inom många av FOI:s verksamhetsområden. Under senare år har fokus dels varit klimatförändringar och då främst anpassningsfrågor och klimatförändringarnas koppling till
säkerhet, utveckling och geopolitik och dels teknikutveckling och social förändring.

Inom det senare området arbetar Henrik med risker med framtida teknologier, främst då etiska aspekter på det som brukar kallas autonoma system, dvs. tekniska system som i någon mening fattar beslut “själva”.

Originalartikel:



Forskning som förändrar Övervakning, Integritet och Autonomi

Förslag till SSF-forskningsprogram – ’Brain-IT’

Förslag till SSF-forskningsprogram – ’Brain-IT’

Medicin  Teknik  Naturvetenskap

jeanette hellgren kotaleski
2011-08-23 16:29, reviderat 2011-08-29 17:38
Den mänskliga hjärnan nämns ofta som den mest komplexa struktur som evolutionen frambringat. Trots hjärnforskningens framsteg är hjärnans funktion ännu ett mysterium. Från processer i den enskilda nervcellen till nervcellernas interaktion på nätverks, system och kognitiv nivå sker ett stort antal dynamiska och interaktiva förlopp. För att analysera detta krävs tillgång till kraftfulla datorer då hjärnans normala funktion inte kan förstås utan t.ex. simuleringar, baserade på data från detaljerade experiment. En förståelse av hjärnan är nödvändig för att identifiera sjukdomsmekanismer, liksom för bättre diagnos och behandling. Hjärnans sjukdomar innebär idag både stort lidande samt höga samhällskostnader. En mekanistisk förståelse av hjärnans exceptionella perceptuella förmågor och utsökta motoriska kontroll samt koordinationen mellan dessa kan även bana väg för framtidens intelligenta och läraktiga hjärn-inspirerade teknologier, och därmed få stora konsekvenser för teknik- och samhällsutvecklingen. En internationell utblick visar att skärningsområdet mellan hjärnforskning och informationsteknologi idag tillväxer exponentiellt, samt är mång-facetterat och gränsöverskidande. Här återfinns allt ifrån utveckling av avancerad programvara för neuroforskning till design av ”läraktiga” neurochips med analog eller digital VLSI eller med mer ovanliga beräkningssubstrat. Viktiga delområden är: a) Neuroinformatik – användningen av datorhjälpmedel för dataanalys och databaser för lagring av olika mätdata från hjärnan; b) Beräkningsneurobiologi (”Computational neuroscience”) – modellering och (super)datorsimulering av neuronala nätverk; c) Kognitiva och hjärninspirerade algoritmer och arkitekturer (”Brain-inspired computing”, ”Cognitive computing”) – forskning om samt implementation av hjärnans informationsbearbetande principer; d) Neurochips (”Neuromorphic chips”) – hårdvara för att exekvera hjärninspirerade algoritmer i realtid eller snabbare; e) Neurorobotik – en interaktiv robot har samma problem som en biologisk varelse vad gäller att uppfatta, tolka omgivningen och handla utifrån denna information. Hjärninspirerade principer kan revolutionera robotikområdet; f) Hjärna-dator-gränssnitt – metoder (icke-invasiva/invasiva) för att mäta och påverka hjärnans signaler i syfte att förstå mekanismer och lindra sjukdomstillstånd. Internationellt är utvecklingen inom ovan områden intensiv, och förutom att bidra till en ökad förståelse av hjärnans funktion och de sjukdomar som kan drabba den, kan ny hjärninspirerad teknologi ge upphov till nya industriella grenar med viktiga tillämpningar inom industri, sjukvård och omvårdnad, liksom i hemmet. Exempel på prominenta internationella projekt där svenska forskare medverkar finns inom EU:s FET och Cognitive systems and Robotics forskningsfinansieringsprogram, EU FET Flagship kandidat (Human Brain Project, se http://www.humanbrainproject.eu/), och DARPA:s Synapse-projekt. IBM som leder ett av konsortierna i Synapse annonserade nyligen (se http://edition.cnn.com/2011/TECH/innovation/08/18/ibm.brain.chip/) ett nytt hjärninspirerat chip. Liknande konstruktioner är i långt framskridet stadium också på närmare håll – Europa ligger tack vare en tidig och uthållig EU-FET-satsning på Neuro-IT långt framme. Förhoppningarna är stora hos neurochip-designers att den typ av beräkningar som utförs av hjärnan kan implementeras på nya typer av beräkningssubstrat, t ex memristorer. Detta skulle ge en enorm vinst vad gäller effektförbrukning och miniatyrisering. Mot bakgrund av ovanstående föreslås att SSF utlyser ett forskningsprogram inom området Brain-IT (eller Neuro-IT) med den breda innebörd som ges ovan. Flera svenska forskargrupper har stor kompetens inom Brain-IT och några är väl representerade i relevanta EU-projekt. Viktiga kompetenscentra finns redan vid KI-KTH-SU t ex i form av sekretariatet för International Neuroinformatics Coordinating Facility (INCF) (http://www.incf.org/) och Stockholm Brain Institute (SBI). Inte desto mindre är det i nuläget av strategisk betydelse för Sverige att detta område expanderas och får en mer riktad finansiering av internationellt ledande forskning där samarbete mellan grupper med olika områdesexpertis och profil premieras. Detta skulle möjliggöra för svensk forskning inom dessa områden att medverka i och bidra till den snabba internationella utvecklingen och det skulle gynna svensk neuroforskning i stort genom ett större genomslag av t ex neuroinformatiken.

BILAGOR



Politik, Civil-Militär-Forskning

Han öppnar nya kanaler till hjärnan

Han öppnar nya kanaler till hjärnan

Taktila_vastar [Converted]FOI-forskaren Otto Carlander utvecklar tekniska hjälpmedel som stimulerar kroppens egna sinnen. Tredimensionellt ljud och västar som vibrerar kan hjälpa framtidens stridspiloter – eller funktionshindrade.

Av Jan-Ivar Askelin

Du går där i mörka skogen. Plötsligt knakar det snett bakom dig. Utan att du vet hur det går till identifierar du ljudet, hotet och riktningen. Detta är en intuitiv känsla som förmedlar direkt och tydlig information.

- Skogsvandraren kan vara en stridspilot. Hotet kan vara en robot. Piloten måste kunna reagera intuitivt på hotet. Han har ibland inte tid att titta på displayer och leta efter information. Han måste känna hotet och riktningen med en gång och kunna reagera instinktivt.

Otto Carlander, på Institutionen för människa-system-interaktion (MSI) på Totalförsvarets forskningsinstitut (FOI), har sedan två år tillbaka forskat i hur detta ska gå till. Han har bra förutsättningar för detta eftersom han har studerat både datavetenskap och hur hjärnan fungerar.

- Vi måste hjälpa människan att behandla informationen. När syn och hörsel inte räcker till får man sprida informationen över nya kanaler. En sådan kanal är vår hud. Vi har nästan två kvadratmeter täckta av taktila receptorer som är kopplade till hjärnan, säger Otto Carlander. Känselsinnet används sedan länge i blindskriften och Carlander menar att den nya tekniken skulle kunna göra livet lite lättare för människor med funktionshinder.

Väst med receptorer
Den nya tekniken har drivits fram av flera olika faktorer. Tekniken blir allt mindre och man har länge letat efter alternativa lösningar till att presentera information. Det handlar om tredimensionellt ljud och taktila västar. Taktil betyder beröring. Med det taktila sinnet menas hela känselsinnet eller hudsinnet. En taktil väst är alltså ett verktyg som sänder information till hudens taktila receptorer. Informationen ges via små motorer av samma sort som sitter i våra mobiltelefoner. Piloten som jagas av en robot har en väst med dessa små motorer som sitter över hela bålen. Flygsystemet överför information till västens motorer som genom sina vibrationer förmedlar information om från vilken riktning hotet kommer.

- Den här tekniken kan användas till nästan vad som helst, säger Otto Carlander. Man kan tänka sig att en rallyförare får information om vad som väntar bakom nästa krök genom vibrationer i händerna i stället för från en kartläsare. En dykare på djupt vatten, som inte vet vad som är upp och ned, kan programmeras med en virtuell korridor som han ska följa till ytan. En helikopterpilot, som ska hålla sig inom en tänkt kub, kan också få hjälp. När han kommer för nära marken får han en klapp i baken och när han kommer för högt får han en klapp på axeln.

- Alla former av mörkernavigering kan underlättas med taktila västar. Ibland kan det kanske räcka med att veta var norr ligger. De första taktila displayerna användes för diabetessjuka barn som behövde påminnas om när det var dags att ta sina sprutor. Displayen består av en vibrerande klocka. Det taktila sinnet fungerar ungefär som hörselsinnet när det gäller uppmärksamhet. På samma sätt som vi kan stänga ute ljud vi inte vill höra kan vi också stänga av sinnet för beröring.

Tredimensionellt ljud
En väst som kan vibrera låter kanske inte så fantastiskt. Desto mer imponerande är det tredimensionella ljudet. Eller vad sägs om att ha ett par hörlurar på sig och höra en ljudkälla från ett bestämt ställe i rummet? Eller att höra fyra personer tala från fyra olika håll. Trots att det inte finns några högtalare i rummet. Hur det här fungerar framgår av grafiken här (pdf-fil).

- Vår viktigaste ledtråd för att bestämma riktningen till ett ljud är att hjärnan registrerar tids- och amplitudskillnad då ett ljud når respektive öra. Det här skulle man vilja ha i militära system också, säger Otto Carlander. Vi skulle kunna förbättra system som redan finns och låta rösterna komma från det håll där de finns i verkligheten. När flera personer pratar samtidigt i mono är det svårt att skilja ut den ena från den andra. Det tredimensionella ljudet ska främst användas för att göra röster urskiljningsbara och förmedla riktningsinformation till exempelvis ett hot.

FOI-forskarna har testat systemet på brandmän med resultat som påvisar en god potential. I dag kan ledningsoperatörer höra sina brandmän i stereo, men för att bättre kunna urskilja respektive radiokanal kan tredimensionellt ljud användas. Förutom ledningsoperatörer skulle en räddningsledare kunna använda tredimensionellt ljud för att få en bättre känsla för var hans brandmän är, till exempel inne i ett brinnande hus.

- Bäst ljud skulle man få om vi skräddarsydde systemet för varje person. Men det är en mycket tidskrävande process så vi strävar efter att använda generella ljudfilter som passar någorlunda bra för alla.

Verksamheten som rör tredimensionellt ljud bedrivs på institutionen MSI inom projekten operatörsplatsen, den framtida soldaten och kognitiv lägespresentation.

Unikt försök med piloter
Projektet med taktila västar drivs tillsammans med TNO Human Factors som är FOI MSI:s motsvarighet i Nederländerna. TNO har konstruerat en taktil väst, men Otto Carlander med kolleger går en annan väg.

- Vi ska ha tre bälten som sitter på olika höjd på bålen. Vi använder bålen som mottagare av flera skäl. En människa har en känsla av sin egen mittpunkt och kan med den som referens urskilja olika riktningar. Bålen erbjuder dessutom tillräcklig plats för att fästa tre bälten med tillräckligt tydliga höjdnivåer.

Tillsammans med TNO ska FOI göra ett unikt försök. Det går ut på att sätta stridsflygare i den dynamiska flygsimulatorn (humancentrifug) i Linköping för att se om den taktila västen underlättar att exempelvis hitta mål och hot under en flyguppgift. Även om piloten är utsatt för höga g-krafter ska en tränad pilot kunna känna att det trycker lite extra på ett ställe på magen.

Jan-Ivar Askelin är redaktör för Framsyn.

Från Framsyn nr 6-2004 – www.foi.se/framsyn



Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Forskning som förändrar Övervakning, Integritet och Autonomi, Nya teknologier för människa-maskin-integration

Medical Industry using IPv6 BioSensors

Medical Industry using IPv6 BioSensors
by Kaushik Das

Introduction

IPv6 is the successor protocol to the currently used Internet Protocol version 4 or the IPv4 that suffers from an acute shortage of the available address space for allocation to the exponentially increasing network devices both in the wired and the wireless domain.

IPv6
A biosensor may be defined as a device that helps in the monitoring of a biological change. Biosensors provide important information that is used in a variety of ways. In this way, biosensors act as critical information gathering tools in the increasingly used biological information systems. In the earlier days, Information systems were used in isolation from the communication technologies. However, a successful marriage between the information systems and the communication technologies has given birth to a new term called the Information and Communications Technologies (ICT) and Internet is a prime example of the same.

MAn increasing use of the information systems in the medical domain has led to a corresponding rise in the demand for network solutions so that the critical medical information can be shared in a seamless manner over a number of different platforms. Penetration of the medical domain by the information technology tools has resulted in an increasing usage of biosensors to monitor the critical vital signs in real time. Such information systems have varied uses. For example, medical biosensors allow the healthcare professionals to keep a continuous check on the vital parameters of a patient within a geographical area that may span from a hospital room to an entire city or even the entire globe. This requires a robust network infrastructure that may allow the sensory information to reach the destination on a continuous basis in real time thereby alerting the healthcare professionals against any medical exigency. It allows the healthcare professionals to take proactive measures rather than following a reactionary approach in extending critical healthcare facilities.

IPv6
The new applications include remote diagnostics and telemedicine that allow the healthcare professionals to monitor their patients round the clock, run diagnostic check on them and allow consultation through the use of various interactive communication technologies. IPv6 biosensors are being increasingly used in the medical industry to cater to a number of information needs. Biosensors allow doctors to remotely keep the vital signs of a patient under check. It also helps them monitor any noticeable changes on a 24×7 basis and take preemptive measures.

The various data processing tools undertake multidimensional analysis of the huge amounts of data that is collected using the IPv6 biosensors. The healthcare professionals commonly use the data visualization techniques to spot any underlying medical condition that may require intervention by the experts. Some of the obvious advantages offered by the IPv6 biosensors used in the medical industry are:

Improved performance over the wireless networks - IPv6 is developed keeping in mind the increased transition from the wired to the wireless networks and the increasing addition of nodes requiring unique network addresses. This makes IPv6 better suited to network devices over a wireless network such as the biosensors.
Increased address space - The increased address space offered by IPv6 allows the biosensors to have a unique IP address that is a prerequisite for them be connected directly to the Internet for applications such as remote diagnostics and telemedicine.
Optimized for high-speed data transfers - IPv6 protocol is tested to support communications over high-speed multi-gigabit per second (Gbps) data networks. Most of the critical medical applications will use the high-speed data networks for communication purposes. The erstwhile IPv4 protocol was not optimized for such high-speed data transfers.
Enhanced wireless security features - Security is a critical issue in wireless networks. It becomes all the more important when the network is being utilized by medical applications. IPv6 offers enhanced security features that make it appropriate to be used for medical biosensor wireless communications networks.
Optimized for always-on real-time networks - IPv6 protocol is optimized for high-speed always-on real-time wireless networks such as WiFi 802.11 and WiMAX. This gels very well with the network requirements of the biosensors used in the medical industry. As a result, IPv6 biosensors are best suited to provide all the real-time information requirements in the medical industry.

We can conclude that IPv6 biosensors will play a critical role in offering monitoring and diagnostic facilities to the common man in an increasingly networked world.

http://ipv6.com/articles/applications/Medical-Industry-v6-Sensors.htm



Forskning som förändrar Övervakning, Integritet och Autonomi

Forskare vid Stanford har utvecklat världens första system som sänder och tar emot radiosignaler på samma kanal – samtidigt.

I dagens kommunikationsradio måste man turas om att prata, och i mobilnäten använder man varsin kanal för att kunna pladdra i munnen på varandra. Nu har en grupp forskare på amerikanska Stanford university utvecklat en radioteknik som gör det möjligt att samtidigt sända och ta emot radiosignaler på en enda kanal.

- Det här ska inte vara möjligt enligt läroboken, säger Philip Levis, som är forskare i datorvetenskap och elektronik på Stanford i ett uttalande.

Problemet är att inkommande signaler dränks av radions utsignaler, som är mycket starkare. Ungefär som att försöka höra en viskning medan man själv gallskriker.

Forskarna löser problemet genom att filtrera bort sändsignalerna, vilket gör det möjligt att detektera svaga inkommande signaler. Tekniken påminner om hur aktiva hörlurar släcker ut buller.

Än så länge har metoden verifierats i labb och kan ses på en video från Stanford.

Där framgår att två sändarantenner placerats på var sin sida om en ensam mottagarantenn. På så vis kan man få signalerna från de båda sändarantennerna att släcka ut varandra vid mottagaren. Vilken frekvens som används framgår inte, inte heller hur stor bandbredden är.

Nu försöker forskarna kommersialisera tekniken. De ser flera intressanta tillämpningar, exempelvis att öka kapaciteten i dagens wifi-nät eller att bygga helt nya typer av effektiva nätverk

http://www.nyteknik.se/nyheter/it_telekom/radio/article3112889.ece



Etik och debatt-Nya Teknologier, Nya teknologier för människa-maskin-integration, Politik, Civil-Militär-Forskning

DN: När hjärnorna drar ut i krig

Vapen som styrs direkt av tanken. Mediciner som gör soldaterna effektivare och fienden mera foglig. Hjärnforskning kan leda till nya sätt att kriga.

En stor del av all forskning i världen används för militära ändamål. Den moderna hjärnforskningen blir knappast något undantag, även om dess ursprungliga syfte är att hitta mediciner till psykiskt sjuka och framställa andra nyttigheter. Det menar Storbritanniens vetenskapsakademi Royal Society, som i veckan publicerade en rapport om hjärnforskning och krig: ”Neuro-science, conflict and security”.

En grupp experter inom neurovetenskap, folkrätt och etik har systematiskt gått igenom den senaste tidens hjärnforskning för att se hur den kan förändra framtidens krigföring. De hittade en lång rad tänkbara områden, varav många innebär nya etiska och juridiska utmaningar.

Man kan till exempel tänka sig att soldater rekryteras med hjälp av moderna hjärnkameror, så kallad fMRI-teknik. Med sådana bilder går det troligen att urskilja vilka individer som är särskilt sårbara för så kallad posttraumatisk stress och alltså olämpliga att sända ut i strid. Det borde också gå att skilja utpräglade risktagare från mer försiktiga personligheter. Den första sorten kan passa i attackstyrkor och specialförband, den senare lämpar sig bättre för fredsbevarande styrkor, skriver Royal Society.

När soldaterna väl är rekryterade ska de utbildas och där kan nya rön om inlärning komma väl till pass. Studier visar till exempel att en svag elektrisk ström som riktas mot speciella ställen i hjärnan kan fördubbla inlärningsförmågan. Tekniken kallas för tDCS, eller transcranial direct-current stimulation. Amerikanska militärens forskningsorganisation DARPA har också gjort framgångsrika försök med att låta soldater använda EEG när de ska analysera komplicerade satellitbilder. De kunde prestera tre gånger bättre med sådan utrustning. EEG-kurvan kunde registrera omedvetna processer i hjärnan och gav utslag långt innan soldaterna var medvetna om att de hade hittat vad de letade efter i bilden. Och när EEG-utrustningen användes för att ge återkoppling blev inlärningen mycket effektivare.

När soldaterna sedan är ute i fält gäller det att de håller sig vakna och fungerar även i utmattat tillstånd och även om de är utsatta för stark stress. Då finns det många mediciner som kan hjälpa till. Amerikans-ka flygstyrkor har använt amfetamin åtminstone sedan sextiotalet. adhd-medicinen Ritalina motverkar trötthet och förbättrar den mentala förmågan. Liknande effekt har Modafinil som i den civila världen används mot sömnstörningar som narkolepsi och apné.

Fienden kan också behandlas med läkemedel. Royal Society räknar upp ett antal lugnande medel som i lämpliga doser kan få fiendestyrkan att somna fridfullt när så önskas. En kandidat är ett bedövningsmedel inom veterinärmedicinen som kallas dexmedetomidin. Man kan också tänka sig nya former av så kallade benzodiazepiner, helst sådana med mindre biverkningar än de nuvarande.

Men ett problem med att söva fienden är att steget är ganska kort från effektiv bedövning till döden. Det fick ryska myndigheter erfara när de skulle slå ut de tjetjenska rebeller som tagit gisslan på en teater i Moskva för några år sedan. Dessvärre drogades även ett stort antal personer i gisslan ihjäl under fritagningen.

Hormonet och signalämnet oxytocin kan tjäna ett dubbelt syfte under krig. Detta ämne som utsöndras bland annat när kvinnor ammar sina barn förstärker känslor som tillit och samhörighet. Om förhörsledare kan ge tillfångatagna fiender en dos oxytocin, skulle de förhörda kunna bli mer samarbetsvilliga och benägna att avslöja sina hemligheter.

En nyupptäckt effekt av oxytocin är att det förstärker banden till de närmaste men ökar det mentala avståndet till omgivningen. Precis vad en plutonledare i krig vill uppnå i sin grupp!

Det finns en hel del ny forskning – bland annat finansierad av amerikansk militär – som försöker få hjärnan att styra proteser med hjälp av de egna elektromagnetiska vågorna. Och om man kan styra en protes i dag kan man troligen styra vapen i morgon. Royal Societys rapport beskriver scenarier där obemannade flygande fordon, så kallade drönare, styrs direkt av tankens kraft. En fördel är att de kan dirigeras mycket snabbare än med fysiska reglage. Men de etiska problemen blir omfattande, påpekar Royal Society.

Rapporten beskriver också en typ av vapen som kallas active denial system, ADS, och har börjat användas både i Afghanistankriget och på amerikanska fängelser. Det går ut på att skjuta värmestrålar som orsakar stor men tillfällig smärta på huden. Syftet är att orsaka mindre skada än med konventionella vapen, men tekniken har kritiserats för att den kan skada både ögon och andra kroppsdelar.

Royal Society menar att både hjärnforskare och internationella organ måste börja förbereda sig för framtidens hjärnkrig. Det finns konventioner som reglerar kemiska och biologiska vapen. Kanske är det dags också för internationella konventioner mot neurologiska vapen.

Karin Bojs 120212

Lär artikeln här



Etik och debatt-Nya Teknologier, Forskning som förändrar Övervakning, Integritet och Autonomi, Nya teknologier för människa-maskin-integration, Politik, Civil-Militär-Forskning

Ethics of ‘neuro-weaponry’ hard to wrap your brain around

Mind control will be a primary focus of neuro-weaponry, which is expected to reshape warfare, neuroscientists confirm.

Emerging technologies will give birth to highly sophisticated adversarial applications centred on brain science; conventional battlefield methodology could soon fade into history.

“We are approaching a time when brain science will be critical to our national security,” confirmed James Forsythe of Sandia National Laboratories

According to James Giordano of Georgetown University and the Potomac Institute for Policy Studies, and colleague Rachel Warzman at Georgetown University, the battlefields of the future will be shaped by advances in neuroscience focused for military purposes.

“Major breakthroughs (in brain science) relevant to national security are both viable and imminently achievable,” Giordano suggested at a recent neuroscience conference.

The result would be an “arsenal of neuro-weapons,” concluded Jonathan Marks at Penn State University.

Such an arsenal could include “drugs, microbiological agents and toxins from nature,” explained Jonathan Moreno at the University of Pennsylvania.

In addition to the use of “brain-machine interfaces,” the hormone oxytocin could be used to make prisoners more co-operative in divulging sensitive military information. Other substances would make soldiers forget atrocities they might have committed.

According to Forsythe and Giordano, adversarial elements could include: “nanoparticles engineered to affect specific brain processes,” “super soldiers created through pharmaceuticals and/or brain stimulation” and “brain imaging for interrogation-lie detection” as well as the use of “intelligent machines.”

Other possibilities being considered by military strategists include an aerosolized shellfish neurotoxin fatal to humans in a few minutes, hallucination-causing bacteria and organisms that access and destroy human brains by crawling up the olfactory nerves.

Such technologies would have been unimaginable not so long ago, but the U.S. Defence Advanced Research Projects Agency has been focusing on the military applications of brain science, Moreno confirmed.

Some of its projects, posted on its website, include “neuroscience for intelligence analysts” and “accelerated learning.”

For the past several years, DARPA, the military research and development agency tasked with maintaining U.S. military technology superiority, “has engaged in research on direct neurological control,” confirmed Stephen White at Cornell Law School.

But such a dramatic alteration in the way warfare is waged has legal implications, analysts suggest.

According to White, there are concerns with regard to “criminal responsibility for war crimes.”

“Science and technology should never be used to do bad things,” Giordano pointed out, cautioning that history shows scientists often generate information misused for unintended military purposes.

White noted that international law has no “per se prohibition” with regard to the direction that neuro-weaponry appears to be taking.

Robert Alison is a zoologist and freelance writer based in Victoria, B.C.

Republished from the Winnipeg Free Press print edition January 30, 2012 A11

Read articel here



Etik och debatt-Nya Teknologier, Forskning som förändrar Övervakning, Integritet och Autonomi, Nya teknologier för människa-maskin-integration, Politik, Civil-Militär-Forskning

Regulating Brain Implant Technologies Royal Institute of Technology, Stockholm, Sweden

Revolutions in semiconductor device miniaturization, bioelectronics, and applied neural control technologies are enabling scientists to create machine-assisted minds, science fiction’s “cyborgs.” In a paper published in 1999, we sought to draw attention to the advances in prosthetic devices, to the myriad of artificial implants, and to the early developments of this technology in cochlear and retinal implants. Our concern, then and now, was to draw attention to the ethical issues arising from these innovations. Since that time, breakthroughs have occurred at a breathtaking pace. Scientists, researchers, and engineers using differing methodologies are pursuing the possibilities of direct interfaces between brains and machines. Technological innovations as such are neither good nor evil; it is the uses devised for them that create moral implications. As there can be ethical problems inherent in the proper human uses of technologies and because brain chips are a very likely future technology, it is prudent to formulate policies and regulations that will mitigate their ill effects before the technologies are widespread. Unlike genetic technologies, which have received widespread scrutiny within the scientific community, national governments, and international forums, brain–machine interfaces have received little social or ethical scrutiny. However, the potential of this technology to change and significantly affect humans is potentially far greater than that of genetic enhancements, because genetic enhancements are inherently limited by biology and the single location of an individual, whereas hybrids of human and machine are not so restricted. Today, intense interest is focused on the development of drugs to enhance memory; yet, these drugs merely promise an improvement of normal memory, not the encyclopedic recall of a computer-enhanced mind combined with the ability to share information at a distance. The potential of brain chips for transforming humanity are astounding. This paper describes advances in hybrid brain–machine interfaces, offers some likely hypotheses concerning future developments, reflects on the implications of combining cloning and transplanted brain chips, and suggests some potential methods of regulating these technologies. a

http://journals.cambridge.org/action/displayAbstract;jsessionid=280DFA51C8EC4C9EE13D303577C5BC6B.journals?fromPage=online&aid=1017164



Forskning som förändrar Övervakning, Integritet och Autonomi

Global Computing Centre of Excellence Sweden

A new research centre for Grid, Peer-to-Peer, and Service Oriented Architectures

This document introduces Global Computing Centre of Excellence . a new joint industry/academia research centre for service-oriented computing. The centre is located in Stockholm, Sweden, and constituted by some of the world.s leading researchers in the fields of Grid computing, Service-oriented computing, and Peer-to-Peer computing, based at Royal Institute of Technology (KTH), Swedish Institute of Computer Science (SICS), and Swedish Defence Research Agency (FOI).

Initially, the participating research groups will cooperate on defining a joint research vision, establishing industry partnerships, and pursuing funding opportunities. The clear ambition of the research partners is to initiate a number of exciting projects, in close cooperation with industry.

In addition to research projects, potential forms of collaboration with industry include mentoring of industry PhD students, master.s thesis projects, seminars, and courses. In other words, industry partners will be able to utilize the centre as a resource in strategic research projects, as well as for training and development of personnel.

Global Computing

In the coming years, provisioning of computing, communication, and information resources as electronic services will grow significantly. New technology will enable individuals, organisations, and applications to create, discover, provide, combine, access, personalise, support, and use all kinds of resources as services. This vision of service-oriented computing is also embraced in the fields of Grid computing and Peer-to-Peer computing. Until now, each research community has focused on different aspects, but we argue that these research fields have complementary strengths and will develop in a common direction.

We envision a Global Computing environment, which extends well beyond today.s Grid, Peer-to-Peer systems, and Service oriented Architectures, and eventually will eliminate the distinctions between them. This environment will combine elements of resource management and coordination from Grid, inter-operability from Service Oriented Architectures, and self-management and scalability aspects from Peer-to-Peer overlay networks. The new environment will enable the creation of services that are scalable, fault-tolerant, and self-organising, and that can be accessed securely with different levels of quality-of-service through a consistent set of interfaces and protocols.

Global Computing will enable companies to integrate systems and information both internally and externally. It will help companies to cut cost through more efficient resource usage and it will open up new business opportunities, for users as well as providers of information and communication technology.

Founding research groups

The proposed new centre of excellence gathers some of the world.s leading academic researchers in the fields of Grid, P2P, and Service Oriented Architectures. The core research groups are:

KTH / SEDIC (Royal Institute of Technology / Software Engineering and Distributed Computing). The SEDIC group at KTH consists of three groups headed by Professors Seif Haridi, Mihhail Matskin, and Rassul Ayani. Seif Haridi<<<s group has developed a self-organising overlay network architecture and associated middleware, and devised various innovative techniques for self-repairing large-scale distributed systems. Mihhail Matskin and his group have extensive experience and results in Web Service composition, mobile services, and technology to support formation of virtual enterprises. Rassul Ayani.s group has many years of experience in simulation and modelling of distributed systems, and has developed a framework for collaborative distributed simulation applications. The framework makes extensive use of P2P and grid techniques for decentralised resource management.

KTH / PDC (Royal Institute of Technology / Centre of Parallel Computers). The PDC group at KTH operates one of six nodes in the Swedish national computational grid . SweGrid. The group is headed by Professor Lennart Johnsson and is a pioneer in the area of Grid Computing. PDC is one of two European founding member institutions of Globus Alliance, which is the organisation that developed the de facto standard Grid middleware Globus Toolkit. Lennart Johnsson and Olle Mulmo from PDC act as founding board members of Globus Alliance and are also co-founders of the European Grid Support Centre. Furthermore, Mulmo is the Director for the security area within the Global Grid Forum (GGF).

KTH / XpaX (Royal Institute of Technology / Complex Proactive Extreme). The XpaX research group at KTH, Kista, is led by Professor Magnus Boman. The group has extensive experience of agent modelling and programming. In particular, agent systems development from an active end-user perspective is emphasized. Social networks of users, companies, governance representatives and more are represented in the spatially explicit agent models built. More than nine million artificial agents lead their lives in the largest of these computationally efficient executable models, developed for epidemiological applications.

SICS / Userware. (Swedish Institute of Computer Science / Userware Laboratory). The Userware group at SICS is led by Professor Magnus Boman. Computer science areas covered include machine learning, text analysis, service development, and autonomous processes. The lab strives to produce fully-functioning software for real-time recommendations, mobile information access, and novel forms of information retrieval.

SICS / DSL (Swedish Institute of Computer Science / Distributed Systems Laboratory). The DSL group at SICS is headed by Professor Seif Haridi and Dr. Per Brand. The group has a long experience in the distributed systems area, and were deeply involved in the development of the Mozart and Erlang programming systems. More recently, the group has developed a language independent middleware for networked programming and a structured Peer-to-Peer system currently being used in research projects with Swedish Defence.

SICS / SPOT (Swedish Institute of Computer Science / Security POlicy and Trust). The SPOT group at SICS is headed by Dr. Babak Sadighi. The group has developed technology for secure and decentralised management of authorizations in highly distributed systems, and is currently working with Swedish Defence to define the security model for Network Based Defence.

FOI / DSM (Swedish Defence Research Agency / Department of Systems Modelling). The DSM group at FOI is headed by Farshad Moradi. On behalf of Swedish Defence, the group has been investigating the impact of network technologies and distributed computing techniques on modelling and simulation. The focus has been on component-based model development, distributed resource management, collaborative model development and execution, and distributed execution of simulation models using Grid computing, Web Services and P2P technology.

Research agenda

The primary focus of the centre will be to develop methods, technologies, tools and applications for a Global Computing environment in close cooperation with industry. A preliminary research agenda has been developed, comprising:

Service model. Specification of the syntax and semantics of service interfaces, common pre-defined interfaces for service functionality, semantic web services, ontology for service interoperability, etc.

Service composition. Efficient selection and integration of inter-organisational and heterogeneous services both at design and at runtime. Service specification languages, service validation, software architecture for service selection and composition, etc.

Social Service Sharing. The drivers for socially sharing services in the global computing environment require study. These include end-to-end recommendations and user-driven extensions of the service model.

Scalability. Currently, Grid systems are based on the traditional client-server paradigm, which is known not to scale. The goal of this research is to design, prototype, verify, and evaluate scalable peer-to-peer overlay networking-based approaches for key system components, such as resource discovery engines, service selection mechanisms, schedulers, storage services, and security mechanisms.

Self-management. Existing P2P systems demonstrate that some basic services can self-manage without any external intervention to events such as node joins, node leaves, node failures, and load imbalance. Today.s Grids and the WWW have no such mechanisms for self-organisation. We will develop methods and technologies to support higher level services with overlays that self-organise.

Dependability. One of the main challenges for the Global Computing environment is to tolerate failures and recover from them in a transparent way. Particular topics include fault-detection, check-pointing and recovery, software management, and scheduling for fault-tolerant execution.

Service Level Agreements (SLAs) and Quality of Service (QoS). Today.s Grid and Web services provide best-effort services. We need languages for specifying SLAs, system monitoring services, and violation detection services.

Security and Trust. End-to-end interaction and sharing of resources between multiple domains requires secure mechanisms for establishing trust relationships, authentication and authorization, delegation of authorizations, etc.

Software Engineering. The consortium partners have extensive experience in developing software and one of the main activities of the centre will be to use state-of-the-art technology, tools, and techniques to produce architectures and to implement high-quality software, applications as well as middleware, which provide the abovementioned services. We will also consider expressive and concurrent programming models that are well-integrated with the service-model in the design and implementation of services.

More information

Academic research collaboration

Seif Haridi, Professor of Computer Systems, KTH

Scientific Leader, SICS

E-mail: seif@imit.kth.se

Tel: +46 8 633 15 30

Industry partnerships

Carlo Pompili, Business Development, SICS

E-mail: carlo@sics.se

Mobile: +46 708 704 929

http://www.global-computing.org/



Forskning som förändrar Övervakning, Integritet och Autonomi, Politik, Civil-Militär-Forskning

FOI Kollektivt beteende och tidig förvarning

Rapporten beskriver den inledande fasen av ett FOI projekt, som  skall utveckla förmågan att förutsäga kollektiva händelser och händelseutveckling genom att tidigt kunna identifiera och tolka de tecken, signaler, beteenden etc. som föregår en händelse vad av ser kollektivt agerande i syfte att kunna agera pro-aktivt.

5.3.2  Kunskapsuppbyggnad
För beslutsstödssystem krävs en speciell  och entydig representation av kunskap, vilken lämpligen formuleras via ett formellt språk med regelverk, baserat på t ex satslogik eller första ordningens logik (predikatkalkyl). Processen för att konstruera en kunskapsbas, samla in och lagra kunskapen benämns knowledge engineering och delas upp dels i tilllämpningsnära (special-purpose knowledge bases), där området är noggrant avgränsat
och frågeomfånget är känt i förväg, dels i allmänsyftande kunskap (general-purpose knowledge bases), som stöder frågor i full omfattning om mänsklig allmänkunskap (t ex det sunda förnuftet). Processen för kunskapslagring bygger enligt Russel, Norvig [23] på 7 steg:
1)identifiera uppgiften
2)samla relevant kunskap, antingen direkt eller genom att intervjua experter
och extrahera relevant information (knowledge acquisition) utan att kunska-
pen har givits någon formell representation
3)bestäm en vokabulär av predikat, funktioner och konstanter dvs översätt
domänbegrepp till logiska namn, vilket kräver en enhetlig stil. Resultatet blir

Kollektivt beteende och tidig förvarning    (feb 2005)

FOI-R-1584-SE
en ontologi för detta område, som anger vilka typer av ting som kan före-
komma
4)koda allmän kunskap om området, skriv ned axiom för termerna i förteck-
ningen (ev upprepa punkt 3)
5)koda beskrivningen av de specifika probleminstanserna – atomära meningar/
påståenden utgående från begrepp som redan ingår i ontologin
6)kontrollera slutledningsfunktionen genom att ställa frågor och kontrollera
svaren och därmed de operationer där axiomen utnyttjas med problemspeci-
fika fakta
7)avlusa kunskapsbasen till användarens krav på korrekthet/acceptans
Med begreppet ontologi avses här en gemensam förståelse (shared understanding) i datalogisk mening med tolkningar, som alla utgår från att världen beskrivs med fakta även påståenden) som har tillstånden sant, falskt eller obekant  i förhållande till verkligheten. Om tolkningen nyttjar första ordningens logik tas även  objekt och deras relationer med, med temporal logik införs dessutom begreppet tid. Om tolkningen däremot baseras på sannolikhetsteori eller oskarp logik (fuzzy logic) finns enbart fakta med  till-
ståndsvärden  “graden av tilltro” (degree of belief inom [0,1])  respektive inom ett känt intervall.

http://www2.foi.se/rapp/foir1584.pdf



Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm, Hjärninspirerade datorer

Svensk satsning på superwebb bl a för hjärnforskning

Regeringen planerar en storsatsning på e-vetenskap i forskningspropositionen. Tanken är att Sverige ska ta täten internationellt i utvecklingen av den så kallade gridtekniken där datorkraften, precis som med elektrisk ström, inte längre behöver skapas hos användaren. Tekniken spås kunna revolutionera vardagen mer än internet

Den snabba utvecklingen av datorteknologin under de senaste 50 åren står nu inför ytterligare ett genombrott: gridteknologin. Tekniken gör det möjligt att skapa ett slags ”superwebb” för överföring, användning, bearbetning och lagring av program och data mellan geografiskt utspridda datorer och datacenter som idag oftast bara utnyttjar en bråkdel av sin kapacitet.

Ett konkret svenskt exempel är hjärndataforskningsinstitutet vid Karolinska institutet INCF, International Neuroinformatics Coordination Facility. De behöver enorm datakapacitet för att bearbeta all information som finns samlat om hjärnan i olika databanker i världen – vilket griden kan erbjuda.

Läs artikel här



Videos

Computational Neuroscience Intressant föreläsning om hur man bygger datorhjärna



Elektoder i Hjärnan Sveriges Radio

I Programet Vetandets värld idag tas upp frågan om möjligheten till hjärnmanipulering genom inplantat, nanoteknik mm. Programmetts rubrik är “Drömmen om maskinen”:

I Programet Vetandets värld idag tas upp frågan om möjligheten till hjärnmanipulering genom inplantat, nanoteknik mm. Programmetts rubrik är “Drömmen om maskinen”:
 
http://sverigesradio.se/sida/artikel.aspx?programid=412&artikel=4866852



Politik, Civil-Militär-Forskning

FMV Utvecklingen inom några viktiga teknikområden i tidsperspektivet 2020

2.1  Allmänt
I detta kapitel beskrivs utvecklingen inom några viktiga teknikområden i tidsperspektivet 2020.

Beskrivningar av teknikutvecklingen och dess påverkan på framtida militära system har under senare tid gjorts i flera studier

Gemensamt för de olika studierna är att de lyfter fram följande tre områden inom vilka omfattande utveckling bedöms ske:
·  Informationsteknik.
·  Bioteknik.
·  Materialteknik (nanoteknik, konstruktion och produktion av material på molekyl – och atomnivå).

Den snabba tekniska utvecklingen ställer stora krav på ett förbättrat gränssnitt mellan tekniken och de mänskliga operatörerna. De tekniska landvinningarna har hittills ställt allt större mentala krav på operatören, även om förväntningarna ofta varit de motsatta.

I många fall har människans flexibilitet gjort att tekniskt svårhanterliga system fungerat relativt bra. Människans mentala förmågor kommer även fortsättningsvis att vara avgörande och svårersättliga i kritiska beslutssituationer, varför utbildning och träning kommer att få mycket stor betydelse.

Fram till 1980-talet var det oftast den militära sektorn som drev teknikutvecklingen framåt och utnyttjade nya tekniker. Numera är den civila sektorn drivande inom de flesta teknikområden. Detta innebär att den militära sektorn i stor utsträckning får tillgodogöra sig teknik som tagits fram av andra och självt driva utvecklingen inom några nyckelområden. Det blir också särskilt viktigt att ha förmåga att kombinera ihop olika tekniker till fungerande system och system av system, som är militärt

2.8
Robotik utvecklas som stöd till mänskliga operatörer för t.ex. automatisk bilkörning och automatiskmålsökning. Obemannade farkoster utvecklas inom alla tillämpningsområden: mark, sjö, luft.
Förmågan till intelligens och självständighet ökar och systemen kan klara allt mer avancerade stridsuppgifter. Forskning runt artificiella nervnät och genetiska algoritmer bör om 20 år ha resulterat i att vi kan konstruera självlärande system som programmerar sig själva för att lösa en uppgift. Tillämpat t.ex. i en sonar innebär det att systemet självt testar olika algoritmer för beamforming, detektion och klassificering, och väljer den som fungerar bäst. Dock ligger obemannade system som helt självständigt kan bilda sig en omvärldsuppfattning från komplex och otydlig sensorinformation, och utgående från denna fatta ett insatsbeslut, troligen relativt långt fram i tiden.


Etik och debatt-Nya Teknologier, Filosofiska aspekter i ett nytt IT paradigm

Vad är etiskt försvarbart i forskningen om hjärnans sjukdomar?

Hur ska vi forska på människor med nedsatt beslutsförmåga? Och vad händer om vi sätter patientens integritet främst – och inte forskar? Det var några frågor som diskuterades på Swedish Brain Powers etikseminarium, som lockat ca 100 deltagare, den 18 april på Svenska Läkaresällskapet i Stockholm.

Forskningsprogrammet Swedish Brain Power knyter samman grundforskning och tillämpad vårdforskning om neurodegenerativ sjukdom, dvs. sjukdom där nervceller i hjärnan stegvis förstörs. Några exempel på sådana sjukdomar är Alzheimer, Parkinson och Amyotrofisk lateralskleros (ALS). Målet är att kunna ställa diagnos snabbare och erbjuda bättre behandling.

Arrangörerna, docent Maria Eriks-dotter Jönhagen och docent Erik Sundström från Swedish Brain Power, inledde med att formulera seminariets huvudfrågor:

• Är det etiskt försvarbart att forska på patienter som har svårt att förstå, fatta beslut och ta ställning till om de vill delta i forskningsprojekt?

• När är gränsen passerad då patienten ska anses som för sjuk att själv kunna bestämma?

Tvärvetenskaplig karaktär
Forskningsfältets tvärvetenskapliga karaktär stod klar redan efter de två första presentationerna. Filosofen Kathinka Evers, docent från Centrum för Bioetik vid Uppsala universitet och KI, benade ut filosofiska begrepp som moral och etik. Sedan följde en anatomisk presentation av Nenad Bogdanovic från Swedish Brain Power och docent vid KI. På små bilder av hjärnan i genomskärning hade han markerat, etiketterat och numrerat olika områden. Förståelsen av sociala sammanhang härleddes till område 32 i storhjärnebarken och beslutsfattandet till område 10.

Kathinka Evers underströk att det krävs ett känslomässigt engagemang för att kunna välja mellan olika alternativ. Om känslolivet är stört beter vi oss irrationellt. Avsaknad av insikt används som ett kriterium på att någon inte klarar att fatta beslut – men begreppet insikt är inte definierat.

Psykologiprofessorn Ove Almkvist vid Stockholms universitet, KI och Swedish Brain Power talade om kognitionens betydelse för beslutsförmågan. Det saknas testmetoder för att utvärdera beslutskompetens, t.ex. hos dementa. Forskningen fokuserar istället på olika förmågor, som tänkande och intelligens, där det finns test.

Frågan om den fria viljan
Frågan om den fria viljan ställs på sin spets i forskningen om hjärnan. Är fri vilja det jag uttrycker med ord och handling här och nu? Eller det jag skulle uttrycka om jag var frisk? Hur ska man se på patienten som är klar och samlad på dagen men förvirrad på natten? Är hon tillräknelig? Ska man tvinga på den sjuke det livstestamente som denne formulerade som frisk?

Karin Sparring-Björkstén, överläkare vid Psykiatriska kliniken i Sydöst i Stockholm, formulerade dessa frågor. Hon gav också en provkarta på övergrepp som begåtts i forskningens namn. Det finns lagstiftning som ska skydda den som fattar beslut under påverkan av psykiskt störning. Men psykisk störning är inte definierat, inte heller förmågan att agera i rättssalen. Sedan 1989 kan ingen bli omyndigförklarad längre.

– Det är en illusion att det finns ett fritt val vid sjukdomar som ALS och Alzheimer, menade Peder Andersen från Swedish Brain Power och lektor vid Umeå universitet. I Norge behöver du inte fråga patienterna om du får forska, konstaterade han.

Informerat samtycke
Principen om informerat samtycke gäller, dvs. den som ingår i ett forskningsprojekt ska ha informerats om förutsättningarna. Medverkan ska vara frivillig, uttrycklig, preciserad att gälla viss forskning och den ska dokumenteras, förklarade Peter Höglund, docent från Lund och företrädare för Centrala etikprövningsnämnden. Om full insikt krävdes skulle det inskränka möjligheterna till forskning ytterligare.

Enligt etikprövningslagen får forskning i vissa fall utföras utan samtycke, t.ex. vid psykisk störning. Forskningen förutsätts då ge unik kunskap och vara till direkt nytta för försökspersonen eller för andra med samma sjukdom. Lagstiftningen är restriktiv till forskning om den aktuella gruppen med nedsatt beslutsförmåga på grund av neurodegenerativ sjukdom.

– Principen om informerat samtycke har begränsat värde, menade professor Mats G Hansson från Centrum för Bioetik i Uppsala och vid KI. En alltför restriktiv tillämpning kan medföra svårigheter att forska om patienter med nedsatt beslutsförmåga och därmed leda till att de diskrimineras. Patientens säkerhet snarare än integritet borde sättas först. Socialstyrelsen har ställt sig bakom denna princip, Safety first, underströk Mats G Hansson.

– När ska man ställa frågan om medverkan, undrade Peder Andersen. I fasen när patienten känner vrede, förnekar sjukdomen, köpslår om alternativen, är deprimerad eller har accepterat sjukdomen?

Information till de medverkande får inte inge falskt hopp om bot. Alla som har en sjukdomsgen blir inte sjuka – ska man informera alla ändå? Ska man informera om en sjukdom när det inte finns någon behandling?

– Information om en population kan bara göras i allmänna termer, inte på individnivå, menade Mats G Hansson. Att avidentifiera data, kryptera, kan vara en lösning. Men inte om man vill studera en liten grupp, t.ex. en familj med bärare av sjukdomsgener.

Docent Nenad Bogdanovic från Swedish Brain Power och KI föreläser.
Intresserade deltagare på Swedish Brain Power seminariet.

Paneldebatt
Den avslutande paneldebatten kom att kretsa kring familjestudier. Flera debattörer underströk hur viktigt det är att det finns kliniker med i forskningsgrupperna. Klinikerna bär ansvaret att återföra information till undersökningspersonerna och för detta behövs riktlinjer.

En filosofisk analys av begreppet beslutskompetent och sedan riktlinjer för bedömningen efterlystes också. Vilket värde har de anhörigas samtycke? När sjukdomen framskrider och den sjuke förändras är det ofta vårdpersonalen som känner den sjuke bäst.

Etikprövningsnämndernas sammansättning diskuterades. Nämnden bör se till samhällsnyttan och en dialog bör föras under projektets gång. Danmark som har lekmannamajoritet i sina nämnder framfördes som ett exempel.

Slutligen, det finns anledning att vända på seminariets huvudfråga. Är det etiskt försvarbart att inte forska på dessa patienter med nedsatt beslutsförmåga?

Text: Eva Magnusson

Textens orginal




Vad är nanoteknik

Nanoteknik Wikipedia

Nanoteknik betecknar teknik med en storlek lämpligt mätbar i nanometer. Det kan användas inom elektronik och materialteknik, men även inom kemiska och biologiska tillämpningar.

Nano- är ett prefix som betyder miljarddel och kommer från det grekiska ordet nanos som betyder dvärg. En nanometer, nm, är en miljondels millimeter, en tusendels mikrometer; att jämföra med en typisk atom som är drygt 0,1 nm i diameter.

Nanoteknik och nanovetenskap handlar om att studera och manipulera materien på atomär nivå, speciellt för att på detta sätt kunna designa speciella egenskaper och funktionalitet. Populärt kallas detta ibland för atomslöjd.

Samtliga industrigrenar påverkas redan eller kommer att påverkas av nanotekniken. Detta är knappast överraskande för de två flaggskeppsområdena bioteknik och informationsteknik, men det förväntas gälla även områden som fordonsteknik, livsmedelsteknik, byggnadsteknik, m.m.

Det finns redan åtskilliga exempel på nanoteknik inom dagens industri och i vissa fall är det först på senare tid man har uppmärksammat att det man sysslat med i många år faktiskt är nanoteknik. De flesta exemplen på detta är användning av nanopartiklar: slitstarka däck, tillverkning av målarfärg och cement, UV-filter i solkräm och så det äldsta exemplet av alla, färgat glas. Idag tillverkas flera ton nanopartiklar av titandioxid om dagen och magnetiska nanopartiklar för hårddiskar eller bandmedia är också storindustri. Nanostrukturerade ytor som inte repas och inte blir smutsiga har börjat dyka upp i stekpannor och på byxor.

Inom biologi och medicin behövs verktyg och kunnandet för att jobba på molekylär skala och sekvensering. Ultra-fin kirurgi och magnetiska nanopartiklar kan användas för speciell behandling. Nanoteknik är generellt viktig inom medicinsk diagnos liksom för att skapa nya material för implantat och proteser.

Den hittills kanske viktigaste tillämpningen av nanoteknik är katalys där designade nanostrukturer används för att kontrollerat bryta ner större molekyler. Elektronikindustrin är på god väg att transformeras från mikro- till nanoelektronik, men de traditionella litografiska tillverkningsmetoderna kan inte utan vidare skalas ner till nanodimensioner. Ska elektronikens miniatyrisering fortsätta kommer nya metoder att behövas och av speciellt intresse är att härma naturens eget sätt att självorganisera sig på nanoskalan.

Det planeras även att bygga en månbas och med hjälp av nanotekniken kan detta bli möjligt. Med hjälp av nanoteknik kan nämligen ett nästan obegränsat förråd med syre utvinnas. Detta kan användas till att bygga en koloni på månen.

Partiklar i nanostorlek har helt andra egenskaper än ursprungsmolekylen. Silver i hudkrämer och sportkläder kan tränga in via huden till blodbanan och ta med sig toxiska molekyler. Hälso- och miljöeffekter av nanopartiklar är i stort sett okända. Forskningen på detta område är mycket liten.

Böcker om nanoteknik [redigera]

  • A. Fernholm, E. Ingvald, E. Sjöstedt: Där guld glimmar blått: Forskare om den lilla nanorevolutionen. Vetenskapsrådet 2007.
  • S. Holmlund, H. Olin: Nanorevolutionen – Från nobelpris till din vardag. Santérus förlag 2011. Förord av Anders Bárány. ISBN 978-91-7359-043-3.

Se även [redigera]



Elektoder i Hjärnan Sveriges Radio

Sveriges Radio, Jag och min nya hjärna

Filosofiska rummet!

Lyssna till 40 minuter Sveriges radio P1, om människan, moralen och existensen.

Publicerad Söndag 14 januari 2007

Idag pågår allt fler försök med hjärnproteser som kan reparera och byta ut skadade delar av vår hjärna.

Längst har forskarna kommit vad gäller hörseln där döva patienter fått implantat som återskapat en viss del av hörseln. Vad blir nästa steg?

Forskarnas förhoppningar är stora: förlamade personer kan lära sig gå, stumma tala och den som glömt det mesta kan kanske börja minnas igen.

Men hur mycket kan vi förnya hjärnan utan att förändra det som vi uppfattar som vårt jag?
Är min personlighet kopplad till just min hjärna?
Med delvis ny hjärna – vem är jag då?

I Filosofiska rummet Jag och min nya hjärna ställs de klassiska filosofiska frågorna om jagets natur, den personliga identiteten och den fria viljan mot den nya hjärnforskningen.

Programledare Marie-Louise Kristola samtalar med Martin Ingvar, professor i neurofysiologi, Åsa Wikforss, docent i teoretisk filosofi och Lars Bergström, professor emeritus i praktisk filosofi.

Lyssna och ladda ner hela programmet (MP3) här

Producent: Åsa Furuhagen Vestergren, SR Samhälle.

Boktips: En levande själ av PC Jersild
The Illusion of Conscious Will av Daniel M. Wegner
Nyckelord

* I vår tid
* Kunskap och kognition

SR Filosofiska rummet.



Elektoder i Hjärnan Sveriges Radio

Tema Hjärnans språk och spår

VETANDETS VÄRLD, tis 20 maj

TEMA HJÄRNAN
Hjärnans språk och spår

Publicerat: tisdag 20 maj 2008
Hjärnans språk och spår (19:29)
Hjärncellerna har ett eget språk när de signalerar till varandra, och det språket består av små elektriska och kemiska impulser. Tack vare oändligt små elektroder som kan föras in i hjärnan kan forskarna nu lyssna på hur hjärncellerna kommunicerar – och prata själva med hjärnceller som inte fungerar som de ska

Tack vare oändligt små elektroder som kan föras in i hjärnan kan forskarna nu lyssna på hur hjärncellerna kommunicerar – och prata själva med hjärnceller som inte fungerar som de ska.

Elektrodbyggaren Lars Wallman, minnesforskaren Henrik Jörntell och neurokirurgen Hjalmar Bjartmartz jobbar alla med hjärnans språk.

I vetandets värld ska vi till Nanoneuro Research Center på Lunds universitet och ge oss in i de grå vindlingarna på djupet.

Öppna spelaren här

Elsa Helin
vet@sr.se



Filosofiska aspekter i ett nytt IT paradigm

ROBOTS AND MORAL AGENCY

ABSTRACT

Johansson, L. (2011) Robots and Moral Agency. Theses in Philosophy from the Royal Institute of Technology 37. 52 + vii pp. Stockholm. ISBN 978-91-7415-898-4.

Machine ethics is a field of applied ethics that has grown rapidly in the last decade.  Increasingly advanced autonomous robots have expanded the focus of machine ethics from issues regarding the ethical development and use of technology by humans to a focus on ethical dimensions of the machines themselves. This thesis contains two essays, both about robots in some sense, representing these different perspectives of machine ethics.
The first essay, “Is it Morally Right to use UAVs in War?” concerns an example of robots today, namely the unmanned aerial vehicles (UAVs) used in war,
and the ethics surrounding the use of such robots. In this essay it is argued that
UAVs might affect how the laws of war (LOW) are interpreted, and that there
might be need for additional rules surrounding the use of UAVs. This represents the more traditional approach of machine ethics, focusing on the decisions of humans regarding the use of such robots.

The second essay, “The Functional Morality of Robots”, concerns the
robots of the future – the potential moral agency of robots. The suggestion in this essay is that robots should be considered moral agents if they can pass a moral version of the Turing Test. This represents the new focus of machine ethics: machine morality, or more precisely, machine agency.

Keywords: machine ethics, UAV, laws of war, robot morality, moral agency, Moral
Turing Test

© 2011 by Linda Johansson

ISSN 1650-8831
ISBN 978-91-7415-898-4

Read article here:

http://www.google.se/url?sa=t&rct=j&q=robots%20and%20moral%20agency&source=web&cd=4&ved=0CEkQFjAD&url=http%3A%2F%2Fkth.diva-portal.org%2Fsmash%2Fget%2Fdiva2%3A410512%2FFULLTEXT02&ei=6Z_rTuSyJeuL4gTGvd37CA&usg=AFQjCNG9kGHeoMoknXF5SoyGzVAJ7g4eOQ&sig2=vGAWqiXIFRVE8ZQbKDZyCw



Filosofiska aspekter i ett nytt IT paradigm

Lunds Universitet. Vad är fel med att döda?

• I föregående kapitel har vi sett hur PLHI kan användas för att argumentera för
slutsatsen att människors och djurs intressen bör ges samma vikt.
• Det är dock mindre klart vilken relevans principen har för frågan om när det är fel
att döda djur, eftersom det är oklart vilka intressen djur har.
• Syftet med kapitlet: att redogöra för varför det i allmänhet är fel att döda
människor och djur. När vi har svar på den frågan blir det lättare att avgöra om det
är fel att döda i problematiska fall. [Notera att S här inte begränsar sig till skäl som
har med intressen att göra utan tar upp alla skäl som ”inte kan avfärdas utan
vidare” (s. 96).]
• Han börjar med följande fråga: nästan alla anser att det är värre att döda en
(normal vuxen) människa än ett djur. Vad kan motivera denna uppfattning?
• Ordet ’människa’ är tvetydigt:
1. Medlem av arten Homo Sapiens. En rent biologisk definition. Täcker in även individer som
saknar de egenskaper som vi ser som specifika för människan.
2. Person. En ”moralisk” definition. Täcker in alla varelser som har rationalitet och
självmedvetande. Inte alla medlemmar av Homo Sapiens är personer, och kanske kan det
finnas personer som inte tillhör HS.

Läs hela artikeln



Forskning som förändrar Övervakning, Integritet och Autonomi, Nya teknologier för människa-maskin-integration

Tänk om örat fungerade som en radioapparat.

”Hmm, jag tror att jag vill lyssna på ettstrukna A en stund.”

Vi skulle ställa in örat på 440 hertz, lyssna på ettstrukna A en stund, och sedan kanske vi byter kanal. Kanske ett E på 330 hertz?

Livet skulle onekligen bli rätt besvärligt om örat var konstruerat som en radio. Vi skulle behöva använda morsealfabetet för samtal.

Vi är så vana vid att örat kan lyssna på ett brett spektrum av frekvenser från runt 20 svängningar i sekunden (hertz) till uppåt 20 000 hertz – åtminstone när vi är unga – att vi inte tänker på det. Det är sju oktaver som vi hör på en gång – från lägsta orgelbas till piccolaflöjt.

Men varför kan inte en radio fungera som örat? Det frågade sig Rahul Sarpeshkar, docent vid Massachusetts Institute of Technology.


Bästa spektralanalysatorn. Hörselsnäckan reagerar på olika frekvenser ungefär som när resonans sätter strängarna på en flygel i rörelse.

Varför kan inte en radio lyssna på ett spektrum av frekvenser på samma gång?

Nu är vi kanske inte så intresserade av att lyssna på fler än en radiokanal åt gången. Men tänk om en enda krets i mobiltelefonen kunde hålla koll på flera radiofrekvenser hela tiden – 3g, gsm, bluetooth, wi-fi, gps. Inte genom att skanna sig igenom frekvensbandet – ett automatiserat rattande – utan verkligen lyssna på alla frekvenserna på en gång.

Sarpeshkar tog människans hörselsnäcka till förebild och konstruerade en ny typ av radio.

Resultatet är en liten krets på 1,5 gånger 3 millimeter. Den kallas för RF Cochlea, RF för radio frequency och cochlea för hörselsnäckan.

Man kan se det som en spektralanalysator, ett slags apparat som har funnits i olika former sedan 1800-talet.

En spektralanalysator mäter signalstyrkan i ett helt spektrum av frekvenser.

Men Sarpeshkars radiohörselsnäcka har visat sig vara mycket snabbare än traditionella konstruktioner.

Nyckeln ligger i att Rahul Sarpeshkar och hans doktorand Soumyajit Mandal undersökt hur örat fungerar och överfört principen till elektronik.

– Ju mer jag tittade på örat, desto mer insåg jag att det är som en superradio för 3 500 parallella kanaler, säger han i ett uttalande från MIT.

Sarpeshkar är docent i elektronik, men inte specialist på radioteknik – vilket han tror var en fördel:

– Någon som jobbar med radio skulle aldrig komma på detta, och någon som jobbar med hörsel skulle aldrig komma på det – men om man slår ihop båda två så ger de två insikter om varandra, säger han.

Örat analyserar ett brett spektrum av svängningar i luften, ljudvågor, snabbare än vad någon elektronisk apparat kan göra, och utvecklingsarbetet ledde till insikter om varför det är så.
Hörselsnäckan är en intrikat vätskefylld struktur, fylld med en vätska som sätts i rörelse av ljudvågorna som kommer in i örat.

Vätskan påverkar ett membran, basilarmembranet, som har en sådan form att olika frekvenser påverkar olika delar olika mycket.

Basilarmembranet är täckt med små hår, hörselhår, som reagerar på membranets rörelser och skickar iväg hjärnimpulser till hjärnan. Impulserna innehåller information både om ljudets frekvens och om ljudstyrkan. (I själva verket ingår det fler steg i processen, men de är principiellt mindre viktiga.)

Rahul Sarpeshkar har utformat en elektronisk motsvarighet till hörselsnäckans vätska och membran genom ett system av elektriska spolar och kondensatorer. De små håren som upptäcker och förmedlar ljud av olika frekvenser motsvaras av små transistorer.

Kretsen är inte bara väldigt liten, den är också strömsnål. Vilket frekvensomfång som den kan hantera beror på hur man konstruerar den.

Tekniken är i grunden analog, men kan få stor betydelse för trådlös digital kommunikation.

Den kan bidra till att förverkliga det som kallas för mjukvarudefinierad radio. Mjukvarudefinierad radio innebär att (till exempel) en mobiltelefon har en radiomottagare, inte tre eller fyra. En modern mobiltelefon kan ha en mottagare för 3g och gsm, en annan för bluetooth, en tredje för wi-fi och en fjärde för bluetooth, och kanske dessutom en gps-mottagare. Tillverkarna hoppas naturligtvis att det ska räcka med en enda mottagare.

Kognitiv radio – tänkande radio – är en annan målsättning. Där tänker man sig att två radiosystem ska kunna komma överens om hur kommunikationen ska gå till – vilken frekvens som ska användas, modulering, kryptering. De ska kunna komma överens om att välja en radiofrekvens som är ledig och fri för störningar.
Hittills finns det bara en elektronisk krets, men inga produkter.

Computer Sweden



Forskning som förändrar Övervakning, Integritet och Autonomi

Sveriges Radio Journalistik 3.0 Medieormen ömsar skin

FRAMTIDSSTUDIER. Internet handlar verkligen inte bara om medierna. Internet förändrar också samhället på så många andra områden. Och dessa kan vara väl så viktiga som medierna: sjukvården, utbildningen, trafiksäkerheten. Ja, hela samhället förändras. Möjligen är det dessutom helt andra tekniska landvinningar som verkligen kommer att förändra vår tillvaro. Det kanske är den småskaliga biotekniken som ställer våra föreställningar på huvudet. Nya läkemedel leder till att vi lever längre.
Det är så besynnerligt: när vi försöker titta in i framtiden vänder vi oss alltid bakåt för att se vad som har förändrats tidigare och tror att det blir så också i framtiden: mer av det som redan har skett.

Christian Science Monitor, Disruptive Civil Tehnologies, National Intelligence Council, Internet of Things, IoT, Machine to machine, M2M, RAND Corporation, ubikvitär, Markus Gossas, Torbjörn Lundqvist

För oss som verkar i mediesektorn ligger föreställningen nära till hands att just vi befinner oss i den tekniska omvandlingens epicentrum. Inte någonstans har it-teknikens genomslag blivit tydligare än i medieföretagens verksamhet.
En tidning är inte längre en tidning utan en tidning och en internetsajt – och i ett antal fall i USA bara en internetsajt. Till de internetiserade tidningarna hör den klassiska amerikanska kvalitetstidningen Christian Science Monitor som bara kommer ut i tryckt form en gång i veckan men som i övrigt publiceras på nätet. Det är alltså en dagstidning på nätet men ett tryckt veckomagasin.

Än mer tydlig blir medieomvandlingen när man inser att man inte längre behöver ha någon radio- eller tv-apparat för att lyssna på radio och titta på tv. Det går lika bra med en dator eller en mobiltelefon.
Frågan är om det alls kommer att finnas speciella radio- och tv-apparater om tio eller femton år? Frågan kan till och med ställas om det i framtiden alls kommer att finnas radio- och tv-sändningar av det slag som har funnits i nästan 100 år, det vill säga tablålagda program i standardiserade format.
Men om man ser till de större framtidsstudier som har genomförts under senare år är på intet sätt mediesamhällets omdaning, inte ens it-utvecklingen som sådan, i fokus. I en stor studie om Disruptive Civil Technologies beskrev amerikanska   för några år sedan teknologiska genombrott som under perioden fram till 2025 kan medföra mer avgörande förändringar av samhället. ICT 2020: Research for Innovations (2007) (pdf)

På denna framtidens tekniska utvecklingskarta kvalade inte medierna över huvud taget in. Endast ett av utvecklingsperspektiven handlar om it-teknik. NIC talar om att en opersonlig it-kommunikation är på väg att utvecklas. Maskiner kommer att kommunicera med andra maskiner, det som kallas IoT (Internet of Things) eller M2M (Machine to machine).

Mer om Internet of Things och data som det nya mediet i
Framtidsutredningen: Tekniken blir snabbare och mer tillgänglig

De fem övriga utvecklingsperspektiven är

  • Biogerontechnology -möjligheterna att påverka åldrandet med hjälp av biomedicin,
  • Energy Storage Materials – helt nya energilagringsteknologier (jfr elbilar),
  • Biofuels and Bio-Based Chemicals – biodrivmedel och kemikalier byggda på förnyelsebar råvara,
  • Clean Coal Technologies – ren kolförbränningsteknik samt
  • Service Robotics – robotar som kan utföra kvalificerade servicetjänster

RAND Corporation (pdf) har i en omfattande studie publicerad 2006 angivit 56 viktiga tekniska tillämpningar av ny kunskap i tidsperspektivet 2020. RAND har sedan särskilt lyft fram 16 av dessa tekniktillämpningar som kan få särskilt genomslag. Av dessa är det blott fyra som har en direkt it-anknytning. Ingen handlar direkt om medier, däremot indirekt:

  • Trådlös kommunikation på landet, tillgång till telefon och internet över stora områden.
  • Teknik för ubikvitär tillgång till information var som helst och när som helst.
  • Ubikvitär RFID14 uppmärkning av kommersiella produkter och individer.
  • Sensorer för övervakning i realtid.

Den tyska rapporten Nationel Intelligence Council (NIC) (pdf) från förbundsregeringens ministerium för utbildning och forskning beskriver en framtid där det inte längre är medieutveckling och it-teknik av traditionellt slag som driver på utvecklingen. I stället är det företagens it-användning och den inbyggda it-tekniken i vardaglig tillämpning som driver den fortsatta utvecklingen.
German Association for Information Technology, Telecommunications and NewMedia (BITKOM) anger i sin studie  “Zukunft der digitalen Wirtschaft” (The Future of the Digital Economy) fyra megatrender när det gäller it-utvecklingen: marknadernas konvergens, alltmer flexibla organisationer, it-tekniken finns överallt och den helt obegränsade användningen av digital information.

Ubikvitär är ett av den ”nya” nya teknikens modeord. Det är lika bra att lära sig det. Det betyder ”allestädes närvarande”.

Det svenska Institutet för Framtidsstudier tecknar i en nyligen publicerad rapport Ubikvitär framtid? It-perspektiv på stat och samhälle (pdf) och samhälle (författad av Markus Gossas och Torbjörn Lundqvist) en framtidsbild av teknikutvecklingen. Ubikvitär är ett av den ”nya” nya teknikens modeord. Det är lika bra att lära sig det. Det betyder ”allestädes närvarande”. Och det är vad internet tänks vara någonstans mellan Web 2.0 och Web 3.0, ungefär Web 2.2.5 .
Rapporten rör it-utvecklingen men slutsatserna vidgar perspektivet avsevärt.

Det handlar om en mångvetenskaplig förståelse av kulturen och förhållandet mellan människan och naturen:
”Det tekniska paradigm som förväntas ta form kommer, om förväntningarna uppfylls, att integrera nano-, bio-, informations- och kognitionsvetenskap (NBIC) på nya sätt. Det innebär att möjligheterna till biologisk och kognitiv kontroll kommer att öka, med åtföljande social och politisk osäkerhet. NBIC kan ge nya möjligheter till mänsklig kontroll över naturen med åtföljande välfärd, men även kontroll över människan, dvs nya tekniker för maktutövning. Samtidigt som informationssamhället mognat genom applicering av u-it och samtidigt som vi anar början på NBIC-paradigmet så befinner sig offentliga sektorn i eftersläpning.”

Det handlar också om mediesamhället:
”Den ubikvitära informationsteknologin innebär också enorma möjligheter för underhållningsindustrin. Medan de tv- och datorspel som utvecklades under 1970-talet och följande decennier var aktiviteter avgränsade mellan en eller ett par användare och en dator, är dagens spel något som involverar tusentals användare och som bygger på masskommunikation, social interaktion och identitetsbygge. Spelvärldarna tenderar redan idag att anta drag av alternativa platser eller samhällen som är mer än vad som traditionellt kallas ”spel”; snarare kollektiva fantasier och öppna berättelser. Genom u-it förstärks de simulerade verkligheterna och flyter ihop med den fysiska världen, och med sociala medier och kommunikationssystem. De blir mindre av separata platser och mer som ständigt närvarande dimensioner med egna händelseförlopp. ”

Frågan kan med skäl ställas om det tekniska framsteget med självklarhet också är ett kulturellt och samhälleligt framsteg:
”Övergången från kablar och persondatorer till intelligenta miljöer och internet överallt kan uppfattas som en modernisering, ett framsteg tekniskt och socialt (och kanske även kulturellt). Frågan är om detta är så självklart. Tekniska revolutioner som boktryckandet och televisionen har inneburit eller åtminstone förknippats med modernisering även socialt, t ex i form av folkbildning och tillgång till information. Samtidigt har innovationer inom informationsteknologin rymt mindre rationella sidor. Exempelvis sprider tv bilder över världen och informerar om händelser globalt, men fungerar även som propagandainstrument.
Internet frigör information och ger ökade möjligheter att söka information på egen hand och även sprida budskap, vilket kan verka progressivt eller demokratiserande. Men samtidigt öppnar Internet och sociala medier dörrar in i fantasivärldar och en verklighetsflykt som kan anta irrationella och antidemokratiska drag. På nätet formas nya gemenskaper och identiteter, en del kring alternativa världs- och verklighetsbilder som konspirationism, politisk paranoia och ockultism.
Det offentliga rummet splittras, och på sikt kanske även gemensamma föreställningsramar, en utveckling mot ett ”postmodernt” samhälle i ordets rätta bemärkelse som underlättas av Internet. När allt större del av samhällslivet utspelar sig ”på nätet” följer en förskjutning av makt över opinionsbildningen, en utmaning mot traditionella institutioner som massmedia, företag och myndigheter.”

Rapporten från Institutet för framtidsstudier tecknar också ett lika intressant som viktigt ekonomiskt-historiskt perspektiv (se diskussionen om Erik Dahmén):
”Ett annat scenario, åtminstone metodologiskt, är att utgå från forskning om långa vågor i ekonomin. Christopher Freeman och Carlota Perez är ledande namn inom detta neo-Schumpeterianska15 område. Man har därför talat om ett ”Schumpeter-Freeman-Perez-paradigm”. … Hur skulle en skiss till ett scenario som bygger på Perez kunna se ut? (Perez 2006). Det har förekommit tekniska revolutioner med 40–60 års mellanrum sedan 1771 med detta synsätt. Den femte tekniska revolutionen inleddes i början 1970-talet och kallas av Perez ”Age of Information and  Telecommunications”. Den startade i USA och spreds sedan till Europa och Asien. …
Ett grundläggande kännetecken för it-paradigmet är globaliseringstrenden, vilken i sig är en konsekvens av it. Framtiden för it anses vara sammantvinnad med framtiden för den globala ekonomin, som i sin tur påverkar nationella och regionala ekonomier. Strävan mot att nå en gigantisk global marknad är en direkt konsekvens av de möjligheter som ligger i it. Tekniken möjliggör samordning långt utöver vad som var möjligt i de gamla företagspyramiderna. Flera av de viktigaste faktorerna för den nuvarande globaliseringen kommer från innovationer eller förändringar i företagsbeteende baserade på it. Innovationer inom it utgör grunden för utvecklingen inom de flesta branscher och sektorer, och inte minst inom teknologier som bio och nano. En historisk parallell är oljans betydelse under 1900-talet. Under mer än ett halvt sekel angav oljebaserad massproduktion riktningen för innovationer inriktade på energi- och materialintensiva produktionsmönster och levnadssätt.
/…/
Förmodligen sker många överraskande framsteg  vid den tvärvetenskapliga fronten – bio-nano, bio-info, bio-info-nano. Man talar ibland om en NBIC-konvergens som kan komma att förändra människan och samhället i grunden (Fontela 2006). När det gäller efterfrågedrivna innovationer handlar det om nya applikationer inom redan känd teknik, inte minst inom it  och bio. Områden som ses som intressanta för nya innovationer inom det rådande teknikparadigmet är tillverkning, livsmedel, tjänster, miljö, kommunikation, transport, energi, hälsa och säkerhet. Exempel är bioteknikens betydelse för läkemedel och livsmedel, it inom miljö, säkerhet, hälsa, utbildning och kommunikation.”

Internationellt finns det ett oräkneligt antal framtidsstudier. Problemet med praktiskt taget varje framtidsbeskrivning är att det stora frågetecknet trots allt inte är vad som skall hända utan när det kommer att hända.
På fem års sikt kommer den mediestruktur vi har idag att väsentligen bestå. Men inom denna struktur kommer likväl stora förändringar att ha skett. Det är inte oviktigt om de stora tidningarna, med samma namn som i dag och i stort sett bemannade med samma journalister, har gått över från att vara utpräglade nyhetstidningar till att bli ett slags dagliga featuremagasin.
Lika lite som vi idag förstår hur framförallt dagstidningar och de stora tv-kanalerna redan har förändrats kommer vi att förstå hur viktiga förskjutningarna under de kommande fem åren i hela mediestrukturen kommer att vara.

På ytan kommer det fortfarande att se ut som om inte så mycket har hänt. Strukturerna håller nog för ytterligare några jordskalv. Men förr eller senare inser vi att strukturerna inte längre finns kvar, att det är något annat som står där i stället för de mediala institutioner som bar upp demokratin.

I Sveriges Radios Framtidsutredning tecknas fyra framtidsscenarier , som bland annat fokuserar på framtiden för demokratin och medielandskapet.

http://sverigesradio.se/sida/artikel.aspx?programid=3938&artikel=4170770



Videos

Did You Know?



Nya teknologier för människa-maskin-integration, Politik, Civil-Militär-Forskning

Brain-Computer Interfaces Based on Transcranial Doppler Ultrasound

Brain-Computer Interfaces Based on Transcranial Doppler Ultrasound

09/13/2011, 3:44 pm

Recent developments may yield practical brain computer interfaces (BCI) that work by using transcranial doppler ultrasound or related technologies.  TDU is an imaging technique that can record the movement of cerebral blood flow.  These types of scanning tools may possibly have benefits when compared to other technologies like an EEG.  Ultrasound is perhaps best known for its ability to image a fetus in the womb but it has numerous legitimate alternate applications as well.  Scientists at the Bloorview Research Institute in collaboration with other organizations have used sonography to investigate the practicality of a novel brain machine interface.

The scientists used high frequency sound pulses to classify the cerebral blood flow velocity changes in response to specific mental tasks.  Changes in the frequency of the waves are determined by the speed of the blood.  Blood perfusion is linked to the firing of brain cells.  They asked participants to perform either a visuo-spatial rotation, a word generation task or relax and do nothing.  The scientists were able to distinguish between the different assignments at a level greater than chance.  A few of the benefits of transcranial doppler sonography is that it is highly portable and light weight.   It is also less expensive when compared to functional magnetic resonance imaging or magneto-encephalography.  The temporal resolution is decent and this aspect allows it to decipher dynamic changes within the brain.  There are a lot of drawbacks that have prevented it from being employed in a few of these other industries.  Perhaps with new breakthroughs, though, a BCI based on very focused ultrasound could allow disabled people to move just by thinking.  This work only studies major blood vessels, but new developments mean tinier regions can be visualized as well.  It might be able to analyze the neural changes associated with motion and then translate those signals to operate a wheelchair or robotic appendage.  Functional micro-ultrasound can help scientists understand the inner workings of animal minds as a related example.  This recent study seems extremely crude and they only looked for activity in the major cerebral arteries.

Nano ultrasonic transducers are being synthesized by a number of organizations.  Nanotechnology can enhance the usability of the devices and may lead to very small parts that can be implanted on the head.  This could become a relatively non-invasive computer interface as the skull wouldn’t need to be breached.  The transducers could be put underneath the skin so they could deliver controlled pulses.  The military is also investigating portable ultrasonic imaging for use in battlefield areas.  The army may take advantage of better machine interfaces.  It remains to be seen if this could be used for complex BCIs.  There has been progress towards utilizing an EEG to attempt to read a person’s speech thoughts.  Certain regions of the brain related to speech are activated when a person is thinking to themselves.  This activity can potentially be read by a BCI and then translated into computer software that would read aloud those thoughts using an artificial voice synthesizer.  This can currently be done in a rudimentary way by using an fMRI.  The ultrasound or other portable modalities may never have the resolving power to be able to do this.  However, it is worth pursuing to create better next generation machine interfaces.

The paper is titled “A Brain-Computer Interface Based on Bilateral Transcranial Doppler Ultrasound

Original link



Politik, Civil-Militär-Forskning

FMV Miniatyrisering Teknisk prognos 2005

Läs rapporten här



Etik och debatt-Nya Teknologier

Neuroetik – Centrum för bioetik (Uppsala universitet och Karolinska) ska för första gången arrangera en kurs, samt en konferens, i ämnet neuroetik.

Centrum för bioetik (Uppsala universitet och Karolinska) ska för första gången arrangera en kurs, samt en konferens, i ämnet neuroetik. Bakgrunden är de senaste årens revolutionerande upptäckter om hjärnans funktioner.
- Man vet i dag mycket om vilka funktioner i hjärnan som ligger till grund för exempelvis beteende, personlighet, beslutsfattande och moral, säger Kathinka Evers, docent i filosofi och ansvarig för ämnet vid Centrum för bioetik.
Det är möjligt att mäta aktiviteter i hjärnan med en mängd olika tekniker och det har utvecklats metoder att påverka hjärnans funktioner med olika läkemedel och så kallade rationella droger. Det innebär nya möjligheter att hjälpa personer med hjärnskador efter en olycka eller sjukdom, men i princip också möjligheter att förbättra förmågor även hos friska.
- Fast vad som utgör en ”förbättring” måste förklaras, liksom vad som är ”friskt” eller ”normalt”. Ambitionen att designa den mänskliga hjärnan väcker en mängd svåra etiska, sociala och juridiska frågor, säger
Kathinka Evers.

SvD artikel



Etik och debatt-Nya Teknologier, Forskning som förändrar Övervakning, Integritet och Autonomi, Hjärninspirerade datorer, Nya teknologier för människa-maskin-integration, Politik, Civil-Militär-Forskning

Inom tio år är den konstgjorda hjärnan inte längre science fiction

Gyllene framtid? Inom tio år räknar forskarna med att en konstgjord
mänsklig hjärna ska vara klar, förhoppningsvis mer klartänkt än
roboten C3PO ur “Stjärnornas krig”.

Inom tio år är den konstgjorda hjärnan inte längre science fiction

100 forskare har arbetat med saken i sex år.
Nu är de klara.
De har uppfunnit grunden till en konstgjord hjärna.

Nyhetsbyrån Associated Press rapporterade nyligen om ett tekniskt framsteg som kanske inte lät så märkvärdigt.
IBM har utvecklat två prototyper till processorer som bearbetar information på ett nytt sätt.

Men nyheten är ett genombrott. De nya processorerna påminner nämligen mer om en mänsklig hjärna än om en dator. Utvecklingen har tagit 100 forskares arbete i anspråk under sex år, och kostat elektronikjätten 250 miljoner kronor.

Processorerna är egentligen inte speciellt bra på någonting, men det handlar inte om det, menar IBM. Det handlar om HUR de inte är speciellt bra på någonting – ungefär som människor. Vi är inte heller speciellt bra på någonting, men vi är ganska mångsidiga. Vi är, beskriver teknikskribenterna på sajten Cnet.com, särskilt bra på att vara ganska usla på väldigt många olika saker samtidigt. Och det innebär att vi är väldigt skickliga på att behandla stora mängder information från många olika källor samtidigt. Det är fördelat på varje enskilt moment vi aldrig lyckas fullt ut.

Vi är, kort sagt, väldigt mångsidiga. Och när vi inte har all information gissar vi och bygger antaganden på erfarenheter. Och DET, det kan ingen dator i världen. Förrän nu.

Dharmendra Modha, projektledare för processorutvecklingen, menar att nyckeln är att behandla stora mängder data parallellt. För så gör människo­hjärnan.
- Olika delar hos processorna fungerar som neuroner och synapser. Varje sådan del har en beräkningsdel, en kommunikationsdel och minnesfunktioner. Nyckeln är att minne och beräkningsdel förts väldigt nära varandra. Det ger en hög grad av parallellism.
Tidigare har man simulerat sådana samband i superdatorer. Dharmendra Modha var med när IBM lyckades simulera 40 procent av en mushjärna 2006 och en råtthjärna 2007. Med de nya kretsarna kanske superdatorerna inte behövs i framtiden. Åtminstone inte som de ser ut i dag.
Just nu pågår förberedelserna för att bygga en dator som i varje detalj ska efterlikna, ja, simulera, den mänskliga hjärnan. Arbetet finansieras av EU-medel och sker främst i Tyskland, men följs av forskare inom en rad discipliner över hela världen. För att övervaka de etiska aspekterna av arbetet har ett internationellt forskarråd bildats, ungefär i stil med de etiska råd som granskar djurförsök.
Man har redan kommit långt. Genom att använda världens kraftfullaste superdator, IBM:s Blue Gene i Tyskland, har man redan konstruerat en mushjärna – in i minsta synaps. Tekniken finns. Kunskapen också.

Bäst, eller kanske värst, av allt är att det här inte är science fiction. Det är på riktigt. Alltihop.

- Det går naturligtvis inte att veta säkert, men inom tio år har vi antagligen en konstgjord mänsklig hjärna att experimentera med, säger Anders Lansner, professor i “computational biology” vid Kungliga tekniska högskolan i Stockholm.
Anders Lansner har jobbat i flera år med datorsimuleringar. Han var tidigt ute med neurala nätverk, sammankopplade datorer som fungerade som ett knippe hjärnsynapser. Under många dygn stod de sammankopplade datorerna och “drömde” om olika mönster – precis som en hjärna gör i brist på andra stimuli.
Sedan datorerna uppfanns på 40-talet har de varit bättre än mänskliga hjärnor på att utföra en enstaka arbetsuppgift. De har kunnat räkna snabbare. Komma snabbare till logisk slutsats. När robottekniken kom i gång på allvar under slutet av 70-talet och början av 80-talet kunde datorer och robotar tillsammans bygga bilar, flygplan och andra datorer. Men inte tack vare någon form av egen intelligens, utan enligt mycket specifika instruktioner. Då hävdade vi att de tog jobben ifrån oss, innan vi vande oss och kunde konstatera att visst gjorde de det, men bara de tråkiga.
Nu är en ny teknikdebatt på tapeten. Den här gången handlar det om datorernas intåg på ett annat område som varit människornas domäner; intelligens, självinlärning och förnuft.
Problemen med artificiell intelligens är flera, men det största är att den mänskliga hjärnan är för snabb. Inte på rena beräkningar, men när det gäller att behandla information parallellt. Signaler från ögonen behandlas på tusentals närliggande platser i hjärnan samtidigt.
Ett sätt att möta det är att utveckla datorer som arbetar parallellt. Faktum är att de flesta datorer som säljs i dag arbetar med parallellteknik. En modern Intel Core-processor har inte en, utan flera processorkärnor som arbetar oberoende av varandra. Seriekopplar man hundra sådana processorer får man en snabb dator. Seriekopplar man tusentals får man något som kan programmeras till att efterlikna en biologisk dator – ett neuralt nätverk.
Men steget är fortfarande långt till en komplett hjärna. En mänsklig hjärna består av ungefär hundra miljarder hjärnceller, alla sammankopplade i ett intrikat mönster och som kommunicerar med varandra på ett sätt som vi bara kan reproducera i teorin eller möjligen i petriskålar under ett mikroskop. Att konstruera en kiselbaserad dator på samma sätt går helt enkelt inte.

Men det går att simulera en hjärnas funktion i kisel. Det kräver bara helt vettlösa mängder beräkningskapacitet.

- Blue Gene mäter 25 gånger 25 gånger 3 meter och drar en megawatt el under drift. Och med den kan vi alltså simulera en mushjärna. Men nästa generation superdatorer kommer att klara av en människohjärna. Projektet Human brain project går ut på att man under en tioårsperiod ska bygga en dator som simulerar hjärnan i fullstor skala, säger Anders Lansner.
Men syftet är egentligen inte att skapa den fulländade artificiella intelligensen. Det blir i så fall en intressant bieffekt. Syftet är att studera hur hjärnan fungerar, något som läkemedelsbranschen behöver för att kunna utveckla effektivare mediciner, och för annan typ av forskning kring sjukdomar och inlärningsmönster – forskning som sedan i sin tur kan leda fram till nästa steg på evolutionsstegen: Praktiska tillämpningar. Varför inte leksaksnallar som kan stå och gå och föra en intelligent konversation med barn?
Anders Lansner skrattar först, men jodå, han kan tänka sig en sådan utveckling. Men det kommer att dröja.
- När de första stordatorgenerationerna är klara med sina beräkningar tar det minst ett decennium innan man lyckas krympa ned tekniken till kon­sumentelektronik. Vi pratar rimligen om 20-25 år. Men det är rena gissningar. Men det kommer att hända, och jag säger inte att det tar hundra år, för det tror jag inte det gör.
Men hur förhåller man sig till en tänkande maskin? Vi människor har en tendens att ge krånglande tekniska prylar en personlighet redan nu, alldeles utan artificiell intelligens; vi skäller på mobiltelefonen som stavar fel, och på datorn som inte vill starta. Frågan är hur vi kommer att behandla teknik som faktiskt kan resonera med oss.
Per Naroskin, psykolog och radiopratare i programmet “Spanarna”, håller med om att vi pratar med våra prylar redan. Men om det förändras när tek­niken blir intelligentare tvivlar han på.
- Man kan inte tänka sig en kropp utan en hjärna, kan man då tänka sig en hjärna utan en kropp? Intelligens är inte ett frikopplat begrepp, utan en del av ett somatiskt begrepp. Där kommer hormoner, njutning, smärta och sådant in. Kan man tänka sig ett intellektuellt människolikt väsen utan de referenser som smärta, njutning och saknad ger? Jag tror inte det, säger han.

För en maskin kan helt enkelt inte bli en människa, på sin höjd en simulering av en människa.

Andreas Olsson, lektor i klinisk neurovetenskap, och verksam vid Karolinska institutets Emotion lab, tror inte att det är möjligt att bygga en “perfekt” konstgjord hjärna. Delvis eftersom det som utmärker en människa är imperfektion.
- Om man ser på det ur ett funktionellt perspektiv behöver inte en hjärna bestå av blod och synapser, utan av mikro­elektronik. Men jag håller inte själv med om det. Däremot kan en maskinell hjärna bli väldigt lik en mänsklig, och tillräckligt lika för att användas i forskningen på olika sätt.
En fråga beteendevetarna vill ha svar på handlar om ifall det är möjligt att få en kiselbaserad hjärna att uppfatta sig själv i jag-form.
- I princip kan man simulera all sensorisk indata i en apparat. Om det sker i en kropp av kött och blod eller i en maskin spelar mindre roll. Men kroppen är viktig för vår självupplevelse, säger Andreas Olsson.

Vad en uppkopplad datorhjärna med en människas tankeförmåga kan åstadkomma kan man bara gissa. Eller möjligen minnas från science fiction-rullarna.

Skillnaden?
Det är inte längre en framtidssaga. Det händer nu. Just nu.

Av Fredrik Granlund
redaktionen@expressen.se


Videos

CNN: Human v2.0 There is a moment in the near future that scientist believe will transform the notion on WHAT it is to be HUMAN