Etikettarkiv: funktionalism

Är medvetandet hjärnans datorspel?

I mitt förra inlägg doppade jag lilltån i det gigantiska havet som kallas medvetandefilosofi och gav ett par exempel på kritik av en allmän form av materialistisk/fysikalistisk syn på medvetandet. I detta inlägg ämnar jag att undersöka en specifik variant av materialism/fysikalism som kallas funktionalism. Liksom i mitt förra inlägg argumenterar jag här inte för en egen syn på medvetandet utan ämnar endast att undersöka en specifik förklaringsmodell som skulle göra en icke-materialistisk förklaringsmodell för medvetandet överflödig. Detta skulle i sin tur skulle göra det svårare för en kristen att argumentera för existensen av en själ som i någon form varken är identisk med eller ytterst sett beroende av kroppen. Jag förutsätter här att medvetandet i någon grad inbegrips i det kristna begreppet om själen, vilket kanske inte alla nödvändigtvis håller med om. Själen i kristen teologi bör förmodligen ses som mer än enbart medvetande, men det verkar i mina öron märkligt att helt skilja dem åt. Jag lyssnar dock gärna till argument för motsatsen.

Funktionalism1

Liksom materialism är funktionalism också ett paraply-begrepp som innefattar flera olika varianter, men vad funktionalistiska modeller för medvetandet har gemensamt är dess syn på mentala tillstånd: Mentala tillstånd (alltså, medvetna upplevelser, så som att uppleva en färg, att ha ont osv.) är ett uttryck för en organisms funktionella tillstånd. Funktionalism (och dess olika varianter) brukar även kallas för ”the software view”, ”the computational theory of mind” och ”strong AI models of consciousness”.2

”So what is the computational theory of mind? At its heart is the assumption that the mind is to the brain as software is to hardware3

Hjärnan motsvarar enligt dessa synsätt den fysiska datorn; medvetandet motsvarar programvarans olika input, output och övriga funktioner. Mentala tillstånd (t.ex. att känna smärta) är det funktionella tillståndet som utgörs av följande orsaksrelationer:

  1. Ett visst input skapar ett mentalt tillstånd (t.ex. ett nålstick i fingret får en nerv att skicka en smärtsignal)
  2. Som i sin tur orsakar andra mentala tillstånd (t.ex. självömkan, viljan att plåstra om sig)
  3. Som orsakar ett visst output (ett visst beteende, t.ex. att skrika ”AJ!”, att hämta ett plåster)

Alltså, ett funktionellt tillstånd är orsaksrelationerna:
Input → Mentalt tillstånd → Andra mentala tillstånd → Output

Funktionalismen blir på så sätt en användbar modell för att förklara andras beteenden från ett tredjepersonsperspektiv. ”Smärta” fungerar t.ex. som en användbar hypotes när vi försöker avgöra varför någon skrek ”AJ!”: Vi räknar helt enkelt med att personen fick en input som orsakade vissa mentala tillstånd hos personen, som i sin tur gjorde att denne skrek ”AJ!”.

Kom ihåg att detta liknar och är av många tänkt att vara analogt till hur en dator fungerar: Tangentbordet får en input, vilket orsakar att vissa beräkningar utförs, som i sin tur ändrar flera av programmets variabler, vilket ger en ny output på skärmen eller i högtalarna.

Två framstående och inflytelserika funktionalister är Hilary Putnam och David Lewis4.

Kritik av funktionalism

Funktionalismen är åtminstone vid första anblick förmodligen ganska tilltalande för de flesta i vår tid. Som en förklaringsmodell för att förklara andras beteenden verkar funktionalismen väldigt intuitiv och begriplig. Att föreställa sig medvetandet som ett datorprogram är nog för de flesta ingen konstig tanke då mängder med filmer, spel osv. leker med tanken på självmedvetna robotar samtidigt som både hypen (och oron) kring framtidens AI inte verkar vara på väg att minska. Funktionalismen har dock mött en del invändningar som verkar tyda på att den inte räcker hela vägen för att förklara medvetandet eller mentala tillstånd ordentligt.

Problem 1: Inverterad qualia

Qualia är personliga eller ”privata” egenskaper som mentala tillstånd verkar inneha. Det är den subjektiva kvaliteten hos mentala tillstånd, som t.ex. hur smärtans ”smärtsamhet” eller blodets ”rödhet” faktiskt upplevs.

Låt oss nu tänka oss att Maria och Samuel går in i ett rum, blickar ut över rummet, upptäcker en hög med Legobitar (input), sorterar ut alla rödfärgade bitar i sinnet (mentalt tillstånd), pekar och säger: ”De röda Legobitarna ligger där” (output). Enligt funktionalismen har både Maria och Samuel samma funktionella (och därmed mentala) tillstånd: Nämligen tillståndet att vara medveten om eller att uppleva ”rödhet”.

Låt oss nu istället föreställa oss att Samuel har en omvänd upplevelse av vissa färger (vilket verkar vara en metafysisk möjlighet); så att när Maria (och alla andra) ser rött, så ser Samuel blått och tvärtom. I detta fall skulle Maria och Samuel mentalt sortera bitarna på olika sätt: Maria efter deras rödhet, Samuel efter deras blåhet. Maria och Samuel har dock fortfarande samma funktionella tillstånd:

  1. De har samma input (synintryck från rummet)
  2. De har samma mentala orsaksrelationer (båda sorterade mentalt ut de röda Legobitarna från de andra och tror att ordet ”röd” kan appliceras på dem)
  3. De har samma output (båda pekar och säger att ”De röda Legobitarna ligger där”).

Maria och Samuel innehar exakt samma funktionella tillstånd, men har två helt olika mentala upplevelser: Samuel upplever blåhet; Maria upplever rödhet.

Exemplet verkar visa att upplevelsen av ”blåhet” verkar kräva mer än enbart orsaksrelationerna som beskrivits ovan – det förklarar inte qualia på ett tillfredsställande sätt. Det verkar alltså som att två olika mentala tillstånd (att uppleva ”rödhet” & ”blåhet”) kan ha samma funktionella tillstånd, vilket betyder att mentala tillstånd inte är identiska med funktionella tillstånd så som funktionalismen kräver.

Problem 2: Frånvarande qualia

Förutom problemet med inverterad qualia implicerar funktionalismen att om en dator eller robot lyckas imitera medvetande genom att uttrycka rätt funktionella tillstånd, så betyder det att de faktiskt har det mentala tillståndet. Men även om en robot programmeras så att den skriker ”AJ!” och grimaserar vid ett nålstick, så verkar det finnas något konstigt med att säga att roboten faktiskt ”har ont” eller upplever smärta på samma sätt som en medveten varelse skulle ha. Medvetna upplevelser så som smärta verkar helt enkelt kräva en form av förstapersonsperspektiv som funktionalismens orsaksrelationer verkar oförmögen att förklara.

För att förtydliga denna invändning kan vi ta hjälp av det förmodligen mest kända tankeexperimenten inom medvetandefilosofin, vilket är John Searles ”kinesiska rum”. Läs gärna en mer utförlig version av Searles resonemanghär (ca 2 sidor). Förenklat går tankeexperimentet ut på följande:

Tänk dig att du är i ett rum med ett hål i väggen på varsin sida om dig. Mitt i rummet står några korgar som innehåller kinesiska symboler och en regelbok för hur symbolerna kan kombineras (men inte vad de betyder). Ibland så ramlar symboler in genom det ena hålet och din uppgift är att utifrån regelboken sätta ihop nya kombinationer av symboler beroende på vilken symbol som kom in för att sedan kasta ut dem ur det andra hålet. Låt oss säga att de inkommande symbolerna är frågor som folk utanför ställer och dina sammansättningar av symboler är svar på frågorna (men det vet inte du då du inte kan ett ord kinesiska). Låt även säga att du snart blir så pass skicklig att sätta ihop symbolerna att dina svar inte går att skilja från någon som har kinesiska som modersmål:

”There you are locked in your room shuffling your Chinese symbols and passing out Chinese symbols in response to incoming Chinese symbols. … Now the point of the story is simply this: by virtue of implementing a formal computer program from the point of view of an outside observer, you behave exactly as if you understood Chinese, but all the same you don’t understand a word of Chinese.”5

Exemplet pekar på problemet med att definiera medvetandet eller mentala tillstånd enbart i termer av funktionella tillstånd. Om funktionalismen stämmer så imiterar du endast förståelse; men du har den inte. Personen i det kinesiska rummet gör precis vad ett datorprogram gör: det följer formella regler (syntax) som kan ge intrycket hos utomstående att det innehar förståelse – utan att förstå någonting! Detta verkar tyda på att analogin med ett datorprogram inte är tillräcklig eller ens relevant för att förklara varken förståelse, andra mentala tillstånd eller qualia.

Avslutande reflektioner

Om kritiken mot funktionalismen som jag redogjort för ovan är giltig, så tycks det som att mentala tillstånd inte går att reducera till enbart en beskrivning orsaksrelationer/funktionen hos ett ting. Det verkar möjligt att ha olika mentala tillstånd och samtidigt ha samma funktionella tillstånd vilket tyder på att dessa inte är samma sak. Det verkar även möjligt för en dator att ha ett funktionellt tillstånd för ”förståelse” – utan att förstå någonting.

Utifrån detta tycks det tveksamt att förvänta sig att datorer en dag kommer att bli medvetna och börja erfara qualia på samma sätt som vi människor gör, oavsett hur komplexa datorsystem och algoritmer vi lyckas producera i framtiden. Raymond Tallis kritiserar en sådan optimism: Att hålla fast vid en funktionalistisk eller ”datoriserad” syn på medvetandet verkar ha väldigt liten chans att någonsin hjälpa oss att förstå vad faktiskt medvetandet är. Det verkar krävas något mer än enbart fler eller mer komplexa funktioner för att skapa självmedvetande hos t.ex. ett datorprogram.

”Cray supercomputers with terabytes of RAM are as zombie-like as pocket calculators. This does not stop people claiming that, while we don’t have conscious computers yet, we shall ”soon” or ”eventually” develop ones that are conscious. … I have yet to see a definition of ”complexity” that would make consciousness seem inevitable or even more likely in the artefact possessing it. … there is no evidence that currently available, massively parallel computers are more self-aware, prone to suffering or joy, or able to experience the sound of music or the smell of grass than their serial counterparts.”6

Är funktionalismen en giltig syn på medvetandet? Går det att modifiera en datoriserad syn på medvetandet så att den kan förklara inverterad och frånvarande qualia? Kan vi överhuvudtaget förvänta oss att AI-forskningen kommer att skapa självmedvetna robotar? Enligt kritiken som riktats mot funktionalismen verkar svaret vara nej. I så fall bör vi rimligtvis kasta denna materialistiska teori om medvetandet i papperskorgen och söka efter svaret på annat håll.

// Joachim Arting

Litteraturlista

Moreland, James Porter & Craig, William Lane, Philosophical foundations for a Christian worldview, InterVarsity Press, Downers Grove, Ill., 2003.

Tallis, Raymond, Aping Mankind, Rutledge, New York, 2016.

Fotnoter

1 Redogörelsen utgår till största delen från Moreland & Craig, Philosophical Foundations for a Christian Worldview, 255-258.

2Moreland & Craig, Philosophical Foundations for a Christian Worldview, 255.

3Raymond Tallis, Aping Mankind, 194.

4Moreland & Craig, Philosophical Foundations for a Christian Worldview, 256.

5John Searle, Minds, Brains and Science, Harvard University Press, Cambridge, 1984, s. 32-33, citerad i Moreland & Craig, Philosophical Foundations for a Christian Worldview, s. 257-258.

6Raymond Tallis, Aping Mankind, s. 195.