Är medvetandet hjärnans datorspel?

I mitt förra inlägg doppade jag lilltån i det gigantiska havet som kallas medvetandefilosofi och gav ett par exempel på kritik av en allmän form av materialistisk/fysikalistisk syn på medvetandet. I detta inlägg ämnar jag att undersöka en specifik variant av materialism/fysikalism som kallas funktionalism. Liksom i mitt förra inlägg argumenterar jag här inte för en egen syn på medvetandet utan ämnar endast att undersöka en specifik förklaringsmodell som skulle göra en icke-materialistisk förklaringsmodell för medvetandet överflödig. Detta skulle i sin tur skulle göra det svårare för en kristen att argumentera för existensen av en själ som i någon form varken är identisk med eller ytterst sett beroende av kroppen. Jag förutsätter här att medvetandet i någon grad inbegrips i det kristna begreppet om själen, vilket kanske inte alla nödvändigtvis håller med om. Själen i kristen teologi bör förmodligen ses som mer än enbart medvetande, men det verkar i mina öron märkligt att helt skilja dem åt. Jag lyssnar dock gärna till argument för motsatsen.

Funktionalism1

Liksom materialism är funktionalism också ett paraply-begrepp som innefattar flera olika varianter, men vad funktionalistiska modeller för medvetandet har gemensamt är dess syn på mentala tillstånd: Mentala tillstånd (alltså, medvetna upplevelser, så som att uppleva en färg, att ha ont osv.) är ett uttryck för en organisms funktionella tillstånd. Funktionalism (och dess olika varianter) brukar även kallas för ”the software view”, ”the computational theory of mind” och ”strong AI models of consciousness”.2

”So what is the computational theory of mind? At its heart is the assumption that the mind is to the brain as software is to hardware3

Hjärnan motsvarar enligt dessa synsätt den fysiska datorn; medvetandet motsvarar programvarans olika input, output och övriga funktioner. Mentala tillstånd (t.ex. att känna smärta) är det funktionella tillståndet som utgörs av följande orsaksrelationer:

  1. Ett visst input skapar ett mentalt tillstånd (t.ex. ett nålstick i fingret får en nerv att skicka en smärtsignal)
  2. Som i sin tur orsakar andra mentala tillstånd (t.ex. självömkan, viljan att plåstra om sig)
  3. Som orsakar ett visst output (ett visst beteende, t.ex. att skrika ”AJ!”, att hämta ett plåster)

Alltså, ett funktionellt tillstånd är orsaksrelationerna:
Input → Mentalt tillstånd → Andra mentala tillstånd → Output

Funktionalismen blir på så sätt en användbar modell för att förklara andras beteenden från ett tredjepersonsperspektiv. ”Smärta” fungerar t.ex. som en användbar hypotes när vi försöker avgöra varför någon skrek ”AJ!”: Vi räknar helt enkelt med att personen fick en input som orsakade vissa mentala tillstånd hos personen, som i sin tur gjorde att denne skrek ”AJ!”.

Kom ihåg att detta liknar och är av många tänkt att vara analogt till hur en dator fungerar: Tangentbordet får en input, vilket orsakar att vissa beräkningar utförs, som i sin tur ändrar flera av programmets variabler, vilket ger en ny output på skärmen eller i högtalarna.

Två framstående och inflytelserika funktionalister är Hilary Putnam och David Lewis4.

Kritik av funktionalism

Funktionalismen är åtminstone vid första anblick förmodligen ganska tilltalande för de flesta i vår tid. Som en förklaringsmodell för att förklara andras beteenden verkar funktionalismen väldigt intuitiv och begriplig. Att föreställa sig medvetandet som ett datorprogram är nog för de flesta ingen konstig tanke då mängder med filmer, spel osv. leker med tanken på självmedvetna robotar samtidigt som både hypen (och oron) kring framtidens AI inte verkar vara på väg att minska. Funktionalismen har dock mött en del invändningar som verkar tyda på att den inte räcker hela vägen för att förklara medvetandet eller mentala tillstånd ordentligt.

Problem 1: Inverterad qualia

Qualia är personliga eller ”privata” egenskaper som mentala tillstånd verkar inneha. Det är den subjektiva kvaliteten hos mentala tillstånd, som t.ex. hur smärtans ”smärtsamhet” eller blodets ”rödhet” faktiskt upplevs.

Låt oss nu tänka oss att Maria och Samuel går in i ett rum, blickar ut över rummet, upptäcker en hög med Legobitar (input), sorterar ut alla rödfärgade bitar i sinnet (mentalt tillstånd), pekar och säger: ”De röda Legobitarna ligger där” (output). Enligt funktionalismen har både Maria och Samuel samma funktionella (och därmed mentala) tillstånd: Nämligen tillståndet att vara medveten om eller att uppleva ”rödhet”.

Låt oss nu istället föreställa oss att Samuel har en omvänd upplevelse av vissa färger (vilket verkar vara en metafysisk möjlighet); så att när Maria (och alla andra) ser rött, så ser Samuel blått och tvärtom. I detta fall skulle Maria och Samuel mentalt sortera bitarna på olika sätt: Maria efter deras rödhet, Samuel efter deras blåhet. Maria och Samuel har dock fortfarande samma funktionella tillstånd:

  1. De har samma input (synintryck från rummet)
  2. De har samma mentala orsaksrelationer (båda sorterade mentalt ut de röda Legobitarna från de andra och tror att ordet ”röd” kan appliceras på dem)
  3. De har samma output (båda pekar och säger att ”De röda Legobitarna ligger där”).

Maria och Samuel innehar exakt samma funktionella tillstånd, men har två helt olika mentala upplevelser: Samuel upplever blåhet; Maria upplever rödhet.

Exemplet verkar visa att upplevelsen av ”blåhet” verkar kräva mer än enbart orsaksrelationerna som beskrivits ovan – det förklarar inte qualia på ett tillfredsställande sätt. Det verkar alltså som att två olika mentala tillstånd (att uppleva ”rödhet” & ”blåhet”) kan ha samma funktionella tillstånd, vilket betyder att mentala tillstånd inte är identiska med funktionella tillstånd så som funktionalismen kräver.

Problem 2: Frånvarande qualia

Förutom problemet med inverterad qualia implicerar funktionalismen att om en dator eller robot lyckas imitera medvetande genom att uttrycka rätt funktionella tillstånd, så betyder det att de faktiskt har det mentala tillståndet. Men även om en robot programmeras så att den skriker ”AJ!” och grimaserar vid ett nålstick, så verkar det finnas något konstigt med att säga att roboten faktiskt ”har ont” eller upplever smärta på samma sätt som en medveten varelse skulle ha. Medvetna upplevelser så som smärta verkar helt enkelt kräva en form av förstapersonsperspektiv som funktionalismens orsaksrelationer verkar oförmögen att förklara.

För att förtydliga denna invändning kan vi ta hjälp av det förmodligen mest kända tankeexperimenten inom medvetandefilosofin, vilket är John Searles ”kinesiska rum”. Läs gärna en mer utförlig version av Searles resonemanghär (ca 2 sidor). Förenklat går tankeexperimentet ut på följande:

Tänk dig att du är i ett rum med ett hål i väggen på varsin sida om dig. Mitt i rummet står några korgar som innehåller kinesiska symboler och en regelbok för hur symbolerna kan kombineras (men inte vad de betyder). Ibland så ramlar symboler in genom det ena hålet och din uppgift är att utifrån regelboken sätta ihop nya kombinationer av symboler beroende på vilken symbol som kom in för att sedan kasta ut dem ur det andra hålet. Låt oss säga att de inkommande symbolerna är frågor som folk utanför ställer och dina sammansättningar av symboler är svar på frågorna (men det vet inte du då du inte kan ett ord kinesiska). Låt även säga att du snart blir så pass skicklig att sätta ihop symbolerna att dina svar inte går att skilja från någon som har kinesiska som modersmål:

”There you are locked in your room shuffling your Chinese symbols and passing out Chinese symbols in response to incoming Chinese symbols. … Now the point of the story is simply this: by virtue of implementing a formal computer program from the point of view of an outside observer, you behave exactly as if you understood Chinese, but all the same you don’t understand a word of Chinese.”5

Exemplet pekar på problemet med att definiera medvetandet eller mentala tillstånd enbart i termer av funktionella tillstånd. Om funktionalismen stämmer så imiterar du endast förståelse; men du har den inte. Personen i det kinesiska rummet gör precis vad ett datorprogram gör: det följer formella regler (syntax) som kan ge intrycket hos utomstående att det innehar förståelse – utan att förstå någonting! Detta verkar tyda på att analogin med ett datorprogram inte är tillräcklig eller ens relevant för att förklara varken förståelse, andra mentala tillstånd eller qualia.

Avslutande reflektioner

Om kritiken mot funktionalismen som jag redogjort för ovan är giltig, så tycks det som att mentala tillstånd inte går att reducera till enbart en beskrivning orsaksrelationer/funktionen hos ett ting. Det verkar möjligt att ha olika mentala tillstånd och samtidigt ha samma funktionella tillstånd vilket tyder på att dessa inte är samma sak. Det verkar även möjligt för en dator att ha ett funktionellt tillstånd för ”förståelse” – utan att förstå någonting.

Utifrån detta tycks det tveksamt att förvänta sig att datorer en dag kommer att bli medvetna och börja erfara qualia på samma sätt som vi människor gör, oavsett hur komplexa datorsystem och algoritmer vi lyckas producera i framtiden. Raymond Tallis kritiserar en sådan optimism: Att hålla fast vid en funktionalistisk eller ”datoriserad” syn på medvetandet verkar ha väldigt liten chans att någonsin hjälpa oss att förstå vad faktiskt medvetandet är. Det verkar krävas något mer än enbart fler eller mer komplexa funktioner för att skapa självmedvetande hos t.ex. ett datorprogram.

”Cray supercomputers with terabytes of RAM are as zombie-like as pocket calculators. This does not stop people claiming that, while we don’t have conscious computers yet, we shall ”soon” or ”eventually” develop ones that are conscious. … I have yet to see a definition of ”complexity” that would make consciousness seem inevitable or even more likely in the artefact possessing it. … there is no evidence that currently available, massively parallel computers are more self-aware, prone to suffering or joy, or able to experience the sound of music or the smell of grass than their serial counterparts.”6

Är funktionalismen en giltig syn på medvetandet? Går det att modifiera en datoriserad syn på medvetandet så att den kan förklara inverterad och frånvarande qualia? Kan vi överhuvudtaget förvänta oss att AI-forskningen kommer att skapa självmedvetna robotar? Enligt kritiken som riktats mot funktionalismen verkar svaret vara nej. I så fall bör vi rimligtvis kasta denna materialistiska teori om medvetandet i papperskorgen och söka efter svaret på annat håll.

// Joachim Arting

Litteraturlista

Moreland, James Porter & Craig, William Lane, Philosophical foundations for a Christian worldview, InterVarsity Press, Downers Grove, Ill., 2003.

Tallis, Raymond, Aping Mankind, Rutledge, New York, 2016.

Fotnoter

1 Redogörelsen utgår till största delen från Moreland & Craig, Philosophical Foundations for a Christian Worldview, 255-258.

2Moreland & Craig, Philosophical Foundations for a Christian Worldview, 255.

3Raymond Tallis, Aping Mankind, 194.

4Moreland & Craig, Philosophical Foundations for a Christian Worldview, 256.

5John Searle, Minds, Brains and Science, Harvard University Press, Cambridge, 1984, s. 32-33, citerad i Moreland & Craig, Philosophical Foundations for a Christian Worldview, s. 257-258.

6Raymond Tallis, Aping Mankind, s. 195.

6 reaktioner till “Är medvetandet hjärnans datorspel?”

  1. Hej!

    Tack för en intressant text.

    Jag skulle vilja lämna en liten synpunkt som har med dataprogram att göra. Mitt intryck av dina beskrivningar är att mjukvaran i en dator alltid uppträder så som programmerarna bestämt. Matar du in X så kommer datorn att mata ut Y. Liknelsen med det kinesiska rummet verkar också återspegla denna syn. Jag tror att detta är en korrekt beskrivning för de första generationerna av datorer med tillhörande program. Men vad jag förstår finns det nu en helt annan typ av programmering, ibland kallad deep learning, där datorprogram snarare konstrueras på så vis att de kan utvecklas och lära sig nya saker på egen hand. När AlphaGo slog världsmästaren i Go var det ingen som kunde förutse det genidrag som till slut ledde till seger i den mest berömda matchen. Ingen hade programmerat in detta drag. När draget gjordes var det många som först tänkte att AlphaGo gjort bort sig. Efter AlphaGo kom AlphaGo Zero som inte fick någon hjälp på traven alls (AlphaGo hade fått studera hur människor brukar lägga upp strategin i spelet). AlphaGo Zero fick bara veta spelets regler, resten fick programmet lista ut på egen hand. Det tog tre dagar för Zero att besegra sin föregångare.

    Mvh Johan

    Gilla

    1. Hej igen Johan, tack för en intressant synpunkt!

      Det tycks mig som att även deep learning-programmering faller offer för samma problem som Searle pekar på: Alla programmering bygger i på syntax (alltså formella satser) och jag tycker mig inte se någon avgörande skillnad hos deep learning-programmering som visar att ett hopp från syntax till semantik har skett, kan ske, eller att ett sådant hopp är nödvändigt för att förklara hur programmet handlade överhuvudtaget.

      Input/output finns fortfarande kvar och även om programkoden är mer generell och abstrakt formulerad (alltså inte byggd på konkreta satser så som ”om spelarens bonde står på C5 & din löpare står på D6… osv. osv. gör drag A, annars om spelarens bonde står på C6… etc.”), så bygger alla beräkningar och händelser i programmet på enbart formella satser ”som programmerarna har bestämt”. Även om jag är mycket imponerad av dessa programmerare (jag själv hobbyprogrammerar ibland), så ser jag ingen anledning att säga att de skapat verklig förståelse hos datorprogrammet. Som jag ser det har de endast skapat en mer komplex ”formell regelbok” för att hantera input/output, men ingen avgörande skillnad från ”vanliga” datorprogram.

      Att programmet ”lär” sig giltiga drag utifrån de fördefinierade reglerna är något annat än när en människa ”lär” sig spela schack. Programmet kan uppfylla samma funktion (och i detta fall mycket bättre än en människa), men det visar inte på verklig förståelse.

      Som Searle skriver om sitt kinesiska rum:

      ”As long as the program is defined in terms of computational operations on purely formally defined elements [syntax], what the example suggests is that these by themselves have no interesting connection with understanding. They are certainly not sufficient conditions, and not the slightest reason has been given to suppose that they are necessary conditions or even that they make a significant contribution to understanding”

      https://rintintin.colorado.edu/~vancecd/phil201/Searle.pdf

      Mvh,
      Joachim

      Gilla

      1. Hej igen!

        Jag menar inte att AlphaGo är självmedveten eller något sådant. Men på vilka grunder kan vi säga att programmet inte ”förstår” just spelet Go lika bra eller till och med bättre än människor? Om en människa hade gjort detta genidrag som AlphaGo gjorde, ett drag som stred mot all beprövad erfarenhet vad gäller lämpliga strategier inom spelet Go, så tror jag att alla hade jublat och hyllat denna människas enastående kreativitet och skarpsinne. Varför bör vi inte göra samma sak när en annan typ av intelligens utför denna bedrift?

        Självmedvetna AI tror jag fortfarande ligger en bit in i framtiden. Men utifrån den explosion som just nu verkar ske inom AI-forskningen kan jag inte se att någonting bör uteslutas. Betänk också att vi just nu befinner oss precis i början av ytterligare en ny teknisk utveckling: kvantdatorn.

        Mvh Johan

        Gilla

        1. Poängen med det kinesiska rummet är att det för en utomstående inte går att skilja på om outputen kommer från någon som kan kinesiska eller inte givet en tillräckligt utförlig regelbok och en tillräckligt bra hantering av denna.
          Men om så är fallet betyder det också att funktionen/outputen (som i fallet med AlphaGo till med är bättre än en människas) inte kan användas som ett bevis eller argument för att programmet som utförde det har förstått betydelsen av ett enda ord kinesiska.
          Det tycks mig inte finnas någon väsentlig skillnad på ”regelboken” för ”vanliga” program vs. deep learning program som skulle ändra på detta (och det är kanske här vi inte håller med varandra). Deep learning är definitivt en mer komplex ”regelbok”, men i slutändan baserat på enbart syntax (formella satser), inte semantik (betydelsen av satserna).
          Förståelse i mänsklig mening kräver både syntax och semantik. Jag ser ingen anledning att tro att AlphaGo ”förstått” mer än syntax. Snubben i det kinesiska rummet kan hantera ett kinesisk tecken lika väl vare sig tecknet kallas ”squiggle-squoggle” eller ”squoggle-squiggle” av regelboken, men han förstår inte att betydelsen av ordet är. Jag tänker mig att ett liknande (om än mycket mer komplicerat) förhållande råder när det gäller att utifrån Go-reglerna gå igenom alla tänkbara scenarion för att nå det givna målet att vinna.
          Men i slutändan verkar vi ju överens – AlphaGo är inte självmedveten. Det kinesiska rummet är ju riktat mot de funktionalister som hävdar att funktionella tillstånd (t.ex. av tillståndet ”förståelse” som AlphaGo imiterar perfekt) räcker för att bekräfta (själv)medvetande, vilket exemplet visar inte är fallet eftersom samma funktionella tillstånd skulle kunna vara ett resultat av både en medveten och omedveten aktör.

          Så jag applåderar gärna – men då vänder jag mig främst till programmerarna av AlphaGo.

          Gilla

      2. Hej Joachim,

        Du skriver:

        ”Även om jag är mycket imponerad av dessa programmerare (jag själv hobbyprogrammerar ibland), så ser jag ingen anledning att säga att de skapat verklig förståelse hos datorprogrammet.”

        Vad, exakt, menar du egentligen när du använder dig av begreppet ”verklig förståelse” och hur skiljer sig denna förståelse från den förståelse som vissa datorprogram helt uppenbarligen tycks vara i besittning av (eftersom de spelar schack och Go mycket bättre än vad du och jag gör)?

        Gilla

        1. Hej Christian, tack för din kommentar.
          Svarade precis Johan här ovanför vilket kanske hjälper till att förtydliga mitt svar på din fråga.
          Kort sammanfattat: Jag tänker mig att mänsklig förståelse kräver både syntax och semantik, men att vi utifrån det kinesiska rummet inte har några skäl att anta att t.ex. AlphaGo ”förstått” mer än enbart syntax.

          Gilla

Kommentera

Fyll i dina uppgifter nedan eller klicka på en ikon för att logga in:

WordPress.com Logo

Du kommenterar med ditt WordPress.com-konto. Logga ut /  Ändra )

Google-foto

Du kommenterar med ditt Google-konto. Logga ut /  Ändra )

Twitter-bild

Du kommenterar med ditt Twitter-konto. Logga ut /  Ändra )

Facebook-foto

Du kommenterar med ditt Facebook-konto. Logga ut /  Ändra )

Ansluter till %s