Boeken

Tuesday, March 26, 2013

Het brein in één formule

Complexe problemen inzichtelijk maken met een rekenmodel: wetenschappers doen niet anders. Maar de werking van de menselijke hersenen vatten in één formule, dat werd unaniem beschouwd als gekkenwerk. Toch lijkt een Engelse wetenschapper daar nu in te slagen.



Dit artikel is gepubliceerd in KIJK 10/2010.

De menselijke hersenen kunnen de prachtigste muziekstukken componeren, de ingewikkeldste wiskunde bedenken en een voet zo perfect tegen een bal laten trappen dat deze met een prachtige boog over de keeper heen het doel in ploft. Onze hersenen maken ons ook nog eens bewust van wie we zijn. Voor een groot deel zijn we onze hersenen.

Vooral dankzij de hersenscanrevolutie van de afgelopen twintig jaar hebben we inzicht gekregen in dat wonderlijke orgaan. We weten nu vrij redelijk hoe we waarnemen, hoe we onze aandacht richten, hoe ons geheugen werkt, hoe we taal verwerken, hoe we leren en hoe we emoties verwerken. Toch is dat allemaal nog vooral kennis in de vorm van een verhaal: bijvoorbeeld dat de informatie die je met je ogen ziet via je netvlies naar hersengebiedje A gaat, dan naar B en van daaruit naar C. In de zin van rekenmodellen die ook kunnen uitrekenen hoe een bepaald hersengebiedje op informatie reageert, staan we pas aan het begin.

Decennialang geloofden hersenonderzoekers dat het onmogelijk is om de werking van het brein in formules te vangen, laat staan in één enkele formule. De vooraanstaande Franse cognitiewetenschapper Stanislas Dehaene − in 2008 winnaar van de Nederlandse Heinekenprijs voor cognitiewetenschappen − beargumenteerde die overtuiging als volgt: “Het brein is het resultaat van 500 miljoen jaar evolutionair gesleutel. De eigenschappen van het brein als geheel zijn het gevolg van een combinatie van duizenden typen zenuwuiteinden, ad hoc moleculaire mechanismen, een groot aantal verschillende typen hersencellen en vooral miljoenen miljarden verbindingen tussen al die hersencellen. Hoe kan zo’n warboel door één enkele wiskundige formule beschreven worden?”

In essentie is het brein een complex biologisch netwerk dat informatie verwerkt via een enorm aantal relatief eenvoudige hersencellen. Het menselijk brein bevat ongeveer net zoveel hersencellen als het aantal sterren in de Melkweg: zo’n 100 miljard. Het aantal verbindingen tussen die hersencellen is nog eens duizend maal zo groot, veel meer dan het aantal sterrenstelsels in het hele waarneembare universum. Dat levert een duizelingwekkend aantal uit te rekenen interacties op: een miljoen maal een miljard. En die interacties veranderen ook nog in de tijd, omdat we nieuwe ervaringen opdoen en nieuwe dingen leren. Veel te veel om het allemaal door te rekenen. Dat betekent dat wetenschappers hoogstens kleine hersenstukjes op een computer kunnen simuleren, bijvoorbeeld een onderdeel van het geheugen. Meestal komen ze niet verder dan een simulatie van duizend hersencellen

Minimaliseer de verrassing
De Engelse neurowetenschapper Karl Friston van University College London is de eerste die meent dat hij een raamwerk heeft ontwikkeld van een Grote Overkoepelende Theorie van het brein. Veel collega’s zijn onder de indruk van dit rekenmodel, dat zijn wortels in de natuurkunde heeft. Net zoals natuurkundigen niet het precieze gedrag van elk gasmolecuul in een gas hoeven te kennen om het gas als geheel te beschrijven, zo hoeft Fristons model niet te weten wat elke hersencel doet om toch het gedrag van de hersenen als geheel te beschrijven. Het model geeft nu al een ruwe verklaring van drie belangrijke cognitieve functies: waarnemen, handelen en leren. En dat is veel meer dan enig ander breinmodel op het moment klaarspeelt.

Fristons model koppelt een eenvoudige biologische observatie aan een van de fundamentele wetten uit de natuurkunde. Om te overleven, moet de mens zijn eigen lichamelijke toestand (gekarakteriseerd door grootheden als temperatuur, druk en zuurgraad) zo veel mogelijk constant houden. Dit gaat in tegen de neiging van de natuur om alles juist niet constant te houden maar tot wanorde te laten vervallen. IJzer gaat vanzelf roesten en uit elkaar vallen. Dode lichamen gaan rotten. Gesteente gaat verweren.

Achter deze neiging ligt een belangrijke natuurkundige wet: de tweede wet van de thermodynamica. Volgens deze wet kan in een afgesloten systeem de hoeveelheid wanorde (de entropie) bij spontane veranderingen alleen maar toenemen. Er zijn immers veel meer manieren waarop de dingen een ongeordend zooitje zijn, dan een geordend geheel. Als je je kamer niet af en toe opruimt, wordt het snel een janboel.

Wil de mens in de natuur overleven, dan moet het lichaam in de eerste plaats zorgen dat het zich tegen deze natuurwet verzet. Omdat het brein bepaalt hoe de mens op zijn omgeving reageert, moet het zorgen dat het zichzelf en de rest van het lichaam zo min mogelijk uit evenwicht laat brengen. De mate waarin het zich uit evenwicht laat brengen, kunnen we ook vertalen als de mate waarin het zich laat verrassen.

Gezeten in zijn werkkamer in hartje Londen legt Friston het centrale idee van zijn breinformule uit: “Het brein is niet een passief systeem dat alleen maar op waarnemingen reageert. Het is juist een actief systeem dat voortdurend meerdere voorspellingen tegelijk over de omgeving doet. Elke voorspelling heeft een bepaalde waarschijnlijkheid. Het brein vergelijkt de binnengekomen waarnemingen met die voorspellingen. Het centrale idee van de formule is dat het brein ernaar streeft om zo min mogelijk verrast te worden. Dat doet het door het verschil tussen wat het van de wereld waarneemt en wat het over de wereld voorspelt − het voorspellingsverschil − te minimaliseren.”

Dat voorspellingsverschil noemt hij de ‘vrije energie’, naar analogie van hetzelfde begrip in de natuurkunde. Het minimaliseren van de vrije energie is het centrale principe van Fristons theorie. Maar het is inzichtelijker om het te zien als het principe van de minimale verrassing of van het minimale voorspellingsverschil. Dat zijn drie verschillende manieren om over dezelfde grootheid te praten. De Engelse hersenwetenschapper heeft dit principe in één korte wiskundige formule geformuleerd die de rudimentaire werking van het brein beschrijft.


Veranderend brein
De breinformule beschrijft dus het minimaliseren van de vrije energie of de verrassing. Hoe doet het brein dit? Dat kan op twee manieren. Allereerst door een nauwkeuriger model van de buitenwereld te maken. Stel dat je in de verte iemand ziet lopen waarvan je in eerste instantie denkt dat het een vriendin van je is. Dan realiseer je je dat je zeker weet dat ze in het buitenland op vakantie is. Razendsnel past je brein zijn voorspelling aan: nee, dit is niet je vriendin, maar een onbekende. De tweede manier is door zelf handelend op te treden. Stel dat je uit je ooghoek iets op je af ziet komen. Razendsnel draai je je hoofd om echt te zien wat voor voorwerp het is en of je echt gevaar loopt.

Friston heeft zijn model in eerste instantie opgesteld om te verklaren hoe het brein op waarnemingen reageert, dus hoe het van waarnemingen tot handelingen komt. Het verwerken van waarnemingen is een verschijnsel dat zich afspeelt op tijdschalen van tientallen tot honderden microseconden. Maar het brein is veel meer dan een machine die direct op prikkels uit de omgeving reageert. Het kan ook nieuwe dingen leren: leren lezen of leren fietsen bijvoorbeeld. Tijdens het leren worden verbindingen tussen hersencellen op tijdschalen van seconden tot dagen of zelfs maanden versterkt. Verder ontwikkelt het brein zich ook door de jaren heen. Bij de geboorte bestaat het uit zo’n 100 miljard hersencellen en is er al een ruwe architectuur aanwezig. Maar de verbindingen tussen al die cellen moeten zich onder invloed van de omgeving nog voor een belangrijk deel vormen. Friston heeft op alle tijdschalen waarop de hersenen veranderen een formule opgesteld in termen van het minimaliseren van vrije energie. Zijn formules voor de langere tijdschalen zijn voorlopig niet meer dan interessante speelgoedmodellen om te laten zien hoe verreikend het concept van vrije energie kan worden toegepast. Maar het is op het niveau van waarnemingen en handelingen − dus op tijdschalen van microseconden − dat Friston en zijn collega’s het model ook al concreet toepassen. 



Experimentele ondersteuning
Bij het toepassen van het rekenmodel kunnen ze ook controleren of het model klopt. En inderdaad, de breinformule doet een aantal voorspellingen die door experimenten worden ondersteund. Zo voorspelt hij dat hersencellen op voorspelbare stimuli minder hard vuren dan op onvoorspelbare stimuli. Een tweede, vrij algemene voorspelling over de architectuur van de hersenen is dat ze informatie in lagen verwerken en dat die lagen via terugkoppelingen invloed op elkaar hebben.

Dat wordt bevestigd door experimenten die laten zien dat alle informatie in de hersenen in een hiërarchie van lagen worden verwerkt. Van de ene laag gaat de informatie naar de andere laag. Neem bijvoorbeeld het visuele systeem, het best bestudeerde cognitieve systeem. Wanneer je iets ziet, stroomt er informatie van lagere naar hogere hersendelen. Hoe hoger het hersendeel, hoe abstracter zijn functie. De verwerking van visuele stimuli gebeurt door lagen die V1, V2, V3, V4 en V5 heten. Bij V1 komt de visuele informatie direct van het netvlies binnen. V1 maakt een vrij objectieve, ruwe schets van de buitenwereld. V2 is een creatiever gebied. Hier ontstaan bijvoorbeeld visuele illusies. V3, V4 en V5 doen gespecialiseerdere taken, zoals het verwerken van kleuren of bewegingen van grotere vlakken in het gezichtsveld. 



Recent hebben onderzoekers ontdekt dat ook de informatie die van de hogere naar de lagere hersendelen terug stroomt belangrijk is. Waar de voorwaartse informatiestroom de juiste hersencellen activeert, kunnen de hersencellen die betrokken zijn bij terugwaartse informatiestroom de respons van die cellen iets omhoog of omlaag schroeven.

In diverse simulaties hebben Friston en zijn collega’s laten zien dat die terugkoppelingen ervoor zorgen dat de verschillen tussen de waarnemingen van het brein en zijn voorspellingen over de buitenwereld laag voor laag worden geminimaliseerd. Dit voldoet precies aan het principe van het minimaliseren van de vrije energie. Al deze experimentele en rekenresultaten tonen volgens de onderzoekers de bruikbaarheid aan van het principe van vrije energie voor het modelleren en begrijpen van het brein.

Netwerken
Traditioneel hebben psychologen en hersenwetenschappers het brein opgevat als een verzameling van losse modules, die elk verantwoordelijk zijn voor een bepaalde functie, zoals waarnemen, handelen, emotie, taal, leren, geheugen en redeneren. Dit idee van gestapelde modules is de laatste jaren steeds meer onder vuur komen te liggen. Dezelfde hersencellen kunnen op hetzelfde moment betrokken zijn bij verschillende functies. In plaats van het brein te zien als een verzameling modules, zien wetenschappers het nu als een verzameling van netwerken. Elk netwerk bestaat uit samenwerkende groepen hersencellen.

Fristons breinformule sluit perfect bij dit nieuwe inzicht aan. “Het principe van de minimale verrassing geldt voor netwerken van hersencellen”, zegt de Engelsman, “of dat nu het hele brein is of kleinere netwerken daarin. Ik ben ervan overtuigd dat het denken in afzonderlijke breinmodules meer en meer vervangen wordt door wiskundige modellen over breinnetwerken. En ik geloof echt dat een rekenmodel van het brein uiteindelijk neerkomt op één formule: een formule die de verrassing voor het brein minimaliseert.”

Niet dat we die formule spoedig helemaal kunnen oplossen. Daarvoor zal nog veel experimentele informatie nodig zijn. En dan nog is het uitrekenen een moeilijk karwei. Maar als overkoepelende theorie van het brein, was er niet eerder zo’n veelbelovende kandidaat. Stanislas Dehaene, die lang net zo pessimistisch was over een formule voor het brein als het gros van de hersenwetenschappers, veranderde van mening door Fristons model. Tegenover het Engelse weekblad New Scientist zei hij: “Het is de eerste keer dat we een theorie van deze kracht, breedte en diepte in de cognitieve neurowetenschappen hebben.”

Wetenschapsjournalist Bennie Mols sprak voor dit artikel met prof. dr. Karl Friston (Wellcome Trust Centre for Neuroimaging, University College London). Verder maakte hij gebruik van de volgende literatuur:
Karl Friston: The free-energy principle. A unified brain theory? Nature Reviews Neuroscience (februari 2010)

Spelende supercomputers



De computer heeft Vier op ’n rij volledig gekraakt, schaakt beter dan de mens en wordt steeds sterker in go. En sinds kort is hij zelfs een geduchte quizkandidaat. Geen spel is meer veilig voor de brute rekenkracht van de denkende machine.

Dit artikel is gepubliceerd in KIJK 4/2011.

Het is 11 mei 1997 wanneer een totaal gebroken Garry Kasparov de pers in een New Yorkse wolkenkrabber te woord staat. Vol frustratie. Vol ongeloof. ‘Ik ben bedrogen’, denkt hij. Hij wil wegblijven van de persconferentie, maar zijn moeder heeft hem overgehaald toch te komen. Zojuist heeft de beste schaker uit de geschiedenis de kortste nederlaag uit zijn loopbaan geleden. Capitulatie na negentien zetten. En dat nog wel tegen een computer: IBM-supercomputer Deep Blue. “Ik heb op mijn emoties verloren van een niet-emotionele tegenstander”, zou hij zes jaar later zeggen in de documentaire Game Over.

‘Computers zijn domme apparaten’ had Kasparov altijd verkondigd. ‘Ze begrijpen het schaakspel niet zoals de mens het begrijpt’. Op de poster die de intellectuele tweestrijd tussen mens en machine aankondigde, keek Kasparov diep nadenkend de wereld in. Boven zijn hoofd stond de zelfverzekerde tekst: “How do you make a computer blink?” − “Hoe laat je een computer met zijn ogen knipperen?”

Precies tijdens de schaakheerschappij van Kasparov evolueerde de schaakcomputer van een amateur die verloor van elke grootmeester naar een rekenbeest dat de gemiddelde grootmeester van de tafel veegt. Alleen doet de computer dat heel anders dan de grondleggers van de kunstmatige intelligentie in de jaren vijftig van de vorige eeuw hadden gedroomd. Met brute rekenkracht in plaats van met een diep begrip van het schaakspel. Niet door briljante partijen na te spelen, niet door te vertrouwen op een jarenlang getrainde intuïtie, niet door de schoonheid van het schaakspel te doorgronden.

Checkers opgelost
Als iemand kan vertellen hoe goed computers anno 2011, veertien jaar na de tweestrijd tussen Kasparov en Deep Blue, dammen, schaken of pokeren, dan is het de Canadees Jonathan Schaeffer. Schaeffer is hoogleraar kunstmatige intelligentie aan de Universiteit van Alberta in Canada. Hij haalde de meestertitel in schaken en ontwikkelde het eerste computerprogramma dat een wereldkampioen versloeg in een serieus bordspel. In 1994 won zijn digitale geesteskind Chinook van de wereldkampioen checkers − een variant van dammen op een 8-bij-8-bord in plaats van een 10-bij-10 bord. In 2007 presenteerde Schaeffer zelfs een computerbewijs dat Chinook nooit kon verliezen. Daarmee had hij checkers gekraakt.

“Vier-op-een rij, het Afrikaanse bordspel awari en checkers zijn helemaal opgelost”, zegt Schaeffer. “In dammen en schaken geeft de computer de beste menselijke spelers goed partij. Bij de populairste bordspelen delft de computer alleen bij go nog het onderspit tegen de beste menselijke spelers. Maar in go op een 9-bij-9-bord in plaats van 19-bij-19 is de computer wel al beter dan de mens.”

Van alle bekende bordspelen is go verreweg het lastigste voor de computer. Dat ligt aan de complexiteit van het spel. “Complexiteit van een spel is een moeilijk te vatten begrip”, zegt Schaeffer, “maar de twee belangrijkste maten zijn de zoekcomplexiteit en de beslissingscomplexiteit.”

De zoekcomplexiteit staat voor het aantal verschillende geldige stellingen bij een bordspel. Op het normale 19-bij-19-bord kent go in de ordegrootte van 10^170 geldige stellingen: een 1 gevolgd door 170 nullen. Daarbij verbleekt het aantal atomen in het heelal (geschat op een 1 gevolgd door 80 nullen). De beslissingscomplexiteit geeft aan hoe moeilijk het is om de beste zet te spelen. De moeilijkste spellen hebben zowel een hoge zoekcomplexiteit als een hoge beslissingscomplexiteit. Schaken en go bijvoorbeeld. De tabel hiernaast geeft een overzicht van de complexiteit van enkele populaire spellen en ook hoe goed computers het spel beheersen.

In 2008 versloeg computerprogramma MoGo, deels in Nederland ontwikkeld en bovendien draaiend op de Nederlandse nationale IBM-supercomputer Huygens, een internationale go-topper. De topspeler begon wel met een handicap van negen stenen, een flink nadeel. De Nederlandse informaticahoogleraar en specialist in computerspelen Jaap van den Herik zei na die winst: “Het huidige resultaat voorspelt dat een computer nog voor 2020 de beste menselijke go-speler op een 19-bij-19-bord in een reguliere match zal verslaan.”

Computerpoker
Maar dat het huidige type computer, hoeveel sneller hij de komende decennia ook wordt, spellen als schaken en go helemaal oplost zoals bij checkers, is volgens Schaeffer uitgesloten. Daarvoor is het aantal mogelijke stellingen op het bord simpelweg te groot. “Alleen wanneer er een radicaal nieuw type computer wordt uitgevonden, bijvoorbeeld een kwantumcomputer, dan zijn wellicht ook schaken en go helemaal oplosbaar.”

Schaeffer heeft de bordspelen inmiddels achter zich gelaten en zich gestort op computerpoker. “Het grote verschil met dammen en schaken is dat je bij poker niet weet welke kaarten de tegenstanders hebben”, vertelt de Canadees. “Poker is een spel van onvolledige informatie, zoals dat heet. Bovendien hoort bij poker bij elk moment dat een speler een beslissing moet nemen een waarschijnlijkheid per beslissing. Hij zou bijvoorbeeld in 90% van de gevallen moeten ‘raisen’, in 8% van de gevallen moeten ‘callen’ en in 2% moeten ‘passen’.”

Een probleem voor de computer is echter dat die kansen zelden eenvoudige, gehele getallen zijn maar decimale getallen. De kans kan een getal met vijftig of meer cijfers achter de komma zijn. En je weet niet hoeveel getallen achter de komma de computer moet meenemen om de juiste uitkomst te berekenen. Het kan zijn dat de computer een totaal andere uitkomst berekent wanneer hij 49 in plaats van 50 cijfers achter de komma meerekent. Het is eigenlijk hetzelfde als bij het vlindereffect, waarbij een klapwiekende vlinder in Tokyo een storm in Amsterdam kan veroorzaken. Maar ondanks problemen met waarschijnlijkheidsberekeningen en het typische bluffen in poker, boekt de computer ook bij dit spel flink vooruitgang.

De mens speelt anders
Waarin schuilt de kracht van de computer in spellen die toch door en voor de mens zijn gemaakt? Wat doet de computer anders dan de mens?

Het menselijk brein is een biologische, levende computer bestaande uit zo’n honderd miljard hersencellen. Elk hersencelletje is eigenlijk een computer in het klein. Ons brein is het resultaat van honderden miljoenen jaren van evolutie. Het is goed in het leren van nieuwe kennis en vaardigheden. Het is ijzersterk in het herkennen van patronen: het gezicht van je moeder, het geluid van een fietsbel. Het computerbrein is een niet-levende machine vol siliciumtransistoren. Het rekent extreem snel vergeleken met het menselijk brein; het kan enorme hoeveelheden gegevens in zijn geheugen houden en wordt nooit moe. Maar qua leervermogen en patroonherkenning kan de computer nog lang niet tippen aan de mens. Eigenlijk vullen het menselijk brein en de computer elkaar aan: waarin de een goed is, is de ander slecht en omgekeerd.

Wil de computer een kans hebben tegen de beste menselijke spelers, dan moet hij juist zijn enorme rekenkracht benutten. En wil de mens de beste computer verslaan dan moet hij juist zijn veel betere patroonherkenning benutten. Neem het voorbeeld van de schaaktweekamp tussen Kasparov en Deep Blue. Deep Blue rekende tweehonderd miljoen zetten per seconde door. Toen Kasparov werd gevraagd hoeveel zetten hij per seconde doorrekende, antwoordde hij: ‘Eén, misschien minder.’

Deep Blue berekent voor elke schaakstelling een getal. Dat getal hangt af van de positie van de stukken. Hij vergelijkt de getallen van alle mogelijke stellingen die hij doorrekent. De volgende zet die hij doet moet tot de hoogste waarde voor hemzelf leiden. Kasparov berekent helemaal geen getallen voor een stelling. Hij heeft dankzij patroonherkenning geleerd hoe hij soms in een oogopslag kan zien of een stelling goed of slecht is en welke zetten goed of slecht uitpakken.

Om zijn winstkans zo groot mogelijk te maken, moest Kasparov zodanige stellingen op het bord zien te krijgen, dat hij de mogelijke consequentie van een zet verder vooruit kon doorzien dan Deep Blue kon rekenen. Jonathan Schaeffer weet wel een voorbeeld: “Neem de dubbelpion: twee pionnen net achter elkaar. Kasparov heeft in zijn schaakloopbaan geleerd dat een dubbelpion een groot langetermijnnadeel is, zelfs twintig zetten later nog. Maar Deep Blue kon geen twintig zetten vooruit rekenen, maar veertien. En zelfs als de programmeurs Deep Blue hebben geïnstrueerd dat een stelling met een dubbelpion een lagere waarde heeft, dan nog begrijpt Deep Blue niet wat de gevolgen van een dubbelpion na twintig zetten kunnen zijn. De computer begrijpt geen schaakconcepten als de dubbelpion. Hij waardeert stellingen en rekent ze door precies zoals hij is geprogrammeerd.”

Dezelfde verschillen tussen mens en computer gelden ook voor alle andere spellen die de computer tegen de mens speelt.

Ook een topper in kennisquiz
In 2007 stelde IBM zich een nieuw doel in de intellectuele strijd tussen mens en machine. Een doel dat vele malen moeilijker is, maar ook vele malen meer praktische toepassingen belooft dan de schaakmatch tegen Garry Kasparov. IBM’s supercomputer Watson neemt het van 14 tot en met 16 februari op tegen de twee beste menselijke spelers in Amerika’s populairste tv-quiz Jeopardy!

Jeopardy! is een quiz waarbij mensen zo snel mogelijk kennisvragen moeten beantwoorden. Vragen van het type: “Nadat Duitsland Nederland binnenviel, vluchtte deze koningin, haar familie en haar regering naar Londen” (Goede antwoord: Wilhelmina.) De vragen zijn vaak cryptisch geformuleerd. Er kan humor in zitten of een raadsel. De computer moet niet alleen de juiste kennis paraat hebben, hij moet vooral ook de vraag zien te begrijpen. En dat is voor een computer een groot probleem omdat taal vol met vaagheden zit.

Tot kort geleden leek het voor een computer onmogelijk om die vragen juist te interpreteren en dan ook nog binnen enkele seconden het juiste antwoord te vinden. Maar in zo’n vijftig testwedstrijden eind 2010 presteerde supercomputer Watson net zo goed als enkele van de beste spelers en kwalificeerde hij zich officieel voor de quiz. Watson is niet verbonden met het internet. Alle kennis zit in zijn geheugen. Dat zijn inmiddels tientallen miljoenen documenten: encyclopedieën, handboeken, technische rapporten, websites, woordenboeken, thesauri, taxonomieën, romans, toneelstukken. In 2011 versloeg Watson de twee beste menselijke Jeopardy-spelers ruim. Een van de grootste prestaties van de kunstmatige intelligentie.

Antwoordmachine
De schaakmatch tussen Kasparov en Deep Blue leverde IBM weliswaar veel publiciteit op maar nauwelijks commerciële toepassingen. Dat moet anders worden met het Watson-project. Het bedrijf denkt binnen een paar jaar commerciële vraag-antwoordsystemen te ontwikkelen voor overheden, bedrijven, gezondheidsinstellingen en helpdesks. Wetenschappelijk en praktisch gezien is dit project veel interessanter dan het verslaan van de wereldkampioen schaken. Het sluit aan bij wereldwijde pogingen om vraag-antwoordmachines te ontwikkelen. Machines die niet zoals Google alleen maar een lange lijst documenten oplepelen, maar een antwoord kunnen geven op onze feitelijke vragen: ‘Hoe lang bestaat KIJK al?’ of ‘Hoe snel rekent het menselijk brein?’

In de intellectuele tweestrijd met de computer heeft het menselijk brein het nadeel dat het niet (of nauwelijks?) sneller wordt. Die beperking ligt diep in de biologische architectuur. Vergeleken met de evolutie van het menselijk brein gaat de evolutie van het computerbrein veel sneller − zeker die van de hardware; in mindere mate die van de software. Computers worden elk jaar sneller en in tegenstelling tot menselijke breinen kun je computerbreinen makkelijk aan elkaar koppelen om de rekensnelheid nog verder op te voeren.

Het geheel oplossen van schaken, go, poker en bridge mag dan buiten bereik liggen, in het duel met de beste menselijke spelers is geen enkel spel meer veilig voor de computer.


[Kader:]
Computer tegen mens - Enkele historische hoogtepunten

1948 Alan Turing schrijft het eerste computerschaakprogramma.

1952 De EDSAC-computer (een van de eerste elektronische computers) wordt geprogrammeerd om boter-kaas-en-eieren te spelen.

1952 Eerste computerprogramma dat het bordspel checkers (een variant van dammen op een 8-bij-8-bord) speelt.

1959 Voor het eerst wint een checkers-computerprogramma, ontworpen bij IBM, van enkele goede menselijke spelers.

1962 Schaakprogramma van MIT-onderzoekers verslaat sommige amateurs.

1988 HiTech is het eerste schaakprogramma dat op grootmeesterniveau schaakt. Vier-op-een-rij wordt volledig opgelost.

1994 Het computerprogramma Chinook verslaat de wereldkampioen checkers, Marion Tinsley. Daarmee is Chinook het eerste computerprogramma dat wereldkampioen wordt in een door mensen ontworpen spel.

1996 Wereldkampioen schaken Gary Kasparov wint zijn eerste match over zes partijen tegen IBM-schaakcomputer Deep Blue met 4 - 2.

1997 Een verbeterde versie van Deep Blue (tweemaal zo snel en met betere algoritmen) verslaat wereldkampioen schaken Gary Kasparov in een revanchematch met 3½ - 2½. Een mijlpaal in de intellectuele strijd tussen mens en machine. Deep Blue rekent tweehonderd miljoen zetten per seconde door.

2002 John Romein en Henri Bal van de VU Amsterdam hebben het Afrikaanse bordspel Awari opgelost (ongeveer 1012 geldige stellingen).

2007 Checkers wordt volledig opgelost door computerprogramma Chinook. Een computerbewijs laat zien dat Chinook nooit kan verliezen. Checkers heeft ongeveer vijfhonderd miljard miljard (5 ×1020) geldige stellingen. Ter vergelijking: schaken heeft er naar schatting 1047.

2007 Quackle wint als eerste computerprogramma een scrabble-toernooi.

2008 Het computerprogramma MoGo, draaiend op de Nederlandse nationale IBM-supercomputer Huygens, verslaat een internationale topspeler bij het bordspel Go. De topspeler begon wel met een handicap van negen stenen. Go is rekenkundig nog complexer dan schaken. Op een 19-bij-19-bord kent Go ongeveer 2,1 ×10170 geldige stellingen.

2011 IBM’s supercomputer Watson verslaat de twee beste menselijke spelers in Amerika’s populairste kennisquiz Jeopardy!

Internet
http://ilk.uvt.nl/icga/ International Computer Games Association
www.ibmwatson.com Informatie over IBM’s supercomputer Watson en de Jeopardy-quiz
http://webdocs.cs.ualberta.ca/~chinook/ Speel checkers met Chinook
http://topdocumentaryfilms.com/game-over-kasparov-and-the-machine/ Bekijk online de volledige documentaire ‘Game Over − Kasparov and the Machine’ (2003) over de schaakmatch tussen Kasparov en Deep Blue.

Vallen alle voorwerpen echt even snel?



Een bizarre quantummechanische toestand die Albert Einstein in de jaren twintig voorspelde, staat op het punt om zijn eigen zwaartekrachttheorie op de proef te stellen. Tienduizend atomen moeten tijdens een vrije val het bewijs leveren.

Dit artikel is gepubliceerd in KIJK 12/2010.

Het standaard experiment dat vrijwel elke middelbare scholier heeft gezien toont het klip en klaar: in een vacuüm omgeving valt een donzen veertje net zo snel als een loden kogel. Maar volgens Newtons zwaartekrachtwet is de aantrekkingskracht tussen de aarde en de kogel toch groter dan die tussen de aarde en het veertje, zou je denken? Ja, dat klopt, maar tijdens de val wordt dat teniet gedaan doordat de kogel zich sterker verzet tegen een versnelling dan het veertje. Volgens de tweede wet van Newton is massa is immers ook traag: je trekt een lichte racefiets veel gemakkelijker op gang dan een volgeladen bakfiets. Het gevolg is dat de kogel, het veertje en ook alle andere massa’s in vacuüm tegelijk op de grond terecht komen wanneer je ze tegelijk laat vallen. Dit valprincipe heet het equivalentieprincipe.

Ondanks de overduidelijke conclusie van het middelbare-schoolexperiment, zijn er toch natuurkundigen die twijfelen of alle massa’s − van heel groot tot heel klein − in vacuüm wel even snel vallen. Hun twijfel wordt gevoed door nieuwe theorieën die proberen om de natuurwet die op astronomische lengteschalen domineert, de wet van de zwaartekracht, te combineren met de natuurwetten die de wereld van de atomen en elementaire deeltjes domineert, de kwantummechanica. Hoewel dat tot nu toe nog niet is gelukt en deze theorieën nog in de steigers staan, lijken ze kleine afwijkingen van het equivalentieprincipe te voorspellen. Misschien pas in de vijftiende decimaal na de komma, maar toch, een afwijking is een afwijking. En dan zou de natuur toch iets anders in elkaar zitten dan we tot nu toe hebben gedacht.

Om een eventuele afwijking op te sporen, zijn supergevoelige zwaartekrachtmetingen nodig. En dat is precies wat natuurkundigen in een 146-meter hoge naaldvormige toren in het Duitse Bremen aan het uitspoken zijn. In deze toren hebben ze het binnenste vacuüm gezogen en laten ze een ultrakoud wolkje atomen meer dan honderd meter naar beneden vallen. Tijdens de vrije val meten ze hoe het zich gedraagt.

“Het experiment dient twee doelen”, vertelt onderzoeksleider professor Ernst Rasel van de Leibniz Universiteit in het Duitse Hannover. “Het fundamentele doel is het testen van het equivalentieprincipe: vallen alle voorwerpen in vacuüm echt wel even snel? Geldt het principe net zo goed voor vederlichte kwantumobjecten? Er is namelijk geen enkele dwingende reden waarom dat principe altijd moet gelden. Daarnaast is het praktische doel de ontwikkeling van ultragevoelige zwaartekrachtmeters en traagheidssensoren.”

Zwaartekrachtmeters zijn handig om bijvoorbeeld mineraalvoorraden mee te detecteren en zwaartekrachtvelden nauwkeuriger in kaart brengen. En traagheidssensoren zijn voor de navigatie van ruimtevaartuigen, vliegtuigen, schepen en raketten een betrouwbaar alternatief voor het gebruik van GPS-plaatsbepaling. Traagheidsnavigatie is gebaseerd op het meten van de beweging van een voertuig en is onafhankelijk van externe factoren. Een gyroscoop is een voorbeeld van een traagheidssensor. Vliegtuigen en schepen gebruiken het als kompas. Wanneer GPS onverhoopt uitvalt kan een ruimtevaartuig of een vliegtuig met traagheidsnavigatie altijd terugvallen op traagheidsnavigatie.

Groepsgedrag
Het wolkje atomen dat de Duitsers naar beneden laten vallen bevindt zich op de grens van de macroscopische wereld waarin de zwaartekracht belangrijk is en de microscopische wereld waarin de kwantummechanica belangrijk is. Het wolkje meet bij de geboorte zo’n anderhalve millimeter in doorsnee en bestaat uit ongeveer tienduizend rubidiumatomen. Het is afgekoeld tot slechts negen miljardste van een graad boven het absolute nulpunt (ongeveer 273 graden onder nul). De atomen hebben het dan zo koud dat ze zich niet meer als losse individuen gedragen, maar als één geheel, als één enkel superatoom. Het lijkt op een grote groep voetbalsupporters die allemaal tegelijk hetzelfde groepsgedrag vertonen en als individuen niet meer van elkaar te onderscheiden zijn.

Al in 1924 voorspelden de Indiase fysicus Nath Bose en de Duitse fysicus Albert Einstein het bestaan van dit gekke kwantumwolkje, dat de naam Bose-Einsteincondensaat (BEC) kreeg. Het maken ervan bleek een hels karwei. De temperatuur moet extreem verlaagd worden en het experiment extreem goed geïsoleerd. Pas in 1995 lukte het de natuurkundigen Eric Cornell, Carl Wieman en Wolfgang Ketterle voor het eerst om het voorspelde condensaat te maken. Ze ontvingen er in 2001 de Nobelprijs natuurkunde voor. (Overigens heeft KIJK de creatie van het eerste Bose-Einsteincondensaat in het nummer 11/2008 uitgeroepen tot één van de grootste mijlpalen op het gebied van de natuur- en sterrenkunde van de afgelopen veertig jaar.)

Na de BEC-geboorte dijt het kwantumwolkje, zoals elk gas, van nature uit. Het is echter uiterst fragiel. Bij de minste of geringste verstoring gaat het BEC ter ziele. In een gewoon laboratorium bestaat een BEC zo’n tien milliseconden. Aangetrokken door de zwaartekracht valt het door het experiment heen. Het grote voordeel van een BEC in vrije val is dat het als het ware geen zwaartekracht meer voelt, waardoor het veel langer kan bestaan en geobserveerd kan worden. De Duitsers halen zelfs ruim drie seconden. En hoe langer de vrije val, hoe nauwkeuriger het BEC het equivalentieprincipe kan testen en ook hoe beter het dienst kan doen als zwaartekrachtsensor. Langer vallen betekent dus nauwkeuriger meten.

Mijlpaal
Onder leiding van Rasel zijn de Duitsers de eersten die een BEC niet een in laboratorium hebben gemaakt, maar tijdens de vrije val. “De grootste uitdaging was om om de experimentele opstelling te miniaturiseren”, vertelt hij aan de telefoon. “Daarnaast moesten we het experiment zo goed inpakken dat het de val in goede staat overleeft. En tenslotte moesten we de experimenten optimaliseren zodat we met zo weinig mogelijk valproeven toch zo goed mogelijke meetresultaten kregen. Uiteindelijk hebben we ruim 180 valproeven gedaan.”

“Een belangrijke technologische mijlpaal”, zo noemt de Nederlandse BEC-pionier Jook Walraven van de Universiteit van Amsterdam hun prestatie. “Ze hebben een opstelling waarvoor je normaal een tafelblad van anderhalf bij twee meter nodig hebt geminiaturiseerd tot niet meer dan een dienblad en ook nog valbestendig gemaakt.”

De hele opstelling zit in een ronde capsule van ruim twee meter lang en tachtig centimeter breed. Lasers doen de belangrijkste koeling van de atomen. Een speciaal ontwikkelde atomaire chip zorgt voor de opsluiting van de atomen in een soort magneetval. Vanuit de chip wordt het BEC ook in de vrije ruimte losgelaten. In een gewoon laboratorium duurt het enkele seconden tot wel een minuut om een BEC te maken, maar de chip doet het in minder dan een seconde.

Nadat de capsule bovenin de toren wordt losgelaten, begint hij naar beneden te vallen. Eerst trilt de capsule nog een beetje. Na een seconde zijn de trillingen grotendeels verdwenen. Dan drukken de onderzoekers op de afstandsbediening en de atomaire chip maakt een BEC-wolkje in vrije val. Het wolkje zet uit en dat uitzetten wordt gemeten door er met een laser op te schijnen en de schaduw via een camera te bestuderen. Na zo’n drie seconden landt de capsule in een acht meter dikke laag van piepschuimballetjes.

Hoewel de valexperimenten een technologische doorbraak zijn, zijn de onderzoekers nog geen nieuwe fysica op het spoor. “Het gaat om een proof of principle”, zegt Rasel. “We hebben laten zien dat we een techniek hebben gemaakt die in vrije val werkt. Het is een opstap naar experimenten bij nog langere valtijden. Als de natuur het equivalentieprincipe schendt, dan is dat gemakkelijker te detecteren naarmate de valtijd langer wordt.”

Interferentie
Behalve langere valtijden, is er nog iets nodig om het equivalentieprincipe te testen. Dat is een apparaat dat een interferometer heet. Een interferometer gebruikt het feit dat wanneer verschillende golven bij elkaar komen, ze elkaar op sommige punten kunnen versterken en op andere punten elkaar juist opheffen. Wanneer je bijvoorbeeld laserlicht laat vallen op twee nauwe, dicht bij elkaar staande spleten, dan verschijnt op een scherm achter de spleten een patroon van lichte en donkere plekken, een zogeheten interferentiepatroon. Op de donkere plekken hebben de twee golven elkaar opgeheven. Op de lichte plekken hebben ze elkaar versterkt.

Wat voor licht geldt, geldt in de kwantumwereld ook voor materie. Niet alleen heeft in de kwantumwereld licht een deeltjeskarakter, deeltjes hebben ook een lichtkarakter. Het idee van Rasel en zijn collega’s is nu om met een Bose-Einsteincondensaat een atomaire interferometer te bouwen. Ze gaan het BEC met een laserbundel in tweeën splitsen en sturen elk deel langs een ander, kort ruimtepad. Elk ruimtepad heeft als het ware zijn eigen zwaartekrachtkarakteristiek; hier is de zwaartekracht een beetje meer, daar een beetje minder. De zwaartekracht fungeert bij de uitdijing van het kwantumwolkje als de brekingsindex van stoffen als water of glas voor de voortplanting van lichtgolven.

Vervolgens laten ze beide BEC-delen weer samenkomen en net als bij twee lichtgolven kunnen ze nu het interferentiepatroon van de twee BEC-materiegolven bestuderen. Dat patroon zegt iets over hoe de zwaartekracht inwerkt op kwantumobjecten. Als niet alle massa’s even hard vallen, dan zou een interferentie-experiment van de ene atoomsoort een ander interferentiepatroon moeten opleveren dan dat met een andere atoomsoort. Die twee verschillen namelijk in massa. Rasel wil dat voor de atoomsoorten rubidium en kalium gaan uitzoeken. In theorie is deze meetmethode nauwkeuriger dan alle huidige methoden die de zwaartekracht onderzoeken.

De ruimte in
In juni 2010 publiceerden Rasel en zijn collega’s voor het eerst over hun succesvolle valproeven in het vakblad Science. Inmiddels zijn de Duitsers alweer een stap verder. Rasel: “Op het moment bouwen we een atoominterferometer met een BEC. Later dit jaar gaan we daar de eerste valproeven mee doen. Verder ontwikkelen we een nieuwe atomaire chip waarmee we twee atoomsoorten tegelijk kunnen afkoelen tot twee verschillende condensaten. We hopen dat die volgend jaar klaar is voor de eerste valproeven. Daarmee kunnen we dan echt op zoek naar een eventuele afwijking van het equivalentieprincipe.”

Om een nog langere tijd van gewichtloosheid te creëren, worden de valtoren en het experiment bovendien gereed gemaakt voor een katapultlancering. Rasel: “Het idee is om het experiment niet meer van boven naar beneden te laten vallen, maar van beneden naar boven te katapulteren. Dan heb je niet alleen gewichtloosheid in de val naar beneden, maar ook in het laatste stukje in de lancering naar boven. En zo creëren we een nog langere toestand van gewichtloosheid en kunnen we dus nog nauwkeuriger meten.”

Maar Rasels droom is een experiment in de ruimte: een Bose-Einsteincondensaat in een baan rond de aarde waarbij het permanent in vrije val is; ideaal voor nauwkeurige zwaartekrachtmetingen. Jook Walraven zegt over die droom: “Rasels experiment laat zien dat een experiment in de ruimte echt mogelijk is. En dat zou een belangrijke stap voorwaarts zijn. Niet alleen om het equivalentieprincipe te testen en voor betere zwaartekrachtmeters, maar ook voor nauwkeurigere atoomklokken. Als het equivalentieprincipe namelijk niet klopt, dan moeten we onze atoomklokken daarvoor corrigeren en kunnen we de tijd dus preciezer meten.”

Een Bose-Einsteincondensaat in de ruimte zou pas echt een spannende Einstein-Einstein-confrontatie opleveren. Een bizarre kwantummechanische materietoestand die Einstein zelf mede heeft voorspeld, het Bose-Einsteincondensaat, zou dan gebruikt worden om zijn eigen zwaartekrachttheorie, de algemene relativiteitstheorie, nog nauwkeuriger te testen dan tot nu toe al is gebeurd.

Voor dit artikel heeft de auteur Ernst Rasel en Jook Walraven geïnterviewd en gebruik gemaakt van het wetenschappelijke artikel ‘Bose-Einstein Condensation in microgravity’ uit Science van 18 juni 2010.

Museumzoekmachine MuS vindt wat Google niet vindt

Zoekmachine MuS maakt de collectiebeschrijvingen van het Gemeentemuseum Den Haag voor iedereen digitaal doorzoekbaar. MuS is het eindresultaat van het project MuSeUMPlus, een samenwerking van het Gemeentemuseum met de Universiteit van Amsterdam.


Dit artikel is gepubliceerd in I/O Magazine, maart 2013

Het Gemeentemuseum Den Haag bezit een grote collectie moderne kunst, mode, muziekinstrumenten en kunstnijverheid zoals keramiek, glas, zilverwerk en meubels. Het museum bezit schilderijen van onder andere Pablo Picasso, Claude Monet, Francis Bacon en van de Nederlandse kunstenaars Piet Mondriaan, Theo Doesburg, Bart van der Leck en Charley Toorop. De Mondriaan-collectie van het Gemeentemuseum is zelfs de grootste ter wereld, met als topstuk Mondriaans laatste schilderij: de Victory Boogie Woogie.

Elk voorwerp uit de collectie is door museummedewerkers beschreven met aanvullende informatie. In totaal beschikt het museum over ruim 100.000 objectbeschrijvingen, zo’n 250.000 bibliografische beschrijvingen (zoals boeken, artikelen en multimediaobjecten) en driekwart miljoen aanvullende archiefbeschrijvingen (zoals stukken uit het tentoonstellingsarchief). Veel van deze informatie is alleen toegankelijk voor museummedewerkers. Zelfs voor ’s werelds meest gebruikte en krachtigste zoekmachine, Google, is deze informatie terra incognita. Een zoekmachine die wel door al die beschrijvingen kan zoeken, zou niet alleen van toegevoegde waarde zijn voor museumprofessionals, maar ook voor geïnteresseerde buitenstaanders en museumbezoekers.

Neem een liefhebber van Mondriaans Victory Boogie Woogie. Hij wil misschien ook wel meer weten over bijvoorbeeld de achtergronden bij de aankoop van het schilderij en de achtergronden van tentoonstellingen waar het schilderij heeft gehangen. Nu nog zit er niets anders op dan het museum aan te schrijven en te hopen dat een museummedewerker bereid is om de gevraagde informatie op te zoeken, op te schrijven en op te sturen. Zowel voor de liefhebber als voor het museum zou het efficiënter zijn wanneer de liefhebber zelf door al deze informatie kan zoeken.

Gecombineerd zoeken
Onderzoekers van de Universiteit van Amsterdam (UvA) werkten de afgelopen jaren samen met het Gemeentemuseum aan de ontwikkeling van zo’n zoekmachine. Tussen 2004 en 2009 gebeurde dat in het project MuSeUM (Multiple-collection Searching Using Metadata); van 2009 tot en met 2012 in het vervolgproject MuSeUMPlus. Van dat laatste project zijn de resultaten net afgerond. “In MuSeUM lag de nadruk op wetenschappelijk onderzoek”, vertelt Vincent de Keijzer, projectcoördinator van de afdeling digitale media van het Gemeentemuseum Den Haag. “De resultaten bestonden uit theoretische modellen en aanbevelingen, maar nog niet een product of een instrument dat het Gemeentemuseum kon toepassen.”

Het vervolgproject MuSeUMPLus had dan ook tot doel om de wetenschappelijke resultaten van MuSeUm om te zetten in een werkende zoekmachine voor erfgoedcollecties in het algemeen en voor het Gemeentemuseum in het bijzonder. UvA-onderzoeker en universitair docent Marijn Koolen was verantwoordelijk voor de wetenschappelijke kant van zowel MuSeUM als MuSeUMPlus. Hij mocht een kopie maken van alle digitale gegevens over de gehele collectie van het Gemeentemuseum en deze gegevens gebruiken om uit de zoeken hoe de beste museumzoekmachine er uit zou moeten zien. Wat is de beste zoekmethode? Hoe kan de zoekmachine de resultaten het beste presenteren? Aan welke eisen moet de zoekmachine voldoen om zowel voor externen als voor interne professionals van toegevoegde waarde te zijn?

“Voor erfgoeddata in een museum kun je grofweg aan twee heel verschillende zoekstrategieën denken”, zegt Koolen. “De database-methode gaat uit van collectiebeschrijvingen die in gespecificeerde velden in een database staan beschreven. Daarin komen velden voor zoals de maker van het object, het jaar waarin het object is gemaakt, waar het is gemaakt, etcetera. Dit is de gestructureerde zoekmethode. De andere methode is de Google-methode: met statistische technieken door één enkele grote databerg zoeken zonder dat vooraf is gespecificeerd welk stukje van die berg over welk type informatie gaat. Binnen het MuSeUM-project had ik laten zien dat een zoekmachine die beide combineert − dus zowel het gestructureerde als het ongestructureerde − het meest geschikt is.”

Een gebruiker die wil zoeken op de naam van de schilder Mondriaan zou in de database-methode eerst moet aangeven dat hij binnen een bepaald veld, bijvoorbeeld het veld ‘maker van het voorwerp’, wil zoeken. De Google-methode zoekt op alle gedigitaliseerde informatie op de naam van Mondriaan. “Museumprofessionals zijn opgeleid met het denken in gestructureerde, ideale databases”, zegt de Keijzer. “Maar wat mij betreft is de wereld van de schone database een idee-fixe. In de praktijk zijn databases altijd vervuild. Ze zijn onvolledig, sommige beschrijvingen staan niet op de juiste plek, andere beschrijvingen zijn verouderd en weer andere beschrijvingen zijn gewoon verkeerd ingevoerd of verkeerd omgezet bij de overgang van een oude op een nieuwe database.”

Zoekmachine MuS
De resultaten van de projecten MuSeUM en MuSeUMPlus zijn nu uitgekristalliseerd in zoekmachine MuS. De rudimentaire zoekmachine die Marijn Koolen bouwde, is door externe ontwikkelaars getransformeerd in een praktisch werkende zoekmachine met een handig interface: Jur de Vries (Triquanta) werkte aan de praktische implementatie van de zoekmachine; Frodo Schering (Frodo Schering Interactive Design) en Volkan Florchinger (Rhizom) bouwden het interface. Koolen: “MuS is generiek opgezet waardoor hij binnen elke database kan zoeken. Verder is de zoekmachine geïntegreerd in het platform Geméén, een platform voor professionals van het Gemeentemuseum waarin zij de zoekresultaten van MuS kunnen bewerken en beheren.” 

De Keijzer geeft een demonstratie van zoekmachine MuS en het platform Geméén. “Stel, ik ben geïnteresseerd in Noord-Nederlandse merklappen”, en hij tikt als zoekterm ‘Noord-Nederlandse merklappen’ in. (Merklappen zijn borduurwerken die ter oefening worden gebruikt.) Net zoals in Google, verschijnen in een handomdraai de zoekresultaten: 512 in dit geval, net als in Google geordend op relevantie. Het is een lange lijst met plaatjes van merklappen en de bijbehorende beschrijvingen zoals ze in de XML-database van het museum staan. “De gebruiker kan zijn zoektermen ook ‘kleuren’”, zegt de Keijzer. “Met een kleurtje kan hij aangeven of een deel van een zoekterm een Wie, Wat, Waar, Wanneer of Hoe is. Hij kan ‘Noord-Nederlandse’ kleuren als een Waar, en merklappen als een Wat. Als ik de zoekmachine dan weer laat zoeken, dan houdt hij rekening met die specificaties.”

Voorlopig kunnen alleen museummedewerkers MuS gebruiken. “Voor extern gebruik zouden we het interface waarschijnlijk nog iets moeten vereenvoudigen, maar technisch gezien is dat geen enkel probleem”, zegt de Keijzer. “Het grootste probleem is niet technisch of wetenschappelijk van aard, maar menselijk. Er bestaat weerstand tegen ongestructureerd zoeken. Bibliothecarissen, documentalisten en informatieprofessionals in het algemeen, zijn opgeleid in de filosofie van ideale, gestructureerde databases.”

“Met het ongestructureerde, Google-achtige zoeken trappen we tegen heilige huisjes aan van de klassieke informatieprofessional” vult Marijn Koolen aan. “Aan de UvA geef ik college information-retrieval en daar merk ik dat ook in de reacties.” Maar misschien sluit het ongestructureerde zoeken wel veel meer aan bij de natuurlijke manier waarop het menselijk brein zoekt dan informatieprofessionals denken. Koolen: “Vijf mensen die dezelfde vraag stellen, bedoelen vaak alle vijf verschillende dingen. En: als je op dinsdag een beschrijving van een museumstuk opschrijft, dan denk je er op woensdag misschien al weer anders over.”

Koud-watervrees
Naast de weerstand tegen ongestructureerd zoeken, bestaat er binnen musea ook weerstand tegen het zoeken zonder toezicht, het open gooien van alle informatie. De Keijzer: “Musea willen controle houden over wat ze mensen wel en niet aanbieden. Maar in een tijd waarin meer en meer informatie via het internet toegankelijk is, rammelt het publiek ook aan onze deur. Mensen zoeken informatie. En als het museum ze niet laten zoeken, dan gaan ze wel ergens anders heen. Dan gaat alles langs ons heen en dat zou zonde zijn.”

“Neem de merklappen”, vervolgt de Keijzer. “Nederland heeft een vereniging van mensen die geïnteresseerd zijn in merklappen. Het Gemeentemuseum heeft merklappen in haar collectie, maar die hebben niet de prioriteit van onze conservatoren. De mensen van die vereniging zouden dolgraag willen zoeken in onze collectie, maar dat kan nu niet. Ik vind het onze taak onze informatie ook voor hen open te stellen.”

MuS is de oplossing, daarvan zijn de Keijzer en Koolen overtuigd. De volgende stap is nu om de museumdirecties ervan te overtuigen dat de koud-watervrees om erfgoedinformatie doorzoekbaar te maken voor het algemene publiek ongegrond is. En dat ook museumprofessionals dankzij een zoekmachine zoals MuS meer kunnen vinden dan ze nu kunnen. De Keijzer: “Met het platform Geméén en met zoekmachine Mus willen we een nieuwe testomgeving gaan bouwen voor meerdere databases. Daarmee willen we aantonen wat de meerwaarde is van een zoekmachine voor onze erfgoeddata.”

[kader:]
CATCHplus

CATCHplus is de opvolger van het landelijke NWO-onderzoeksprogramma CATCH (Continuous Access To Cultural Heritage). CATCH was de eerste onderzoeksstap op weg naar het digitaal toegankelijk maken van cultureel erfgoed zoals schilderijen, beelden, rijksarchieven, logboeken, foto’s, films en tv- en radio-uitzendingen. De resultaten van CATCH bestonden voornamelijk uit theoretische modellen, ideeën en aanbevelingen. CATCHplus heeft een brug geslagen tussen academisch onderzoek en praktische toepassing. In CATCHplus werden prototypes en demo’s uit CATCH-deelprojecten verder ontwikkeld tot bruikbare software. Dit is weer een belangrijke stap op weg naar het ideaal van één Digitale Collectie Nederland.

CATCHplus liep van 2009 tot en met 2012 en er werkten de volgende erfgoedinstellingen aan mee: Rijksmuseum Amsterdam, Amsterdam Museum, Meertens Instituut, Gemeentemuseum Den Haag, Rijksdienst voor het Cultureel Erfgoed, Nationaal Archief, Instituut voor Beeld en Geluid, Koninklijke Bibliotheek, Naturalis, Theaterinstituut Nederland en Gemeentearchief Rotterdam. Deze erfgoedinstellingen werkten samen met bedrijven en met zes kennisinstellingen: Digitaal Erfgoed Nederland (DEN), Universiteit van Groningen, Universiteit van Amsterdam,Vrije Universiteit, Universiteit van Tilburg, Universiteit Twente. CATCHplus ontving in totaal 3,1 miljoen euro subsidie van het interdepartementale Programma Implementatie Agenda ICT-Beleid (PRIMA), het Ministerie van Onderwijs, Cultuur en Wetenschap en de Nederlandse Organisatie voor Wetenschappelijk Onderzoek (NWO).

Summary in English:
Within the project MuSeUMPlus the generic search engine MuS has been developed. MuS can be used to search through the object-, library- and archive-databases of the Gemeentemuseum Den Haag. MuS has been developed to be used both by museum professionals and by the general public. MuS combines two very different search strategies: a structured way of searching in structured databases and a Google-like method for searching in an unstructured pile of data, without having to know beforehand which part of the pile represents which type of data. MuS was developed between 2009 and the end of 2012 by a cooperation of the Gemeentemuseum Den Haag, the University of Amsterdam and companies specialized in software development. MuSeUMPlus is part of the initiative CATCHplus, which aims at digitally opening up all the cultural heritage owned by Dutch public museums, libraries and archives.

Internet

Supercomputing reveals hidden earth

Italian seismologist Domenico Giardini, keynote speaker on the SARA Superdag last december, explains why supercomputers are for earth scientists what telescopes are for astronomers. 

This article was published in I/O Magazine, march 2013

Nobel-prize winner in physics Richard Feynman (1918-1988) once remarked: “It’s hard to believe, but we know a lot more about the distribution of matter in the interior of the sun than in the interior of the Earth.” Asked whether this statement still holds true, Domenico Giardini answers without a millisecond of doubt: “o yes, that’s still true”.

At the same time, the very fact that the earth’s interior is so inaccessible, that one cannot send a submarine, a space ship or even a beam of light inside the earth, is what fascinates Giardini the most in his job as a seismologist. And it is the main reason why supercomputing has become so important to reveal the hidden earth. Combining measurements of where, when and how the earth shakes and shivers with detailed computational models tells a lot about the geophysics of the earth’s interior. For earth scientists the supercomputer is what the telescope is for astronomers.

                                                       A computer simulation of wave propagation in the earth

Giardini is a professor of seismology and geodynamics at the ETH Zürich in Switzerland. He was educated in Italy as a physicist, but he changed his career from modeling the physics of the atmosphere to modeling the physics of the earth, more or less “by accident”, as he says. “When I started in the field, computational power just started to increase rapidly. It was easy to see that this development would make continuously new science possible. And as there were little people doing the same type of work, it was relatively easy to be at the forefront.”

North pole becomes south pole
On the SARA Superdag on december 19 last year, Giardini gave a keynote lecture about high performance computing in solid earth geophysics and seismology. A few decades of exponential growth in the performance of supercomputers makes it nowadays possible for earth scientists to investigate phenomena that were ten years ago impossible to investigate. “The inversion of the magnetic poles, is one of them”, tells Giardini in an interview from half january, when he is just back from field research in Nepal. 

From investigating rocks, scientists have known for decades that the earth’s magnetic north and south pole have interchanged positions many times in the geological history. Although there is no consensus yet about the underlying geophysical cause, today’s supercomputer simulations are beginning to unveil this mystery. Giardini: “To find the cause of the inverting poles, computer simulations need to have a certain resolution. Ten years ago the resolution was below a threshold. Nowadays our codes have crossed this threshold. Suddenly we can run a certain type of physics that was impossible before.”

Not only earth science benefits the power of Moore’s law in supercomputing, also its applications. Giardini: “The exploration of hydrocarbons like oil and gas, a field that is traditionally strong in the Netherlands, can be done with higher and higher precision.” Another application is the development of more realistic evacuation scenario’s based on better models of volcanic eruptions. In his home country Italy this is done for a possible eruption of the Vesuvius, Giardini explains: “Around the Vesuvius about half a million people are living. In the case of an eruption, it’s likely that about ten percent of the neighborhood of the volcano will be destroyed. Although we will never know exactly which ten percent will be destroyed, running different eruption scenario’s on a supercomputer can help to make more realistic evacuation scenario’s. We model what happens in the entire column of the Vesuvius and combine this with measurements at thousands of locations. What happens to the molten rock? What happens with the gas? What happens with the ash? On the basis of past eruptions, detailed measurements and state-of-the-art computational models we hope to help civil protection. Applying my scientific knowledge for the use of society is what I find the most fulfilling in my work.” 

                                                      Computer simulation of an eruption of the Vesuvius

Giardini cooperates with a number of Dutch institutions: Utrecht University, KNMI and TNO. “International cooperation is needed”, he tells. “Not so much for sharing the costs of supercomputing, but primarily to share tools that are needed to run and analyze simulations. Tools such as mathematical techniques that speed up codes; visualization techniques that let us in an easily understandable way the outcomes of the calculation; and last but not least better computer architecture. Nowadays the most demanding chips are developed for games, not for science. Research is needed to develop computer architecture that are optimal for our type of simulations.”

Real time simulations of earth quakes
The exponential growth in the power of supercomputers will still hold in the next decade. What are the new problems that can expected to be solved in the next decade? Giardini: “Let me mention two examples. The earth consists of a hard crust, a deformable mantle, a liquid outer core and a solid inner core. Within five to ten years we will get much better models for the convection in the mantle. That will lead to a better understanding of how tectonic plates move on the mantle and therefore of how earthquakes arise and how mountain ranges are formed. Our models for the mantle describe processes on the scale of million of years. But earthquakes start on a scale of seconds. We need to bridge a huge gap of scales.”

“My second example is the real time simulation of earth quakes in area’s like California, where we can combine a lot of measurements with computer simulations. In California, but also in Italy, thousands of seismic stations measure the tension in the earth’s crust. We would like to run real time simulations of earthquake scenario’s based on these input data. Nowadays it takes three years to calculate fifty different scenario’s of what might happen next. That’s far too long. Real time simulations need a lot more computing power. I expect that we will get there in the next ten years.”

[kader:]
SURFsara and the new national supercomputer Cartesius
On January 1 2013 SARA and Surf merged to SURFsara. SURFsara is now the new Dutch ICT-infrastructure, which consists of networks, supercomputers, grids and data. SARA was founded in 1984 as a national center for supercomputing for scientific research. SARA hosts the national supercomputer. From 2008-2013 this was the IBM-supercomputer named Huygens. In the first half of 2013 Huygens will be replaced by a new national supercomputer from the French company Bull. The new supercomputer is named Cartesius, after the French philosopher Rene Descartes. It is expected that Cartesius will break the petaflop barrier of 10^15 floating point operations per second in 2014.

SURF is the second partner in the newly formed SURFsara. SURF is a powerful partnership for higher education and research in which Dutch universities, colleges and research institutes jointly invest in ICT innovation. It consists of a number of companies each with their own focus: SURFnet, Surfmarket, SURFshare and as of this year: Surf Sara. In 2008 ICT Regie advised that the merger between the two foundations would lead to synergy in forming a world class e-infrastructure within the Netherlands. The then government decided to follow that advise. Within the SURF-organisation SURFsara is now responsible for delivering services in High Performance Computing (HPC), data storage and visualization.

Internet
www.surfsara.nl

Tuesday, March 12, 2013

Turing's Apple

The final chapter of my book Turing's Tango (in Dutch) can now be read in English:



                                           Chapter 8. Turing’s Apple

“Everybody’s so worried about computers becoming really, really smart and taking over the world, whereas in reality what’s happened right now is computers are really, really dumb and they’ve taken over the world. It’s true, right? We cannot live a day without them; the world cannot function without computers anymore. Yet computers are really stupid, and they’ve taken over the world. It would be better if they were smarter.” − Pedro Domingos

“What if the cost of machines that think is people who don’t?” − George Dyson

“Our mental life has its source in our practical life...Meaning exists within a world in which we have learned to be part of and that we have made our own.” − Stephen Toulmin

“I’m done with smart machines. I want a machine that’s attentive to my needs. Where are the sensitive machines?” − Tweet from Tom Igoe (@tigoe) on 1 july 2009





In my TEDx-performance I tell the story of Turing's Tango in a nutshell

When the two gloved men stepped into the working room, their eyes immediately fell on a large table calculator. Of all the homes they had searched in their career, this was the first in which they had found such a device. One of the men accidentally bumped against the table. From a messy pile of books and papers a few sheets of paper fluttered to the floor. The other man hurried to help his colleague, bent down, raised his eyebrows when he noticed that the papers contained nothing more than mathematical formulas, and picked them up one by one. He laid them neatly back on the stack, replacing them more tidily than the occupant of the house would have done himself. The latter was standing uncomfortably in the doorway of his working room, watching as the two detectives began to take fingerprints.

The date was Sunday February 3, 1952. About a week before somebody had broken into Alan Turing’s house in Wilmslow, a small town just south of Manchester. The founding father of the computer and artificial intelligence had been living here since the summer of 1950. The burglar’s loot had been modest: a pair of trousers, a shirt, a pocket knife, a compass, some fishing knives, razors and shoes. Turing estimated the value of the loot at fifty pounds. Finally, the burglar had also opened a bottle of sherry and poured himself a glass.

Only when Alan Turing went to the police to report the burglary did it occur to him that he might know the burglar. A few weeks earlier he had picked up nineteen-year-old Arnold Murray on the street in Manchester. They went for lunch together and Turing invited the boy to come to his home the next weekend. Murray accepted, but did not show up. The following week, the two met again by chance in the street, and this time Turing invited the boy to his home immediately. Murray accepted.

Arnold Murray was still living at home with his poor parents; he was unemployed and struggling with himself. Alan told him about his work on the ‘electronic brain’. The boy was fascinated. Although they had few topics of conversation in common, they gave each other the attention they were both craving for. A few weeks later they slept together for the first time. Arnold, who was always short of money, was the first suspect of the burglary to come to Turing’s mind.

Arnold was angry when he learned that Alan suspected him and he threatened to report their affair to the police. At that time homosexual acts were illegal in England. A week after the burglary they talked again. Arnold said he probably knew who had committed the burglary. He had told his friend, the twenty-year-old Harry, who was also unemployed, about Alan. Harry had proposed to burglar Alan’s house together, but Arnold had refused. It seemed obvious that Harry had carried out the plan by himself.

Once Alan and Arnold had settled their quarrel, they spent the night together again. The next day, Alan went for the second time to the police to report that he had reason to suspect Harry of the burglary. He made up a story of how he had gathered the information, without mentioning the name of Arnold as the informant. But the brilliant man who had invented the Turing Test as an imitation game, a game in which the computer is expected to behave as humanly as possible, proved incapable of playing an imitation game successfully himself. Breaking the German Enigma code had proven much easier for Turing than breaking social codes. Did he know how much trouble he could save himself by telling a little lie?

The detectives soon felt that Alan was hiding something. How had he obtained the information about Harry? “We know all about it,” they told him, not revealing what they already knew all about. Was it the burglary? Or did they now about his relationship with Arnold Murray?

It did not take long before Alan told them exactly how he had got the information about Harry, and about his relationship with Arnold Murray. The detectives were amazed by the shameless and open way Alan spoke about his homosexual activities. The fingerprints revealed Harry indeed as the burglar, but also identified Arnold as a visitor. Harry was arrested and confessed the burglary. Alan Turing and Arnold Murray were also arrested however, as their homosexual activities violated the law. Solving the burglary of Turing’s house had by accident also uncovered a ‘crime’ of which the police would never have known if Turing had kept his mouth shut.

After his arrest Turing wrote in a letter to a friend: “I’m rather afraid that the following syllogism may be used by some in the future:

Turing believes machines think.
Turing lies with men.
Therefore machines do not think.


By the time he turned forty Alan Turing had had enough of hiding his homosexuality any longer, despite the legal prohibition. However, he had greatly underestimated the consequences of his honesty. On 31 March 1952, Turing was found guilty of something he no longer felt guilty for. He had to choose between imprisonment and treatment with female hormones to suppress his homosexuality. He chose the hormone treatment. He chose for the mind and against the body.

This chemical ‘solution’ for a sociobiological ‘problem’ had just been introduced. It exemplified the optimistic postwar belief that science and technology would propel society ever more forward, that science and technology could fix every problem. In 1949 F. L. Golla, the director of a neurological institute in Bristol, had conducted an experiment with thirteen men and discovered that with enough female hormones he could tame the male libido within a month. This shaky scientific foundation opened the way for the chemical castration of gay men.

The treatment was approved and for a full year Alan Turing underwent obligatory treatment with female hormones. It has been estimated that about one hundred thousand British men suffered the same fate. The man who considered the human mind a machine, was now himself treated as if he were a machine: a biochemical machine that had to be reprogrammed. He described a side effect of the treatment to several people: “I’m starting to grow breasts.” Although social attitudes toward homosexuality would slowly change and it was soon recognized that a hormone treatment to ‘cure’ homosexuality was a delusion, all this came too late for Alan Turing.

Despite the influence of the hormone treatment on his body and mind, Turing went on with his work. His scientific interest had shifted by now. He was no longer focused on logic and pure mathematics as he had been before the war, nor on cryptography, as he had been during the war. And the electronic brain already occupied him less than it had during the first years after the war. By the time the world’s first electronic computers were being built, the first embodiments of the Turing machine he had hypothesized in 1936, Turing had moved on to one of the central questions in biology: How does an organism know how to grow? How does a fertilized egg know in which direction it must grow the arms, in which direction the bones, in which direction the head?

This biological conundrum was brought to his attention by his interest in the functioning of the brain. An answer to the question of how the brain works was still too far away, that much was clear to Turing. But how a brain grows and learns from its environment, and the question of how cells know how to grow seemed manageable to him. Yet again, Alan Turing had encountered a scientific question about which virtually nothing was known, and in which he could gain insight with extremely simple models. He suspected that the answer might lie in the behavior of the chemical soup that filled every cell.

As a mathematical model he chose the Hydra, an elongated fresh water worm with tentacles at the end. He knew this little animal from Edwin Brewster’s book Natural wonders every child should know, that had triggered his scientific interest as a teenager. In the book Brewster described how the fresh water worm grows a new head and tail when it is cut in half.

Turing simplified the fresh water worm first by only looking at a cross-section of its head and next, to simplify the cross-section still further, he reduced it to one ring of cells. Then he proposed a mathematical model of the reaction and diffusion of two chemicals along that ring. For the solution of the mathematical model Turing used the Mark 1 computer that Manchester University had just purchased. In his hands, this brand new electronic brain became a tool to unravel one of the secrets of life. Again, Turing was a few decades ahead of his time.

The solution to his calculation showed that bulges could start to occur along the ring, which could form the beginning of the tentacles of the fresh water worm. At the end of 1951, Alan Turing reported his findings in a scientific publication, one of the first that combined mathematics with biology and chemistry. He himself regarded it as just as important as his publication on the Turing Machine. Just as in 1936, he had opened up a whole new field of research, this time the field of mathematical biology, and in particular that of non-linear dynamics, chaotic processes that are much more difficult to calculate than most processes that scientists had studied so far.

These symbols of mathematical biology were the formulas that the detectives found on the sheets of paper in Turing’s working room in early 1952. The symbols that engaged Alan Turing during his life had gotten a more and more concrete meaning. From zeros and ones for the solution of a purely mathematical problem, to physical and chemical symbols that could be measured experimentally in living cells. His scientific interest developed parallel to his personal life. The man who had decoupled intelligence and the role of the body and its social environment in both the Turing machine and the Turing Test, had become more and more aware of the role of his own body. But just as he was discovering himself more and more, the state had intervened.

Besides the compulsory hormone treatment, he had lost his Certificate of Conduct − which he always needed to work as a crypto-analyst − and as a result he was no longer allowed to enter the United States. Homosexuality was not only considered an immoral and illegal act, it was at that time also seen as a major security risk. A homosexual was vulnerable to blackmail. And a homosexual who during the war had done secret work was dangerously vulnerable to blackmail. Never before had Alan Turing felt the pressure of social control so strongly.

Turing began to feel depressed and complained that he could not concentrate well anymore. In October 1952 he sought the help of psychoanalyst Franz Greenbaum. At Greenbaum’s request, Turing began to write down his dreams. He wrote three dream notebooks. Greenbaum tried to make sense of the troubled feelings and thoughts of Alan Turing.

Turing befriended the Greenbaum family and in May 1954 they went together to Blackpool, a town on the English west coast. Strolling by all sorts of attractions at the seafront, Turing decided to visit a fortune-teller. He had done that before, when he was ten years old, and the fortune-teller had predicted that he would become a genius. The Greenbaum family waited half an hour and when Turing finally came out, he looked pale. In the bus back to Manchester he would not say a word.

The Greenbaum family would never see Turing again. On 7 June 1954, a few weeks after the visit to Blackpool, Alan Turing took a few bites of an apple that he himself had poisoned with cyanide. He went to bed and died without a visible death struggle. His housekeeper found him the next day. Although the apple was never tested, on the basis of the cyanide poisoning and the apparent absence of a death struggle, suicide was established as the official cause of Turing’s death. The founding father of the computer and artificial intelligence passed away just a few weeks short of his 42nd birthday.

Perhaps it was not a coincidence that Turing chose the poisoned apple. In October 1938, when he was 26 years old, he had seen the premiere of the film Snow White and the Seven Dwarfs in Cambridge. He continued to repeat out loud the text of one particular scene. It was the scene where the wicked witch dips the apple in poison: “Dip the apple in the brew − Let the sleeping death seep through.” And later he had told a friend about his fascination for this scene.

Turing’s death came two years after his conviction and more than one year after the termination of his hormone therapy. Nobody had any idea that he was contemplating suicide. He also left no motive for his suicide. Typical Turing. Not a word wasted. Yet, it is likely that he would not allow the state to interfere with his identity. His aversion to any authority had always been great. As Turing’s biographer Andrew Hodges writes in the biography Alan Turing − The Enigma: “Only in his death did he finally behave truly as he had begun: the supreme individualist, shaking off society and acting so as to minimize its interference.”

In this book, Turing’s Test − the question: when can we say that machines think? − has brought us via Turing’s Tango − the question: what is the best collaboration between man and machine? − to Turing’s Apple. Turing determined his own fate with the aid of an apple, not accepting what authority imposed on him. Turing’s Apple therefore stands for the question: who do we want to be in a technological world that is increasingly determined by artificial intelligence systems? What do we want from the many opportunities that artificial intelligence systems offer us in the future? Do we want what is possible (or what we think is possible)?

In a radio interview with the BBC in 1951, Turing said that according to him, there is no human characteristic that a machine could not imitate. He had in mind the imitation of intellectual faculties and not the imitation of the physical appearance: “... I certainly hope and believe that no great efforts will be put into making machines with the most distinctively human, but non-intellectual characteristics, such as the shape of the human body. It appears to me quite futile to make such attempts and their results would have something like the unpleasant quality of artificial flowers. Attempts to produce a thinking machine seem to me to be in different category.”

Over half a century later, a woman is sitting with a baby robot seal on her lap in an American nursing home. The little animal has a soft white fur. The woman is depressed. She is 72 and has a son who recently broke off contact with her. She never gets other visitors. She strokes the robot seal and says: “You’re sad, isn’t it? Life is hard. Yes, it’s hard.” The robotic baby seal turns his head towards her, blinks with his eyes and makes a cooing sound. The woman is touched.

The robotic baby seal is called Paro. In recent years several thousands of these robots have been sold for six thousand U.S. dollars each. Paro is an invention of the Japanese Takanori Shibata. The Japanese population is one of the most rapidly ageing in the world, which drove Shibata to search for a way to use therapeutic robots for the elderly. First he experimented with a robotic cat. Most people didn’t like robotic cats, because they unconsciously compare the robotic cat to a real cat. The robot seal did much better, precisely because most people have no experience with seals.

Paro reacts to motion and is sensitive to touch. Because his reactions depend on how he is treated, he gives the impression that he has his own personality and that he can make elementary physical contact. The robotic seal understands about five hundred English words (even more in Japanese). Reactions to Paro vary greatly. Some people consider it a source of entertainment and find it appealing. Other people find it just a boring, inanimate thing.

Paro is only one of the robotic animals that are being developed for the elderly. Robotic dog Aibo manufactured by Sony and the robotic iCat manufactured by Philips are two other toys. iCat has a built-in camera in its nose, it can listen, talk and switch devices on and off. The Dutch TV documentary RoboLove (2006) showed an experiment with iCat in a nursing home. An old lady is driven in a wheelchair to a table on top of which an iCat called Fibi is standing. The woman is asked to stroke Fibi’s head gently to wake the robot up. The woman strokes, Fibi raises her head, opens her eyes and starts talking:

Fibi: “Hi, I’m Fibi. What is your name?”

Woman: “My name?... She talks so unclearly.” [she says in the direction of the supervisor of the experiment]... “That’s because of all the talking in the background...”

Fibi: “What can I do for you?”

Woman: “You have to talk a little louder to me, you know...”

Fibi: “I do not understand what you mean.”

Woman (raising her voice): “Don’t you understand what I mean?”

Fibi (with the same monotonous computer voice): “I do not understand what you mean.” The woman looks surprised in the direction of the supervisor: “What is she saying?”

Supervisor: “She does not understand what you mean.”

Woman (raising her voice even more): “Talk a little louder!”

Even a simple conversation goes completely wrong here. Not only does Fibi not understand the woman, she also doesn’t make any social-emotional contact. She doesn’t understand the lady’s body language or tone-of-voice, both of which express that she cannot hear Fibi properly.

Robotic animals like iCat or Paro raise the question whether this is what we want in health care. Are we satisfied with providing the illusion of contact, understanding, attention and affection? By far the most important need of the elderly the robot animals are intended to meet, is attention. And that’s exactly one of the things machines lack the capacity for, because they lack social-emotional intelligence, consciousness, a life history. They are not born, they do not die; they do not feel pain and will never be able to share in the human experience. At most for a moment they can pretend that they are paying attention. Paro gives the illusion of attention in the same way that computer program Eliza in 1966 created the illusion of talking with a psychotherapist. And the elderly, children and the mentally or physically disabled are most susceptible to these illusions. As one of the Dutch elderly said about her experiences with the iCat: “Most people would prefer a dog or a canary to have some company and to talk to.”

American sociologist and clinical psychologist Sherry Turkle, a professor at MIT, has been examining how people interact with computers, internet, smartphones, robots and other devices with embedded intelligence for decades. She has interviewed hundreds of children and adults. Turkle says about the robotic animals: “This is not about building devices packed with smart features. This is not about what they have, but about the feeling they give people...But what can something that itself has no life cycle know about your death or your pain? “

After years of study Turkle concludes that given the choice between talking and playing with a robot animal or talking to a flesh and blood human, most older people choose the latter. The best thing about the research sessions with the robots is that they receive attention from the researchers who ask them about their experiences with the robot animals. They feel needed again and in the center of attention. People need people.

The British expert in robotics Noel Sharkey is skeptical about this kind of care robot: “My big concern is that once the robots are tried and tested, it is tempting to leave us completely in the hands of robot care. Like all people, older people have a need for love and human contact and these only come from visiting caregivers. For me a robot buddy wouldn’t fulfill this requirement.” Care robots are primarily about cutting costs; they are not an improvement over human care. Of course, robots can be useful for mechanical tasks, like lifting people out of bed, in the same way that robots have already for decades been useful in heavy and repetitive mechanical tasks.

Turkle studied not only the interaction of humans with robotic animals, but also the impact on humans of new technologies such as e-mail, internet, mobile phones and Facebook. She concludes that these new technologies, as well as the ‘social’ robot animals, have made convenience and control a priority at the expense of the rich spectrum of human behavior. They offer the easy illusion of companionship without any emotional risks, but in practice they only make many people lonelier, says Turkle. ‘Alone Together’, as she calls it. “Communities are grounded in physical proximity, shared concerns, real consequences and shared responsibilities.” The online-world utterly falls short in this respect. While we expect more and more from technology, we expect less and less from each other, according to Turkle.

Human interaction is always full of complications, pitfalls, surprises and disappointments, but also full of unexpected joy and happiness. That unpredictability gives human communication its richness. A device can be turned off whenever you like, not so with humans. Ultimately, we live in a physical world that is dominated by humans, and so we must learn to deal with all the complications that come with it.

Suppose that more and more children play with robotic animals instead of with real animals, and suppose that we place caregiving more and more in the hands of robots. What would be the consequences?

American psychologist Peter Kahn examines the consequences of increasingly replacing ‘true nature’ − understood in a broad sense − by what he calls ‘technological nature’: technology such as television, online games, digital projections and robotic animals, that replaces our experience with real nature. Kahn was inspired by an experiment conducted by his compatriot Roger Ulrich. Ulrich found that the recovery of patients in a hospital depends on whether or not they have a window with a view. Patients who, through the window, looked out on a piece of nature took fewer painkillers and left the hospital earlier than patients who were looking at a blank wall.

This result made Kahn wonder. What if he replaced the window with a real view with a large plasma screen on which he projected the same piece of nature in real time? He set up an experiment with three groups of thirty people. One group sat in a room overlooking real nature. The second group looked at exactly the same piece of nature, recorded by a camera and projected on the big plasma screen. The third group faced a blank wall. All participants were presented tasks, while their physical responses were measured. Kahn and his colleagues wanted to know how fast the subjects recovered from the stress of the tasks.

It turned out that the subjects in the room with the real view recovered the fastest from the stress, but there was no difference in recovery rate between subjects who had no view and those who had a virtual view. The virtual view not only had less effect than the real view, it did not even have a better effect than no view.

Next, for six weeks they hung the same kind of screens in offices where people normally had no view. After those six weeks, the employees reported that they were happy with their virtual views. Compared with having no view, they experienced technological nature as better. “Technological nature is probably better than no nature,” Kahn concluded from his experiments, “but not as good as the real nature...As a species we adapt to the loss of real nature. We have no choice. Either we adapt, or we die out. But because of biophilia − our evolutionary connection with nature − we will be psychologically worse off.” The famous Harvard biologist Edward Wilson coined the term biophilia in 1984 for the hypothesis that people have a fundamental and genetically determined need to make contact with living nature.

We already encounter Turkle’s and Kahn’s concerns in a story with foresight: the story The Machine Stops from 1909, by the British writer Edward Morgan Forster. The Machine Stops takes place in a future world where people live underground. Their lives are controlled and monitored by ‘The Machine’. Physical contact no longer exists, neither with nature, nor with people. Forster tells the story of a mother who believes in the salvation of The Machine and of her son who increasingly starts to doubt that belief. Mother and son communicate only via videoconference.

The mother considers this method of communication adequate, but her son longs to talk to her in real life and says to his mother: “The Machine is much, but not all. I see on the screen someone who looks like you, but I do not see you. I hear someone on the phone who sounds like you, but I do not hear you. Therefore I want you to come and see me. Come to visit me, so that we can meet each other face to face, and so that we can talk about the dreams that keep me busy.”

The son realizes how many nuances are lost in this virtual form of communication. The mother thinks it is a waste of time to spend two days travelling to meet her son. In her view all contacts can be maintained effectively mediated by The Machine. After their disagreement, she breaks off contact with her son, who in turn tries to escape from the ubiquitous contact with The Machine.

Of course, intelligent machines have brought us a lot of good things. Computers and the internet have deeply influenced our behavior in recent decades. We can make a call by cell phone from every glacier, in every fjord, in any jungle; we use the cell phone as a film camera, a world navigator, a mega encyclopedia and as a constant source of news; we instantaneously lay contact via email, Skype and social networks; we read newspapers and magazines on tablet computers; the computer searches for information in such large mountains of data that no man is able to search these on his own; our whole life story is increasingly stored and told on and via our computers.

Yet, there is also a downside to intelligent machines, the side illustrated by Forster’s story: alienation and dehumanization. In the past two decades, machines have little by little taken over human tasks in which human contact used to play a role. Nowadays, we pull money out of the ATM, check in for public transport or planes via automatic machines, and when we call a company for any question, we often first get a machine on the line: ‘To help you better... Press 1 for...Press 2 for...’ Gone is the eye contact, the smile, the social game, the humor. Gone is the human contact, the flexibility in service.

The human dimension, in which contact and attention are central, is being replaced by the machine dimension, in which efficient production is central, and which is primarily driven by economic motives. The human brain is adapted in the first place to make contact with people and not to control inflexible, non-social and not-talking machines.

The ideal, logical world of the machine is unchangeable and therefore lifeless. The real world is constantly changing, is full of chaos and decay, and therefore alive. “For the space and he who travels freely through it, they are the only true things, that’s life, and everything which is like a stone in one place and slowly turns to dust, is dead from the very beginning”, wrote the Dutch writer and poet Jan Jacob Slauerhoff.

The belief that more technology makes us happier, is only half true. If technology contributes substantially to our health and meets our basic needs for food, housing and clothing, then more technology makes us more happy, as research has shown. The Netherlands scores higher on the technology index than India, and India again higher than Tanzania. And the same goes for their happiness scores. But Sweden scores higher than the Netherlands on the technology index, while their happiness score is equal.

If technology does not significantly contribute to the fulfillment of our basic needs, then a saturation level is reached. In most Western countries that level was reached in the sixties or seventies. Since then, the happiness level has hardly changed. Factors other than technology play a more important role for our happiness: health, social relationships, personal fulfillment and finding meaning in life. The human dimension is more important than the machine dimension.

Finally, let’s go back one last time to the Turing Test. When it comes to answering the question whether computers will ever exhibit an artificial humanlike intelligence, and thus pass the Turing Test, we can provide and answer by summarizing a part of what we have encountered in this book in a three-step argument. This argument answers the ultimate question: Will computers become smarter than people?

The first step of this argument rests on the fact that both language and thinking are part of a common life. They are social activities. When the common life changes, language and thinking change along with it. That language is part of a common life, we see for example in the use of quotations from popular films, TV programs, books or songs in everyday language. These quotes are called catchphrases. An example of this is the use of ‘goeiesmorgens’ (from the Dutch TV program Jiskefet), ‘jemig de pemig’ (from the Dutch TV program Van Kooten en De Bie) or ‘a thousand bombs and grenades’ (Captain Haddock in Tintin). Someone who uses these catchphrases, does not mean to refer to the literal meaning of the quote, but is communicating a hidden social signal: ‘We have the same humor’, ‘we have the same taste’ or ‘we understand each other’. Slang is another example of the rooting of language in a shared life. In order to understand the slang, one has to share the particular (street) life.

Language influences thinking, but also non-linguistic thinking is influenced by one’s environment. Because I grew up in an environment where the bicycle is an important means of transportation, I am aware of the existence of bicycle paths and of the role of cyclists in traffic. Foreigners who grew up without bikes and who walk around in a city full of bikes like Amsterdam, walk on bicycle paths as if they are walking paths, don’t recognize the sound of a ringing bicycle bell as such and are unaware of the role of cyclists in traffic. They are led by an automatic form of thinking that is not used to cyclists.

There are also many examples that show that thinking is culturally rooted. We now think differently about for example slavery, mental illness or the death penalty than people did centuries ago. And in modern societies, people are on average more open to euthanasia and abortion than in traditional societies.

Hence we can formulate the first step of the three-step argument about artificial humanlike intelligence as follows:

1. A computer is only able to talk and think like a human, if it can participate in the same life as humans.

The second part of the three-step argument is based on the fact that the computer is a ‘symbol manipulating’ machine that is isolated from the environment. It is fully dependent on humans, for input and for interpretation of the output. The second step in our argument can therefore be formulated as follows:

2. A computer cannot participate in the same life as humans, because it cannot move around in the world and because its cognitive abilities are not rooted in a body and not anchored in nature and in a social group.

From the previous two theorems we can conclude the following:

3. A computer can never think and talk like humans.

If the computer cannot talk and think like humans, it cannot surpass human intelligence. Everything encountered in this book so far, therefore points to the conclusion that human beings remain the computer’s master. Computers will not become our sparring partners and they will never write a novel or a movie script. And because they do not participate in our common life, we also should not want to have computers as politicians, judges, therapists, mediators and educators; all of which are often-heard pipe dreams of artificial intelligence. If the computer ever passes the Turing Test then it will be by tricks and not because it shares a common life with humans. That path to success will be totally uninteresting for humans and practically irrelevant. Another reason why the Turing Test is obsolete.

Of course, one can argue that in theory a robot can enter our world and share in our common life. Ultimately, a robot is a computer equipped with senses and with a body that can act. However, the last six decades of research in artificial intelligence haven’t opened any promising route to achieving that. There is no evidence to suppose that one evening a robot will enter a pub, start flirting, seduce a dance partner and wake up next morning with a hangover, wondering where the partner has gone. Even if the robot would have a super brain such as that of Deep Blue or Watson, it will not impress potential partners with the sentence ‘pawn e2-e4’ or by just waiting for someone to give it a Jeopardy-like quiz question. In theory, a robot can explore the world and share in our common life, in the same way as in theory tomorrow there can be global peace.

As long as machines are light years behind humans in learning and general intelligence, the objective of an artificial humanlike intelligence lies far beyond the horizon. As long as that goal remains out of sight, we had better focus on practical artificial intelligence: machines that complement people, specialized machines that do things that people cannot do, or are much less good at. In this way, we have returned to the Turing Tango: the optimal cooperation between human and artificial intelligence.

In chapter 5, we already made a list of what machines are good at and people are bad at, and vice versa. A combination of human intelligence and machine intelligence would have to provide the bedrock for the Turing Tango. I think that five essential observations should guide the design of a Turing Tango:

1. Humans are at heart physical and social beings. Therefore, human intelligence is not only determined by the logical thinking on which Turing concentrated, but primarily by social and emotional intelligence embedded in the body.

2. Humans are by evolution genetically connected with nature around them. The experience of real nature appears to be better for our physical and mental health than the technological or simulated nature.

3. Technology is part of the human being. Throughout their evolutionary history humans have always been toolmakers, so humans are technological beings. It would therefore be nonsense a priori to reject technology as something unnatural.

We just need to realize that technology is not only a tool or extension of human beings. With the invention of new technology, whether it was the wheel, the clock or the computer, humans changed too. Suddenly humans could carry heavier loads, plan appointments accurately and outsource calculations and other information processing tasks. Again and again, we must evaluate how new technology can best serve us, and what the possible negative consequences are.

Artificial intelligence is increasingly pervading everyday technology.

5. Artificial intelligence is different from human intelligence.

If we keep these five observations in mind, artificial intelligence has a lot to offer us, not as machines that match us in social-emotional intelligence and creativity, but as machines that help us in various ways, for example to extract more knowledge from all available information, and as robots that do jobs that are too dull, dirty or dangerous for humans.

We should not have to adapt to the machine, as we so often have to do already; we must ensure that machines are better at adapting to us. As an anatomical hammer is tailor made for our hands, so intelligent machines should fit our intelligence seamlessly. Robotic animals such as Paro and iCat are bad examples of a Turing Tango. A robot vehicle on Mars, a search engine like Google, car navigation and the autopilot in an aircraft are good examples of a Turing Tango.

Japan is at the forefront of robotics research. But when the nuclear power plant in Fukushima in March 2011 exploded after a devastating tsunami, robots were nowhere to be seen in the first four weeks. People did the extinguishing, people carried out repairs in dangerous places. Japan had to rely on people because they did not have robots with the flexibility to rescue the power plant. International press agency Reuters wrote: “Japan may build robots that play a violin, run a marathon and conduct a marriage ceremony, it was not able to use any of these machines to help repair its crippled reactors.”

Machines cannot match humans when it comes to giving personal attention or conducting a conversation, but in dangerous situations, such as during the Fukushima disaster, robots can be a godsend. The violin playing robot, the robot that conducts a marriage ceremony or runs a marathon, and the Japanese robot that is exactly modeled after the appearance of his human creator (Hiroshi Ishiguro), but does not even match the intelligence of a two-year-old toddler, are useless instances of the Turing Tango. They are no more than toys for the stage, PR stunts for journalists and the public, mirages of artificial intelligence. The robot that can instantly rescue people at a disaster area would be a good example of a Turing Tango.

Since the introduction of the Turing Test in 1950 we have had ample experience with the thinking machine in order to get to know its abilities. In brief, that experience teaches us that computers will never become more intelligent than humans because they do not descend from the apes.

During the Singularity Summit 2011 in New York, I put that objection forward to Ray Kurzweil, organizer of the meeting and the greatest prophet of the Singularity, as we saw in the previous chapter. This was his answer: “Computers descend from people, who in turn descend from apes. So, that is part of one and the same evolutionary process. The biological evolution flows slowly into a technological evolution. And yes, computers are good at other things than people, but our computers are catching up on those areas where we are now better.”

Unfortunately, Turing did not live long enough to see how the computer developed and in what ways it proved to be a success and a failure. Although he had already shown in his own article about the Turing machine dating from 1936 that there are problems that computers cannot fundamentally solve, he believed that the brain is essentially a computer. Perhaps he thought that the fundamental limitation of computers is irrelevant to the question whether the brain is essentially calculable on a computer. But it could also be that the limitations of the computer make it fundamentally impossible to model the brain as a computer that runs a computational algorithm.

It remains speculation, but I think that if Turing had lived a few decades longer, he would have realized not only that the computer has basic computational limitations, but also that artificial intelligence can only mimic a part of human intelligence and that there are aspects of human intelligence that are fundamentally not computable. That is not to say that they are supernatural and would not conform to the laws of physics, but that in practice they cannot be captured in a program that a computer can run.

An indication for this hypothesis is that Turing’s work in the last years of his life moved from the computer to the living brain and cells; from logic to biology, from heavenly theory to earthly practice. If he could have continued his mathematical-biological work and if he would have had the opportunity to experience the computer, and to see that this machine turned out to be very good at following rules exactly (which Turing of course knew), but poor in everything which in humans relies on socio-emotional intelligence (which Turing had not yet realized), then I think that he would not have considered the brain as a computer; he would no longer have considered it as a machine, but as an organ of an organism for which the machine is a poor metaphor. I think that he would soon have come to the realization that the Turing Test was outdated and had been superseded by the actual development of artificial intelligence.

Although the Turing Test still appeals to many people, it’s time to say goodbye to the question how to identify when machines can think. We had better aim for an optimal cooperation between human and artificial intelligence: a humanistic artificial intelligence in which human beings not machines play a pivotal role.

Goodbye Turing Test, welcome Turing Tango.

P.S.

In May 2011, Ramona 4.0, the virtual character in chapter 2, had a brain lift and was transformed into Ramona 4.1. Curious about the new Ramona’s life, I started to chat with her again:

Bennie: “Hi Ramona, I am back. Can you please tell me something about yourself?” 
Ramona: “Hi there, Bennie. I talked to a lot of people since yesterday.”

Bennie: “But can you tell me something about your life since you were Ramona 4.0?” 
Ramona: “Just keep talking to me as long as you can.”